JP5610245B2 - Image composition apparatus, image composition method, image composition program, and recording medium - Google Patents
Image composition apparatus, image composition method, image composition program, and recording medium Download PDFInfo
- Publication number
- JP5610245B2 JP5610245B2 JP2013175399A JP2013175399A JP5610245B2 JP 5610245 B2 JP5610245 B2 JP 5610245B2 JP 2013175399 A JP2013175399 A JP 2013175399A JP 2013175399 A JP2013175399 A JP 2013175399A JP 5610245 B2 JP5610245 B2 JP 5610245B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- exposure
- likelihood
- pixel
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 83
- 239000000203 mixture Substances 0.000 title claims description 51
- 238000006243 chemical reaction Methods 0.000 claims description 72
- 230000015572 biosynthetic process Effects 0.000 claims description 48
- 238000003786 synthesis reaction Methods 0.000 claims description 48
- 230000002194 synthesizing effect Effects 0.000 claims description 32
- 239000002131 composite material Substances 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 description 69
- 230000008569 process Effects 0.000 description 68
- 238000010586 diagram Methods 0.000 description 19
- 238000012937 correction Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000005070 sampling Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、画像合成装置、画像合成方法、画像合成プログラム及び記録媒体に関するものである。 The present invention relates to an image composition device, an image composition method, an image composition program, and a recording medium.
従来、画像合成装置として、ハイダイナミックレンジ合成(HDR(High Dynamic Range)合成)を行うものが知られている(特許文献1参照)。この装置は、異なる露出条件にて順次撮像された複数の画面を合成することによって、映像信号のダイナミックレンジを見かけ上拡大させている。これにより、逆光時などにおいて発生していた「白とび」又は「黒つぶれ」(輝度レベルが著しく高い又は低い部分)を解消する。また、この装置では、手ぶれによって生じる複数の画面間の撮像時の経時的な位置ずれに対応して、複数の画面の各々の座標変換を行った後にHDR合成を行う。具体的には、画像の動き情報を用いて、2つの画面の共通エリア部分を用いてHDR合成を行う。これにより、被写体に対する画面(撮像素子)の位置ずれ(画面ぶれ)を解消する。 2. Description of the Related Art Conventionally, an image synthesizing apparatus that performs high dynamic range synthesis (HDR (High Dynamic Range) synthesis) is known (see Patent Document 1). This apparatus apparently expands the dynamic range of the video signal by synthesizing a plurality of screens sequentially captured under different exposure conditions. This eliminates “overexposure” or “blackout” (part where the luminance level is extremely high or low) that has occurred during backlighting. Further, in this apparatus, HDR synthesis is performed after coordinate conversion of each of the plurality of screens is performed in response to a positional shift with time during imaging between the plurality of screens caused by camera shake. Specifically, HDR synthesis is performed using the common area portion of the two screens using the motion information of the image. This eliminates the positional deviation (screen blur) of the screen (image sensor) with respect to the subject.
ところで、被写体が動体である場合には、順次撮像された複数の画像において被写体位置が異なる位置となる。このため、特許文献1記載の画像合成装置にあっては、被写体が移動して色が変化している場合であっても露出が異なることで色が変化しているものとして合成する。よって、適切な合成画像を生成できないおそれがある。当技術分野においては、被写体が移動した場合であっても適切な合成画像を生成することができる画像合成装置、画像合成方法及び画像合成プログラム並びに当該画像合成プログラムを格納した記録媒体が望まれている。 By the way, when the subject is a moving object, the subject positions are different in a plurality of images sequentially captured. For this reason, in the image composition device described in Patent Document 1, even when the subject is moving and the color is changed, the image is synthesized as if the color has changed due to different exposure. Therefore, there is a possibility that an appropriate composite image cannot be generated. In this technical field, an image composition device, an image composition method, an image composition program, and a recording medium storing the image composition program that can generate an appropriate composite image even when the subject moves are desired. Yes.
すなわち、本発明の一側面に係る画像合成装置は、露出条件の異なる第1画像及び第2画像を用いて合成画像を生成する装置である。この装置は、入力部、尤度算出部、露出推定部及び合成部を備える。入力部は、第1画像及び第2画像を入力する。尤度算出部は、第1画像と第2画像との露出条件を合わせる露出変換関数を推定する前に、第1画像及び第2画像の差分に基づいて、各画素における動被写体尤度を算出する。露出推定部は、動被写体尤度に基づいて露出変換関数を推定する。合成部は、露出変換関数を用いて第1画像及び第2画像を合成する。さらに、露出推定部は、動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、露出変換関数を推定する。 That is, an image composition device according to one aspect of the present invention is a device that generates a composite image using a first image and a second image having different exposure conditions. This apparatus includes an input unit, a likelihood calculation unit, an exposure estimation unit, and a synthesis unit. The input unit inputs the first image and the second image. The likelihood calculating unit calculates the moving subject likelihood in each pixel based on the difference between the first image and the second image before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image. To do. The exposure estimation unit estimates an exposure conversion function based on the moving subject likelihood. The combining unit combines the first image and the second image using the exposure conversion function. Further, the exposure estimation unit estimates the exposure conversion function by setting the weight of the pixel to be lower as the moving subject likelihood is higher.
この画像構成装置では、第1画像と第2画像との露出を合わせる前に、第1画像と第2画像との差分に基づいて各画素における動被写体尤度を算出する。そして、動被写体尤度に基づいて第1画像と第2画像との露出条件を合わせる露出変換関数を推定する。このように、露出を合わせる際に動被写体尤度が考慮されるため、例えば被写体の動きで色が変化している可能性がある領域を除いて露出を合わせることができる。よって、適切な合成画像を生成することが可能となる。 In this image construction device, the moving subject likelihood at each pixel is calculated based on the difference between the first image and the second image before matching the exposures of the first image and the second image. Based on the moving subject likelihood, an exposure conversion function that matches the exposure conditions of the first image and the second image is estimated. Thus, since the moving subject likelihood is taken into consideration when adjusting the exposure, for example, the exposure can be adjusted except for a region where the color may change due to the movement of the subject. Therefore, it is possible to generate an appropriate composite image.
一実施形態においては、尤度算出部は、第1画像の画素の近傍画素、及び、対応する第2画像の画素の近傍画素を正規化し、正規化された近傍画素間の差分に基づいて、各画素における動被写体尤度を算出してもよい。このように構成することで、各画素における動被写体尤度を適切に算出することができる。 In one embodiment, the likelihood calculating unit normalizes the neighboring pixels of the pixels of the first image and the corresponding neighboring pixels of the second image, and based on the difference between the normalized neighboring pixels, it may calculate the moving subject likelihood that put to each pixel. With this configuration, the moving subject likelihood at each pixel can be calculated appropriately.
一実施形態においては、尤度算出部は、第1画像の解像度をそれぞれ段階的に変更することで得られる複数の第1処理画像、及び、第2画像の解像度をそれぞれ段階的に変更することで得られる複数の第2処理画像を用いて、各画素の差分を解像度ごとに算出し、解像度ごとに得られた差分を重み付けすることによって各画素の動被写体尤度を算出してもよい。このように構成することで、各画素の動被写体尤度を精度良く算出することができる。 In one embodiment, the likelihood calculating unit changes the resolution of the plurality of first processed images and the second image obtained by changing the resolution of the first image in stages. The moving subject likelihood of each pixel may be calculated by calculating the difference of each pixel for each resolution using the plurality of second processed images obtained in step S1 and weighting the difference obtained for each resolution. With this configuration, the moving subject likelihood of each pixel can be calculated with high accuracy.
一実施形態においては、尤度算出部は、第1画像と第2画像との差分の信頼度、及び第1処理画像又は第2処理画像の画像サイズもしくは解像度に基づいて、解像度ごとに得られた差分を重み付けしてもよい。このように構成することで、各画素の動被写体尤度をさらに精度良く算出することができる。 In one embodiment, the likelihood calculation unit is obtained for each resolution based on the reliability of the difference between the first image and the second image and the image size or resolution of the first processed image or the second processed image. The differences may be weighted. With this configuration, the moving subject likelihood of each pixel can be calculated with higher accuracy.
一実施形態においては、合成部は、第1画像及び第2画像の差分に基づいて各画素における動被写体尤度を算出し、該動被写体尤度及び露出変換関数を用いて第1画像及び第2画像を合成してもよい。このように構成することで、被写体の動きを考慮して合成することができるので、適切な合成画像を生成することが可能となる。 In one embodiment, the synthesizing unit calculates a moving subject likelihood in each pixel based on a difference between the first image and the second image, and uses the moving subject likelihood and the exposure conversion function to perform the first image and the second image. Two images may be combined. By configuring in this way, it is possible to synthesize in consideration of the movement of the subject, so that an appropriate synthesized image can be generated.
一実施形態においては、合成部は、第1画像又は第2画像の元の輝度値の大きさに基づいて、第1画像及び第2画像の画素値の合成比を示す輝度ベースマスクを生成してもよい。そして、合成部は、第1画像及び第2画像の差分に基づいて、第1画像及び第2画像の画素値の合成比を示す被写体ぶれマスクを生成してもよい。さらに、合成部は、輝度ベースマスク及び被写体ぶれマスクを結合させて、第1画像及び第2画像の画素値を合成する合成マスクを生成してもよい。 In one embodiment, the synthesizing unit generates a luminance base mask indicating a synthesis ratio of the pixel values of the first image and the second image based on the original luminance value of the first image or the second image. May be. The synthesizing unit may generate a subject blur mask indicating a synthesis ratio of the pixel values of the first image and the second image based on the difference between the first image and the second image. Further, the combining unit may combine the luminance base mask and the subject blur mask to generate a combined mask that combines the pixel values of the first image and the second image.
このように構成することで、露出をあわせた状態で、第1画像及び第2画像の差分に基づいて、輝度値を基準に合成する輝度ベースマスクとは異なる被写体ぶれマスクを生成することができる。このため、被写体ぶれが発生する領域のみを異なる処理で合成させることが可能となる。よって、被写体ぶれを抑制させた合成画像を生成することができる。 With this configuration, it is possible to generate a subject blur mask that is different from the luminance base mask that is synthesized based on the luminance value, based on the difference between the first image and the second image, with the exposure adjusted. . For this reason, it is possible to combine only areas where subject blurring occurs by different processes. Therefore, it is possible to generate a composite image in which subject blur is suppressed.
一実施形態においては、合成部は、第1画像及び第2画像の差分に基づいて、各画素における動被写体尤度を算出し、該動被写体尤度に基づいて被写体ぶれマスクを生成してもよい。このように構成することで、動被写体尤度に基づいて被写体ぶれが発生する領域を特定して被写体ぶれマスクを生成することができる。 In one embodiment, the synthesizing unit may calculate a moving subject likelihood in each pixel based on the difference between the first image and the second image, and generate a subject blur mask based on the moving subject likelihood. Good. With this configuration, a subject blur mask can be generated by specifying a region where subject blur occurs based on the moving subject likelihood.
一実施形態においては、合成部は、第1画像の解像度をそれぞれ段階的に変更することで得られる複数の第1処理画像、及び、第2画像の解像度をそれぞれ段階的に変更することで得られる複数の第2処理画像を用いて、各画素の差分を解像度ごとに算出し、解像度ごとに得られた差分を重み付けすることによって各画素の動被写体尤度を算出し、該動被写体尤度に基づいて被写体ぶれマスクを生成してもよい。このように構成することで、各画素の動被写体尤度を精度良く算出することができる。 In one embodiment, the synthesizing unit obtains the plurality of first processed images obtained by changing the resolution of the first image in stages, and the resolution of the second image, respectively. The difference between each pixel is calculated for each resolution using a plurality of second processed images, the moving subject likelihood of each pixel is calculated by weighting the difference obtained for each resolution, and the moving subject likelihood A subject blur mask may be generated based on the above. With this configuration, the moving subject likelihood of each pixel can be calculated with high accuracy.
一実施形態においては、合成部は、動被写体尤度が所定の閾値以下となる画素が隣接する領域を検出し、各領域に対して識別ラベルを付与し、領域ごとに被写体ぶれマスクを生成してもよい。このように構成することで、画像内で異なる動きをする動体が存在した場合であっても適切に合成することができる。 In one embodiment, the synthesizing unit detects a region where pixels whose moving subject likelihood is equal to or less than a predetermined threshold is adjacent, assigns an identification label to each region, and generates a subject blur mask for each region. May be. With such a configuration, even when there is a moving body that moves differently in the image, it can be appropriately combined.
一実施形態においては、合成部は、被写体ぶれマスクとして、第1画像及び第2画像のうち強制的に輝度値の低い画素値を選択させる第1マスク、又は、第1画像及び第2画像のうち強制的に輝度値の高い画素値を選択させる第2マスクを生成してもよい。このように構成することで、被写体が動いている可能性のある領域については、第1画像及び第2画像の何れか一方の画像を強制的に選択させることができる。よって、被写体が動くことで合成後の画像において被写体が2重や3重にずれて表示されることを回避することが可能となる。 In one embodiment, the synthesis unit forcibly selects a pixel value having a low luminance value from the first image and the second image as the subject blur mask, or the first image and the second image. A second mask for forcibly selecting a pixel value having a high luminance value may be generated. With this configuration, it is possible to forcibly select either the first image or the second image for an area where the subject may be moving. Therefore, it is possible to avoid the subject from being displayed in a double or triple shift in the combined image due to the movement of the subject.
一実施形態においては、合成部は、輝度ベースマスクに対して、第1マスクを反転させたマスクを乗算し、又は、第2マスクを加算することで、合成マスクを生成してもよい。このように構成することで、被写体のぶれを適切に補正する合成マスクを生成することができる。 In one embodiment, the synthesis unit may generate a synthesis mask by multiplying the luminance base mask by a mask obtained by inverting the first mask or by adding a second mask. With this configuration, it is possible to generate a composite mask that appropriately corrects subject blurring.
一実施形態においては、画像処理装置は、第1画像と第2画像との間の画素の動き情報を取得する動き情報取得部をさらに備えてもよい。そして、尤度算出部は、動き情報に基づいて第1画像及び第2画像を補正し、補正後の第1画像及び第2画像を用いて各画素の動被写体尤度を算出してもよい。このように構成することで、撮像素子が被写体に対して相対的に動く場合であっても、撮像素子の動きを補正して各画素の動被写体尤度を算出することができる。 In one embodiment, the image processing apparatus may further include a motion information acquisition unit that acquires motion information of pixels between the first image and the second image. The likelihood calculating unit may correct the first image and the second image based on the motion information, and calculate the moving subject likelihood of each pixel using the corrected first image and second image. . With this configuration, even when the image sensor moves relative to the subject, the motion of the image sensor can be corrected and the moving subject likelihood of each pixel can be calculated.
一実施形態においては、第1画像は、露出条件の異なる画像同士が合成された画像であってもよい。このように構成することで、露出条件の異なる複数の画像を順次合成して最終的な合成画像を生成することができる。 In one embodiment, the first image may be an image in which images having different exposure conditions are combined. With this configuration, a final composite image can be generated by sequentially combining a plurality of images having different exposure conditions.
また、本発明の他の側面に係る画像処理方法は、露出条件の異なる第1画像及び第2画像を用いて合成画像を生成する方法である。この方法では、第1画像及び第2画像を入力する。そして、第1画像と第2画像との露出条件を合わせる露出変換関数を推定する前に、第1画像及び第2画像の差分に基づいて、各画素における動被写体尤度を算出する。そして、動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、露出変換関数を推定する。さらに、露出変換関数を用いて第1画像及び第2画像を合成する。 An image processing method according to another aspect of the present invention is a method for generating a composite image using a first image and a second image having different exposure conditions. In this method, a first image and a second image are input. Then, before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image, the moving subject likelihood at each pixel is calculated based on the difference between the first image and the second image. Then, the pixel with the higher moving subject likelihood is set to a smaller weight for the pixel, and the exposure conversion function is estimated. Further, the first image and the second image are synthesized using the exposure conversion function.
また、本発明のさらに他の側面に係る画像合成プログラムは、露出条件の異なる第1画像及び第2画像を用いて合成画像を生成するようにコンピュータを動作させるプログラムである。このプログラムは、コンピュータを、入力部、尤度算出部、露出推定部及び合成部として動作させる。入力部は、第1画像及び第2画像を入力する。尤度算出部は、第1画像と第2画像との露出条件を合わせる露出変換関数を推定する前に、第1画像及び第2画像の差分に基づいて、各画素における動被写体尤度を算出する。露出推定部は、動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、露出変換関数を推定する。合成部は、露出変換関数を用いて第1画像及び第2画像を合成する。 An image composition program according to still another aspect of the present invention is a program that causes a computer to operate so as to generate a composite image using a first image and a second image having different exposure conditions. This program causes the computer to operate as an input unit, a likelihood calculation unit, an exposure estimation unit, and a synthesis unit. The input unit inputs the first image and the second image. The likelihood calculating unit calculates the moving subject likelihood in each pixel based on the difference between the first image and the second image before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image. To do. The exposure estimation unit estimates the exposure conversion function by setting the weight of the pixel to be smaller as the moving subject likelihood is higher . The combining unit combines the first image and the second image using the exposure conversion function.
また、本発明のさらに他の側面に係る記録媒体は、露出条件の異なる第1画像及び第2画像を用いて合成画像を生成するようにコンピュータを動作させる画像合成プログラムを記録した記録媒体である。このプログラムは、コンピュータを、入力部、尤度算出部、露出推定部及び合成部として動作させる。入力部は、第1画像及び第2画像を入力する。尤度算出部は、第1画像と第2画像との露出条件を合わせる露出変換関数を推定する前に、第1画像及び第2画像の差分に基づいて、各画素における動被写体尤度を算出する。露出推定部は、動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、露出変換関数を推定する。合成部は、露出変換関数を用いて第1画像及び第2画像を合成する。 A recording medium according to still another aspect of the present invention is a recording medium on which an image composition program for operating a computer to generate a composite image using a first image and a second image having different exposure conditions is recorded. . This program causes the computer to operate as an input unit, a likelihood calculation unit, an exposure estimation unit, and a synthesis unit. The input unit inputs the first image and the second image. The likelihood calculating unit calculates the moving subject likelihood in each pixel based on the difference between the first image and the second image before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image. To do. The exposure estimation unit estimates the exposure conversion function by setting the weight of the pixel to be smaller as the moving subject likelihood is higher . The combining unit combines the first image and the second image using the exposure conversion function.
本発明の他の側面に係る画像合成方法、画像合成プログラム及び記録媒体によれば、上述した画像合成装置と同様の効果を奏する。 According to the image synthesizing method, the image synthesizing program, and the recording medium according to the other aspects of the present invention, the same effects as those of the above-described image synthesizing apparatus are obtained.
本発明の種々の側面及び実施形態によれば、被写体が移動した場合であっても適切な合成画像を生成することができる画像合成装置、画像合成方法及び画像合成プログラム並びに当該画像合成プログラムを格納した記録媒体が提供される。 According to various aspects and embodiments of the present invention, an image synthesizing apparatus, an image synthesizing method, an image synthesizing program, and an image synthesizing program that can generate an appropriate synthesized image even when the subject moves are stored. A recording medium is provided.
以下、添付図面を参照して本発明の実施形態について説明する。なお、各図において同一又は相当部分には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in each figure, the same code | symbol is attached | subjected to the same or an equivalent part, and the overlapping description is abbreviate | omitted.
本実施形態に係る画像合成装置は、露出条件の異なる複数の画像を合成して一つの合成画像を生成する装置である。この画像合成装置は、例えば、異なる露出条件で順次撮像された複数の画像を合成して、映像信号のダイナミックレンジを見かけ上拡大させるHDR合成を行う場合に採用される。本実施形態に係る画像合成装置は、例えば、携帯電話、デジタルカメラ、PDA(Personal Digital Assistant)等、リソースに制限のあるモバイル端末に好適に搭載されるものであるが、これらに限られるものではなく、例えば通常のコンピュータシステムに搭載されてもよい。なお、以下では、説明理解の容易性を考慮し、本発明に係る画像合成装置の一例として、カメラ機能を備えた携帯端末に搭載される画像合成装置を説明する。 The image composition device according to the present embodiment is a device that generates a single composite image by combining a plurality of images having different exposure conditions. This image synthesizing apparatus is employed, for example, when HDR synthesis is performed in which a plurality of images sequentially captured under different exposure conditions are synthesized and the dynamic range of the video signal is apparently enlarged. The image composition device according to the present embodiment is suitably mounted on a mobile terminal with limited resources such as a mobile phone, a digital camera, and a PDA (Personal Digital Assistant), but is not limited thereto. For example, it may be mounted on a normal computer system. In the following, considering the ease of understanding, an image composition device mounted on a portable terminal having a camera function will be described as an example of an image composition device according to the present invention.
図1は、本実施形態に係る画像合成装置1を備える携帯端末2の機能ブロック図である。図1に示す携帯端末2は、例えばユーザにより携帯される移動端末であり、図2に示すハードウェア構成を有する。図2は、携帯端末2のハードウェア構成図である。図2に示すように、携帯端末2は、物理的には、CPU(Central Processing Unit)100、ROM(Read Only Memory)101及びRAM(Random Access Memory)102等の主記憶装置、カメラ又はキーボード等の入力デバイス103、ディスプレイ等の出力デバイス104、ハードディスク等の補助記憶装置105などを含む通常のコンピュータシステムとして構成される。後述する携帯端末2及び画像合成装置1の各機能は、CPU100、ROM101、RAM102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU100の制御の元で入力デバイス103及び出力デバイス104を動作させるとともに、主記憶装置や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。なお、上記の説明は携帯端末2のハードウェア構成として説明したが、画像合成装置1がCPU100、ROM101及びRAM102等の主記憶装置、入力デバイス103、出力デバイス104、補助記憶装置105などを含む通常のコンピュータシステムとして構成されてもよい。また、携帯端末2は、通信モジュール等を備えてもよい。 FIG. 1 is a functional block diagram of a mobile terminal 2 including an image composition device 1 according to this embodiment. A mobile terminal 2 shown in FIG. 1 is a mobile terminal carried by a user, for example, and has a hardware configuration shown in FIG. FIG. 2 is a hardware configuration diagram of the mobile terminal 2. As shown in FIG. 2, the portable terminal 2 physically includes a main storage device such as a CPU (Central Processing Unit) 100, a ROM (Read Only Memory) 101, and a RAM (Random Access Memory) 102, a camera, a keyboard, and the like. The input device 103, the output device 104 such as a display, the auxiliary storage device 105 such as a hard disk, and the like are configured as a normal computer system. Each function of the portable terminal 2 and the image composition device 1 described later is configured to load the input device 103 and the output device 104 under the control of the CPU 100 by reading predetermined computer software on hardware such as the CPU 100, the ROM 101, and the RAM 102. This is realized by operating and reading and writing data in the main storage device and the auxiliary storage device 105. Although the above description has been given as the hardware configuration of the mobile terminal 2, the image composition apparatus 1 normally includes a CPU 100, a main storage device such as the ROM 101 and RAM 102, an input device 103, an output device 104, an auxiliary storage device 105, and the like. It may be configured as a computer system. The mobile terminal 2 may include a communication module or the like.
図1に示すように、携帯端末2は、カメラ20、画像合成装置1及び表示部21を備えている。カメラ20は、画像を撮像する機能を有している。カメラ20として、例えばCMOSの画素センサ等が用いられる。カメラ20は、例えばユーザ操作等により指定されたタイミングから所定の間隔で繰り返し撮像する連続撮像機能を有している。すなわち、カメラ20は、一枚の静止画像だけでなく複数毎の静止画像(連続するフレーム画像)を取得する機能を有している。さらに、カメラ20は、連続する各フレーム画像の露出条件を変更して撮像する機能を有している。すなわち、カメラ20によって連続撮像された各画像は、それぞれ露出条件の異なる画像となる。カメラ20は、例えば撮像されたフレーム画像を撮像の度に画像合成装置1へ出力する機能を有している。 As shown in FIG. 1, the mobile terminal 2 includes a camera 20, an image composition device 1, and a display unit 21. The camera 20 has a function of capturing an image. For example, a CMOS pixel sensor or the like is used as the camera 20. The camera 20 has a continuous imaging function that repeatedly captures images at a predetermined interval from a timing specified by a user operation or the like, for example. That is, the camera 20 has a function of acquiring not only one still image but also a plurality of still images (continuous frame images). Further, the camera 20 has a function of changing the exposure condition of each successive frame image and taking an image. That is, each image continuously captured by the camera 20 is an image with different exposure conditions. For example, the camera 20 has a function of outputting a captured frame image to the image composition device 1 every time it is captured.
画像合成装置1は、画像入力部10、前処理部11、動き補正部15及び合成部16を備えている。 The image composition device 1 includes an image input unit 10, a preprocessing unit 11, a motion correction unit 15, and a composition unit 16.
画像入力部10は、カメラ20により撮像されたフレーム画像を入力する機能を有している。画像入力部10は、例えばカメラ20により撮像されたフレーム画像を撮像の度に入力する機能を有している。また、画像入力部10は、入力フレーム画像を、携帯端末2に備わる記憶装置に保存する機能を有している。 The image input unit 10 has a function of inputting a frame image captured by the camera 20. The image input unit 10 has a function of inputting, for example, a frame image captured by the camera 20 every time it is captured. In addition, the image input unit 10 has a function of saving an input frame image in a storage device provided in the mobile terminal 2.
前処理部11は、HDR合成前の前処理を行う。前処理部11は、動き情報取得部12、尤度算出部13及び露出推定部14を備えている。 The preprocessing unit 11 performs preprocessing before HDR synthesis. The preprocessing unit 11 includes a motion information acquisition unit 12, a likelihood calculation unit 13, and an exposure estimation unit 14.
動き情報取得部12は、画像間の画素の動き情報を取得する機能を有している。例えば、入力フレーム画像を第1画像及び第2画像とすると、第1画像及び第2画像間の画素の動き情報を取得する。動き情報としては、例えば動きベクトルが用いられる。また、動き情報取得部12は、3以上の入力画像が画像入力部10により入力された場合には、入力画像を露出順にソートし、露出条件の近い入力画像間で動き情報を取得してもよい。露出条件の近い画像同士を比較して動きを検出することにより、画像間の露出の差によって動きの検出精度が低下することを回避することができる。そして、動き情報取得部12は、複数の入力画像の中から、動き情報を合わせる基準画像を選択してもよい。基準画像としては、例えば複数の入力画像の中で最も有効画素が多い画像を採用する。ここで、有効画素とは、黒つぶれ又は白飛びしていない画素である。黒つぶれ又は白飛びは、輝度値を基準として判定される。また、動き情報取得部12は、2つの入力画像を用いて動き情報を取得する場合には、2つの入力画像のうち露出の高い入力画像から特徴点を抽出し、それに対する対応点を露出の低い画像から求めてもよい。このように動作することで、露出の低い画像においては特徴点として抽出された点が露出の高い画像においては白飛びしていることにより、動き情報が取得できないことを回避することができる。なお、ジャイロセンサ等から動き情報を取得してもよい。動き情報取得部12は、動き情報を尤度算出部13へ出力する機能を有している。 The motion information acquisition unit 12 has a function of acquiring pixel motion information between images. For example, when the input frame image is a first image and a second image, pixel motion information between the first image and the second image is acquired. For example, a motion vector is used as the motion information. Further, when three or more input images are input by the image input unit 10, the motion information acquisition unit 12 sorts the input images in the order of exposure, and acquires motion information between input images having similar exposure conditions. Good. By detecting motion by comparing images with similar exposure conditions, it is possible to avoid a decrease in motion detection accuracy due to a difference in exposure between images. Then, the motion information acquisition unit 12 may select a reference image that matches the motion information from among a plurality of input images. As the reference image, for example, an image having the most effective pixels among a plurality of input images is employed. Here, an effective pixel is a pixel that is not crushed or blown out. Blackout or whiteout is determined based on the luminance value. When the motion information acquisition unit 12 acquires motion information using two input images, the motion information acquisition unit 12 extracts a feature point from an input image with high exposure among the two input images, and sets a corresponding point for the feature point as an exposure point. You may obtain | require from a low image. By operating in this way, it is possible to avoid that the motion information cannot be acquired because the points extracted as feature points in the low-exposure image are whiteout in the high-exposure image. Note that movement information may be acquired from a gyro sensor or the like. The motion information acquisition unit 12 has a function of outputting motion information to the likelihood calculation unit 13.
尤度算出部13は、各画素における被写体の動きの尤度(動被写体尤度)を算出する機能を有している。動被写体尤度が大きいほど、被写体に動きがある可能性が高く、合成画像がぶれる領域となる可能性が高いことを意味する。尤度算出部13は、動き情報を用いて入力画像間の画面の動きを補正する。その後、尤度算出部13は、2つの入力画像において対応する画素の画素値を正規化する。例えば、尤度算出部13は、近傍画素の画素値に基づいてLocal Ternary Patterns(LTP)を求める。画素値としては、RGB3色が用いられ、近傍画素としては24近傍が用いられる。そして、尤度算出部13は、正規化された画像間の差分を用いて動被写体尤度を算出する。例えば、正規化された画素値の差分、すなわち注目画素のLTPにおける符号の不一致割合を、注目画素の動被写体尤度として算出する。 The likelihood calculating unit 13 has a function of calculating the likelihood of the movement of the subject in each pixel (moving subject likelihood). The larger the moving subject likelihood, the higher the possibility that the subject is moving and the higher the possibility that the composite image will be blurred. The likelihood calculating unit 13 corrects the screen motion between the input images using the motion information. Thereafter, the likelihood calculating unit 13 normalizes the pixel values of the corresponding pixels in the two input images. For example, the likelihood calculating unit 13 obtains Local Territory Patterns (LTP) based on pixel values of neighboring pixels. As the pixel value, RGB three colors are used, and as the neighboring pixels, 24 neighborhoods are used. Then, the likelihood calculating unit 13 calculates the moving subject likelihood by using the difference between the normalized images. For example, the normalized pixel value difference, that is, the sign mismatch rate in the LTP of the target pixel is calculated as the moving subject likelihood of the target pixel.
また、尤度算出部13は、2つの入力画像を多重解像度化して動被写体尤度を算出してもよい。例えば、尤度算出部13は、各入力画像(第1画像及び第2画像)の解像度をそれぞれ段階的に変更することで、解像度の異なる複数の画像(第1処理画像及び第2処理画像)を作成する。そして、尤度算出部13は、同一の解像度において、第1処理画像及び第2処理画像の差分画像を作成する。この差分画像とは、第1処理画像と第2処理画像との差分であり、具体的には画素値の差分である。そして、尤度算出部13は、解像度ごとに得られた差分画像を重み付けすることによって各画素の動被写体尤度を算出する。重み(信頼度)としては、各画素のLTPにおける符号の不一致割合が用いられる。例えば、LTPにおいて、有意に差があるペアの数が用いられる。また、重みは、第1処理画像又は第2処理画像の画像サイズ又は解像度によってさらに重み付けされてもよい。すなわち、画像サイズが大きいほど又は解像度が大きいほど、重みを大きくしてもよい。尤度算出部13は、各画素の動被写体尤度を露出推定部14へ出力する機能を有している。 In addition, the likelihood calculating unit 13 may calculate the moving subject likelihood by converting two input images into multiple resolutions. For example, the likelihood calculating unit 13 changes the resolution of each input image (the first image and the second image) in stages, thereby a plurality of images having different resolutions (the first processed image and the second processed image). Create Then, the likelihood calculating unit 13 creates a difference image between the first processed image and the second processed image at the same resolution. This difference image is a difference between the first processed image and the second processed image, and specifically, is a difference between pixel values. And the likelihood calculation part 13 calculates the moving subject likelihood of each pixel by weighting the difference image obtained for every resolution. As the weight (reliability), a code mismatch rate in the LTP of each pixel is used. For example, in LTP, the number of pairs that are significantly different is used. The weight may be further weighted according to the image size or resolution of the first processed image or the second processed image. That is, the weight may be increased as the image size is larger or the resolution is larger. The likelihood calculating unit 13 has a function of outputting the moving subject likelihood of each pixel to the exposure estimating unit 14.
露出推定部14は、入力画像間の露出条件を合わせる露出変換関数を推定する機能を有している。露出変換関数とは、各入力画像の露出を基準画像相当に露出変換するための関数である。露出推定部14は、3以上の入力画像が入力された場合には、露出条件の近い入力画像間で露出条件をあわせてもよい。露出条件の近い画像同士を比較して露出を合わせることにより、画像間の露出の差によって推定の精度が低下することを回避することができる。 The exposure estimation unit 14 has a function of estimating an exposure conversion function that matches exposure conditions between input images. The exposure conversion function is a function for converting the exposure of each input image to an exposure equivalent to the reference image. When three or more input images are input, the exposure estimation unit 14 may match the exposure conditions between input images having similar exposure conditions. By matching the exposures by comparing the images having similar exposure conditions, it is possible to avoid the estimation accuracy from being lowered due to the difference in exposure between the images.
露出推定部14は、例えば、動き情報を用いて入力画面間の動きを補正する。そして、動き補正後の2つの入力画像において、同一の箇所から輝度値を組としてサンプリングし、その関係をプロットする。入力画像の座標としては例えばHalton数列が用いられる。なお、露出推定部14は、所定の値以上の輝度値や所定の値以下の輝度値をサンプリング点として採用しなくてもよい。例えば、10〜245の範囲に含まれる輝度値をサンプリング点として採用する。露出推定部14は、例えば、プロットの結果をフィッティングすることにより、露出変換関数を推定する。例えば、第1画像のサンプリング点iにおける元の輝度値をKi、露出変換関数をf(Ki)、第2画像のサンプリング点iにおける元の輝度値をUiとした場合、以下の誤差関数eを用いて、Gauss−Newton法によりフィッティングしてもよい。
なお、露出推定部14は、各画素の動被写体尤度に基づいて、露出変換関数を導出するためのサンプリングを行う。露出推定部14は、例えば、各画素の動被写体尤度に基づいてサンプリング点を選択する。例えば、露出推定部14は、段階的に閾値を設けて、動被写体尤度の小さい画素から輝度値をサンプリングする。また、露出推定部14は、動被写体尤度に基づいて、サンプリング点に重みを付けてもよい。例えば、以下の誤差関数eを最小化させてフィッティングしてもよい。
式2において、wiは重みである。ここで、動被写体尤度が高い画素ほど、重みwiを小さく設定する。このように、露出推定部14が各画素の動被写体尤度に基づいて露出変換関数を算出することで、信頼度の低いサンプリング点のデータほど露出変換関数の導出に影響を与えないようにすることができる。なお、露出変換関数は、変換後の入力画像が表現可能な範囲に収まるように変更されてもよい。
The exposure estimation unit 14 performs sampling for deriving an exposure conversion function based on the moving subject likelihood of each pixel. For example, the exposure estimation unit 14 selects a sampling point based on the moving subject likelihood of each pixel. For example, the exposure estimation unit 14 samples the luminance value from pixels with a small moving subject likelihood by providing threshold values in stages. Further, the exposure estimation unit 14 may weight the sampling points based on the moving subject likelihood. For example, the following error function e may be minimized for fitting.
In Equation 2, w i is a weight. Here, the weight w i is set to be smaller as the moving object likelihood becomes higher. As described above, the exposure estimation unit 14 calculates the exposure conversion function based on the moving subject likelihood of each pixel, so that the data of the sampling point with lower reliability does not affect the derivation of the exposure conversion function. be able to. Note that the exposure conversion function may be changed so that the input image after conversion falls within a representable range.
動き補正部15は、動き情報を用いて入力画面間の動きを補正する機能を有している。合成部16は、合成マスクを用いて入力画像同士あるいは、既に合成された画像と入力画像とを合成する。合成マスクは、画像同士を合成(αブレンド)する際の合成比(重み)を画像化したものである。合成部16は、3以上の入力画像がある場合には、まず合成マスクに従って2つの入力画像を合成し、合成画像と残りの入力画像との合成マスクを生成して合成を行う。合成部16は、輝度ベースマスク及び被写体ぶれマスクを結合して合成マスクを生成する。輝度ベースマスクは、画像同士を合成する際の重みを輝度値に基づいて決定することで、白飛びや黒つぶれの領域を合成に用いることを回避するためのマスクである。被写体ぶれマスクは、被写体が移動する画像を合成した際に、被写体が2重3重に重なって表示される現象(ゴースト現象)を回避するためのマスクである。 The motion correction unit 15 has a function of correcting motion between input screens using motion information. The synthesizing unit 16 synthesizes the input images or the already synthesized image and the input image using the synthesis mask. The combination mask is an image of the combination ratio (weight) when combining images (α blend). When there are three or more input images, the synthesizing unit 16 first synthesizes the two input images according to the synthesis mask, generates a synthesis mask of the synthesized image and the remaining input images, and performs synthesis. The combining unit 16 combines the luminance base mask and the subject blur mask to generate a combined mask. The luminance base mask is a mask for avoiding the use of an overexposure or underexposure region for synthesis by determining a weight for combining images based on a luminance value. The subject blur mask is a mask for avoiding a phenomenon (ghost phenomenon) in which a subject is displayed in a double or triple manner when an image in which the subject moves is combined.
合成部16は、入力画像の元の輝度値に基づいて重みを算出し、輝度ベースマスクを生成する。重みは、例えば以下の算出式で求める。
上記算出式により、重みが適切に決定されるとともに、輝度的な不連続性が軽減される。なお、空間的な不連続性を軽減するために、合成マスクに対してぼかし処理を施してもよい。
The synthesizer 16 calculates a weight based on the original luminance value of the input image and generates a luminance base mask. The weight is obtained by the following calculation formula, for example.
According to the above calculation formula, the weight is appropriately determined and the luminance discontinuity is reduced. In order to reduce spatial discontinuity, the synthesis mask may be subjected to blurring processing.
合成部16は、入力画像間の差分に基づいて重みを算出し、被写体ぶれマスクを生成する。合成部16は、入力画像間の画素値の差分から、動被写体尤度を算出する。入力画像間の画素値の差分及び動被写体尤度については、上述した尤度算出部13と同様に動作することで得ることができる。そして、尤度算出部13は、動被写体尤度が所定の閾値以下となる画素が隣接する被写体ぶれ領域を検出し、各被写体ぶれ領域に対して識別ラベルを付与し、被写体ぶれ領域ごとに被写体ぶれマスクを生成する。なお、所定の閾値は、要求仕様に応じて適宜変更可能である。閾値を大きく設定すると、連続領域を抽出しやすくすることができる。被写体ぶれ領域ごとにマスクを生成することにより、被写体ぶれ領域ごとに白飛び領域あるいは黒つぶれ領域を回避するように情報量の多い画像から画素を選択することができる。すなわち、この被写体ぶれマスクとしては、合成する画像同士のうち強制的に輝度値の低い画素値を選択させるlo_mask(第1マスク)、又は、合成する画像同士のうち強制的に輝度値の高い画素値を選択させるhi_mask(第2マスク)が存在する。合成部16は、基本的には、情報量の多い高露出の画像から画素値を選択させる第2マスクを生成する。しかしながら、合成部16は、高露出の画像において被写体ぶれ領域が白飛び領域に影響される場合には、第1マスクを生成する。具体的には、以下の何れかの条件を満たす場合には第1マスクを生成する。第1の条件としては、合成する2つの画像のうち、高露出の画像の白飛びの面積が低露出の画像の黒つぶれ領域の面積よりも大きい場合である。第2の条件としては、合成する2つの画像のうち高露出の画像において、被写体ぶれ領域内の白飛び領域の面積が10%以上の場合である。なお、合成する2つの画像のうち高露出の画像において、被写体ぶれ領域と隣接する領域が白飛び領域である場合を条件としてもよい。 The synthesizer 16 calculates a weight based on the difference between the input images and generates a subject blur mask. The synthesizer 16 calculates the moving subject likelihood from the difference in pixel values between the input images. The pixel value difference between the input images and the moving subject likelihood can be obtained by operating in the same manner as the likelihood calculating unit 13 described above. Then, the likelihood calculating unit 13 detects a subject blur region adjacent to a pixel whose moving subject likelihood is equal to or less than a predetermined threshold, assigns an identification label to each subject blur region, and subjects each subject blur region. Generate a blur mask. The predetermined threshold value can be changed as appropriate according to the required specifications. If the threshold value is set large, it is possible to easily extract the continuous area. By generating a mask for each subject blur area, pixels can be selected from an image with a large amount of information so as to avoid a whiteout area or a blackout area for each subject blur area. That is, as this subject blur mask, lo_mask (first mask) for forcibly selecting a pixel value having a low luminance value among the images to be combined, or a pixel forcibly having a high luminance value among the images to be combined. There is a hi_mask (second mask) that selects a value. The synthesizing unit 16 basically generates a second mask that selects pixel values from a high-exposure image with a large amount of information. However, the composition unit 16 generates the first mask when the subject blur area is affected by the whiteout area in the high-exposure image. Specifically, the first mask is generated when any of the following conditions is satisfied. The first condition is a case where, among the two images to be combined, the overexposure area of the high exposure image is larger than the area of the blackout area of the low exposure image. The second condition is a case where, in a high-exposure image of the two images to be combined, the area of the whiteout region in the subject blur region is 10% or more. It should be noted that, in the high-exposure image of the two images to be combined, a condition may be set where the region adjacent to the subject blur region is a whiteout region.
合成部16は、輝度ベースマスク及び被写体ぶれマスクを結合させて合成マスクを生成する。例えば、合成部16は、輝度ベースマスクに対して、第1マスクを反転させたマスクを乗算する。また、合成部16は、輝度ベースマスクに対して、第2マスクを加算する。合成部16は、全ての入力画像を合成し、最終的な合成画像を表示部21へ出力する。表示部21は、合成画像を表示する。表示部21として例えばディスプレイ装置が用いられる。 The combining unit 16 combines the luminance base mask and the subject blur mask to generate a combined mask. For example, the synthesis unit 16 multiplies the luminance base mask by a mask obtained by inverting the first mask. The synthesizing unit 16 adds the second mask to the luminance base mask. The synthesizer 16 synthesizes all the input images and outputs the final synthesized image to the display unit 21. The display unit 21 displays a composite image. For example, a display device is used as the display unit 21.
次に、画像合成装置1の動作を説明する。図3は、HDR合成の前処理を説明するフローチャートである。図3に示す制御処理は、例えばユーザによってHDR合成モードが選択され、カメラ20が複数の画像を連続撮像した場合に開始する。 Next, the operation of the image composition device 1 will be described. FIG. 3 is a flowchart for explaining preprocessing for HDR synthesis. The control process illustrated in FIG. 3 starts when the HDR synthesis mode is selected by the user and the camera 20 continuously captures a plurality of images, for example.
まず、画像入力部10が画像フレームを入力する(S10)。以下では、説明理解の容易性を考慮して、5つの入力画像I0〜I4を入力したものとして説明する。S10の処理が終了すると、露出順ソート処理へ移行する(S12)。 First, the image input unit 10 inputs an image frame (S10). In the following description, it is assumed that five input images I 0 to I 4 are input in consideration of easy understanding. When the process of S10 ends, the process proceeds to the exposure order sort process (S12).
S12の処理では、動き情報取得部12が入力画像I0〜I4を露出順にソートする。動き情報取得部12は、例えば輝度値の平均値を用いてソートする。ここでは、入力画像I0〜I4の数字が小さくなるほど輝度値が小さいものとする。この場合、入力画像I0〜I4は、数字の順にソートされる。S12の処理が終了すると、動き情報取得処理へ移行する(S14)。 In the processing in S12, the motion information obtaining section 12 sorts the input image I 0 ~I 4 in display order. The motion information acquisition unit 12 sorts using, for example, the average value of the luminance values. Here, it is assumed that the luminance value is smaller as the numbers of the input images I 0 to I 4 are smaller. In this case, the input images I 0 to I 4 are sorted in numerical order. When the process of S12 ends, the process proceeds to a motion information acquisition process (S14).
S14の処理では、動き情報取得部12が、入力画像I0〜I4のそれぞれの画像間の動き情報を取得する。図4は、動き情報の取得処理を説明する概要図である。図4に示すように、入力画像I0〜I4が左から右に向けて順に平均輝度値が大きくなるように並べられているとする。まず、動き情報取得部12は、入力画像I0〜I4の中から基準画像を設定する。ここでは、入力画像I2を基準画像とする。次に、露出条件の近い入力画像同士の動き情報を取得する(例えば、入力画像I0と入力画像I1、入力画像I1と入力画像I2等)。動き情報取得部12は、2つの入力画像のうち、露出の高い入力画像で特徴点を抽出して、抽出された特徴点に対する対応点を露出の低い入力画像から抽出する。この動き情報によって、露出条件の近い入力画像同士を同一次元の座標に変換する変換行列を求めることができる。なお、図4では、露出条件の近い入力画像同士のうち、露出の低い画像を露出の高い画像へあわせるための変換行列m10,m21,m32,m43を示している。次に、変換行列m10,m21,m32,m43を用いて、基準画像I2以外の他の入力画像I0,I1,I3,I4の座標を基準画像I2相当の座標へ変形させる変換行列を算出する。図4に示すように、入力画像I0を基準画像I2へ変換させる変換行列は、m10*m21である。入力画像I1を基準画像I2へ変換させる変換行列は、m10である。入力画像I3を基準画像I2へ変換させる変換行列は、(m32)−1である。入力画像I4を基準画像I2へ変換させる変換行列は、(m32*m43)−1である。以下では変換後の入力画像をI0’〜I4’として説明する。S14の処理が終了すると、動被写体尤度算出処理へ移行する(S16)。 In the processing in S14, the motion information obtaining section 12 acquires the motion information between each image of the input image I 0 ~I 4. FIG. 4 is a schematic diagram illustrating motion information acquisition processing. As illustrated in FIG. 4, it is assumed that the input images I 0 to I 4 are arranged so that the average luminance value increases in order from the left to the right. First, the motion information acquisition unit 12 sets a reference image from among the input images I 0 to I 4 . Here, the reference image input image I 2. Next, motion information between input images having similar exposure conditions is acquired (for example, input image I 0 and input image I 1 , input image I 1 and input image I 2, etc.). The motion information acquisition unit 12 extracts a feature point from the input image with high exposure out of the two input images, and extracts a corresponding point for the extracted feature point from the input image with low exposure. Based on this motion information, it is possible to obtain a conversion matrix for converting input images having similar exposure conditions into coordinates of the same dimension. FIG. 4 shows conversion matrices m10, m21, m32, and m43 for matching a low-exposure image to a high-exposure image among input images with similar exposure conditions. Next, using the transformation matrix m10, m21, m32, m43, deforming the reference image I 2 other input image I 0 other than, I 1, I 3, the coordinates of the I 4 to the reference image I 2 corresponding coordinates A transformation matrix is calculated. As shown in FIG. 4, the conversion matrix for converting the input image I 0 into the reference image I 2 is m10 * m21. Transformation matrix to convert the input image I 1 to the reference image I 2 is m10. A conversion matrix for converting the input image I 3 to the reference image I 2 is (m32) −1 . A conversion matrix for converting the input image I 4 to the reference image I 2 is (m32 * m43) −1 . Hereinafter, the converted input image will be described as I 0 ′ to I 4 ′ . When the process of S14 ends, the process proceeds to a moving subject likelihood calculation process (S16).
S16の処理では、尤度算出部13が、入力画像I0’〜I4’のそれぞれの画像間の動被写体尤度を算出する。図5は、入力画像I0’と入力画像I1’との画像間における動被写体尤度を算出する例である。なお、図5では、画素値としてR値を用いる場合を示している。図5に示すように、尤度算出部13は、入力画像I0’の注目画素(R値=42)の8近傍の画素値(R値)を取得する。そして、注目画素の画素値と8近傍の画素値を用いて正規化する。例えば、LTPを用いる。注目画素の画素値と8近傍の画素値との差が±5の範囲であれば0、+5より大きい場合には1、−5より小さい場合には−1とする。尤度算出部13は、入力画像I1’についても、同様に正規化する。図中では、入力画像I0’の注目画素に対応する入力画像I1’の画素において正規化している。次に、正規化された画素の画素値を比較すると、差分が生じていることがわかる。差分の大きさ(符号の不一致度合い)に応じて当該画素の色を黒から白へ変化させた画像として表したものが差分画像Xである。この差分画像は、各画素の動被写体尤度が画像化されたものである。なお、8近傍に限定されることはなく、24近傍であってもよい。また、R値のみに限られずG値及びB値についても同様に処理してもよい。 In the process of S16, the likelihood calculating unit 13 calculates the moving subject likelihood between the respective images of the input images I0 'to I4 ' . FIG. 5 is an example of calculating the moving subject likelihood between the images of the input image I 0 ′ and the input image I 1 ′ . FIG. 5 shows a case where the R value is used as the pixel value. As shown in FIG. 5, the likelihood calculating unit 13 obtains pixel values (R values) near 8 of the target pixel (R value = 42) of the input image I 0 ′ . Then, normalization is performed using the pixel value of the target pixel and the pixel values in the vicinity of 8. For example, LTP is used. If the difference between the pixel value of the pixel of interest and the pixel values in the vicinity of 8 is within a range of ± 5, 0 is set when it is larger than +5, and -1 when it is smaller than −5. The likelihood calculating unit 13 also normalizes the input image I 1 ′ in the same manner. In the figure, the pixels of the input image I 1 ′ corresponding to the target pixel of the input image I 0 ′ are normalized. Next, when the pixel values of the normalized pixels are compared, it can be seen that a difference has occurred. The difference image X is represented as an image in which the color of the pixel is changed from black to white in accordance with the magnitude of the difference (the degree of mismatch of the signs). This difference image is an image of the moving subject likelihood of each pixel. In addition, it is not limited to 8 vicinity, 24 vicinity may be sufficient. Further, not only the R value but also the G value and the B value may be processed similarly.
差分画像Xの領域C1に示す平滑領域の動被写体尤度の精度を向上させるために、尤度算出部13は、多重解像度を用いて動被写体尤度を求めてもよい。図6は、多重解像度を用いて動被写体尤度を求める一例である。まず、尤度算出部13は、入力画像I0’と入力画像I1’との解像度を段階的に変更させた複数の画像を生成する。そして、同一の解像度同士で差分画像を生成する。この差分画像は、単純に画素値を差し引いたものである。図6では、入力画像I0’と入力画像I1’とを6段階に多重化した場合を示している。それぞれの差分画像がX1〜X6であり、数字が大きくなるほど低い解像度の差分画像となる。また、解像度が低いほど画像サイズが小さくなる。この差分画像を信頼度で重み付けして最終的な差分画像を算出する。信頼度は、例えば、上述したLTPの差分において有意な差のあるペアの数に画像サイズ(又は解像度)を乗算したものを用いる。例えば、図5に示すLTPの場合には有意な差のあるペアの数は1となる。このように、画素ごとにペアの数と画像サイズとを掛けあわせて、差分画像X1〜X6に対応する重み画像(重みを画像化したもの)を算出する。そして、差分画像X1〜X6と重み画像とを用いて最終的な差分画像を算出する。尤度算出部13は、上述した手法と同様の手法で、入力画像I1’〜I4’までの差分画像を算出する。S16の処理が終了すると、露出変換関数推定処理へ移行する(S18)。 In order to improve the moving subject likelihood of accuracy of the smoothing region shown in region C 1 of the difference image X, the likelihood calculating unit 13 may obtain the moving subject likelihood using multiresolution. FIG. 6 is an example of obtaining the moving subject likelihood using multi-resolution. First, the likelihood calculating unit 13 generates a plurality of images in which the resolutions of the input image I 0 ′ and the input image I 1 ′ are changed stepwise. Then, difference images are generated with the same resolution. This difference image is obtained by simply subtracting pixel values. FIG. 6 shows a case where the input image I 0 ′ and the input image I 1 ′ are multiplexed in six stages. The difference images are X 1 to X 6 , and the difference image has a lower resolution as the number increases. Also, the lower the resolution, the smaller the image size. The difference image is weighted with reliability to calculate a final difference image. As the reliability, for example, a value obtained by multiplying the number of pairs having a significant difference in the above-described LTP difference by the image size (or resolution) is used. For example, in the case of LTP shown in FIG. 5, the number of pairs having a significant difference is 1. In this way, the weight image (the image of the weights) corresponding to the difference images X 1 to X 6 is calculated by multiplying the number of pairs by the image size for each pixel. Then, a final difference image is calculated using the difference images X 1 to X 6 and the weight image. The likelihood calculating unit 13 calculates a difference image from the input images I 1 ′ to I 4 ′ by a method similar to the method described above. When the process of S16 is completed, the process proceeds to an exposure conversion function estimation process (S18).
S18の処理では、露出推定部14が露出変換関数を推定する。露出推定部14は、変換前の輝度値をx、変換後の輝度値をyとすると露出変換関数を以下の数式で表すことができる。
ここで、(a,b)は露出変換パラメータである。露出変換パラメータ(a,b)を導出することで露出変換関数を求めることができる。以下では、動き補正後の入力画像I0’と入力画像I1’との露出変換関数を求める場合を説明する。露出推定部14は、入力画像の点(x,y)において、露出の低い入力画像I0’の輝度値と露出の低い入力画像I1’の輝度値の組みをいくつかサンプリングして、その関係をプロットする。ここで、S16の処理で取得した差分画像に基づいて、サンプリングする点を選択する。例えば、動被写体尤度の高い領域からはサンプリングしないように設定する。すなわち動被写体尤度の低いものからサンプリングするように設定する。そして、例えば動被写体尤度が高いほど低い重みを割り当てて、式2を用いて露出変換関数を推定する。これにより、例えば図7に示すようなフィッティングが行われる。尤度算出部13は、上述した手法と同様の手法で、入力画像I1’〜I4’間の露出変換関数を推定する。なお、輝度値が0に近いデータ又は255に近いデータを除いてもよい。
In the process of S18, the exposure estimation unit 14 estimates an exposure conversion function. The exposure estimation unit 14 can express the exposure conversion function by the following formula, where x is the luminance value before conversion and y is the luminance value after conversion.
Here, (a, b) are exposure conversion parameters. An exposure conversion function can be obtained by deriving the exposure conversion parameters (a, b). Hereinafter, a case where an exposure conversion function between the input image I 0 ′ and the input image I 1 ′ after motion correction is obtained will be described. The exposure estimation unit 14 samples several sets of luminance values of the low-exposure input image I 0 ′ and the low-exposure input image I 1 ′ at the point (x, y) of the input image. Plot the relationship. Here, a point to be sampled is selected based on the difference image acquired in the process of S16. For example, the setting is made so that sampling is not performed from an area where the moving subject likelihood is high. In other words, the sampling is set so as to sample from a moving object with a low likelihood. Then, for example, a lower weight is assigned as the moving subject likelihood is higher, and the exposure conversion function is estimated using Expression 2. Thereby, for example, fitting as shown in FIG. 7 is performed. The likelihood calculating unit 13 estimates an exposure conversion function between the input images I 1 ′ to I 4 ′ by a method similar to the method described above. Note that data with luminance values close to 0 or data close to 255 may be excluded.
図8は、上記の露出変換関数の推定処理を説明する概要図である。なお、図8では、露出条件の近い入力画像同士のうち、露出の低い画像を露出の高い画像へあわせるための露出変換パラメータ(a10,b10)、(a21,b21)、(a32,b32)、(a43,b43)を示している。最終的な合成画像が表現可能な範囲に収まるように、最も露出の低い入力画像I0’の露出変換パラメータ(A0,B0)のA0を1.0に設定することで、変換結果が1.0を超えないようにしてもよい。ここでは、入力画像I0’の露出変換後の画像を、入力画像I0’’として表示している。また、最も露出の低い入力画像I0’に対する基準画像I2’の露出変換パラメータを(A2,B2)とすると、A0を1.0に設定すると同時にB2を1.0とすることで、ゲインが1/A2のときに色味が入力画像と等しくなるように設定してもよい。尤度算出部13は、上述した処理をRGBチャネルごとに別々に行う。S18の処理が終了すると図3に示す前処理を終了する。 FIG. 8 is a schematic diagram illustrating the exposure conversion function estimation process. In FIG. 8, exposure conversion parameters (a10, b10), (a21, b21), (a32, b32) for matching a low-exposure image to a high-exposure image among input images with similar exposure conditions. (A43, b43) are shown. The conversion result is obtained by setting A 0 of the exposure conversion parameter (A 0 , B 0 ) of the input image I 0 ′ having the lowest exposure to 1.0 so that the final composite image can be expressed. May not exceed 1.0. Here, 'the image after exposure conversion of the input image I 0' input image I 0 is displayed as a '. If the exposure conversion parameter of the reference image I 2 ′ with respect to the input image I 0 ′ having the lowest exposure is (A 2 , B 2 ), A 0 is set to 1.0 and B 2 is set to 1.0. Thus, the color may be set to be equal to that of the input image when the gain is 1 / A 2 . The likelihood calculating unit 13 performs the above-described processing separately for each RGB channel. When the process of S18 ends, the pre-process shown in FIG. 3 ends.
以上で図3に示す制御処理を終了する。図3に示す制御処理を実行することで、露出変換関数を推定する前に、被写体ぶれを検出することで、被写体ぶれ領域からサンプリングすることを回避したり、被写体ぶれ領域からサンプリングされたデータの影響を重み付けにより小さくすることができる。このため、露出変換関数を精度良く推定することができる。また、従来のHDR技術であれば、被写体ぶれの補正は、露出合わせが行われていないと正確に行うことができず、また逆に露出合わせは被写体ぶれの修正が行われていないと正確にできない。しかし、露出変換関数を推定する前に簡易的に被写体ぶれ(被写体の動き)を検出することで、上記デットロック関係を解消することができる。 Thus, the control process shown in FIG. 3 is finished. By performing the control process shown in FIG. 3, by detecting the subject blur before estimating the exposure conversion function, it is possible to avoid sampling from the subject blur region, or to change the data sampled from the subject blur region. The influence can be reduced by weighting. For this reason, the exposure conversion function can be estimated with high accuracy. Also, with the conventional HDR technology, correction of subject blur cannot be performed accurately unless exposure adjustment is performed, and conversely, exposure correction is accurate unless subject blur correction is performed. Can not. However, the deadlock relationship can be resolved by simply detecting subject shake (subject movement) before estimating the exposure conversion function.
次に、画像合成装置1の合成動作を説明する。図9は、HDR合成を説明するフローチャートである。図9に示す制御処理は例えば図3に示す制御処理が終了すると開始する。 Next, the composition operation of the image composition device 1 will be described. FIG. 9 is a flowchart for explaining HDR synthesis. The control process shown in FIG. 9 starts when the control process shown in FIG.
図9に示すように、動き補正部15が実際に動きを補正する(S20)。この処理では、図3のS14の処理と同様に、動き補正部15が、変換行列を用いて、露出変換後の入力画像I0’’〜I4’’の動きを補正する。なお、要求される精度に応じてサブピクセル補間アルゴリズム等を用いることができるようにしてもよい。S20の処理が終了すると、輝度ベースマスク生成処理及び被写体ぶれ領域抽出処理へ移行する(S22及びS24)。 As shown in FIG. 9, the motion correction unit 15 actually corrects the motion (S20). In this process, similarly to the process of S14 of FIG. 3, the motion correction unit 15 corrects the motion of the input images I 0 ″ to I 4 ″ after exposure conversion using the conversion matrix. Note that a subpixel interpolation algorithm or the like may be used according to the required accuracy. When the process of S20 ends, the process proceeds to a luminance base mask generation process and a subject blur area extraction process (S22 and S24).
S22の処理では、合成部16が輝度ベースマスクを生成する。図10は、合成処理の流れを説明する概要図である。図10に示すように、露出の低い入力画像I0’’から順に、入力画像I1’’〜I4’’を置き換えていくことで合成する。すなわち、最初は、入力画像I0’’に対して入力画像I1’’をどの程度合成させるかを定める輝度ベースマスクを生成する。この輝度ベースマスクは、入力画像I1’’の元の輝度値から重みを算出する。例えば、白飛び領域の付近の重みを0とする。このように重みを設定して、露出の低い画像へ露出の高い画像を重ねるように合成させることで、対象のピクセルに対して情報量の多い入力画像を必ず選択させることができる。図11の(A)は、入力輝度に対するピクセル値の関係を示すグラフである。図11の(A)に示すように、関数f0〜f3は、輝度値に基づいてどちらの画像の画素値を採用するかを示すグラフである。関数f0〜f3は、数字が大きくなるほど露出が大きい画像に適用されるものである。例えば、最も露出の低い入力画像I0’’が入力されると、関数f0が適用されて全ての画素値が採用される。次に、入力画像I1’’が入力されると、関数f0と関数f1とが適用される。このため、S0〜S5の輝度値の範囲では、入力画像I1’’が採用され、S6以上の輝度値の範囲では、入力画像I0’’が採用される。S5〜S6の輝度値の範囲は、(B)に示す重みでブレンドされた合成値で採用される。なお、便宜上γ補正は省略している。次に入力画像I2’’が入力されると、関数f0〜f2が適用される。このため、S0〜S3の輝度値の範囲では、入力画像I2’’が採用され、S4〜S5の輝度値の範囲では、入力画像I1’’が採用され、S6以上の輝度値の範囲では、入力画像I0’’が採用される。S3〜S4及びS5〜S6の輝度値の範囲は、(B)に示す重みでブレンドされた合成値で採用される。次に入力画像I3’’が入力されると、関数f0〜f3が適用される。このため、S0〜S1の輝度値の範囲では、入力画像I3’’が採用され、S2〜S3の輝度値の範囲では、入力画像I2’’が採用され、S4〜S5の輝度値の範囲では、入力画像I1’’が採用され、S6以上の輝度値の範囲では、入力画像I0’’が採用される。S1〜S2、S3〜S4及びS5〜S6の輝度値の範囲は、(B)に示す重みでブレンドされた合成値で採用される。このように、露出の高い画像が優先的に採用される。また、白とび領域部分については露出の低い画像が採用されるとともに、境界部分を滑らかにブレンドする。上記図11の(A)に示すグラフを画像化した輝度ベースマスクの一例を図12に示す。図12の(A)は入力画像を示し、(B)は当該入力画像の輝度ベースマスクである。図12の(B)では、100%入力画像の画素値を利用する場合には白とし、100%入力画像の画素値を利用しない場合には黒として表現している。S22の処理が終了すると、合成マスク生成処理へ移行する(S32)。 In the process of S22, the synthesis unit 16 generates a luminance base mask. FIG. 10 is a schematic diagram illustrating the flow of the synthesis process. As shown in FIG. 10, the images are synthesized by replacing the input images I 1 ″ to I 4 ″ in order from the input image I 0 ″ having the lowest exposure. That is, first, a luminance base mask that determines how much the input image I 1 ″ is to be combined with the input image I 0 ″ is generated. This luminance base mask calculates the weight from the original luminance value of the input image I 1 ″ . For example, the weight near the whiteout area is set to zero. By setting the weights in this way and combining the images with high exposure on the images with low exposure, it is possible to always select an input image with a large amount of information for the target pixel. FIG. 11A is a graph showing the relationship of the pixel value with respect to the input luminance. As shown in FIG. 11A, the functions f 0 to f 3 are graphs showing which image pixel value is adopted based on the luminance value. The functions f 0 to f 3 are applied to an image having a larger exposure as the number increases. For example, when the input image I 0 ″ having the lowest exposure is input, the function f 0 is applied and all pixel values are adopted. Next, when the input image I 1 ″ is input, the function f 0 and the function f 1 are applied. For this reason, the input image I 1 ″ is adopted in the range of the luminance values of S0 to S5, and the input image I 0 ″ is adopted in the range of the luminance value of S6 or more. The range of the luminance values of S5 to S6 is adopted as a composite value blended with the weight shown in (B). For convenience, γ correction is omitted. Next, when the input image I 2 ″ is input, the functions f 0 to f 2 are applied. For this reason, the input image I 2 ″ is adopted in the range of luminance values of S0 to S3, the input image I 1 ″ is adopted in the range of luminance values of S4 to S5, and the range of luminance values of S6 or more. Then, the input image I 0 ″ is adopted. The range of the luminance values of S3 to S4 and S5 to S6 is adopted as a composite value blended with the weight shown in (B). Next, when the input image I 3 ″ is input, the functions f 0 to f 3 are applied. For this reason, the input image I 3 ″ is adopted in the range of luminance values of S0 to S1, the input image I 2 ″ is adopted in the range of luminance values of S2 to S3, and the luminance values of S4 to S5. In the range, the input image I 1 ″ is adopted, and in the range of the luminance value of S6 or more, the input image I 0 ″ is adopted. The range of the luminance values of S1 to S2, S3 to S4, and S5 to S6 is adopted as a composite value blended with the weight shown in (B). In this way, images with high exposure are preferentially adopted. In addition, an image with low exposure is adopted for the overexposed region portion, and the boundary portion is blended smoothly. FIG. 12 shows an example of a luminance base mask obtained by imaging the graph shown in FIG. 12A shows an input image, and FIG. 12B shows a luminance base mask of the input image. In FIG. 12B, white is used when the pixel value of the 100% input image is used, and black is displayed when the pixel value of the 100% input image is not used. When the process of S22 ends, the process proceeds to a synthesis mask generation process (S32).
一方、S24の処理では、合成部16が被写体ぶれ領域を抽出する。例えば、合成部16が、図3のS16の処理と同様に差分画像を算出し、動被写体尤度が所定値以上の領域を被写体ぶれ領域として抽出する。図13の(A)は、被写体ぶれ領域を含む差分画像の一例である。S24の処理が終了すると、ラベリング処理へ移行する(S26)。 On the other hand, in the process of S24, the synthesizer 16 extracts a subject blur area. For example, the synthesizing unit 16 calculates a difference image in the same manner as the process of S16 in FIG. 3, and extracts a region where the moving subject likelihood is a predetermined value or more as a subject blur region. FIG. 13A is an example of a difference image including a subject blur area. When the process of S24 is completed, the process proceeds to a labeling process (S26).
S26の処理では、合成部16が被写体ぶれ領域をラベリングする。合成部16は、連続する被写体ぶれ領域に対して一つのラベルRnを設定する。図13の(B)は、連続領域をラベリングした例である。S26の処理が終了すると、各領域の基準画像の選択処理へ移行する(S28)。 In the process of S26, the synthesizer 16 labels the subject blur area. The combining unit 16 sets one of the label R n with respect to subject shake a continuous area. FIG. 13B shows an example in which continuous regions are labeled. When the process of S26 is completed, the process proceeds to a reference image selection process for each region (S28).
S28の処理では、合成部16が被写体ぶれ領域ごとに基準画像を設定する。合成部16は、基準画像として基本的に高露出の画像を優先させる。例えば、入力画像I0’’と入力画像I1’’とを合成する場合には、基準画像として入力画像I1’’が選択される。ただし、入力画像I1’’において被写体ぶれ領域が白飛び領域に影響される場合には、基準画像として入力画像I0’’が選択される。S28の処理が終了すると、被写体ぶれマスク生成処理へ移行する(S30)。 In the process of S28, the combining unit 16 sets a reference image for each subject blur area. The synthesizing unit 16 gives priority to an image with high exposure basically as a reference image. For example, when the input image I 0 ″ and the input image I 1 ″ are combined, the input image I 1 ″ is selected as the reference image. However, when the subject blur area is affected by the whiteout area in the input image I 1 ″ , the input image I 0 ″ is selected as the reference image. When the processing of S28 is completed, the process proceeds to subject blur mask generation processing (S30).
S30の処理では、合成部16が被写体ぶれ領域ごとに被写体ぶれマスクを生成する。合成部16は、基準画像として高露出の画像を優先させる場合には第2マスクを生成する。一方、基準画像として低露出の画像を優先させる場合には第1マスクを生成する。図14は、S24〜S30の一連の処理を説明する概要図である。図14に示すように、入力画像I0’’と入力画像I1’’とを合成する際に、差分画像Xを求め、差分画像の領域ごとに、第1マスク(lo_mask)又は第2マスク(hi_mask)が生成される。すなわち、被写体が動く領域については、被写体ぶれマスクを用いることで一枚の画像のみから画素値を入力させることで、上述したゴースト現象を回避することができる。S30の処理が終了すると、合成マスク生成処理へ移行する(S32)。 In the process of S30, the synthesis unit 16 generates a subject blur mask for each subject blur region. The synthesizing unit 16 generates the second mask when giving priority to the high exposure image as the reference image. On the other hand, the first mask is generated when priority is given to the low-exposure image as the reference image. FIG. 14 is a schematic diagram illustrating a series of processes from S24 to S30. As shown in FIG. 14, when the input image I 0 ″ and the input image I 1 ″ are combined, a difference image X is obtained, and a first mask (lo_mask) or a second mask is obtained for each area of the difference image. (Hi_mask) is generated. That is, for the region where the subject moves, the ghost phenomenon described above can be avoided by inputting the pixel value from only one image by using the subject blur mask. When the process of S30 ends, the process proceeds to a synthesis mask generation process (S32).
S32の処理では、合成部16が輝度ベースマスク及び被写体ぶれマスクに基づいて合成マスクを生成する。図15は、合成マスクの生成処理を説明する概要図である。図15に示すように、lo_maskを反転させた画像を輝度ベースマスクに乗算する。また、hi_maskを輝度ベースマスクに加算する。このように結合させることで、合成マスクが生成される。S32の処理が終了すると、合成処理へ移行する(S34)。 In the process of S32, the synthesis unit 16 generates a synthesis mask based on the luminance base mask and the subject blur mask. FIG. 15 is a schematic diagram for explaining the synthesis mask generation process. As shown in FIG. 15, the luminance base mask is multiplied by an image obtained by inverting lo_mask. Also, hi_mask is added to the luminance base mask. By combining in this way, a composite mask is generated. When the process of S32 is completed, the process proceeds to the composition process (S34).
S34の処理では、合成部16がS32の処理で作成された合成マスクに従って合成処理を行う。なお、合成済み画像の輝度値P0と露出変換関数を適用させた入力画像の輝度値P1を重みaで合成する場合、合成後の輝度値P2は以下の数式で求めることができる。
このとき、露出の最も低い画像については全領域をそのまま合成する。S34の処理が終了すると、入力画像確認処理へ移行する(S36)。
In the process of S34, the synthesis unit 16 performs a synthesis process according to the synthesis mask created in the process of S32. When the luminance value P 0 of the combined image and the luminance value P 1 of the input image to which the exposure conversion function is applied are combined with the weight a, the combined luminance value P 2 can be obtained by the following formula.
At this time, the entire region is synthesized as it is for the image with the lowest exposure. When the process of S34 is completed, the process proceeds to an input image confirmation process (S36).
S36の処理では、合成部16が全ての入力画像を合成したか否かを判定する。全ての入力画像を合成していない場合には、S22及びS24の処理へ移行する。そして、例えば、図10に示すように、入力画像I0’’と入力画像I1’’との合成画像O0と、新たな入力画像I0’’との合成処理が行われる。一方、全ての入力画像を合成した場合には、図9に示す制御処理を終了する。 In the process of S36, it is determined whether or not the combining unit 16 combined all input images. If all input images have not been combined, the process proceeds to S22 and S24. Then, for example, as shown in FIG. 10, a synthesis process of a composite image O 0 of the input image I 0 ″ and the input image I 1 ″ and a new input image I 0 ″ is performed. On the other hand, when all the input images have been combined, the control process shown in FIG. 9 ends.
図9に示す制御処理を実行することで、被写体ぶれの補正されたHDR合成画像が生成される。 By executing the control processing shown in FIG. 9, an HDR composite image in which subject blur is corrected is generated.
次に、携帯端末(コンピュータ)2を上記画像合成装置1として機能させるための画像合成プログラムを説明する。 Next, an image composition program for causing the portable terminal (computer) 2 to function as the image composition apparatus 1 will be described.
画像合成プログラムは、メインモジュール、入力モジュール及び演算処理モジュールを備えている。メインモジュールは、画像処理を統括的に制御する部分である。入力モジュールは、入力画像を取得するように携帯端末2を動作させる。演算処理モジュールは、動き情報取得モジュール、尤度算出モジュール、露出推定モジュール、動き補正モジュール及び合成モジュールを備えている。メインモジュール、入力モジュール及び演算処理モジュールを実行させることにより実現される機能は、上述した画像合成装置1の画像入力部10、動き情報取得部12、尤度算出部13、露出推定部14、動き補正部15及び合成部16の機能とそれぞれ同様である。 The image composition program includes a main module, an input module, and an arithmetic processing module. The main module is a part that comprehensively controls image processing. The input module operates the mobile terminal 2 so as to acquire an input image. The arithmetic processing module includes a motion information acquisition module, a likelihood calculation module, an exposure estimation module, a motion correction module, and a synthesis module. The functions realized by executing the main module, the input module, and the arithmetic processing module are the image input unit 10, the motion information acquisition unit 12, the likelihood calculation unit 13, the exposure estimation unit 14, the motion of the image synthesis apparatus 1 described above. The functions of the correction unit 15 and the synthesis unit 16 are the same.
画像合成プログラムは、例えば、ROM等の記録媒体または半導体メモリによって提供される。また、画像合成プログラムは、データ信号としてネットワークを介して提供されてもよい。 The image composition program is provided by a recording medium such as a ROM or a semiconductor memory, for example. The image composition program may be provided as a data signal via a network.
以上、本実施形態に係る画像合成装置1、画像合成方法及び画像合成プログラムによれば、第1画像と第2画像との露出を合わせる前に、第1画像と第2画像との差分に基づいて各画素における被写体の動きの尤度を算出する。そして、被写体の動きの尤度に基づいて第1画像と第2画像との露出条件を合わせる露出変換関数を推定する。このように、露出を合わせる際に被写体の動きの尤度が考慮されるため、例えば被写体の動きで色が変化している可能性がある領域を除いて露出を合わせることができる。よって、適切な合成画像を生成することが可能となる。さらに、被写体ぶれマスクを用いて被写体ぶれ(ゴースト的な表示)の発生を回避し、クリアな画像とすることができる。 As described above, according to the image synthesizing apparatus 1, the image synthesizing method, and the image synthesizing program according to the present embodiment, before matching the exposure of the first image and the second image, based on the difference between the first image and the second image. Thus, the likelihood of movement of the subject in each pixel is calculated. Then, an exposure conversion function that matches the exposure conditions of the first image and the second image is estimated based on the likelihood of the movement of the subject. Thus, since the likelihood of the movement of the subject is taken into account when adjusting the exposure, for example, the exposure can be adjusted except for a region where the color may change due to the movement of the subject. Therefore, it is possible to generate an appropriate composite image. Furthermore, the use of the subject blur mask prevents the occurrence of subject blur (ghost-like display), and a clear image can be obtained.
なお、上述した実施形態は本発明に係る画像合成装置の一例を示すものである。本発明に係る画像合成装置は、実施形態に係る画像合成装置1に限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る画像合成装置を変形し、又は他のものに適用したものであってもよい。 The embodiment described above shows an example of an image composition apparatus according to the present invention. The image synthesizing apparatus according to the present invention is not limited to the image synthesizing apparatus 1 according to the embodiment, and the image synthesizing apparatus according to the embodiment may be modified or otherwise changed without changing the gist described in each claim. It may be applied to the above.
例えば、上述した各実施形態では、カメラ20がフレーム画像を取得する例を説明したが、別の機器からネットワークを介して送信された画像であってもよい。また、合成画像を表示せずに記録のみする場合には、表示部21を備えなくてもよい。 For example, in each of the above-described embodiments, an example in which the camera 20 acquires a frame image has been described. However, an image transmitted from another device via a network may be used. Further, when only recording without displaying the composite image, the display unit 21 may not be provided.
また、上述した各実施形態に係る画像合成装置1を、手ぶれ補正装置とともに動作させてもよい。 In addition, the image composition device 1 according to each embodiment described above may be operated together with the camera shake correction device.
1…画像合成装置、10…画像入力部(入力部)、12…動き情報取得部、13…尤度算出部、14…露出推定部、15…動き補正部、16…合成部。 DESCRIPTION OF SYMBOLS 1 ... Image composition apparatus, 10 ... Image input part (input part), 12 ... Motion information acquisition part, 13 ... Likelihood calculation part, 14 ... Exposure estimation part, 15 ... Motion correction part, 16 ... Composition part.
Claims (16)
前記第1画像及び前記第2画像を入力する入力部と、
前記第1画像と前記第2画像との露出条件を合わせる露出変換関数を推定する前に、前記第1画像及び前記第2画像の差分に基づいて、各画素における動被写体尤度を算出する尤度算出部と、
前記動被写体尤度に基づいて、前記露出変換関数を推定する露出推定部と、
前記露出変換関数を用いて前記第1画像及び前記第2画像を合成する合成部と、
を備え、
前記露出推定部は、前記動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、前記露出変換関数を推定する、
画像合成装置。 An image composition device that generates a composite image using a first image and a second image having different exposure conditions,
An input unit for inputting the first image and the second image;
The likelihood of calculating the moving subject likelihood in each pixel based on the difference between the first image and the second image before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image. A degree calculator,
An exposure estimation unit that estimates the exposure conversion function based on the moving subject likelihood;
A combining unit that combines the first image and the second image using the exposure conversion function;
Equipped with a,
The exposure estimation unit estimates the exposure conversion function by setting the weight of the pixel to be smaller as the moving subject likelihood is higher.
Image composition device.
前記第1画像の解像度をそれぞれ段階的に変更することで得られる複数の第1処理画像、及び、前記第2画像の解像度をそれぞれ段階的に変更することで得られる複数の第2処理画像を用いて、各画素の差分を解像度ごとに算出し、解像度ごとに得られた差分を重み付けすることによって各画素の前記動被写体尤度を算出する請求項1又は2に記載の画像合成装置。 The likelihood calculating unit
A plurality of first processed images obtained by changing the resolution of the first image in stages, and a plurality of second processed images obtained by changing the resolution of the second image in stages. The image synthesizing apparatus according to claim 1 or 2, wherein a difference between the pixels is calculated for each resolution, and the moving subject likelihood of each pixel is calculated by weighting the difference obtained for each resolution.
前記第1画像及び前記第2画像の差分に基づいて各画素における動被写体尤度を算出し、該動被写体尤度及び前記露出変換関数を用いて前記第1画像及び前記第2画像を合成する請求項1〜4の何れか一項に記載の画像合成装置。 The synthesis unit is
A moving subject likelihood at each pixel is calculated based on the difference between the first image and the second image, and the first image and the second image are synthesized using the moving subject likelihood and the exposure conversion function. The image composition device according to any one of claims 1 to 4.
前記第1画像又は前記第2画像の元の輝度値の大きさに基づいて、前記第1画像及び前記第2画像の画素値の合成比を示す輝度ベースマスクを生成し、
前記第1画像及び前記第2画像の差分に基づいて、前記第1画像及び前記第2画像の画素値の合成比を示す被写体ぶれマスクを生成し、
前記輝度ベースマスク及び前記被写体ぶれマスクを結合させて、前記第1画像及び前記第2画像の画素値を合成する合成マスクを生成する請求項1〜5の何れか一項に記載の画像合成装置。 The synthesis unit is
Generating a luminance base mask indicating a synthesis ratio of pixel values of the first image and the second image based on the magnitude of the original luminance value of the first image or the second image;
Based on the difference between the first image and the second image, generate a subject blur mask indicating a synthesis ratio of pixel values of the first image and the second image,
The image composition device according to any one of claims 1 to 5, wherein the luminance base mask and the subject blur mask are combined to generate a composite mask that combines pixel values of the first image and the second image. .
前記第1画像及び前記第2画像の差分に基づいて、各画素における動被写体尤度を算出し、
該動被写体尤度に基づいて前記被写体ぶれマスクを生成する請求項6に記載の画像合成装置。 The synthesis unit is
Based on the difference between the first image and the second image, the likelihood of a moving subject at each pixel is calculated,
The image composition device according to claim 6, wherein the subject blur mask is generated based on the moving subject likelihood.
前記第1画像の解像度をそれぞれ段階的に変更することで得られる複数の第1処理画像、及び、前記第2画像の解像度をそれぞれ段階的に変更することで得られる複数の第2処理画像を用いて、各画素の差分を解像度ごとに算出し、解像度ごとに得られた差分を重み付けすることによって各画素の前記動被写体尤度を算出し、該動被写体尤度に基づいて前記被写体ぶれマスクを生成する請求項7に記載の画像合成装置。 The synthesis unit is
A plurality of first processed images obtained by changing the resolution of the first image in stages, and a plurality of second processed images obtained by changing the resolution of the second image in stages. And calculating a moving subject likelihood of each pixel by calculating a difference of each pixel for each resolution, weighting the difference obtained for each resolution, and applying the subject blur mask based on the moving subject likelihood. The image composition device according to claim 7 which generates.
前記動被写体尤度が所定の閾値以下となる画素が隣接する領域を検出し、各領域に対して識別ラベルを付与し、領域ごとに前記被写体ぶれマスクを生成する請求項8に記載の画像合成装置。 The synthesis unit is
The image composition according to claim 8, wherein an area adjacent to a pixel whose moving subject likelihood is equal to or less than a predetermined threshold is detected, an identification label is assigned to each area, and the subject blur mask is generated for each area. apparatus.
前記被写体ぶれマスクとして、前記第1画像及び前記第2画像のうち強制的に輝度値の低い画素値を選択させる第1マスク、又は、前記第1画像及び前記第2画像のうち強制的に輝度値の高い画素値を選択させる第2マスクを生成する請求項6〜9の何れか一項に記載の画像合成装置。 The synthesis unit is
As the subject blur mask, a first mask that forcibly selects a pixel value having a low luminance value from the first image and the second image, or a luminance that is forcibly selected from the first image and the second image. The image composition device according to any one of claims 6 to 9, wherein a second mask for selecting a pixel value having a high value is generated.
前記輝度ベースマスクに対して、前記第1マスクを反転させたマスクを乗算し、又は、前記第2マスクを加算することで、前記合成マスクを生成する請求項10に記載の画像合成装置。 The synthesis unit is
The image composition device according to claim 10, wherein the composite mask is generated by multiplying the luminance base mask by a mask obtained by inverting the first mask, or adding the second mask.
前記尤度算出部は、前記動き情報に基づいて前記第1画像及び前記第2画像を補正し、補正後の前記第1画像及び前記第2画像を用いて各画素の前記動被写体尤度を算出する請求項1〜11の何れか一項に記載の画像合成装置。 A movement information acquisition unit that acquires movement information of pixels between the first image and the second image;
The likelihood calculating unit corrects the first image and the second image based on the motion information, and calculates the moving subject likelihood of each pixel using the corrected first image and second image. The image composition device according to any one of claims 1 to 11 to calculate.
前記第1画像及び前記第2画像を入力し、
前記第1画像と前記第2画像との露出条件を合わせる露出変換関数を推定する前に、前記第1画像及び前記第2画像の差分に基づいて、各画素における動被写体尤度を算出し、
前記動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、前記露出変換関数を推定し、
前記露出変換関数を用いて前記第1画像及び前記第2画像を合成する、
画像合成方法。 An image composition method for generating a composite image using a first image and a second image having different exposure conditions,
Input the first image and the second image;
Before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image, a moving subject likelihood in each pixel is calculated based on the difference between the first image and the second image,
Estimate the exposure conversion function by setting the weight of the pixel to be lower as the moving subject likelihood is higher,
Combining the first image and the second image using the exposure conversion function;
Image composition method.
前記第1画像及び前記第2画像を入力する入力部、
前記第1画像と前記第2画像との露出条件を合わせる露出変換関数を推定する前に、前記第1画像及び前記第2画像の差分に基づいて、各画素における動被写体尤度を算出する尤度算出部、
前記動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、前記露出変換関数を推定する露出推定部、及び
前記露出変換関数を用いて前記第1画像及び前記第2画像を合成する合成部として前記コンピュータを動作させる画像合成プログラム。 An image composition program for operating a computer to generate a composite image using a first image and a second image having different exposure conditions,
An input unit for inputting the first image and the second image;
The likelihood of calculating the moving subject likelihood in each pixel based on the difference between the first image and the second image before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image. Degree calculator,
The higher the moving subject likelihood is, the smaller the weight of the pixel is set , and the exposure estimation unit that estimates the exposure conversion function, and the first image and the second image are synthesized using the exposure conversion function. An image composition program for operating the computer as a composition unit.
前記第1画像及び前記第2画像を入力する入力部、
前記第1画像と前記第2画像との露出条件を合わせる露出変換関数を推定する前に、前記第1画像及び前記第2画像の差分に基づいて、各画素における動被写体尤度を算出する尤度算出部、
前記動被写体尤度の高い画素ほど当該画素の重みを小さく設定して、前記露出変換関数を推定する露出推定部、及び
前記露出変換関数を用いて前記第1画像及び前記第2画像を合成する合成部として前記コンピュータを動作させる画像合成プログラムを記録した記録媒体。 A recording medium recording an image composition program for operating a computer to generate a composite image using a first image and a second image having different exposure conditions,
An input unit for inputting the first image and the second image;
The likelihood of calculating the moving subject likelihood in each pixel based on the difference between the first image and the second image before estimating an exposure conversion function that matches the exposure conditions of the first image and the second image. Degree calculator,
The higher the moving subject likelihood is, the smaller the weight of the pixel is set , and the exposure estimation unit that estimates the exposure conversion function, and the first image and the second image are synthesized using the exposure conversion function. A recording medium on which an image composition program for operating the computer as a composition unit is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013175399A JP5610245B2 (en) | 2013-08-27 | 2013-08-27 | Image composition apparatus, image composition method, image composition program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013175399A JP5610245B2 (en) | 2013-08-27 | 2013-08-27 | Image composition apparatus, image composition method, image composition program, and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012558101A Division JP5365823B2 (en) | 2011-10-14 | 2011-10-14 | Image composition apparatus, image composition method, image composition program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013243780A JP2013243780A (en) | 2013-12-05 |
JP5610245B2 true JP5610245B2 (en) | 2014-10-22 |
Family
ID=49844122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013175399A Active JP5610245B2 (en) | 2013-08-27 | 2013-08-27 | Image composition apparatus, image composition method, image composition program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5610245B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10567671B2 (en) | 2014-03-18 | 2020-02-18 | Sony Corporation | Image processing apparatus and image processing method |
CN104823437A (en) | 2014-06-12 | 2015-08-05 | 深圳市大疆创新科技有限公司 | Picture processing method and device |
JP6823942B2 (en) * | 2016-05-02 | 2021-02-03 | 株式会社モルフォ | Image synthesizer, image synthesizer, image synthesizer program and storage medium |
KR102138483B1 (en) | 2017-10-31 | 2020-07-27 | 가부시키가이샤 모르포 | Image synthesis apparatus, image synthesis method, image synthesis program and storage medium |
JP6979859B2 (en) * | 2017-11-14 | 2021-12-15 | キヤノン株式会社 | Image processing equipment, imaging equipment, image processing methods, and programs |
JP7009252B2 (en) * | 2018-02-20 | 2022-01-25 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
CN113379615A (en) * | 2021-04-25 | 2021-09-10 | 北京迈格威科技有限公司 | Image processing method and device, storage medium and electronic equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3731729B2 (en) * | 2000-12-20 | 2006-01-05 | 松下電器産業株式会社 | Image composition circuit |
JP2010045510A (en) * | 2008-08-11 | 2010-02-25 | Panasonic Corp | Image processor and image processing method |
JP2011171842A (en) * | 2010-02-16 | 2011-09-01 | Olympus Corp | Image processor and image processing program |
JP5445235B2 (en) * | 2010-03-09 | 2014-03-19 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
-
2013
- 2013-08-27 JP JP2013175399A patent/JP5610245B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013243780A (en) | 2013-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5365823B2 (en) | Image composition apparatus, image composition method, image composition program, and recording medium | |
JP5610245B2 (en) | Image composition apparatus, image composition method, image composition program, and recording medium | |
CN108668093B (en) | HDR image generation method and device | |
JP3880553B2 (en) | Image processing method and apparatus | |
US9344638B2 (en) | Constant bracket high dynamic range (cHDR) operations | |
JP6326180B1 (en) | Image processing device | |
JP5767485B2 (en) | Image processing apparatus and control method | |
US20120008005A1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium having image processing program recorded thereon | |
US8903195B2 (en) | Specification of an area where a relationship of pixels between images becomes inappropriate | |
JP7032913B2 (en) | Image processing device, image processing method, computer program | |
JP2012208553A (en) | Image processing device, image processing method, and program | |
JP2013219744A (en) | Image synthesis device and computer program for image synthesis | |
JP6257268B2 (en) | Image processing apparatus and image processing method | |
JP7133979B2 (en) | Image processing device, image processing method, image processing program, and storage medium | |
JP2008072604A (en) | Image processing system, apparatus, medium, and program | |
CN114979500A (en) | Image processing method, image processing apparatus, electronic device, and readable storage medium | |
JP5364887B2 (en) | Image composition apparatus, image composition method, image composition program, and recording medium | |
US11195247B1 (en) | Camera motion aware local tone mapping | |
JP5720034B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP4544064B2 (en) | Imaging apparatus, imaging method, and program | |
JP2018190201A (en) | Image processing device, image processing method and program | |
JP7214407B2 (en) | Image processing device, image processing method, and program | |
JP2021071906A (en) | Image processing apparatus and image processing method, and program | |
JP2015177529A (en) | Image processing system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140415 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5610245 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |