JP6173027B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6173027B2
JP6173027B2 JP2013100509A JP2013100509A JP6173027B2 JP 6173027 B2 JP6173027 B2 JP 6173027B2 JP 2013100509 A JP2013100509 A JP 2013100509A JP 2013100509 A JP2013100509 A JP 2013100509A JP 6173027 B2 JP6173027 B2 JP 6173027B2
Authority
JP
Japan
Prior art keywords
image
exposure image
selection
frequency component
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013100509A
Other languages
Japanese (ja)
Other versions
JP2014220759A (en
Inventor
毅 都築
毅 都築
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanwha Vision Co Ltd
Original Assignee
Hanwha Techwin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanwha Techwin Co Ltd filed Critical Hanwha Techwin Co Ltd
Priority to JP2013100509A priority Critical patent/JP6173027B2/en
Priority to KR1020130135848A priority patent/KR102050415B1/en
Priority to US14/270,851 priority patent/US9460492B2/en
Publication of JP2014220759A publication Critical patent/JP2014220759A/en
Application granted granted Critical
Publication of JP6173027B2 publication Critical patent/JP6173027B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

近年、短時間露光の画像(以下、単に「短露光画像」とも言う。)と長時間露光の画像(以下、単に「長露光画像」とも言う。)を連続して撮影して合成することで、センサが撮影可能なダイナミックレンジを超えたダイナミックレンジを捉えた画像を得るWDR(ワイドダイナミックレンジ)もしくはHDR(ハイダイナミックレンジ)という撮影機能が増えてきている。かかる撮影機能は、逆光の構図など明暗比が非常に大きいシーンでは特に大きな効果がある。   In recent years, a short-exposure image (hereinafter also simply referred to as “short-exposure image”) and a long-exposure image (hereinafter also simply referred to as “long-exposure image”) are continuously photographed and combined. An imaging function called WDR (wide dynamic range) or HDR (high dynamic range) that obtains an image that captures a dynamic range that exceeds the dynamic range that the sensor can shoot is increasing. Such a photographing function is particularly effective in a scene with a very large contrast ratio such as a composition of backlight.

しかし、短露光画像と長露光画像とを合成するという仕組みから、被写体に動きがあると合成時にずれが生じ、輪郭が二重になるといったアーティファクトが発生するという問題がある。動きに対応してWDR合成を行う手法として、特許文献1に記載の技術がある。この技術は、露出の異なる2枚の画像から共通領域を見つけ、その位置を補正することで動き補償を行った後に合成するというものである。   However, due to the mechanism of synthesizing the short-exposure image and the long-exposure image, there is a problem that if the subject moves, a shift occurs during the synthesis and artifacts such as doubled contours occur. As a technique for performing WDR synthesis in response to movement, there is a technique described in Patent Document 1. In this technique, a common area is found from two images with different exposures, and the position is corrected, and then motion compensation is performed, and then synthesis is performed.

特開2011−004353号公報JP 2011-004353 A

しかしながら、かかる技術は、画像全体に対するグローバルな動きがあった場合には好適な技術であるが、画像を構成する領域に対するローカルな動きには対応できず、不自然なアーティファクトを発生させる。そこで、本発明は、ローカルな動きが存在してもアーティファクトが目立たないWDR合成画像を得ることが可能な技術を提供する。   However, such a technique is a suitable technique when there is a global movement with respect to the entire image, but it cannot cope with a local movement with respect to a region constituting the image, and generates an unnatural artifact. Therefore, the present invention provides a technique capable of obtaining a WDR composite image in which artifacts are not noticeable even when local motion exists.

本発明のある実施形態によれば、長露光画像と短露光画像とにおいて対応する画素毎の混合比率を示す選択情報から高周波成分を取り除く第1のLPFと、動きを検出して動き検出情報を得る動き検出部と、前記動き検出情報から高周波成分を取り除く第2のLPFと、高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得る選択部と、前記選択結果に基づいて前記長露光画像と前記短露光画像とを合成する合成部と、を備える、画像処理装置が提供される。   According to an embodiment of the present invention, the first LPF that removes high-frequency components from the selection information indicating the mixing ratio for each corresponding pixel in the long exposure image and the short exposure image, and the motion detection information by detecting the motion. Based on the obtained motion detection unit, the second LPF that removes the high frequency component from the motion detection information, and the motion detection information after the high frequency component is removed, the selection information and the high frequency component before the high frequency component is removed are removed. A selection unit that selects one of the selected selection information for each pixel and obtains a selection result, and a synthesis unit that combines the long exposure image and the short exposure image based on the selection result. An image processing apparatus is provided.

かかる構成により、動き領域において短露光画像と長露光画像とを滑らかに接続することが可能となり、ローカルな動きが存在してもアーティファクトが目立たないWDR合成画像を得ることが可能となる。また、被写体に動きがない画像や、動きのある画像中の非動き領域においては、短露光画像と長露光画像との境界を急峻に切り替えることが可能となり、短露光画像と長露光画像との境界がぼけたりするといった弊害が発生しにくいといった効果も奏し得る。   With such a configuration, it is possible to smoothly connect the short-exposure image and the long-exposure image in the motion region, and it is possible to obtain a WDR composite image in which artifacts are not noticeable even when local motion exists. In addition, in an image where the subject does not move or in a non-moving area in a moving image, the boundary between the short exposure image and the long exposure image can be switched sharply, and the short exposure image and the long exposure image can be switched. It is also possible to bring about an effect that adverse effects such as blurring of the boundary are less likely to occur.

例えば、前記選択部は、高周波成分が取り除かれた後の動き検出情報から検出された動き領域については高周波成分が取り除かれた後の選択情報を選択し、高周波成分が取り除かれた後の動き検出情報から検出された非動き領域については高周波成分が取り除かれる前の選択情報を選択すればよい。   For example, the selection unit selects the selection information after the high-frequency component is removed for the motion region detected from the motion detection information after the high-frequency component is removed, and the motion detection after the high-frequency component is removed For the non-motion region detected from the information, selection information before the high-frequency component is removed may be selected.

また、本発明の別の実施形態によれば、長露光画像と短露光画像とにおいて対応する画素ごとの混合比率を示す選択情報から高周波成分を取り除くステップと、動きを検出して動き検出情報を得るステップと、前記動き検出情報から高周波成分を取り除くステップと、高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得るステップと、前記選択結果に基づいて前記長露光画像と前記短露光画像とを合成するステップと、を含む、画像処理方法が提供される。   Further, according to another embodiment of the present invention, the step of removing high frequency components from the selection information indicating the mixing ratio for each corresponding pixel in the long exposure image and the short exposure image, and detecting the motion to detect the motion detection information. A step of removing a high frequency component from the motion detection information, and a selection information before removing the high frequency component and a selection after removing the high frequency component based on the motion detection information after the high frequency component is removed. An image processing method is provided, comprising: selecting any of the information for each pixel to obtain a selection result; and synthesizing the long exposure image and the short exposure image based on the selection result. The

かかる方法によれば、動き領域において短露光画像と長露光画像とを滑らかに接続することが可能となり、ローカルな動きが存在してもアーティファクトが目立たないWDR合成画像を得ることが可能となる。また、被写体に動きがない画像や、動きのある画像中の非動き領域においては、短露光画像と長露光画像との境界を急峻に切り替えることが可能となり、短露光画像と長露光画像との境界がぼけたりするといった弊害が発生しにくいといった効果も奏し得る。   According to this method, it is possible to smoothly connect the short-exposure image and the long-exposure image in the motion region, and it is possible to obtain a WDR composite image in which artifacts are not noticeable even if local motion exists. In addition, in an image where the subject does not move or in a non-moving area in a moving image, the boundary between the short exposure image and the long exposure image can be switched sharply, and the short exposure image and the long exposure image can be switched. It is also possible to bring about an effect that adverse effects such as blurring of the boundary are less likely to occur.

以上説明したように、本発明によれば、ローカルな動きが存在してもアーティファクトが目立たないWDR合成画像を得ることが可能である。   As described above, according to the present invention, it is possible to obtain a WDR composite image in which artifacts are not noticeable even when a local motion exists.

一般的な画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of a general image processing apparatus. 一般的なWDR合成技術における各種情報の例を示す図である。It is a figure which shows the example of the various information in a general WDR synthetic | combination technique. 本発明の実施形態に係る画像処理装置の機能構成例を示す図である。It is a figure which shows the function structural example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るWDR合成技術における各種情報の例を示す図である。It is a figure which shows the example of the various information in the WDR synthetic | combination technique which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置の動作の流れの例を示す図である。It is a figure which shows the example of the flow of operation | movement of the image processing apparatus which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

まず、一般的なWDR合成技術を実現するための画像処理装置9の機能構成例を図1に示す。画像処理装置9は、センサ10の露光設定を変えて2枚の画像を連続撮影するが、ここでは短露光撮影を先に行い、その次に長露光撮影を行うものとする。短露光撮影された短露光画像はメモリ20に書き込まれる。画像処理装置9は、短露光撮影が終了したら露光設定を変え、長露光撮影を行う。   First, FIG. 1 shows a functional configuration example of an image processing apparatus 9 for realizing a general WDR synthesis technique. The image processing device 9 changes the exposure setting of the sensor 10 and continuously shoots two images. Here, it is assumed that short exposure shooting is performed first, and then long exposure shooting is performed. The short exposure image taken by the short exposure is written in the memory 20. When the short exposure shooting is completed, the image processing apparatus 9 changes the exposure setting and performs the long exposure shooting.

なお、図1に示した例では、画像処理装置9は、長露光画像および短露光画像を出力するための共通の系統を1つ有し、センサ10が長露光画像と短露光画像とを時分割で出力することとしたが、長露光画像と短露光画像とが同時に撮影されてもよい。かかる場合、画像処理装置9は、センサ10から長露光画像を出力するための系統と短露光画像を出力するための系統との2つの系統を有すればよい。   In the example shown in FIG. 1, the image processing apparatus 9 has one common system for outputting the long exposure image and the short exposure image, and the sensor 10 sometimes outputs the long exposure image and the short exposure image. Although the output is divided, the long exposure image and the short exposure image may be taken simultaneously. In such a case, the image processing device 9 may have two systems, that is, a system for outputting a long exposure image from the sensor 10 and a system for outputting a short exposure image.

使用画像選択部30は、センサ10により検出された長露光画像とメモリ20から読み出した短露光画像とを参照し、長露光画像および短露光画像それぞれの飽和状態や動きなどを検出して、短露光画像と長露光画像とのいずれかを使用画像として選択するための選択情報を生成する。合成部60は、使用画像選択部30からの選択情報を受け、当該選択情報に基づいて短露光画像と長露光画像とを合成することによりWDR画像を生成する。   The use image selection unit 30 refers to the long exposure image detected by the sensor 10 and the short exposure image read out from the memory 20 to detect the saturation state and movement of each of the long exposure image and the short exposure image, thereby reducing the short exposure image. Selection information for selecting either the exposure image or the long exposure image as the use image is generated. The synthesizing unit 60 receives the selection information from the use image selecting unit 30, and generates a WDR image by synthesizing the short exposure image and the long exposure image based on the selection information.

階調変換部70は、ダイナミックレンジの広い画像信号のビットレンジを所定のビットレンジに収めるための圧縮処理と人間の目で見た情景に近づけるような階調補正とを、合成部60により生成されたWDR画像に対して行う。当該圧縮処理と当該階調補正とは、同時に行われてもよいし、異なるタイミングにおいて行われてもよい。   The gradation conversion unit 70 generates a compression process for bringing the bit range of an image signal having a wide dynamic range into a predetermined bit range and a gradation correction that approximates a scene viewed by human eyes. To the WDR image. The compression process and the gradation correction may be performed simultaneously or at different timings.

図2は、一般的なWDR合成技術における、短露光画像、長露光画像、選択情報および合成画像それぞれの例を示す図である。図2に示した短露光画像および長露光画像それぞれは、日中の明るい屋外が見える窓を背景にして屋内を撮影して得られた画像である。手前に映っている人物は左に向かって移動している。   FIG. 2 is a diagram showing examples of a short exposure image, a long exposure image, selection information, and a composite image in a general WDR composition technique. Each of the short-exposure image and the long-exposure image shown in FIG. 2 is an image obtained by photographing indoors against a background of a bright outdoor daylight. The person in the foreground is moving toward the left.

例えば、使用画像選択部30によって生成される選択情報が長露光画像および短露光画像のいずれを使用するかを示す2値データの集合である場合、図2に示した選択情報のように、長露光画像を使用する領域を黒い領域、短露光画像を使用する領域を白い領域として表すことができる。   For example, when the selection information generated by the use image selection unit 30 is a set of binary data indicating which of the long exposure image and the short exposure image is used, like the selection information shown in FIG. A region using the exposure image can be represented as a black region, and a region using the short exposure image as a white region.

続いて、合成部60は、このようにして生成された選択情報に基づいて、短露光画像および長露光画像を合成する。このようにして合成を行った場合には、図2に示した合成画像のように、明るい窓と動いた人物との境界で合成時に位置ずれが起こり、輪郭が二重になる顕著なアーティファクトを生じるという問題が起こり得る。かかる問題は、選択情報の生成に際してローカルな動きが考慮されておらず、動き領域においてはオブジェクトの位置がずれた画像どうしを合成することに起因する。   Subsequently, the combining unit 60 combines the short exposure image and the long exposure image based on the selection information generated in this way. When the composition is performed in this way, as shown in the composite image shown in FIG. 2, a noticeable artifact whose position is shifted at the time of composition at the boundary between the bright window and the moving person and the contour is doubled is generated. The problem of occurring can occur. Such a problem is due to the fact that local motion is not taken into consideration when generating the selection information, and images in which the positions of the objects are shifted are combined in the motion region.

そこで、本明細書においては、ローカルな動きが存在してもアーティファクトが目立たないWDR合成画像を得ることが可能な技術を提案する。   Therefore, the present specification proposes a technique capable of obtaining a WDR composite image in which artifacts are not noticeable even when local motion exists.

続いて、本発明の実施形態に係る画像処理装置1の機能構成について説明する。図3は、本発明の実施形態に係る画像処理装置1の機能構成を示す図である。図3に示すように、画像処理装置1は、センサ10、メモリ20、第一使用画像選択部31、第二使用画像選択部32、動き検出部40、LPF(Low Pass Filter)1(51)、LPF2(52)、合成部60および圧縮部80を備える。以下、画像処理装置1が備える各機能ブロックの機能について順次詳細に説明する。   Subsequently, a functional configuration of the image processing apparatus 1 according to the embodiment of the present invention will be described. FIG. 3 is a diagram showing a functional configuration of the image processing apparatus 1 according to the embodiment of the present invention. As shown in FIG. 3, the image processing apparatus 1 includes a sensor 10, a memory 20, a first use image selection unit 31, a second use image selection unit 32, a motion detection unit 40, and an LPF (Low Pass Filter) 1 (51). , LPF2 (52), a synthesis unit 60, and a compression unit 80. Hereinafter, the function of each functional block included in the image processing apparatus 1 will be described in detail sequentially.

画像処理装置1は、センサ10の露光設定を変えて2枚の画像を連続撮影するが、ここでは短露光撮影を先に行い、その次に長露光撮影を行うものとする。短露光撮影された短露光画像はメモリ20に書き込まれる。画像処理装置1は、短露光撮影が終了したら露光設定を変え、長露光撮影を行う。   The image processing apparatus 1 changes the exposure setting of the sensor 10 and continuously shoots two images. Here, it is assumed that short exposure shooting is performed first and then long exposure shooting is performed. The short exposure image taken by the short exposure is written in the memory 20. The image processing apparatus 1 changes the exposure setting when short exposure shooting is completed, and performs long exposure shooting.

なお、図3に示した例では、画像処理装置1は、長露光画像および短露光画像を出力するための共通の系統を1つ有し、センサ10が長露光画像と短露光画像とを時分割で出力することとしたが、長露光画像と短露光画像とが同時に撮影されてもよい。かかる場合、画像処理装置1は、センサ10から長露光画像を出力するための系統と短露光画像を出力するための系統との2つの系統を有すればよい。それぞれのシャッタータイムは、例えば、撮影対象のダイナミックレンジやセンサ仕様などによって決まる。   In the example shown in FIG. 3, the image processing apparatus 1 has one common system for outputting the long exposure image and the short exposure image, and the sensor 10 sometimes outputs the long exposure image and the short exposure image. Although the output is divided, the long exposure image and the short exposure image may be taken simultaneously. In such a case, the image processing apparatus 1 may have two systems, that is, a system for outputting a long exposure image from the sensor 10 and a system for outputting a short exposure image. Each shutter time is determined by, for example, a dynamic range of a subject to be imaged, a sensor specification, and the like.

ここで、本発明の実施形態においては、短露光画像および長露光画像という用語を使用するが、これらの用語は、撮影された2つの画像それぞれの絶対的な露光時間を限定するものではない。したがって、露光時間の異なる2つの画像が撮影された場合に、当該2つの画像のうち、相対的に露光時間が短い画像が短露光画像に相当し、相対的に露光時間が長い画像が長露光画像に相当する。   Here, in the embodiment of the present invention, the terms short exposure image and long exposure image are used, but these terms do not limit the absolute exposure time of each of the two captured images. Therefore, when two images with different exposure times are taken, an image with a relatively short exposure time corresponds to a short exposure image and an image with a relatively long exposure time is a long exposure. Corresponds to an image.

センサ10は、外部からの光を撮像素子の受光平面に結像させ、結像された光を電荷量に光電変換し、当該電荷量を電気信号に変換するイメージセンサにより構成される。イメージセンサの種類は特に限定されず、例えば、CCD(Charge Coupled Device)であってもよいし、CMOS(Complementary Metal Oxide Semiconductor)であってもよい。   The sensor 10 is configured by an image sensor that forms an image of light from the outside on the light receiving plane of the image sensor, photoelectrically converts the imaged light into a charge amount, and converts the charge amount into an electric signal. The type of the image sensor is not particularly limited, and may be, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).

第一使用画像選択部31は、センサ10により検出された長露光画像とメモリ20から読み出した短露光画像とを参照し、長露光画像および短露光画像それぞれの飽和状態や動きなどを検出して、短露光画像と長露光画像とのいずれかを使用画像として選択するための選択情報を生成する。短露光画像と長露光画像とのいずれかを選択するアルゴリズムとしては様々なアルゴリズムが想定される。   The first use image selection unit 31 refers to the long exposure image detected by the sensor 10 and the short exposure image read from the memory 20, and detects the saturation state and movement of each of the long exposure image and the short exposure image. Selection information for selecting either the short exposure image or the long exposure image as the use image is generated. As an algorithm for selecting either the short exposure image or the long exposure image, various algorithms are assumed.

例えば、長露光画像において飽和してしまった領域は短露光画像においては飽和していない可能性が高いため、当該領域の使用画像としては短露光画像を選択すればよい。しかし、この処理だけでは、大きな動きがある領域では輪郭が二重になるなどといったアーティファクトが発生し得る。そのため、動きを検出して輪郭が二重になる現象を低減する処理を行ってもよい。かかる処理を含む、短露光画像と長露光画像とのいずれかを選択するアルゴリズムは特に限定されない。   For example, since a region that has been saturated in the long exposure image is highly likely not to be saturated in the short exposure image, the short exposure image may be selected as the use image of the region. However, with this process alone, artifacts such as a double outline may occur in an area where there is a large movement. Therefore, a process of detecting a motion and reducing a phenomenon that the contour becomes double may be performed. An algorithm for selecting either a short exposure image or a long exposure image including such processing is not particularly limited.

なお、上記したように選択情報は短露光画像および長露光画像のいずれを選択するかを示す2値データの集合であってもよいが、長露光画像および短露光画像それぞれをどの程度の比率で混合するかを示す混合比率の集合であってもよい。例えば、第一使用画像選択部31は、長露光画像の飽和度合いが強いほど、短露光画像の混合比率を大きくしてもよい。また、第一使用画像選択部31は、短露光画像または長露光画像の動きが大きいほど、短露光画像の混合比率を大きくしてもよい。短露光画像と長露光画像との混合比率を算出するアルゴリズムも特に限定されない。   As described above, the selection information may be a set of binary data indicating which of the short exposure image and the long exposure image is to be selected, but at what ratio each of the long exposure image and the short exposure image is selected. It may be a set of mixing ratios indicating whether to mix. For example, the first use image selection unit 31 may increase the mixing ratio of the short exposure images as the saturation degree of the long exposure images is stronger. The first use image selection unit 31 may increase the mixing ratio of the short exposure images as the movement of the short exposure images or the long exposure images increases. The algorithm for calculating the mixing ratio of the short exposure image and the long exposure image is not particularly limited.

以下では、第一使用画像選択部31が長露光画像と短露光画像とにおいて対応する画素毎の混合比率を示す選択情報を生成し、当該選択情報をLPF1(51)および第二使用画像選択部32に出力する場合を例として説明する。   Below, the 1st use image selection part 31 produces | generates the selection information which shows the mixing ratio for every pixel which respond | corresponds in a long exposure image and a short exposure image, and the said selection information is used for LPF1 (51) and a 2nd use image selection part. The case of outputting to 32 will be described as an example.

LPF1(51)は、選択情報から高周波成分を取り除く処理を行う。かかる機能によって、選択情報を大きくぼかし、合成部60において短露光画像と長露光画像とを合成する際に、短露光画像および長露光画像それぞれの境界を滑らかに接続させることが可能となる。図4に示した「選択情報+LPF1」は、高周波成分が取り除かれた後の選択情報の例を示している。   The LPF 1 (51) performs processing for removing high frequency components from the selection information. With this function, when the selection information is greatly blurred and the composition unit 60 composes the short exposure image and the long exposure image, the boundary between the short exposure image and the long exposure image can be smoothly connected. “Selection information + LPF1” shown in FIG. 4 shows an example of the selection information after the high frequency component is removed.

LPF1(51)からの出力信号のビット精度は、短露光画像および長露光画像それぞれの境界が滑らかに接続されるのに十分に確保されるとよい。選択情報のぼかし方には様々な手法が想定され、特に限定されないが、ぼかしの効果と演算量・回路規模などを考慮してぼかし方が決められるのが望ましい。   The bit accuracy of the output signal from the LPF 1 (51) should be sufficiently ensured so that the boundaries between the short exposure image and the long exposure image are smoothly connected. Various methods are assumed for the method of blurring the selection information, and it is not particularly limited. However, it is desirable that the blurring method is determined in consideration of the blurring effect, the calculation amount, the circuit scale, and the like.

動き検出部40は、動きを検出する。動きの検出手法は特に限定されないが、例えば、長露光画像と短露光画像との差分から動きを検出する手法であってもよいし、複数枚の長露光画像の差分から動きを検出する手法であってもよいし、複数枚の短露光画像の差分から動きを検出する手法であってもよいし、他の手法であってもよい。長露光画像と短露光画像との差分から動きを検出する手法を採用する場合には、そのままでは長露光画像と短露光画像との間で明るさが異なるため、動き検出部40は、短露光画像に対して露光量に応じたゲインを乗じた上で差分を算出するのがよい。   The motion detector 40 detects motion. The motion detection method is not particularly limited. For example, the motion detection method may be a method for detecting motion from the difference between the long exposure image and the short exposure image, or may be a method for detecting motion from the difference between a plurality of long exposure images. There may be a method of detecting motion from the difference between a plurality of short-exposure images, or another method. When the method of detecting motion from the difference between the long exposure image and the short exposure image is adopted, since the brightness differs between the long exposure image and the short exposure image as it is, the motion detection unit 40 performs the short exposure. It is preferable to calculate the difference after multiplying the image by a gain corresponding to the exposure amount.

さらに、動き検出部40は、検出した動きに基づいて動き領域と非動き領域とを検出して動き検出情報を得る。例えば、動き領域は、動きが閾値よりも大きい領域であり、非動き領域は、動きが閾値よりも小さい領域である。動きが閾値と同一の領域はいずれの領域として検出されてもよい。図4に示した「動き検出情報」を参照すると、動き領域が白い領域、非動き領域が黒い領域として表されている。   Furthermore, the motion detection unit 40 detects a motion region and a non-motion region based on the detected motion to obtain motion detection information. For example, the motion region is a region where the motion is larger than the threshold, and the non-motion region is a region where the motion is smaller than the threshold. An area where the motion is the same as the threshold may be detected as any area. Referring to the “motion detection information” shown in FIG. 4, the motion area is represented as a white area and the non-motion area is represented as a black area.

LPF2(52)は、動き検出情報から高周波成分を取り除く処理を行う。かかる機能によって、動き検出情報を大きくぼかし、有意な領域を拡大することが可能である。図4に示した「動き検出情報+LPF2」は、高周波成分が取り除かれた後の動き検出情報の例を示している。この例を参照すると、動き検出情報から高周波成分を取り除く処理によって、動き領域が拡大されているのが把握される。   The LPF 2 (52) performs processing for removing high frequency components from the motion detection information. With this function, it is possible to greatly blur motion detection information and enlarge a significant area. “Motion detection information + LPF2” shown in FIG. 4 shows an example of motion detection information after the high-frequency component is removed. Referring to this example, it can be understood that the motion region is expanded by the process of removing the high frequency component from the motion detection information.

また、LPF2(52)は、動き検出情報から高周波成分を取り除く処理を行うだけではなく、動き検出情報から高周波成分を取り除く処理の結果に対して所定のゲインを乗じてもよい。そうすれば、有意な領域をさらに拡大することが可能である。LPF2(52)からの出力信号のビット精度も、動き領域および非動き領域それぞれの境界が滑らかに接続されるのに十分に確保されるとよい。   In addition, the LPF 2 (52) may not only perform the process of removing the high frequency component from the motion detection information, but may multiply the result of the process of removing the high frequency component from the motion detection information by a predetermined gain. Then, it is possible to further expand a significant area. The bit accuracy of the output signal from the LPF 2 (52) is also preferably sufficiently ensured that the boundaries between the motion region and the non-motion region are smoothly connected.

第二使用画像選択部32は、高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得る。例えば、第二使用画像選択部32は、高周波成分が取り除かれた後の動き検出情報から検出された動き領域については高周波成分が取り除かれた後の選択情報を選択し、高周波成分が取り除かれた後の動き検出情報から検出された非動き領域については高周波成分が取り除かれる前の選択情報を選択すればよい。   Based on the motion detection information after the high-frequency component is removed, the second use image selection unit 32 selects either the selection information before the high-frequency component is removed or the selection information after the high-frequency component is removed as a pixel. Select every time to get a selection result. For example, the second use image selection unit 32 selects the selection information after the high frequency component is removed for the motion region detected from the motion detection information after the high frequency component is removed, and the high frequency component is removed. For the non-motion region detected from the subsequent motion detection information, selection information before the high-frequency component is removed may be selected.

図4に示した「選択結果」を参照すると、「動き検出情報+LPF2」に示された動き領域(白い領域)に相当する領域については、高周波成分が取り除かれた後の「選択情報+LPF1」が選択されているのが把握される。また、「動き検出情報+LPF2」に示された非動き領域(黒い領域)に相当する領域については、高周波成分が取り除かれる前の選択情報が選択されているのが把握される。   Referring to the “selection result” shown in FIG. 4, for the region corresponding to the motion region (white region) indicated by “motion detection information + LPF2”, “selection information + LPF1” after the high-frequency component is removed is It is grasped that it is selected. In addition, regarding the region corresponding to the non-motion region (black region) indicated by “motion detection information + LPF2”, it is understood that the selection information before the high-frequency component is removed is selected.

合成部60は、第二使用画像選択部32からの選択結果を受け、当該選択結果に基づいて短露光画像と長露光画像とを合成することによりWDR画像を生成する。例えば、長露光画像を選択する旨を示す値が「0」であり、短露光画像を選択する旨を示す値が「1」である場合を想定する。かかる場合には、合成部60は、選択結果を構成する混合比率をαとし、長露光画像と短露光画像とにおいて対応する画素について、α×(短露光画像の画素値)+(1−α)×(長露光画像の画素値)を算出し、算出結果を合成後の画像(WDR画像)とすることができる。なお、合成部60による合成手法は特に限定されない。   The synthesizing unit 60 receives the selection result from the second use image selecting unit 32, and generates a WDR image by synthesizing the short exposure image and the long exposure image based on the selection result. For example, it is assumed that a value indicating that a long exposure image is selected is “0” and a value indicating that a short exposure image is selected is “1”. In such a case, the synthesizing unit 60 sets α as the mixing ratio constituting the selection result, and α × (pixel value of the short exposure image) + (1−α) for the corresponding pixels in the long exposure image and the short exposure image. ) × (pixel value of the long-exposure image) is calculated, and the calculation result can be used as an image after synthesis (WDR image). The combining method by the combining unit 60 is not particularly limited.

圧縮部80は、ダイナミックレンジの広い画像信号のビットレンジを所定のビットレンジに収めるための圧縮処理を、合成部60により生成されたWDR画像に対して行う。圧縮部80の後段は、例えば、ベイヤーデータからRGBプレーンを生成するデモザイク部、輪郭強調部、カラーマネージメントなどを含む画像処理エンジンに接続される。そのため、圧縮部80からの出力信号のデータ量は、例えば、画像処理エンジンへの入力データのサイズに適合するように(例えば、12bit程度に)調整されるのが好ましい。単純にデータサイズを低下させるだけでは暗い画像に変換されてしまうため、人間の視覚特性に近づくように高輝度側が強く圧縮されるとよい。   The compression unit 80 performs compression processing on the WDR image generated by the synthesizing unit 60 so that the bit range of the image signal having a wide dynamic range falls within a predetermined bit range. The subsequent stage of the compression unit 80 is connected to an image processing engine including, for example, a demosaic unit that generates an RGB plane from Bayer data, a contour enhancement unit, and color management. For this reason, it is preferable that the data amount of the output signal from the compression unit 80 be adjusted so as to match the size of the input data to the image processing engine (for example, about 12 bits). If the data size is simply reduced, the image is converted into a dark image. Therefore, it is preferable that the high luminance side is strongly compressed so as to approximate human visual characteristics.

図4に示した「合成画像」は、本発明の実施形態に係る画像処理装置1により出力される合成画像の例である。この例を参照すると、動きのあるオブジェクト(この例では人物)の境界において短露光画像と長露光画像とが滑らかに接続され、アーティファクトが低減された合成画像が得られているのが把握される。また、動き領域においては短露光画像と長露光画像との境界が滑らかに接続されるが、非動き領域においては短露光画像と長露光画像との境界がぼけたりするといった弊害は発生しにくい。   The “composite image” illustrated in FIG. 4 is an example of a composite image output by the image processing apparatus 1 according to the embodiment of the present invention. Referring to this example, it can be understood that a short-exposure image and a long-exposure image are smoothly connected at the boundary of a moving object (in this example, a person), and a composite image with reduced artifacts is obtained. . In addition, the boundary between the short-exposure image and the long-exposure image is smoothly connected in the motion region, but the adverse effect that the boundary between the short-exposure image and the long-exposure image is blurred in the non-motion region is unlikely to occur.

図5は、本発明の実施形態に係る画像処理装置1の動作の流れの例を示す図である。図5を参照しながら、第一使用画像選択部31によって生成された選択情報がLPF1(51)および第二使用画像選択部32に出力される場合を一例として説明する。図5に示すように、まず、LPF1(51)は、選択情報から高周波成分を取り除く(ステップS1)。続いて、動き検出部40は、動きを検出して動き検出情報を得る(ステップS2)。LPF2(52)は、動き検出情報から高周波成分を取り除く(ステップS3)。   FIG. 5 is a diagram illustrating an example of an operation flow of the image processing apparatus 1 according to the embodiment of the present invention. With reference to FIG. 5, a case where the selection information generated by the first use image selection unit 31 is output to the LPF 1 (51) and the second use image selection unit 32 will be described as an example. As shown in FIG. 5, first, the LPF 1 (51) removes high frequency components from the selection information (step S1). Subsequently, the motion detection unit 40 detects motion and obtains motion detection information (step S2). The LPF 2 (52) removes the high frequency component from the motion detection information (step S3).

また、第二使用画像選択部32は、高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得る(ステップS4)。続いて、合成部60は、選択結果に基づいて長露光画像と短露光画像とを合成する(ステップS5)。上記したように、合成画像は、圧縮部80によって圧縮されるのが望ましい。   Further, the second use image selection unit 32 selects either the selection information before the high frequency component is removed or the selection information after the high frequency component is removed based on the motion detection information after the high frequency component is removed. Is selected for each pixel to obtain a selection result (step S4). Subsequently, the synthesizing unit 60 synthesizes the long exposure image and the short exposure image based on the selection result (step S5). As described above, the composite image is preferably compressed by the compression unit 80.

本発明の実施形態によれば、長露光画像と短露光画像とにおいて対応する画素毎の混合比率を示す選択情報から高周波成分を取り除くLPF1(51)と、動きを検出して動き検出情報を得る動き検出部40と、動き検出情報から高周波成分を取り除くLPF2(52)と、高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得る第二使用画像選択部32と、選択結果に基づいて長露光画像と短露光画像とを合成する合成部60と、を備える、画像処理装置1が提供される。   According to the embodiment of the present invention, LPF1 (51) that removes high-frequency components from selection information indicating the mixing ratio for each corresponding pixel in the long exposure image and the short exposure image, and motion detection information is obtained by detecting the motion. Based on the motion detection unit 40, the LPF 2 (52) that removes the high frequency component from the motion detection information, and the motion detection information after the high frequency component is removed, the selection information and the high frequency component before the high frequency component is removed are removed. A second use image selection unit 32 that selects one of the selection information after each pixel and obtains a selection result; a synthesis unit 60 that combines the long exposure image and the short exposure image based on the selection result; An image processing apparatus 1 is provided.

かかる構成により、動き領域において短露光画像と長露光画像とを滑らかに接続することが可能となり、動物体の輪郭が二重に見える顕著なアーティファクトを低減することが可能となる。また、被写体に動きがない画像や、動きのある画像中の非動き領域においては、短露光画像と長露光画像との境界を急峻に切り替えることが可能となり、短露光画像と長露光画像との境界がぼけたりするといった弊害が発生しにくい。   With such a configuration, it is possible to smoothly connect the short-exposure image and the long-exposure image in the motion region, and it is possible to reduce significant artifacts in which the contour of the moving object appears double. In addition, in an image where the subject does not move or in a non-moving area in a moving image, the boundary between the short exposure image and the long exposure image can be switched sharply, and the short exposure image and the long exposure image can be switched. It is difficult for adverse effects such as blurring of boundaries to occur.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

1 画像処理装置
9 画像処理装置
10 センサ
20 メモリ
30 使用画像選択部
31 第一使用画像選択部
32 第二使用画像選択部(選択部)
40 検出部
51 LPF1(第1のLPF)
52 LPF2(第2のLPF)
60 合成部
70 階調変換部
80 圧縮部

DESCRIPTION OF SYMBOLS 1 Image processing apparatus 9 Image processing apparatus 10 Sensor 20 Memory 30 Use image selection part 31 1st use image selection part 32 2nd use image selection part (selection part)
40 detector 51 LPF1 (first LPF)
52 LPF2 (second LPF)
60 Composition Unit 70 Gradation Conversion Unit 80 Compression Unit

Claims (3)

長露光画像と短露光画像との合成前に前記長露光画像と前記短露光画像とにおいて対応する画素毎の混合比率を示す選択情報から高周波成分を取り除く第1のLPFと、
動きを検出して動き検出情報を得る動き検出部と、
前記動き検出情報から高周波成分を取り除く第2のLPFと、
高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得る選択部と、
前記選択結果に基づいて前記長露光画像と前記短露光画像とを合成する合成部と、
を備える、画像処理装置。
A first LPF that removes high frequency components from the selection information indicating the mixing ratio of each pixel corresponding in said length exposure image before the synthesis of the long exposure image and the short-exposure image and the short-exposure image,
A motion detector that detects motion and obtains motion detection information;
A second LPF that removes high frequency components from the motion detection information;
Based on the motion detection information after the high-frequency component is removed, either the selection information before the high-frequency component is removed or the selection information after the high-frequency component is removed is selected for each pixel to obtain a selection result. A selection section;
A combining unit that combines the long exposure image and the short exposure image based on the selection result;
An image processing apparatus comprising:
前記選択部は、高周波成分が取り除かれた後の動き検出情報から検出された動き領域については高周波成分が取り除かれた後の選択情報を選択し、高周波成分が取り除かれた後の動き検出情報から検出された非動き領域については高周波成分が取り除かれる前の選択情報を選択する、
請求項1に記載の画像処理装置。
The selection unit selects the selection information after the high frequency component is removed for the motion region detected from the motion detection information after the high frequency component is removed, and the motion detection information after the high frequency component is removed. For the detected non-motion region, select the selection information before the high frequency component is removed,
The image processing apparatus according to claim 1.
長露光画像と短露光画像との合成前に前記長露光画像と前記短露光画像とにおいて対応する画素ごとの混合比率を示す選択情報から高周波成分を取り除くステップと、
動きを検出して動き検出情報を得るステップと、
前記動き検出情報から高周波成分を取り除くステップと、
高周波成分が取り除かれた後の動き検出情報に基づいて、高周波成分が取り除かれる前の選択情報と高周波成分が取り除かれた後の選択情報とのいずれかを画素毎に選択して選択結果を得るステップと、
前記選択結果に基づいて前記長露光画像と前記短露光画像とを合成するステップと、
を含む、画像処理方法。

And removing high frequency components from the selection information indicating the mixing ratio of each corresponding pixel in said length exposure image and the short-exposure image before the synthesis of the long exposure image and the short-exposure image,
Detecting motion to obtain motion detection information;
Removing high frequency components from the motion detection information;
Based on the motion detection information after the high-frequency component is removed, either the selection information before the high-frequency component is removed or the selection information after the high-frequency component is removed is selected for each pixel to obtain a selection result. Steps,
Combining the long exposure image and the short exposure image based on the selection result;
Including an image processing method.

JP2013100509A 2013-05-10 2013-05-10 Image processing apparatus and image processing method Active JP6173027B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013100509A JP6173027B2 (en) 2013-05-10 2013-05-10 Image processing apparatus and image processing method
KR1020130135848A KR102050415B1 (en) 2013-05-10 2013-11-08 Apparatus and method for image processing.
US14/270,851 US9460492B2 (en) 2013-05-10 2014-05-06 Apparatus and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013100509A JP6173027B2 (en) 2013-05-10 2013-05-10 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2014220759A JP2014220759A (en) 2014-11-20
JP6173027B2 true JP6173027B2 (en) 2017-08-02

Family

ID=51938813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013100509A Active JP6173027B2 (en) 2013-05-10 2013-05-10 Image processing apparatus and image processing method

Country Status (2)

Country Link
JP (1) JP6173027B2 (en)
KR (1) KR102050415B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6529269B2 (en) * 2015-01-26 2019-06-12 キヤノン株式会社 Image processing apparatus, information processing method and program
JP7130777B2 (en) * 2018-06-07 2022-09-05 ドルビー ラボラトリーズ ライセンシング コーポレイション HDR image generation from a single-shot HDR color image sensor

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999321B2 (en) * 1997-12-05 2007-10-31 オリンパス株式会社 Electronic camera
US7409104B2 (en) * 2002-07-18 2008-08-05 .Sightic Vista Ltd Enhanced wide dynamic range in imaging
JP5050141B2 (en) * 2004-12-01 2012-10-17 国立大学法人徳島大学 Color image exposure evaluation method
JP2006325274A (en) * 2006-09-11 2006-11-30 Olympus Corp Imaging device
EP2297939B1 (en) * 2008-06-19 2018-04-18 Panasonic Intellectual Property Management Co., Ltd. Method and apparatus for motion blur and ghosting prevention in imaging system
JP5319415B2 (en) 2009-06-22 2013-10-16 キヤノン株式会社 Image processing apparatus and image processing method
JP2013066142A (en) * 2011-08-31 2013-04-11 Sony Corp Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
KR102050415B1 (en) 2019-11-29
KR20140133391A (en) 2014-11-19
JP2014220759A (en) 2014-11-20

Similar Documents

Publication Publication Date Title
JP6046966B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5102374B2 (en) Method and apparatus for moving blur and ghost prevention in an imaging system
JP5589446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6184290B2 (en) Image processing apparatus and image processing method
JP6678376B2 (en) Motion detection device and motion detection method
JP6227935B2 (en) Image processing apparatus and image processing method
JP2015144475A (en) Imaging apparatus, control method of the same, program and storage medium
JP5882702B2 (en) Imaging device
US9460492B2 (en) Apparatus and method for image processing
JP6543787B2 (en) Image processing apparatus and image processing method
JP6173027B2 (en) Image processing apparatus and image processing method
JP2013222980A (en) Image-pickup device and image-pickup method
JP6324235B2 (en) Image processing apparatus and image processing method
JP6376339B2 (en) Image processing apparatus and image processing method
JP6020904B2 (en) Image processing apparatus and imaging apparatus
KR102282464B1 (en) Image processing apparatus and image processing method
JP2015080157A (en) Image processing device, image processing method and program
JP6121234B2 (en) Image processing apparatus and image processing method
JP6200687B2 (en) Image processing apparatus and image processing method
JP6603557B2 (en) Image processing apparatus and image processing method
JP2017098750A (en) Vector calculation apparatus and vector calculation method
JP2015204489A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170704

R150 Certificate of patent or registration of utility model

Ref document number: 6173027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350