JP2011044846A - Image processor and imaging apparatus - Google Patents

Image processor and imaging apparatus Download PDF

Info

Publication number
JP2011044846A
JP2011044846A JP2009190851A JP2009190851A JP2011044846A JP 2011044846 A JP2011044846 A JP 2011044846A JP 2009190851 A JP2009190851 A JP 2009190851A JP 2009190851 A JP2009190851 A JP 2009190851A JP 2011044846 A JP2011044846 A JP 2011044846A
Authority
JP
Japan
Prior art keywords
image
area
target
edge
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009190851A
Other languages
Japanese (ja)
Inventor
Masahiro Yokohata
正大 横畠
Shinpei Fukumoto
晋平 福本
Haruo Hatanaka
晴雄 畑中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009190851A priority Critical patent/JP2011044846A/en
Publication of JP2011044846A publication Critical patent/JP2011044846A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a corrected image with little blur and noise from a plurality of images. <P>SOLUTION: A target corrected image is generated by combining images (third intermediate generation images) based on a short exposure image of short exposure time and an appropriate exposure image of long exposure time. An edge intensity value calculation part 55 calculates edge intensity at each pixel position of an edge evaluation image (the short exposure image, for instance) as an edge intensity value. An area edge amount calculation part 71 calculates an area edge amount by dividing the entire image area of the edge evaluation image into a plurality of partial image areas and integrating the edge intensity value inside the partial image area for the respective partial image areas. A second composition part 56b sets the composition rate of the short exposure image to the target correction image for each pixel position. The composition rate at the position of the pixel under consideration is increased as the edge intensity value for the position of the pixel under consideration becomes larger, and is increased as the area edge amount for the partial image area to which the position of the pixel under consideration belongs becomes larger. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像に対して画像処理を施す画像処理装置、及び、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置に関する。   The present invention relates to an image processing apparatus that performs image processing on an image, and an imaging apparatus such as a digital still camera or a digital video camera.

近年、手ぶれや被写体ぶれに由来して生じる画像ぶれを抑制する技術が盛んに開発されている。この種の技術の中で光学的にぶれ補正を行うものも存在するが、光学的にぶれ補正を行うためには、ぶれを検出するセンサ及びぶれを光学的に補正する機構が必要となる。これらのセンサ及び機構の搭載はコスト及び装置小型化の面において不利となる。そこで、撮影後の画像処理によってぶれを補正する技術も様々に提案されている。   In recent years, techniques for suppressing image blur caused by camera shake and subject blur have been actively developed. Among these types of techniques, there are some that perform optical shake correction, but in order to perform optical shake correction, a sensor that detects the shake and a mechanism that optically corrects the shake are required. The mounting of these sensors and mechanisms is disadvantageous in terms of cost and device miniaturization. Therefore, various techniques for correcting blur by image processing after shooting have been proposed.

例えば、或る従来方法では、露光時間の短い露光によって解像度(解像力)は高いがノイズの多い第1画像を撮影すると共に露光時間の長い露光によって解像度(解像力)は低いがノイズの少ない第2画像を撮影する。そして、第1及び第2画像の画像データに基づいて両画像間の位置ずれを検出し、その位置ずれを打ち消すための位置合わせを行った後、第1及び第2画像を合成することにより補正画像を生成する(例えば、下記特許文献1及び2参照)。   For example, in a conventional method, a first image with a high resolution (resolution) but a lot of noise is captured by exposure with a short exposure time, and a second image with a low resolution (resolution) but low noise by exposure with a long exposure time. Shoot. Then, based on the image data of the first and second images, a positional deviation between the two images is detected, and after correcting for the positional deviation, correction is performed by combining the first and second images. An image is generated (for example, see Patent Documents 1 and 2 below).

この際、特許文献1の方法では、第1及び第2画像間の画素信号の差分値を画素ごとに算出する。そして、ぶれ及びノイズの少ない補正画像を生成するべく、差分値が閾値よりも大きい画素に対しては当該画素をエッジと判断して第1画像の合成比率を比較的大きくし、逆に、差分値が閾値以下の画素に対しては当該画素を非エッジと判断して第2画像の合成比率を比較的大きくする。第1画像の合成比率を大きくすれば、ぶれが抑制されて鮮鋭度が増し、逆に第2画像の合成比率を大きくすれば、ノイズが抑制される。   At this time, in the method of Patent Document 1, the difference value of the pixel signal between the first and second images is calculated for each pixel. Then, in order to generate a corrected image with less blur and noise, for a pixel having a difference value larger than the threshold value, the pixel is determined to be an edge, and the composition ratio of the first image is relatively increased. For a pixel whose value is less than or equal to the threshold value, the pixel is determined as a non-edge, and the composition ratio of the second image is made relatively large. If the composition ratio of the first image is increased, blurring is suppressed and sharpness is increased. Conversely, if the composition ratio of the second image is increased, noise is suppressed.

特許文献2の方法では、第1及び第2画像間の画素信号の差分からエッジ部分を抽出し、画素ごとにエッジ部分からの距離を検出する。そして、画素ごとに検出距離に応じて第1及び第2画像の合成比率を設定している。   In the method of Patent Document 2, an edge portion is extracted from the difference between pixel signals between the first and second images, and the distance from the edge portion is detected for each pixel. Then, the composition ratio of the first and second images is set for each pixel according to the detection distance.

特開2007−324770号公報JP 2007-324770 A 特開2008−236739号公報JP 2008-236739 A

上述の従来方法では、画素ごとにエッジ/非エッジの分類判定又は画素ごとにエッジ部分からの距離判定が行われて、その判定結果に基づき画素ごとに合成比率の設定がなされている。つまり、注目画素を内包する画像領域の全体的な画像特徴に関係なく、注目画素に対する判定結果のみに基づいて注目画素ごとに合成比率の設定がなされている。   In the above-described conventional method, edge / non-edge classification determination is performed for each pixel or distance determination from the edge portion is performed for each pixel, and a composition ratio is set for each pixel based on the determination result. That is, the composition ratio is set for each pixel of interest based on only the determination result for the pixel of interest, regardless of the overall image characteristics of the image region including the pixel of interest.

しかしながら、例えば、注目画素が大きな平坦部を表す画像領域内に位置している場合には、当該画像領域内のノイズ低減を優先した方が全体的な画質向上に寄与すると思われるし、注目画素が平坦部及びエッジ部が混在した画像領域内に位置している場合には、当該画像領域内の鮮鋭度を優先した方が全体的な画質向上に寄与すると思われる(同様の内容が、図面を参照しつつ後述の実施形態において詳説される)。また、撮影画像上には様々な種類の物体の画像データが存在しうるが、第1及び第2画像上に現れている物体(被写体)の種類等に関係なく、合成比率を設定することが最適であるとは言えない(例えば、物体の種類によっては、鮮鋭度を優先した方が良い場合もあるし、そうでない場合もある)。   However, for example, when the target pixel is located in an image region representing a large flat portion, it seems that priority is given to noise reduction in the image region, which contributes to the overall image quality improvement. Is located in the image area where the flat part and the edge part are mixed, it seems that priority is given to the sharpness in the image area to contribute to the improvement of the overall image quality (similar contents are shown in the drawing). And will be described in detail in the following embodiments). In addition, image data of various types of objects may exist on the captured image, but the composition ratio can be set regardless of the type of object (subject) appearing on the first and second images. It may not be optimal (for example, depending on the type of object, it may be better to prioritize sharpness or not).

上述したような、注目画素に対する判定結果のみに基づいて注目画素ごとに合成比率の設定を行う従来方法では、これらの課題に対応することができない。   As described above, the conventional method in which the composition ratio is set for each pixel of interest based only on the determination result for the pixel of interest cannot cope with these problems.

そこで本発明は、複数の画像を合成して得られる画像中のぶれ及びノイズの抑制最適化に寄与する画像処理装置及び撮像装置を提供することを目的とする。
を提供することを目的とする。
Accordingly, an object of the present invention is to provide an image processing apparatus and an imaging apparatus that contribute to the optimization of blur and noise suppression in an image obtained by combining a plurality of images.
The purpose is to provide.

本発明に係る第1の画像処理装置は、撮影によって得られた第1画像を第1合成対象画像とし、前記第1画像の露光時間よりも長い露光時間の撮影によって得られた第2画像、又は、前記第1画像のノイズを低減することによって得られた第3画像と前記第2画像との合成画像である第4画像を第2合成対象画像とし、前記第1及び第2合成対象画像を合成することで出力画像を生成する画像処理装置であって、前記第1合成対象画像又は前記第3画像の全体画像領域を複数の部分画像領域に分割し、前記部分画像領域ごとに当該部分画像領域の画像データに基づいて当該部分画像領域の画像特徴量を抽出する特徴量抽出部を備え、前記第1及び第2合成対象画像を合成する際の合成比率を、前記部分画像領域ごとに当該部分画像領域の画像特徴量に基づいて調整することを特徴とする。   A first image processing apparatus according to the present invention uses a first image obtained by photographing as a first composition target image, and a second image obtained by photographing with an exposure time longer than an exposure time of the first image, Alternatively, a fourth image that is a synthesized image of the third image and the second image obtained by reducing noise in the first image is set as a second synthesis target image, and the first and second synthesis target images are used. An image processing apparatus that generates an output image by combining the first image to be combined or the entire image area of the third image into a plurality of partial image areas, and for each partial image area, A feature amount extraction unit that extracts an image feature amount of the partial image region based on the image data of the image region is provided, and a combination ratio when combining the first and second combination target images is set for each partial image region. Image of the partial image area And adjusting based on the symptoms weight.

これにより、部分画像領域の全体的な画像特徴を考慮した上で当該部分画像領域に対する合成比率が設定される。結果、ぶれの抑制(鮮鋭度向上)を優先した方が良いと思われる部分画像領域に対しては第1合成対象画像の合成比率を高める、ノイズの抑制を優先した方が良いと思われる部分画像領域に対しては第2合成対象画像の合成比率を高める、といったことが可能となる。   Accordingly, the synthesis ratio for the partial image area is set in consideration of the overall image characteristics of the partial image area. As a result, for a partial image area where it is better to give priority to suppression of blurring (improvement of sharpness), a part where it is better to give priority to suppression of noise while increasing the composition ratio of the first synthesis target image For the image region, it is possible to increase the composition ratio of the second composition target image.

具体的には例えば、第1の画像処理装置において、前記特徴量抽出部は、前記部分画像領域ごとに当該部分画像領域におけるエッジ強度の大きさを前記画像特徴量として抽出する。   Specifically, for example, in the first image processing apparatus, the feature amount extraction unit extracts, for each partial image region, the magnitude of edge strength in the partial image region as the image feature amount.

また例えば、第1の画像処理装置において、前記画像特徴量としてのエッジ強度の大きさが比較的大きい部分画像領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的大きくなるように、且つ、前記画像特徴量としてのエッジ強度の大きさが比較的小さい部分画像領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的小さくなるように、前記合成比率を調整するようにしてもよい。   Further, for example, in the first image processing apparatus, the contribution degree of the first synthesis target image to the output image is relatively large for a partial image region having a relatively large edge intensity as the image feature amount. The contribution of the first compositing target image to the output image is relatively small with respect to a partial image region having a relatively small edge strength as the image feature amount. The composition ratio may be adjusted.

これにより、注目した部分画像領域の画像にエッジ部と平坦部が混在する場合には、当該部分画像領域におけるエッジ強度が大きくなるので、出力画像に対する第1合成対象画像の寄与度が高められる。結果、注目した部分画像領域におけるエッジ部の鮮鋭度低下が回避される。また、注目した部分画像領域の画像が連続する大きな平坦部の画像である場合には、当該部分画像領域におけるエッジ強度が小さくなるので、出力画像に対する第1合成対象画像の寄与度が低められる。つまり、ノイズが目立ちやすい平坦部のノイズ低減が優先される。   Thereby, when the edge portion and the flat portion are mixed in the image of the focused partial image region, the edge strength in the partial image region is increased, and the contribution degree of the first synthesis target image to the output image is increased. As a result, a reduction in the sharpness of the edge portion in the focused partial image region is avoided. In addition, when the image of the focused partial image region is an image of a large flat portion that is continuous, the edge strength in the partial image region is reduced, and the contribution degree of the first synthesis target image to the output image is reduced. That is, priority is given to noise reduction in flat portions where noise is conspicuous.

また具体的には例えば、第1の画像処理装置は、前記第1合成対象画像又は前記第3画像の各画素位置におけるエッジ強度を導出するエッジ強度導出部を更に備え、前記合成比率を画素位置ごとに設定し、注目画素位置に対する前記合成比率を、前記注目画素位置におけるエッジ強度と前記注目画素位置の属する部分画像領域の画像特徴量に基づいて設定する。   More specifically, for example, the first image processing apparatus further includes an edge strength deriving unit that derives an edge strength at each pixel position of the first composition target image or the third image, and the composition ratio is determined based on the pixel position. And the composition ratio with respect to the target pixel position is set based on the edge strength at the target pixel position and the image feature amount of the partial image region to which the target pixel position belongs.

また例えば、第1の画像処理装置において、前記画像特徴量に基づいて導出される前記部分画像領域ごとの合成比率を、隣接する部分画像領域間で合成比率の変化量が抑制されるように修正し、修正後の合成比率を用いて前記第1及び第2合成対象画像を合成することで前記出力画像を生成するようにしてもよい。   Also, for example, in the first image processing apparatus, the composition ratio for each partial image area derived based on the image feature amount is corrected so that the amount of change in the composition ratio between adjacent partial image areas is suppressed. Then, the output image may be generated by combining the first and second combining target images using the corrected combining ratio.

これにより、隣接する部分画像領域の境界部分において画像の質感(画像鮮鋭度等)が急峻に変化することが抑制される。   Thereby, it is possible to suppress a sharp change in the texture of the image (image sharpness or the like) at the boundary between adjacent partial image regions.

本発明に係る第2の画像処理装置は、撮影によって得られた第1画像を第1合成対象画像とし、前記第1画像の露光時間よりも長い露光時間の撮影によって得られた第2画像、又は、前記第1画像のノイズを低減することによって得られた第3画像と前記第2画像との合成画像である第4画像を第2合成対象画像とし、前記第1及び第2合成対象画像を合成することで出力画像を生成する画像処理装置であって、前記第1〜第4画像の何れか又は前記第1画像の撮影前若しくは後の撮影によって得られた画像である検出対象画像の画像データに基づいて、前記検出対象画像の中から特定物体の画像データが存在する画像領域の位置及び大きさを検出する特定物体検出部を備え、前記第1及び第2合成対象画像の各全体画像領域を、検出された位置及び大きさに応じた特定領域とそれ以外の非特定領域とに分類し、前記第1及び第2合成対象画像を合成する際の合成比率を前記特定領域及び前記非特定領域間で異ならせる。   The second image processing apparatus according to the present invention uses the first image obtained by photographing as the first composition target image, and the second image obtained by photographing with an exposure time longer than the exposure time of the first image, Alternatively, a fourth image that is a synthesized image of the third image and the second image obtained by reducing noise in the first image is set as a second synthesis target image, and the first and second synthesis target images are used. An image processing apparatus that generates an output image by combining the detection target image, which is an image obtained by photographing one of the first to fourth images or before or after photographing the first image. Each of the first and second synthesis target images includes a specific object detection unit that detects a position and a size of an image area where the image data of the specific object exists from the detection target image based on image data. Image area detected The specific area corresponding to the position and size is classified into a non-specific area other than the specific area, and the composition ratio when the first and second composition target images are synthesized is made different between the specific area and the non-specific area. .

これにより、特定物体の種類等に応じて、特定領域のぶれの抑制(鮮鋭度向上)を優先した方が良いと思われる場合には特定領域に対する第1合成対象画像の合成比率を非特定領域のそれよりも高める、特定領域のノイズの抑制を優先した方が良いと思われる場合には特定領域に対する第2合成対象画像の合成比率を非特定領域のそれよりも高める、といったことが可能となる。   As a result, when it is considered better to give priority to the suppression (sharpness improvement) of blurring of the specific area according to the type of the specific object, the composition ratio of the first composition target image to the specific area is set to the non-specific area. It is possible to increase the composition ratio of the second synthesis target image with respect to the specific area to be higher than that of the non-specific area when it is considered that priority should be given to suppression of noise in the specific area. Become.

具体的には例えば、第2の画像処理装置において、前記特定物体の画像データが存在する画像領域とは、人物の顔の画像データが存在する顔領域であり、前記顔領域に対応する前記特定領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的小さくなるように、且つ、前記非特定領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的大きくなるように、前記合成比率を調整するようにしてもよい。   Specifically, for example, in the second image processing apparatus, the image area in which the image data of the specific object exists is a face area in which image data of a human face exists, and the specific area corresponding to the face area For the region, the contribution of the first composition target image to the output image is relatively small, and for the non-specific region, the contribution of the first composition target image to the output image The synthesis ratio may be adjusted so that the degree becomes relatively large.

これにより、出力画像の顔領域内において、細部が目立たなくなり(例えば、肌のざらつきが目立たなくなり)、美肌の演出効果を得ることができる。   As a result, in the face area of the output image, details are not conspicuous (for example, skin roughness is inconspicuous), and an effect of producing beautiful skin can be obtained.

或いは例えば、第2の画像処理装置において、前記特定領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的大きくなるように、且つ、前記非特定領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的小さくなるように、前記合成比率を調整するようにしてもよい。   Alternatively, for example, in the second image processing apparatus, the contribution ratio of the first synthesis target image to the output image is relatively large for the specific area, and for the non-specific area. The composition ratio may be adjusted so that the degree of contribution of the first composition target image to the output image is relatively small.

また例えば、第2の画像処理装置において、前記特定領域を、前記非特定領域との距離が比較的遠い第1特定領域と前記非特定領域との距離が比較的近い第2特定領域とに分類し、前記出力画像に対する前記第1合成対象画像の寄与度が、前記第1特定領域、前記第2特定領域及び前記非特定領域の順番で増大又は減少するように、各領域に対する合成比率を調整してもよい。   For example, in the second image processing apparatus, the specific area is classified into a first specific area that is relatively far from the non-specific area and a second specific area that is relatively close to the non-specific area. Then, the composition ratio for each region is adjusted so that the contribution degree of the first composition target image to the output image increases or decreases in the order of the first specific region, the second specific region, and the non-specific region. May be.

特定領域と非特定領域の境界部分において画像の質感(画像鮮鋭度等)が急峻に変化することが抑制される。   A sharp change in the texture of the image (image sharpness or the like) at the boundary between the specific area and the non-specific area is suppressed.

本発明に係る撮像装置は、撮影によって画像を取得する撮像部と、上記の何れかの画像処理装置と、を備える。前記画像処理装置に対する前記第1及び第2画像は前記撮像部によって取得される。   An imaging apparatus according to the present invention includes an imaging unit that acquires an image by shooting, and any one of the image processing apparatuses described above. The first and second images for the image processing apparatus are acquired by the imaging unit.

本発明によれば、複数の画像を合成して得られる画像中のぶれ及びノイズの抑制最適化に寄与する画像処理装置及び撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus and imaging device which contribute to the suppression suppression optimization of the blur and noise in the image obtained by synthesize | combining a some image can be provided.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 図1の撮像部の内部構成図である。It is an internal block diagram of the imaging part of FIG. 図1の撮像装置によって撮影された短露光画像と適正露光画像の例を示す図である。It is a figure which shows the example of the short exposure image image | photographed with the imaging device of FIG. 1, and a proper exposure image. 空間領域の二次元座標系と二次元画像を示す図である。It is a figure which shows the two-dimensional coordinate system and two-dimensional image of a space area. 本発明の第1実施形態に係る画像補正部の内部ブロック図である。It is an internal block diagram of the image correction part which concerns on 1st Embodiment of this invention. 図3(a)の短露光画像のノイズを低減することによって得られた第2中間生成画像を示す図である。It is a figure which shows the 2nd intermediate generation image obtained by reducing the noise of the short exposure image of Fig.3 (a). 位置合わせ後の適正露光画像(第1中間生成画像)とノイズ低減処理後の短露光画像(第2中間生成画像)との間の差分画像を示す図である。It is a figure which shows the difference image between the appropriate exposure image (1st intermediate generation image) after alignment, and the short exposure image (2nd intermediate generation image) after a noise reduction process. 図5の差分値算出部で得られた差分値と、第1及び第2中間生成画像の画素信号の混合率と、の関係を示す図である。It is a figure which shows the relationship between the difference value obtained by the difference value calculation part of FIG. 5, and the mixing rate of the pixel signal of a 1st and 2nd intermediate generation image. 位置合わせ後の適正露光画像(第1中間生成画像)とノイズ低減処理後の短露光画像(第2中間生成画像)とを合成することによって得られた第3中間生成画像を示す図である。It is a figure which shows the 3rd intermediate generation image obtained by synthesize | combining the short exposure image (2nd intermediate generation image) after the appropriate exposure image (1st intermediate generation image) after a position alignment, and a noise reduction process. 図5のエッジ強度値算出部にて用いられる微分フィルタを示す図である。It is a figure which shows the differential filter used in the edge strength value calculation part of FIG. ノイズ低減処理後の短露光画像(第2中間生成画像)に対してエッジ抽出処理を施すことで得られたエッジ画像を示す図である。It is a figure which shows the edge image obtained by performing an edge extraction process with respect to the short exposure image (2nd intermediate generation image) after a noise reduction process. 本発明の第1実施形態に係り、図5のエッジ強度値算出部で得られたエッジ強度値と、短露光画像及び第3中間生成画像の画素信号の混合率と、の関係を示す図である。FIG. 6 is a diagram illustrating a relationship between the edge intensity value obtained by the edge intensity value calculation unit in FIG. 5 and the pixel signal mixing ratio of the short exposure image and the third intermediate generation image according to the first embodiment of the present invention. is there. 短露光画像と第3中間生成画像を合成することによって得られた目標補正画像を示す図である。It is a figure which shows the target correction image obtained by synthesize | combining a short exposure image and a 3rd intermediate generation image. 本発明の第1実施形態に係る画像補正部の変形内部ブロック図である。It is a modified internal block diagram of the image correction unit according to the first embodiment of the present invention. 図1の撮像装置の撮影対象例を示す図である。It is a figure which shows the example of imaging | photography object of the imaging device of FIG. 図15の撮影対象の撮影結果に対して、本発明の第1実施形態に係る方法を適用して得た目標補正画像の一部の拡大図である。FIG. 16 is an enlarged view of a part of a target correction image obtained by applying the method according to the first embodiment of the present invention to the shooting result of the shooting target in FIG. 15. 本発明の第2実施形態に係る第2合成部の内部ブロック図である。It is an internal block diagram of the 2nd synthetic | combination part which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係り、二次元画像の全画像領域が複数の部分画像領域に分割される様子を示す図である。It is a figure which shows a mode that the whole image area | region of a two-dimensional image is divided | segmented into several partial image area | region concerning 2nd Embodiment of this invention. 本発明の第2実施形態に係り、エッジ強度値と第2合成演算部における混合率との関係(3種類の関係)を示す図である。It is a figure which concerns on 2nd Embodiment of this invention and shows the relationship (three types of relationship) of an edge strength value and the mixing rate in a 2nd synthetic | combination calculating part. 本発明の第2実施形態に係り、図17の第2合成部への入力画像の変形例を示す図である。FIG. 18 is a diagram illustrating a modified example of an input image to the second synthesis unit in FIG. 17 according to the second embodiment of the present invention. 本発明の第3実施形態に係り、互いに隣接する4つの部分画像領域を示す図である。It is a figure which concerns on 3rd Embodiment of this invention and shows four partial image areas mutually adjacent. 図21の部分画像領域に対して算出された領域エッジ量の数値例を示す図である。It is a figure which shows the numerical example of the area | region edge amount calculated with respect to the partial image area | region of FIG. 本発明の第3実施形態に係る第2合成演算部の混合率が、第2実施形態との比較において、補正される様子を示す図である。It is a figure which shows a mode that the mixing rate of the 2nd synthetic | combination calculating part which concerns on 3rd Embodiment of this invention is correct | amended in comparison with 2nd Embodiment. 本発明の第4実施形態に係る第2合成部の内部ブロック図である。It is an internal block diagram of the 2nd synthetic | combination part which concerns on 4th Embodiment of this invention. 図24の特定領域検出部によって、二次元画像の全画像領域が特定領域と非特定領域に分割される様子を示した図である。It is the figure which showed a mode that all the image areas of a two-dimensional image were divided | segmented into a specific area and a non-specific area | region by the specific area detection part of FIG. 本発明の第4実施形態に係り、検出対象画像から顔領域が抽出される様子を示した図である。It is a figure showing signs that a face field is extracted from a detection object picture concerning a 4th embodiment of the present invention. 本発明の第4実施形態に係り、エッジ強度値と第2合成演算部における混合率との関係(2種類の関係)を示す図である。It is a figure which concerns on 4th Embodiment of this invention and shows the relationship (two types of relationship) of the edge strength value and the mixing rate in a 2nd synthetic | combination calculating part. 本発明の第4実施形態に係る追尾処理部の概略内部ブロック図である。It is a schematic internal block diagram of the tracking process part which concerns on 4th Embodiment of this invention. 本発明の第4実施形態にて想定される撮影画像列を示す図である。It is a figure which shows the picked-up image sequence assumed in 4th Embodiment of this invention. 本発明の第4実施形態に係り、図24の第2合成部への入力画像の変形例を示す図である。FIG. 25 is a diagram illustrating a modification of the input image to the second synthesis unit in FIG. 24 according to the fourth embodiment of the present invention. 本発明の第5実施形態に係り、顔領域が顔中央領域と顔周辺領域に分割される様子を示した図である。FIG. 16 is a diagram illustrating a manner in which a face area is divided into a face center area and a face peripheral area according to the fifth embodiment of the present invention. 本発明の第5実施形態に係り、エッジ強度値と第2合成演算部における混合率との関係を示す図である。It is a figure which concerns on 5th Embodiment of this invention and shows the relationship between an edge strength value and the mixing rate in a 2nd synthetic | combination calculating part. 本発明の第5実施形態に係り、第2合成演算部における混合率の決定するために、顔領域内の複数の画素位置が参照される様子を示した図である。FIG. 20 is a diagram illustrating a manner in which a plurality of pixel positions in a face area are referred to in order to determine a mixing ratio in a second synthesis calculation unit according to the fifth embodiment of the present invention.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第5実施形態を説明するが、まず、各実施形態に共通する事項又は各実施形態にて参照される事項について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to fifth embodiments will be described later. First, matters that are common to the embodiments or items that are referred to in the embodiments will be described.

図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、静止画像を撮影及び記録可能なデジタルスチルカメラ、又は、静止画像及び動画像を撮影及び記録可能なデジタルビデオカメラである。尚、撮影と撮像は同義である。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital still camera capable of capturing and recording still images, or a digital video camera capable of capturing and recording still images and moving images. Note that shooting and imaging are synonymous.

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、主制御部13と、内部メモリ14と、表示部15と、記録媒体16と、操作部17と、を備えている。主制御部13には、画像補正部20が備えられている。操作部17には、シャッタボタン17aが備えられている。尚、表示部15は撮像装置1の外部に設けられた表示装置である、と捉えても良い。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a main control unit 13, an internal memory 14, a display unit 15, a recording medium 16, and an operation unit 17. The main control unit 13 is provided with an image correction unit 20. The operation unit 17 is provided with a shutter button 17a. The display unit 15 may be regarded as a display device provided outside the imaging device 1.

図2に、撮像部11の内部構成図を示す。撮像部11は、光学系35と、絞り32と、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。ドライバ34は、主制御部13からの駆動制御信号に基づいてズームレンズ30及びフォーカスレンズ31の各位置並びに絞り32の開度を駆動制御することにより、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量を制御する。   FIG. 2 shows an internal configuration diagram of the imaging unit 11. The imaging unit 11 drives and controls the optical system 35, the diaphragm 32, the imaging element 33 such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and the optical system 35 or the diaphragm 32. And a driver 34. The optical system 35 is formed from a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. The driver 34 drives and controls the positions of the zoom lens 30 and the focus lens 31 and the opening degree of the diaphragm 32 based on the drive control signal from the main control unit 13, so that the focal length (angle of view) and the imaging unit 11 are controlled. The focal position and the amount of light incident on the image sensor 33 are controlled.

撮像素子33は、光学系35及び絞り32を介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素を備え、各受光画素は露光時間(即ち露光期間の長さ)に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次AFE12に出力される。以下の説明における「露光」とは、撮像素子33の露光を意味するものとする。   The image sensor 33 photoelectrically converts an optical image representing a subject incident through the optical system 35 and the diaphragm 32 and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the imaging device 33 includes a plurality of light receiving pixels arranged two-dimensionally in a matrix, and each light receiving pixel stores a signal charge having a charge amount corresponding to the exposure time (that is, the length of the exposure period). . An analog signal from each light receiving pixel having a magnitude proportional to the amount of stored signal charge is sequentially output to the AFE 12 in accordance with a drive pulse generated in the imaging device 1. In the following description, “exposure” means exposure of the image sensor 33.

AFE12は、撮像部11(撮像素子33)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、主制御部13に出力する。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (image sensor 33), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the main control unit 13.

主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部としての機能を有する。主制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」ともいう)を表す映像信号を生成する。また、主制御部13は、表示部15の表示内容を制御する機能をも備え、表示に必要な制御を表示部15に対して行う。また、主制御部13は、撮像素子33の露光時間を制御するための露光時間制御信号を撮像部11に出力する。主制御部13に備えられる画像補正部20の機能については後述する。   The main control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and has a function as a video signal processing unit. Based on the output signal of the AFE 12, the main control unit 13 generates a video signal representing an image captured by the imaging unit 11 (hereinafter also referred to as “captured image”). The main control unit 13 also has a function of controlling the display content of the display unit 15 and performs control necessary for display on the display unit 15. The main control unit 13 outputs an exposure time control signal for controlling the exposure time of the image sensor 33 to the imaging unit 11. The function of the image correction unit 20 provided in the main control unit 13 will be described later.

内部メモリ14は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成され、撮像装置1内で生成された各種データを一時的に記憶する。表示部15は、液晶ディスプレイパネル等から成る表示装置であり、主制御部13の制御の下、撮影された画像や記録媒体16に記録されている画像などを表示する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、主制御部13による制御の下、撮影画像などを記録する。尚、主制御部13には、任意の画像の画像データを圧縮する圧縮処理部及び圧縮画像データを伸張する伸張処理部が設けられており、圧縮画像データを記録媒体16に記録することができる。   The internal memory 14 is formed by SDRAM (Synchronous Dynamic Random Access Memory) or the like, and temporarily stores various data generated in the imaging device 1. The display unit 15 is a display device including a liquid crystal display panel and the like, and displays a photographed image, an image recorded on the recording medium 16, and the like under the control of the main control unit 13. The recording medium 16 is a non-volatile memory such as an SD (Secure Digital) memory card, and records captured images and the like under the control of the main control unit 13. The main control unit 13 is provided with a compression processing unit that compresses image data of an arbitrary image and an expansion processing unit that expands compressed image data, and the compressed image data can be recorded on the recording medium 16. .

操作部17は、外部からの操作を受け付ける。操作部17に対する操作内容は、主制御部13に伝達される。シャッタボタン17aは、画像の撮影及び記録を指示するためのボタンである。   The operation unit 17 receives an operation from the outside. The content of the operation on the operation unit 17 is transmitted to the main control unit 13. The shutter button 17a is a button for instructing photographing and recording of an image.

シャッタボタン17aは2段階の押下操作が可能に形成されている。撮影者がシャッタボタン17aを軽く押し込むと、シャッタボタン17aは半押しの状態となり、その状態から更にシャッタボタン17aを押し込むとシャッタボタン17aは全押しの状態となる。   The shutter button 17a is formed so that it can be pressed in two stages. When the photographer lightly presses the shutter button 17a, the shutter button 17a is half pressed, and when the shutter button 17a is further pressed from this state, the shutter button 17a is fully pressed.

撮影画像は、手ぶれに起因するぶれを含みうる。画像補正部20は、光学的に手ぶれ補正を行うことなく、撮像部11の出力信号によって表される画像データを用いた画像処理により、ぶれの少ない画像を生成する機能を備える。画像補正部20によって生成されるべき、ぶれの少ない画像を、以下特に「目標補正画像」という。   The photographed image can include a camera shake caused by camera shake. The image correction unit 20 has a function of generating an image with less blur by image processing using image data represented by an output signal of the imaging unit 11 without optically correcting camera shake. An image with less blur that should be generated by the image correction unit 20 is hereinafter referred to as a “target corrected image”.

目標補正画像は、適正露光画像及び短露光画像に基づいて生成される。適正露光画像は、適正露光時間TOPの露光による撮影によって撮像素子33から得られる画像を指し、短露光画像は、適正露光時間TOPよりも短い露光時間TSHの露光による撮影によって撮像素子33から得られる画像を指す。 The target correction image is generated based on the proper exposure image and the short exposure image. The proper exposure image refers to an image obtained from the image sensor 33 by photographing with exposure with the proper exposure time T OP , and the short exposure image is the image sensor 33 by photographing with exposure having an exposure time T SH shorter than the proper exposure time T OP. Refers to the image obtained from

撮影画像の明るさが短露光画像及び適正露光画像間で同程度となるように、短露光画像の取得時における感度が調整される。即ち、撮影画像の明るさが短露光画像及び適正露光画像間で同程度となるように、適正露光時間TOPと露光時間TSHの比に基づき、短露光画像の取得時における感度は適正露光画像の取得時における感度よりも大きくされる。感度は、例えばISO感度である。ISO感度は、ISO(International Organization for Standardization)によって規定された感度を意味し、ISO感度を調節することで撮影画像の明るさ(輝度レベル)を調節することができる。実際には、ISO感度に応じてAFE12における信号増幅の増幅度を決定する。その増幅度はISO感度に比例している。ISO感度が2倍になれば、その増幅度も2倍となり、これによって撮影画像の各画素の輝度値(即ち明るさ)も2倍となる(但し、増幅における飽和を無視)。或る画素の輝度値とは、その画素の輝度信号の値を指す。 The sensitivity at the time of acquisition of the short exposure image is adjusted so that the brightness of the photographed image is comparable between the short exposure image and the appropriate exposure image. That is, the sensitivity at the time of acquisition of the short exposure image is appropriate exposure based on the ratio of the appropriate exposure time T OP and the exposure time T SH so that the brightness of the photographed image is comparable between the short exposure image and the appropriate exposure image. It is larger than the sensitivity at the time of image acquisition. The sensitivity is, for example, ISO sensitivity. The ISO sensitivity means sensitivity defined by ISO (International Organization for Standardization), and the brightness (luminance level) of a captured image can be adjusted by adjusting the ISO sensitivity. Actually, the amplification factor of the signal amplification in the AFE 12 is determined according to the ISO sensitivity. The amplification degree is proportional to the ISO sensitivity. If the ISO sensitivity is doubled, the degree of amplification is also doubled, whereby the luminance value (that is, brightness) of each pixel of the photographed image is also doubled (however, saturation in amplification is ignored). The luminance value of a certain pixel refers to the value of the luminance signal of that pixel.

短露光画像は比較的短い露光時間によって撮影されるため、短露光画像に含まれる、手ぶれに由来するぶれ及び被写体ぶれに由来するぶれは比較的少ない。そのため、短露光画像においては、エッジが鮮明に描写される。しかしながら、撮影時の感度が高いことから、短露光画像にはノイズが比較的多く含まれる。   Since the short exposure image is taken with a relatively short exposure time, the short exposure image includes relatively few blurs derived from camera shake and subject blur. Therefore, the edge is clearly depicted in the short exposure image. However, since the sensitivity at the time of shooting is high, the short-exposure image contains a relatively large amount of noise.

これに対して、適正露光画像は比較的長い露光時間によって撮影されるため、適正露光画像に含まれるノイズは比較的少ない。但し、露光時間が長いことから、適正露光画像には手ぶれ及び被写体ぶれに由来するぶれが含まれやすくなる。   On the other hand, since the proper exposure image is taken with a relatively long exposure time, the noise included in the proper exposure image is relatively small. However, since the exposure time is long, the proper exposure image easily includes camera shake and camera shake.

図3(a)及び(b)に、短露光画像と適正露光画像の例を示す。図3(a)及び(b)における画像310及び311が、夫々、短露光画像及び適正露光画像の例である。短露光画像310及び適正露光画像311は、背景被写体である山の前に注目被写体としての人物SUBが立っている状態を撮影することにより得られたものである。   3A and 3B show examples of a short exposure image and a proper exposure image. Images 310 and 311 in FIGS. 3A and 3B are examples of a short exposure image and a proper exposure image, respectively. The short exposure image 310 and the proper exposure image 311 are obtained by photographing a state in which a person SUB as a subject of interest stands in front of a mountain that is a background subject.

適正露光画像311と比較して、短露光画像310では、エッジが鮮明に描写されているものの比較的大きなノイズ(図3(a)における黒い斑点に対応)が混入している。一方、短露光画像310と比較して、適正露光画像311に含まれるノイズは少ないが適正露光画像311上では人物SUBが大きくぶれている。また、図3(a)及び(b)では、短露光画像310及び適正露光画像311の撮影中に人物SUBが移動していることを想定しており、これによって短露光画像310上の人物SUBの位置と比べて適正露光画像311上の人物SUBは右寄りに位置していると共に適正露光画像311上の人物SUBには被写体ぶれが生じている。   Compared to the proper exposure image 311, the short exposure image 310 contains a relatively large noise (corresponding to black spots in FIG. 3A) although the edge is clearly depicted. On the other hand, compared with the short exposure image 310, the proper exposure image 311 contains less noise, but the person SUB is greatly blurred on the proper exposure image 311. In FIGS. 3A and 3B, it is assumed that the person SUB is moving while the short exposure image 310 and the proper exposure image 311 are captured, whereby the person SUB on the short exposure image 310 is assumed. The person SUB on the proper exposure image 311 is located on the right side as compared to the position, and subject blurring has occurred on the person SUB on the proper exposure image 311.

また、図4に示す如く、任意の二次元画像300が配置される、空間領域(spatial domain)の二次元座標系XYを定義する。画像300は、例えば、上述の撮影画像、適正露光画像、短露光画像、目標補正画像、又は、後述の第1〜第3中間生成画像である。X軸及びY軸は、二次元画像300の水平方向及び垂直方向に沿った軸である。二次元画像300は、水平方向及び垂直方向の夫々に複数の画素がマトリクス状に配列されて形成されており、二次元画像300上の何れかの画素である画素301の位置を(x,y)にて表す。本明細書では、画素の位置を、単に画素位置とも言う。x及びyは、夫々、画素301のX軸及びY軸方向の座標値である。二次元座標系XYにおいて、或る画素の位置が右側に1画素分ずれると該画素のX軸方向における座標値は1だけ増大し、或る画素の位置が下側に1画素分ずれると該画素のY軸方向における座標値は1だけ増大する。従って、画素301の位置が(x,y)である場合、画素301の右側、左側、下側及び上側に隣接する画素の位置は、夫々、(x+1,y)、(x−1,y)、(x,y+1)及び(x,y―1)にて表される。   Also, as shown in FIG. 4, a two-dimensional coordinate system XY of a spatial domain where an arbitrary two-dimensional image 300 is arranged is defined. The image 300 is, for example, the above-described captured image, proper exposure image, short exposure image, target correction image, or first to third intermediate generation images described later. The X axis and the Y axis are axes along the horizontal direction and the vertical direction of the two-dimensional image 300. The two-dimensional image 300 is formed by arranging a plurality of pixels in a matrix in each of the horizontal direction and the vertical direction, and the position of a pixel 301 that is any pixel on the two-dimensional image 300 is (x, y ). In this specification, the position of a pixel is also simply referred to as a pixel position. x and y are coordinate values of the pixel 301 in the X-axis and Y-axis directions, respectively. In the two-dimensional coordinate system XY, when the position of a certain pixel is shifted to the right by one pixel, the coordinate value of the pixel in the X-axis direction increases by 1, and when the position of a certain pixel is shifted downward by one pixel, The coordinate value of the pixel in the Y-axis direction increases by 1. Therefore, when the position of the pixel 301 is (x, y), the positions of the pixels adjacent to the right side, the left side, the lower side, and the upper side of the pixel 301 are (x + 1, y) and (x-1, y), respectively. , (X, y + 1) and (x, y-1).

以下、撮像装置1(特に画像補正部20)の構成及び動作を説明する実施形態として第1〜第5実施形態を説明する。矛盾なき限り、或る実施形態に記載した事項を他の実施形態に適用することもできる。特に、第1実施形態には第2〜第5実施形態にて示される技術の前提技術が示されているため、第1実施形態に記載した事項は、矛盾なき限り、第2〜第5実施形態にも適用される。   Hereinafter, first to fifth embodiments will be described as embodiments for explaining the configuration and operation of the imaging apparatus 1 (particularly, the image correction unit 20). As long as there is no contradiction, the matters described in one embodiment can be applied to other embodiments. In particular, since the premise technique of the technique shown in the second to fifth embodiments is shown in the first embodiment, the matters described in the first embodiment are the second to fifth implementations as long as there is no contradiction. Also applies to form.

<<第1実施形態>>
まず、本発明の第1実施形態を説明する。第1実施形態では、シャッタボタン17aの押下に伴って、以下のように短露光画像及び適正露光画像が取得される。
<< First Embodiment >>
First, a first embodiment of the present invention will be described. In the first embodiment, as the shutter button 17a is pressed, a short exposure image and a proper exposure image are acquired as follows.

シャッタボタン17aが半押しの状態となっていることが確認されると、主制御部13は、プリ露光を実行し、プリ露光にて得られるAFE12の出力信号レベルから適正露光時間TOPを決定する。プリ露光とは、短露光画像及び適正露光画像の露光に先立って行われる露光を指す。その後、シャッタボタン17aが全押しの状態となっていることが確認されると、短露光画像と適正露光画像を連続的に撮影する。短露光画像の撮影後に適正露光画像を撮影しても良いし、適正露光画像の撮影後に短露光画像を撮影しても良いが、両画像の露光間隔がなるだけ短くなるようにそれらは連続的に撮影される。上述したように、適正露光画像は適正露光時間TOPにて撮影され、短露光画像は適正露光時間TOPよりも短い露光時間TSHにて撮影される。例えば、露光時間TSHは、光学系35の焦点距離の逆数に相当する手ぶれ限界露光時間以下に設定される。TSHをTOP/4などに設定してもよい。 When it is confirmed that the shutter button 17a is in the half-pressed state, the main control unit 13 executes the pre-exposure, determines a proper exposure time T OP from the output signal level of AFE12 obtained by pre-exposure To do. Pre-exposure refers to exposure performed prior to exposure of a short exposure image and a proper exposure image. Thereafter, when it is confirmed that the shutter button 17a is fully pressed, a short exposure image and a proper exposure image are taken continuously. A proper exposure image may be taken after taking a short exposure image, or a short exposure image may be taken after taking a proper exposure image, but they are continuous so that the exposure interval between both images is as short as possible. Taken on. As described above, the proper exposure image is taken at the proper exposure time T OP , and the short exposure image is taken at the exposure time T SH shorter than the proper exposure time T OP . For example, the exposure time T SH is set to be equal to or less than the camera shake limit exposure time corresponding to the reciprocal of the focal length of the optical system 35. T SH may be set to T OP / 4 or the like.

図5は、第1実施形態に係る画像補正部20aの内部ブロック図である。第1実施形態では、図1の画像補正部20として画像補正部20aが用いられる。上述の如く撮影された短露光画像及び適正露光画像の画像データは、画像補正部20aに入力される。画像データとは、画像の色及び輝度を表すデータを指す。   FIG. 5 is an internal block diagram of the image correction unit 20a according to the first embodiment. In the first embodiment, an image correction unit 20a is used as the image correction unit 20 in FIG. The image data of the short exposure image and the proper exposure image captured as described above are input to the image correction unit 20a. Image data refers to data representing the color and brightness of an image.

画像補正部20aは、短露光画像と適正露光画像との間の位置ずれを検出して両画像間の位置合わせを行う位置合わせ部51と、短露光画像に含まれるノイズを低減するノイズ低減部52と、位置合わせ後の適正露光画像とノイズ低減後の短露光画像との間の差分をとって各画素位置における差分値を算出する差分値算出部53と、その差分値に基づく合成比率にて位置合わせ後の適正露光画像とノイズ低減後の短露光画像を合成する第1合成演算部54と、ノイズ低減後の短露光画像からエッジを抽出してエッジ強度値を算出するエッジ強度値算出部55と、エッジ強度値に基づく合成比率にて短露光画像と第1合成演算部54による合成画像とを合成することにより目標補正画像を生成する第2合成演算部56と、を備える。差分値算出部53及び第1合成演算部54によって第1合成部61が形成され、エッジ強度値算出部55及び第2合成演算部56によって第2合成部62が形成される。   The image correction unit 20a includes a registration unit 51 that detects a positional deviation between the short exposure image and the proper exposure image and performs registration between the two images, and a noise reduction unit that reduces noise included in the short exposure image. 52, a difference value calculation unit 53 that calculates a difference value between each pixel position by taking the difference between the proper exposure image after alignment and the short exposure image after noise reduction, and a combination ratio based on the difference value A first composition calculator 54 that synthesizes a properly exposed image after alignment and a short-exposure image after noise reduction, and an edge strength value calculator that extracts an edge from the short-exposure image after noise reduction and calculates an edge strength value And a second synthesis calculation unit 56 that generates a target correction image by synthesizing the short-exposure image and the synthesized image by the first synthesis calculation unit 54 at a synthesis ratio based on the edge intensity value. The difference value calculation unit 53 and the first combination calculation unit 54 form a first combination unit 61, and the edge strength value calculation unit 55 and the second combination calculation unit 56 form a second combination unit 62.

画像補正部20a内の各部位の動作について詳説する。尚、単に、短露光画像と言った場合、それは、ノイズ低減部52によるノイズ低減処理が施されていない短露光画像を指す(後述の他の実施形態においても同様)。図3(a)に例示した短露光画像310は、ノイズ低減部52によるノイズ低減が施されていない短露光画像である。   The operation of each part in the image correction unit 20a will be described in detail. It should be noted that simply referring to a short-exposure image refers to a short-exposure image that has not been subjected to noise reduction processing by the noise reduction unit 52 (the same applies to other embodiments described later). The short exposure image 310 illustrated in FIG. 3A is a short exposure image that has not been subjected to noise reduction by the noise reduction unit 52.

位置合わせ部51は、短露光画像及び適正露光画像の画像データに基づいて短露光画像と適正露光画像との間の位置ずれを検出し、検出した位置ずれに基づいて短露光画像及び適正露光画像間の位置合わせを行う。上述したように短露光画像と適正露光画像は連続的に撮影されるため、両画像の撮影時における撮影領域は略同一となるが、両画像の撮影時刻は完全に同じではないため両画像についての撮影領域は若干ずれ、結果、同一被写体の画像データが存在する、短露光画像上の位置と適正露光画像上の位置が若干ずれることがある。   The alignment unit 51 detects misalignment between the short exposure image and the proper exposure image based on the image data of the short exposure image and the proper exposure image, and based on the detected misalignment, the short exposure image and the proper exposure image. Align between them. As described above, since the short-exposure image and the proper exposure image are continuously captured, the capturing areas at the time of capturing both images are substantially the same, but the capturing time of both images is not completely the same, so both images As a result, the position on the short exposure image where the image data of the same subject exists and the position on the proper exposure image may be slightly shifted.

位置合わせ部51は、この位置のずれを検出して、検出した位置ずれが打ち消されるように適正露光画像の各画素の座標値に対して座標変換を施すことで該位置ずれを補正する。これにより、誤差を無視したとすれば、同一被写体の画像データが存在する、短露光画像上の位置と座標変換後の適正露光画像上の位置とが完全に一致するようになる。位置合わせ部51による位置ずれ補正後の適正露光画像(換言すれば、位置合わせ後の適正露光画像)を第1中間生成画像と呼ぶ。   The alignment unit 51 detects this positional deviation and corrects the positional deviation by performing coordinate conversion on the coordinate values of each pixel of the appropriate exposure image so that the detected positional deviation is canceled. As a result, if the error is ignored, the position on the short exposure image where the image data of the same subject exists and the position on the appropriate exposure image after coordinate conversion completely coincide with each other. The appropriate exposure image after the misalignment correction by the alignment unit 51 (in other words, the appropriate exposure image after alignment) is referred to as a first intermediate generation image.

位置合わせ部51による位置ずれの検出方法として、2枚の画像の画像データから2枚の画像間の位置ずれを検出することのできる任意の方法を用いることができる。例えば、代表点マッチング法、ブロックマッチング法又は勾配法を用いて位置ずれを検出することができる。上記位置ずれを、撮像装置1の筐体の動きを検出する手ぶれ検出センサ(例えば、撮像装置1の筐体の角速度を検出する角速度センサ)を用いて検出するようにしてもよい。   As a method of detecting a positional shift by the alignment unit 51, any method capable of detecting a positional shift between two images from image data of two images can be used. For example, the positional deviation can be detected using a representative point matching method, a block matching method, or a gradient method. The positional deviation may be detected using a camera shake detection sensor (for example, an angular velocity sensor that detects an angular velocity of the housing of the imaging device 1) that detects the movement of the housing of the imaging device 1.

ノイズ低減部52は、短露光画像に対してノイズ低減処理を施すことにより、短露光画像に含まれるノイズを低減する。ノイズ低減部52におけるノイズ低減処理を、ノイズ低減に適した任意の空間フィルタリングにて実現することができる。ノイズ低減部52における空間フィルタリングでは、エッジがなるだけ保存されるような空間フィルタを利用することが望ましく、例えば、メディアンフィルタを用いた空間フィルタリングが採用される。尚、ノイズ低減部52におけるノイズ低減処理を、ノイズ低減に適した任意の周波数フィルタリングにて実現することもできる。   The noise reduction part 52 reduces the noise contained in a short exposure image by performing a noise reduction process with respect to a short exposure image. The noise reduction processing in the noise reduction unit 52 can be realized by arbitrary spatial filtering suitable for noise reduction. In the spatial filtering in the noise reduction unit 52, it is desirable to use a spatial filter that preserves as many edges as possible. For example, spatial filtering using a median filter is employed. Note that the noise reduction processing in the noise reduction unit 52 can be realized by any frequency filtering suitable for noise reduction.

ノイズ低減部52によるノイズ低減処理後の短露光画像を、第2中間生成画像(第3画像)と呼ぶ。図6に、図3(a)の短露光画像310に対してノイズ低減処理を施すことによって得られた第2中間生成画像312を示す。図3(a)と図6の比較からも分かるように、第2中間生成画像312では、短露光画像310に含まれているノイズが低減されている一方で、短露光画像310と比べてエッジが僅かに不鮮明となっている。   The short exposure image after the noise reduction processing by the noise reduction unit 52 is referred to as a second intermediate generation image (third image). FIG. 6 shows a second intermediate generated image 312 obtained by performing noise reduction processing on the short exposure image 310 of FIG. As can be seen from the comparison between FIG. 3A and FIG. 6, in the second intermediate generation image 312, the noise included in the short exposure image 310 is reduced, but the edge compared to the short exposure image 310. Is slightly blurred.

差分値算出部53は、第1中間生成画像と第2中間生成画像との間の、各画素位置における差分値を算出する。画素位置(x,y)における差分値をDIF(x,y)にて表す。差分値DIF(x,y)は、第1中間生成画像の画素位置(x,y)における画素と第2中間生成画像の画素位置(x,y)における画素との間における、輝度及び/又は色の差を表す値である。   The difference value calculation unit 53 calculates a difference value at each pixel position between the first intermediate generation image and the second intermediate generation image. The difference value at the pixel position (x, y) is represented by DIF (x, y). The difference value DIF (x, y) is the luminance and / or between the pixel at the pixel position (x, y) of the first intermediate generation image and the pixel at the pixel position (x, y) of the second intermediate generation image. It is a value representing a color difference.

差分値算出部53は、例えば下記式(1)に基づいて差分値DIF(x,y)を算出する。ここで、P1Y(x,y)は、第1中間生成画像の画素位置(x,y)における画素の輝度値であり、P2Y(x,y)は、第2中間生成画像の画素位置(x,y)における画素の輝度値である。 The difference value calculation unit 53 calculates the difference value DIF (x, y) based on, for example, the following formula (1). Here, P1 Y (x, y) is the luminance value of the pixel at the pixel position (x, y) of the first intermediate generation image, and P2 Y (x, y) is the pixel position of the second intermediate generation image. This is the luminance value of the pixel at (x, y).

式(1)ではなく、RGB形式の信号値を利用し、下記式(2)又は式(3)に基づいて差分値DIF(x,y)を算出することも可能である。ここで、P1R(x,y)、P1G(x,y)及びP1B(x,y)は、夫々、第1中間生成画像の画素位置(x,y)における画素のR、G及びB信号の値であり、P2R(x,y)、P2G(x,y)及びP2B(x,y)は、夫々、第2中間生成画像の画素位置(x,y)における画素のR、G及びB信号の値である。或る画素のR、G及びB信号は、その画素の赤、緑及び青の強度を表す色信号である。 It is also possible to calculate the difference value DIF (x, y) based on the following formula (2) or formula (3) by using RGB format signal values instead of formula (1). Here, P1 R (x, y), P1 G (x, y), and P1 B (x, y) are respectively R, G, and R of the pixel at the pixel position (x, y) of the first intermediate generation image. The value of the B signal, P2 R (x, y), P2 G (x, y), and P2 B (x, y) are the pixel values at the pixel position (x, y) of the second intermediate generation image, respectively. R, G and B signal values. The R, G, and B signals of a certain pixel are color signals that represent the red, green, and blue intensities of that pixel.

上記の式(1)、式(2)又は式(3)に基づく差分値DIF(x,y)の算出方法は例示に過ぎず、それら以外の方法によって差分値DIF(x,y)を求めるようにしても構わない。例えば、YUV形式の信号値を利用し、RGB形式の信号値を用いる場合と同様の方法にて差分値DIF(x,y)を算出しても構わない。この場合、式(2)及び(3)におけるR、G及びBを夫々Y、U及びVに置き換えて考えればよい。YUV形式の信号は、Yによって表される輝度信号とU及びVによって表される色差信号から成る。   The calculation method of the difference value DIF (x, y) based on the above equation (1), equation (2), or equation (3) is merely an example, and the difference value DIF (x, y) is obtained by other methods. It doesn't matter if you do. For example, the difference value DIF (x, y) may be calculated by using the YUV signal value and using the same method as that when the RGB signal value is used. In this case, R, G, and B in formulas (2) and (3) may be replaced with Y, U, and V, respectively. The YUV format signal is composed of a luminance signal represented by Y and a color difference signal represented by U and V.

図7に、各画素位置における差分値DIF(x,y)を画素信号値として有する差分画像の例を示す。図7の差分画像313は、図3(a)及び(b)の短露光画像310及び適正露光画像311に基づく差分画像である。差分画像313では、差分値DIF(x,y)が比較的大きい部分を白で表し、差分値DIF(x,y)が比較的小さい部分を黒で表している。短露光画像310及び適正露光画像311の撮影中における人物SUBの移動によって、差分画像313における人物SUBの移動領域での差分値DIF(x,y)が比較的大きくなっている。また、手ぶれに由来する適正露光画像311上のぶれにより、エッジ付近(人物や山の輪郭部)の差分値DIF(x,y)も大きくなっている。   FIG. 7 shows an example of a difference image having a difference value DIF (x, y) at each pixel position as a pixel signal value. The difference image 313 in FIG. 7 is a difference image based on the short exposure image 310 and the proper exposure image 311 in FIGS. In the difference image 313, a portion having a relatively large difference value DIF (x, y) is represented in white, and a portion having a relatively small difference value DIF (x, y) is represented in black. Due to the movement of the person SUB during the photographing of the short exposure image 310 and the appropriate exposure image 311, the difference value DIF (x, y) in the movement area of the person SUB in the difference image 313 is relatively large. Further, the difference value DIF (x, y) in the vicinity of the edge (the contour portion of the person or the mountain) is also increased due to the shake on the appropriate exposure image 311 derived from the camera shake.

第1合成演算部54は、第1中間生成画像と第2中間生成画像との合成を行い、得られた合成画像を第3中間生成画像(第4画像)として出力する。この合成は、第1及び第2中間生成画像の対応画素の画素信号を加重加算することによって実現される。加重加算によって対応画素の画素信号が混合されるが、その混合率(換言すれば合成比率)を差分値DIF(x,y)に基づいて決定することができる。第1合成演算部54にて決定される、画素位置(x,y)に対する混合率をα(x,y)にて表す。   The first synthesis calculation unit 54 synthesizes the first intermediate generation image and the second intermediate generation image, and outputs the obtained composite image as a third intermediate generation image (fourth image). This synthesis is realized by weighted addition of pixel signals of corresponding pixels of the first and second intermediate generation images. The pixel signals of the corresponding pixels are mixed by weighted addition, and the mixing ratio (in other words, the combination ratio) can be determined based on the difference value DIF (x, y). The mixing ratio for the pixel position (x, y), which is determined by the first combining calculation unit 54, is represented by α (x, y).

差分値DIF(x,y)と混合率α(x,y)との関係例を図8に示す。図8の関係例を採用する場合、
不等式「DIF(x,y)<TH1L」の成立時において「α(x,y)=1」とされ、
不等式「TH1L≦DIF(x,y)<TH1H」の成立時において「α(x,y)=1−(DIF(x,y)−TH1L)/(TH1H−TH1L)」とされ、
不等式「TH1H≦DIF(x,y)」の成立時において「α(x,y)=0」とされる。ここで、TH1L及びTH1Hは、不等式「0<TH1L<TH1H」を満たす所定の閾値である。図8の関係例を採用する場合、差分値DIF(x,y)が閾値TH1Lから閾値TH1Hに向かって増大するにつれて対応する混合率α(x,y)が1から0に向かって線形的に減少するが、混合率α(x,y)を非線形に減少させても構わない。
An example of the relationship between the difference value DIF (x, y) and the mixing rate α (x, y) is shown in FIG. When adopting the relationship example of FIG.
When the inequality “DIF (x, y) <TH1 L ” is satisfied, “α (x, y) = 1” is set.
When the inequality “TH1 L ≦ DIF (x, y) <TH1 H ” is satisfied, “α (x, y) = 1− (DIF (x, y) −TH1 L ) / (TH1 H −TH1 L )” And
When the inequality “TH1 H ≦ DIF (x, y)” is satisfied, “α (x, y) = 0” is set. Here, TH1 L and TH1 H are predetermined thresholds satisfying the inequality “0 <TH1 L <TH1 H ”. When the relationship example of FIG. 8 is adopted, the corresponding mixing ratio α (x, y) is linear from 1 to 0 as the difference value DIF (x, y) increases from the threshold value TH1 L toward the threshold value TH1 H. However, the mixing rate α (x, y) may be decreased nonlinearly.

第1合成演算部54は、各画素位置における差分値DIF(x,y)から各画素位置における混合率α(x,y)を決定した後、下記式(4)に従って第1及び第2中間生成画像の対応画素の画素信号を混合することで、第3中間生成画像の画素信号を生成する。ここで、P1(x,y)、P2(x,y)及びP3(x,y)は、夫々、第1、第2及び第3中間生成画像の画素位置(x,y)における画素信号を表している。   The first composition calculator 54 determines the mixing ratio α (x, y) at each pixel position from the difference value DIF (x, y) at each pixel position, and then first and second intermediates according to the following equation (4). The pixel signal of the third intermediate generation image is generated by mixing the pixel signals of the corresponding pixels of the generation image. Here, P1 (x, y), P2 (x, y), and P3 (x, y) are pixel signals at the pixel position (x, y) of the first, second, and third intermediate generation images, respectively. Represents.

画素信号P1(x,y)、P2(x,y)及びP3(x,y)は、夫々、第1、第2及び第3中間生成画像の画素位置(x,y)における画素の輝度及び色を表す信号であり、例えばRGB形式又はYUV形式で表現されている。例えば、画素信号P1(x,y)等がR、G及びB信号から成る場合、R、G及びB信号ごとに個別に、画素信号P1(x,y)及びP2(x,y)を混合することにより画素信号P3(x,y)を得ればよい。画素信号P1(x,y)等がY、U及びV信号から成る場合も同様である。   Pixel signals P1 (x, y), P2 (x, y), and P3 (x, y) are respectively the luminance of the pixel at the pixel position (x, y) of the first, second, and third intermediate generation images. A signal representing a color, for example, expressed in RGB format or YUV format. For example, when the pixel signal P1 (x, y) is composed of R, G, and B signals, the pixel signals P1 (x, y) and P2 (x, y) are mixed individually for each R, G, and B signal. Thus, the pixel signal P3 (x, y) may be obtained. The same applies when the pixel signal P1 (x, y) or the like is composed of Y, U, and V signals.

図9に、第1合成演算部54にて得られる第3中間生成画像の例を示す。図9に示す第3中間生成画像314は、図3(a)及び(b)の短露光画像310及び適正露光画像311に基づく第3中間生成画像である。   FIG. 9 shows an example of a third intermediate generation image obtained by the first composition calculation unit 54. A third intermediate generation image 314 shown in FIG. 9 is a third intermediate generation image based on the short exposure image 310 and the proper exposure image 311 shown in FIGS.

上述したように、人物SUBが動いた領域では差分値D(x,y)が比較的大きくなるため、第3中間生成画像314に対する第2中間生成画像312(図6参照)の寄与度(1−α(x,y))が比較的大きくなる。結果、第3中間生成画像314における被写体ぶれは、適正露光画像311(図3(b)参照)におけるそれよりも大幅に抑制される。また、エッジ付近においても差分値D(x,y)が大きくなることから上記寄与度(1−α(x,y))が大きくなる。結果、第3中間生成画像314におけるエッジの鮮鋭度は、適正露光画像311におけるそれよりも改善される。但し、第2中間生成画像312におけるエッジは、短露光画像310のそれと比較して若干不鮮明であるため、第3中間生成画像314におけるエッジも短露光画像310のそれと比較して若干不鮮明となる。   As described above, since the difference value D (x, y) is relatively large in the region where the person SUB moves, the contribution degree (1) of the second intermediate generation image 312 (see FIG. 6) to the third intermediate generation image 314 -Α (x, y)) becomes relatively large. As a result, subject blurring in the third intermediate generated image 314 is significantly suppressed as compared with that in the proper exposure image 311 (see FIG. 3B). Further, since the difference value D (x, y) becomes large near the edge, the contribution (1-α (x, y)) becomes large. As a result, the sharpness of the edge in the third intermediate generation image 314 is improved as compared with that in the proper exposure image 311. However, since the edge in the second intermediate generation image 312 is slightly unclear compared to that of the short exposure image 310, the edge in the third intermediate generation image 314 is also slightly unclear compared to that of the short exposure image 310.

一方において、差分値D(x,y)が比較的小さい領域はエッジ成分の少ない平坦領域であると推測される。このため、差分値D(x,y)が比較的小さい領域に対しては、上述の如く、ノイズの含有量が少ない第1中間生成画像の寄与度α(x,y)を比較的大きくする。これにより、第3中間生成画像のノイズを低く抑えることができる。尚、第2中間生成画像はノイズ低減処理を経て生成されたものであるため、第3中間生成画像に対する第2中間生成画像の寄与度(1−α(x,y))が比較的大きくなる領域においても、ノイズは殆ど目立たない。   On the other hand, the region where the difference value D (x, y) is relatively small is presumed to be a flat region with few edge components. Therefore, for the region where the difference value D (x, y) is relatively small, as described above, the contribution degree α (x, y) of the first intermediate generation image with a small amount of noise is made relatively large. . Thereby, the noise of a 3rd intermediate generation image can be suppressed low. Since the second intermediate generation image is generated through the noise reduction process, the contribution degree (1-α (x, y)) of the second intermediate generation image to the third intermediate generation image is relatively large. Even in the area, the noise is hardly noticeable.

上述したように、第3中間生成画像におけるエッジは短露光画像のそれと比較して若干不鮮明となるが、この不鮮明さは、エッジ強度値算出部55及び第2合成演算部56によって改善される。   As described above, the edge in the third intermediate generation image is slightly blurred compared with that of the short-exposure image, but this blur is improved by the edge intensity value calculation unit 55 and the second synthesis calculation unit 56.

エッジ強度値算出部55は、第2中間生成画像に対してエッジ抽出処理を行い、各画素位置におけるエッジ強度値を算出する。画素位置(x,y)におけるエッジ強度値を、E(x,y)にて表す。エッジ強度値E(x,y)は、第2中間生成画像の画素位置(x,y)を中心とする小ブロック内の画素信号の変化量を表す指標であり、その変化量が大きいほどエッジ強度値E(x,y)は大きくなる。   The edge strength value calculation unit 55 performs edge extraction processing on the second intermediate generation image, and calculates an edge strength value at each pixel position. The edge intensity value at the pixel position (x, y) is represented by E (x, y). The edge intensity value E (x, y) is an index representing the change amount of the pixel signal in the small block centered on the pixel position (x, y) of the second intermediate generation image, and the larger the change amount, the more the edge The intensity value E (x, y) increases.

例えば、下記式(5)に従って、エッジ強度値E(x,y)を求めることができる。尚、式(5)の右辺の値の1/4をエッジ強度値E(x,y)として求めるようにしても良い。上述したように、P2Y(x,y)は第2中間生成画像の画素位置(x,y)における画素の輝度値を表す。FA(i,j)、FB(i,j)、FC(i,j)及びFD(i,j)は、夫々、水平、垂直、右斜め及び左斜め方向に伸びるエッジを抽出するためのエッジ抽出フィルタのフィルタ係数を表す。エッジ抽出フィルタとして、エッジ抽出に適した任意の空間フィルタを用いることができ、例えば、微分フィルタ、プリューウィットフィルタ(Prewitt filter)、ソーベルフィルタ(Sobel filter)を用いることができる。 For example, the edge intensity value E (x, y) can be obtained according to the following formula (5). In addition, you may make it obtain | require 1/4 of the value of the right side of Formula (5) as edge strength value E (x, y). As described above, P2 Y (x, y) represents the luminance value of the pixel at the pixel position (x, y) of the second intermediate generation image. F A (i, j), F B (i, j), F C (i, j) and F D (i, j) extract edges extending in the horizontal, vertical, right diagonal and left diagonal directions, respectively. Represents the filter coefficient of the edge extraction filter for As the edge extraction filter, any spatial filter suitable for edge extraction can be used. For example, a differential filter, a Prewitt filter, or a Sobel filter can be used.

図10(a)〜(d)に示されるような4方向の微分フィルタを用いる場合、
E(x,y)=|P2Y(x,y−1)−P2Y(x,y+1)|
+|P2Y(x−1,y)−P2Y(x+1,y)|
+|P2Y(x−1,y−1)−P2Y(x+1,y+1)|
+|P2Y(x+1,y−1)−P2Y(x−1,y+1)|、となる。
尚、式(5)では3×3のフィルタサイズを有するエッジ抽出フィルタを用いているが、エッジ抽出フィルタのフィルタサイズは3×3以外でもよい。
When using a four-direction differential filter as shown in FIGS.
E (x, y) = | P2 Y (x, y−1) −P2 Y (x, y + 1) |
+ | P2 Y (x-1, y) -P2 Y (x + 1, y) |
+ | P2 Y (x-1, y-1) -P2 Y (x + 1, y + 1) |
+ | P2 Y (x + 1, y−1) −P2 Y (x−1, y + 1) |
Note that although the edge extraction filter having a 3 × 3 filter size is used in Expression (5), the filter size of the edge extraction filter may be other than 3 × 3.

図11に、各画素位置におけるエッジ強度値E(x,y)を画素信号値として有するエッジ画像の例を示す。図11のエッジ画像315は、図3(a)及び(b)の短露光画像310及び適正露光画像311に基づくエッジ画像である。エッジ画像315では、エッジ強度値E(x,y)が比較的大きい部分を白で表し、エッジ強度値E(x,y)が比較的小さい部分を黒で表している。エッジ強度値E(x,y)は、エッジが鮮明である短露光画像310のノイズを抑制することによって得られた第2中間生成画像312のエッジを抽出することで得られる。そのため、ノイズとエッジが分離され、エッジ強度値E(x,y)によって、ノイズと被写体のエッジとを明確に区別した上でエッジの位置が特定される。   FIG. 11 shows an example of an edge image having an edge intensity value E (x, y) at each pixel position as a pixel signal value. An edge image 315 in FIG. 11 is an edge image based on the short exposure image 310 and the proper exposure image 311 in FIGS. In the edge image 315, a portion where the edge intensity value E (x, y) is relatively large is represented in white, and a portion where the edge intensity value E (x, y) is relatively small is represented in black. The edge intensity value E (x, y) is obtained by extracting an edge of the second intermediate generation image 312 obtained by suppressing noise of the short exposure image 310 having a clear edge. Therefore, the noise and the edge are separated, and the position of the edge is specified after clearly distinguishing the noise from the edge of the subject by the edge intensity value E (x, y).

第2合成演算部56は、第3中間生成画像と短露光画像との合成を行い、得られた合成画像を目標補正画像として出力する。この合成は、第3中間生成画像と短露光画像の対応画素の画素信号を加重加算することによって実現される。加重加算によって対応画素の画素信号が混合されるが、その混合率(換言すれば合成比率)をエッジ強度値E(x,y)に基づいて決定することができる。第2合成演算部56にて決定される、画素位置(x,y)に対する混合率をβ(x,y)にて表す。   The second synthesis calculation unit 56 synthesizes the third intermediate generated image and the short exposure image, and outputs the obtained synthesized image as a target correction image. This synthesis is realized by weighted addition of pixel signals of corresponding pixels of the third intermediate generation image and the short exposure image. The pixel signals of the corresponding pixels are mixed by weighted addition, and the mixing ratio (in other words, the combination ratio) can be determined based on the edge intensity value E (x, y). The mixing ratio for the pixel position (x, y), which is determined by the second combining calculation unit 56, is represented by β (x, y).

エッジ強度値E(x,y)と混合率β(x,y)との関係例を図12に示す。図12の関係例を採用する場合、
不等式「E(x,y)<TH2L」の成立時において「β(x,y)=0」とされ、
不等式「TH2L≦E(x,y)<TH2H」の成立時において「β(x,y)=(E(x,y)−TH2L)/(TH2H−TH2L)」とされ、
不等式「TH2H≦E(x,y)」の成立時において「β(x,y)=1」とされる。
ここで、TH2L及びTH2Hは、不等式「0<TH2L<TH2H」を満たす所定の閾値である。図12の関係例を採用する場合、エッジ強度値E(x,y)が閾値TH2Lから閾値TH2Hに向かって増大するにつれて対応する混合率β(x,y)が0から1に向かって線形的に増加するが、混合率β(x,y)を非線形に増加させても構わない。
An example of the relationship between the edge strength value E (x, y) and the mixing ratio β (x, y) is shown in FIG. When adopting the relationship example of FIG.
When the inequality “E (x, y) <TH2 L ” is satisfied, “β (x, y) = 0” is set.
When the inequality “TH2 L ≦ E (x, y) <TH2 H ” is satisfied, “β (x, y) = (E (x, y) −TH2 L ) / (TH2 H −TH2 L )” is established.
When the inequality “TH2 H ≦ E (x, y)” is satisfied, “β (x, y) = 1” is set.
Here, TH2 L and TH2 H is a predetermined threshold that satisfies the inequality "0 <TH2 L <TH2 H". When the example of the relationship of FIG. 12 is adopted, the corresponding mixing ratio β (x, y) increases from 0 to 1 as the edge strength value E (x, y) increases from the threshold TH2 L toward the threshold TH2 H. Although it increases linearly, the mixing rate β (x, y) may be increased nonlinearly.

第2合成演算部56は、各画素位置におけるエッジ強度値E(x,y)から各画素位置における混合率β(x,y)を決定した後、下記式(6)に従って第3中間生成画像と短露光画像の対応画素の画素信号を混合することで、目標補正画像の画素信号を生成する。ここで、POUT(x,y)、PIN_SH(x,y)及びP3(x,y)は、夫々、目標補正画像、短露光画像及び第3中間生成画像の画素位置(x,y)における画素信号を表している。 After determining the mixing ratio β (x, y) at each pixel position from the edge intensity value E (x, y) at each pixel position, the second synthesis calculation unit 56 then performs the third intermediate generation image according to the following equation (6). And the pixel signal of the corresponding pixel of the short exposure image are mixed to generate the pixel signal of the target corrected image. Here, P OUT (x, y), P IN — SH (x, y), and P3 (x, y) are the pixel position (x, y) of the target correction image, the short exposure image, and the third intermediate generation image, respectively. Represents a pixel signal.

画素信号POUT(x,y)、PIN_SH(x,y)及びP3(x,y)は、夫々、目標補正画像、短露光画像及び第3中間生成画像の画素位置(x,y)における画素の輝度及び色を表す信号であり、例えばRGB形式又はYUV形式で表現されている。例えば、画素信号P3(x,y)等がR、G及びB信号から成る場合、R、G及びB信号ごとに個別に、画素信号PIN_SH(x,y)及びP3(x,y)を混合することにより画素信号POUT(x,y)を得ればよい。画素信号P3(x,y)等がY、U及びV信号から成る場合も同様である。 Pixel signals P OUT (x, y), P IN — SH (x, y), and P 3 (x, y) are respectively at the pixel position (x, y) of the target correction image, the short exposure image, and the third intermediate generation image. It is a signal representing the luminance and color of a pixel, and is represented in, for example, an RGB format or a YUV format. For example, when the pixel signal P3 (x, y) or the like is composed of R, G, and B signals, the pixel signals P IN — SH (x, y) and P3 (x, y) are individually set for each of the R, G, and B signals. The pixel signal P OUT (x, y) may be obtained by mixing. The same applies when the pixel signal P3 (x, y) or the like is composed of Y, U, and V signals.

図13に、第2合成演算部56にて得られる目標補正画像の例を示す。図13に示す目標補正画像316は、図3(a)及び(b)の短露光画像310及び適正露光画像311に基づく目標補正画像である。エッジ部分では、目標補正画像316に対する短露光画像310の寄与度β(x,y)が大きくなるため、目標補正画像316においては、第3中間生成画像314(図9参照)におけるエッジの僅かな不鮮明さが改善され、エッジが鮮明に描写される。一方、エッジ以外の部分では、目標補正画像316に対する第3中間生成画像314の寄与度(1−β(x,y))が大きくなるため、目標補正画像316に対して、短露光画像310に含まれるノイズが反映されることが抑制される。ノイズは、エッジ以外の部分(平坦部分)において特に視覚的に目立つため、上述のような混合率β(x,y)による合成比率の調整は効果的である。   FIG. 13 shows an example of the target correction image obtained by the second synthesis calculation unit 56. A target correction image 316 shown in FIG. 13 is a target correction image based on the short exposure image 310 and the proper exposure image 311 shown in FIGS. In the edge portion, the contribution β (x, y) of the short-exposure image 310 to the target correction image 316 is large. Therefore, in the target correction image 316, a slight edge of the third intermediate generation image 314 (see FIG. 9) is present. Unsharpness is improved and edges are clearly depicted. On the other hand, in the portion other than the edge, the contribution degree (1-β (x, y)) of the third intermediate generation image 314 to the target correction image 316 is large, so that the short exposure image 310 is compared with the target correction image 316. It is suppressed that the included noise is reflected. Since noise is particularly visually noticeable in a portion other than the edge (flat portion), the adjustment of the synthesis ratio by the mixing rate β (x, y) as described above is effective.

このように第1実施形態によれば、適正露光画像(より詳細には位置合わせ後の適正露光画像(即ち第1中間生成画像))とノイズ低減後の短露光画像(即ち第2中間生成画像)とを、それらから得られる差分値を用いて合成することにより、適正露光画像のぶれ及び短露光画像のノイズが抑制された第3中間生成画像を生成することができる。その後、ノイズ低減後の短露光画像(即ち第2中間生成画像)から得たエッジ強度値を用いて第3中間生成画像と短露光画像を合成することにより、目標補正画像に短露光画像の鮮明なエッジを反映させることができる一方で、短露光画像のノイズの目標補正画像への反映が抑制される。結果、目標補正画像は、ぶれ及びノイズの少ない画像となる。   As described above, according to the first embodiment, the proper exposure image (more specifically, the proper exposure image after alignment (that is, the first intermediate generation image)) and the short exposure image after noise reduction (that is, the second intermediate generation image). ) With the difference values obtained from them, it is possible to generate a third intermediate generation image in which the blur of the proper exposure image and the noise of the short exposure image are suppressed. Thereafter, the third intermediate generation image and the short exposure image are synthesized using the edge intensity value obtained from the short exposure image after noise reduction (that is, the second intermediate generation image), so that the short exposure image is clearly displayed on the target correction image. While a simple edge can be reflected, the reflection of the noise of the short exposure image on the target correction image is suppressed. As a result, the target correction image is an image with less blur and noise.

エッジとノイズを明確に分離検出し、短露光画像のノイズの目標補正画像への混入を良好に回避するためには、上述の如くエッジ強度値をノイズ低減後の短露光画像(即ち第2中間生成画像)から導出する方が望ましいが、図14に示す如く、エッジ強度値をノイズ低減前の短露光画像(即ち図3(a)の短露光画像310など)から導出するようにしてもよい。この場合、式(5)のP2Y(x,y)にノイズ低減前の短露光画像の画素位置(x,y)における画素の輝度値を代入した上で、式(5)に従いエッジ強度値E(x,y)を算出すればよい。 In order to clearly separate and detect the edge and noise and to avoid the mixing of the noise of the short exposure image into the target correction image, the short intensity image after the noise reduction (that is, the second intermediate image) as described above is used. It is preferable to derive from the generated image). However, as shown in FIG. 14, the edge intensity value may be derived from the short exposure image before noise reduction (that is, the short exposure image 310 in FIG. 3A). . In this case, after substituting the luminance value of the pixel at the pixel position (x, y) of the short-exposure image before noise reduction into P2 Y (x, y) in Expression (5), the edge intensity value according to Expression (5) E (x, y) may be calculated.

上述の目標補正画像の生成方法は極めて有益な方法ではあるものの、改善の余地がある。例えば、図15に示すような植物の葉や花を撮影対象として短露光画像及び適正露光画像を撮影した場合を考える。図16は、この場合に、第1実施形態に係る方法にて得た目標補正画像の一部の拡大図である。但し、図16では、説明の便宜上、画像の特徴を強調して図示している。   Although the above-described target correction image generation method is a very useful method, there is room for improvement. For example, consider a case where a short-exposure image and a proper-exposure image are captured using leaves and flowers of a plant as shown in FIG. FIG. 16 is an enlarged view of a part of the target correction image obtained by the method according to the first embodiment in this case. However, in FIG. 16, for the sake of convenience of explanation, the features of the image are highlighted.

図16において、実線401は1枚の葉の輪郭を表している。葉の輪郭部分においてはエッジ強度値が比較的大きくなるため短露光画像の合成比率が高まり、結果、目標補正画像において葉の輪郭部分のエッジは鮮明となる。しかしながら、葉の輪郭の内側においては、エッジ強度値が比較的小さくなるため第3中間生成画像の合成比率が高まり、結果、目標補正画像上で鮮鋭度が欠ける(但し、信号対雑音比は良好である)。このような現象の発生は、第2合成演算部56における合成比率が画素位置ごとのエッジ強度値のみに基づいて決定されることに起因する。後述の第2実施形態等において、このような現象の発生を抑制する方法を説明する。   In FIG. 16, a solid line 401 represents the outline of one leaf. Since the edge intensity value is relatively large in the contour portion of the leaf, the composition ratio of the short exposure image is increased. As a result, the edge of the contour portion of the leaf is clear in the target correction image. However, on the inner side of the contour of the leaf, the edge intensity value is relatively small, so the synthesis ratio of the third intermediate generation image is increased, and as a result, sharpness is lacking on the target correction image (however, the signal-to-noise ratio is good) Is). The occurrence of such a phenomenon is attributed to the fact that the combination ratio in the second combination calculation unit 56 is determined based only on the edge intensity value for each pixel position. A method for suppressing the occurrence of such a phenomenon will be described in a second embodiment described later.

<<第2実施形態>>
本発明の第2実施形態を説明する。図17は、第2実施形態に係る第2合成部62bの内部ブロック図である。図5の画像補正部20aに対して図5の第2合成部62の代わりに図17の第2合成部62bを設けた画像補正部を、図1の画像補正部20として用いることができる。
<< Second Embodiment >>
A second embodiment of the present invention will be described. FIG. 17 is an internal block diagram of the second synthesis unit 62b according to the second embodiment. An image correction unit provided with a second synthesis unit 62b in FIG. 17 instead of the second synthesis unit 62 in FIG. 5 with respect to the image correction unit 20a in FIG. 5 can be used as the image correction unit 20 in FIG.

第2合成部62bは、エッジ強度値算出部55、第2合成演算部56b及び領域エッジ量算出部71を備える。第2合成部62bにおけるエッジ強度値算出部55の機能は、第1実施形態で述べたものと同じである。即ち、第2合成部62bにおけるエッジ強度値算出部55は、エッジ評価画像に対してエッジ抽出処理を行うことで、エッジ評価画像の各画素位置におけるエッジ強度値E(x,y)を算出する。エッジ評価画像は、第1実施形態の説明からも明らかなように、短露光画像(第1画像)又は第2中間生成画像(第3画像)である。   The second synthesis unit 62b includes an edge strength value calculation unit 55, a second synthesis calculation unit 56b, and a region edge amount calculation unit 71. The function of the edge strength value calculation unit 55 in the second synthesis unit 62b is the same as that described in the first embodiment. That is, the edge intensity value calculation unit 55 in the second synthesis unit 62b performs edge extraction processing on the edge evaluation image, thereby calculating the edge intensity value E (x, y) at each pixel position of the edge evaluation image. . As is clear from the description of the first embodiment, the edge evaluation image is a short-exposure image (first image) or a second intermediate generation image (third image).

第2合成部62bでは、二次元画像300(図4参照)を形成する画素が配置される画像領域の全体(以下、全体画像領域という)が、演算上、複数の領域(以下、部分画像領域という)に分割される。今、図18に示す如く、二次元画像300の全体画像領域を水平方向にP等分且つ垂直方向にQ等分することで、二次元画像300内に合計(P×Q)個の部分画像領域が設定されるものとする。ここで、P及びQの夫々は2以上の整数である。各部分画像領域には、二次元配列された複数の画素(例えば100個)が属している。部分画像領域内に属する画素の数を異なる部分画像領域間で異ならせることも可能であるが、以下の説明では、1つの部分画像領域内に属する画素の数が、全ての部分画像領域において同じであるとする。また、二次元画像300内の部分画像領域の水平位置及び垂直位置を表す記号としてp及びqを導入する(pは1≦p≦Pを満たす整数値、且つ、qは1≦q≦Qを満たす整数値)。水平位置がpであって垂直位置がqである部分画像領域を部分画像領域[p,q]と表記する。二次元画像300及び二次元座標系XYにおいて(図4参照)、pが大きくなるほど、部分画像領域[p,q]の水平位置は右方向に向かい、qが大きくなるほど、部分画像領域[p,q]の垂直位置は下方向に向かうものとする。従って、部分画像領域[p,q]の右側、左側、下側及び上側に隣接する部分画像領域は、夫々、部分画像領域[p+1,q]、[p−1,q]、[p,q+1]及び[p,q−1]である。   In the second synthesizing unit 62b, the entire image area (hereinafter referred to as the entire image area) in which the pixels forming the two-dimensional image 300 (see FIG. 4) are arranged is calculated into a plurality of areas (hereinafter referred to as partial image areas). To be divided). Now, as shown in FIG. 18, by dividing the entire image area of the two-dimensional image 300 into P equal parts in the horizontal direction and Q equal parts in the vertical direction, a total of (P × Q) partial images in the two-dimensional image 300. Assume that an area is set. Here, each of P and Q is an integer of 2 or more. A plurality of pixels (for example, 100 pixels) that are two-dimensionally arranged belong to each partial image region. Although it is possible to vary the number of pixels belonging to a partial image area between different partial image areas, in the following description, the number of pixels belonging to one partial image area is the same in all partial image areas. Suppose that Also, p and q are introduced as symbols representing the horizontal position and vertical position of the partial image area in the two-dimensional image 300 (p is an integer value satisfying 1 ≦ p ≦ P, and q is 1 ≦ q ≦ Q. Integer value to satisfy). A partial image area in which the horizontal position is p and the vertical position is q is referred to as a partial image area [p, q]. In the two-dimensional image 300 and the two-dimensional coordinate system XY (see FIG. 4), as p increases, the horizontal position of the partial image region [p, q] moves toward the right, and as q increases, the partial image region [p, q The vertical position of q] is assumed to be directed downward. Therefore, the partial image areas adjacent to the right side, the left side, the lower side, and the upper side of the partial image area [p, q] are the partial image areas [p + 1, q], [p-1, q], [p, q + 1, respectively. ] And [p, q-1].

領域エッジ量算出部71は、部分画像領域ごとに、部分画像領域に属する画素位置のエッジ強度値E(x,y)を積算し、積算値を領域エッジ量として求める。従って、領域エッジ量は、部分画像領域ごとに求められる。部分画像領域[p,q]に対して求められた領域エッジ量をERG[p,q]にて表す。 The area edge amount calculation unit 71 integrates the edge intensity values E (x, y) of the pixel positions belonging to the partial image area for each partial image area, and obtains the integrated value as the area edge amount. Accordingly, the region edge amount is obtained for each partial image region. The region edge amount obtained for the partial image region [p, q] is represented by E RG [p, q].

第2合成演算部56bは、第1実施形態に係る第2合成演算部56と同様の方法にて、第3中間生成画像と短露光画像を合成することにより目標補正画像を生成する。但し、第2合成演算部56bは、注目画素位置(x,y)に対する混合率β(x,y)を、注目画素位置(x,y)に対するエッジ強度値E(x,y)だけでなく、注目画素位置(x,y)が属する部分画像領域の領域エッジ量にも基づいて決定する。   The second synthesis calculation unit 56b generates a target correction image by synthesizing the third intermediate generation image and the short exposure image in the same manner as the second synthesis calculation unit 56 according to the first embodiment. However, the second synthesis calculation unit 56b sets the mixing rate β (x, y) for the target pixel position (x, y) not only to the edge intensity value E (x, y) for the target pixel position (x, y). This is determined based on the region edge amount of the partial image region to which the target pixel position (x, y) belongs.

説明の明確化上、注目画素位置(x,y)、注目画素位置(x,y)の属している部分画像領域[p,q]及び注目画素位置(x,y)に対する混合率β(x,y)を、夫々、(x0,y0)、[p0,q0]及びβ(x0,y0)にて表した上で、注目画素位置(x0,y0)に対する混合率β(x0,y0)の決定方法を説明する。また、部分画像領域[p0,q0]に対して求められた領域エッジ量をERG[p0,q0]にて表す。 For clarification of the description, the target pixel position (x, y), the partial image region [p, q] to which the target pixel position (x, y) belongs, and the mixing ratio β (x , Y) are represented by (x 0 , y 0 ), [p 0 , q 0 ] and β (x 0 , y 0 ), respectively, and then mixed with the target pixel position (x 0 , y 0 ). A method for determining the rate β (x 0 , y 0 ) will be described. The region edge amount obtained for the partial image region [p 0 , q 0 ] is represented by E RG [p 0 , q 0 ].

図19(a)のグラフは、第1不等式「ERG[p0,q0]<ETH1」が満たされる時に採用されるエッジ強度値E(x0,y0)と混合率β(x0,y0)との関係を表し、図19(b)のグラフは、第2不等式「ETH1≦ERG[p0,q0]<ETH2」が満たされる時に採用されるエッジ強度値E(x0,y0)と混合率β(x0,y0)との関係を表し、図19(c)のグラフは、第3不等式「ETH2≦ERG[p0,q0]」が満たされる時に採用されるエッジ強度値E(x0,y0)と混合率β(x0,y0)との関係を表す。ここで、ETH1及びETH2は、不等式「0<ETH1<ETH2」を満たすように予め設定された閾値である。 The graph of FIG. 19A shows an edge intensity value E (x 0 , y 0 ) and a mixing ratio β (x that are employed when the first inequality “E RG [p 0 , q 0 ] <E TH1 ” is satisfied. 0 , y 0 ), and the graph of FIG. 19B shows the edge strength value employed when the second inequality “E TH1 ≦ E RG [p 0 , q 0 ] <E TH2 ” is satisfied. The relationship between E (x 0 , y 0 ) and the mixing ratio β (x 0 , y 0 ) is shown, and the graph of FIG. 19C shows the third inequality “E TH2 ≦ E RG [p 0 , q 0 ]”. Represents the relationship between the edge intensity value E (x 0 , y 0 ) and the mixing ratio β (x 0 , y 0 ) employed when “ Here, E TH1 and E TH2 are thresholds set in advance so as to satisfy the inequality “0 <E TH1 <E TH2 ”.

上記の第1、第2及び第3不等式の何れが満たされる場合においても、
不等式「E(x0,y0)<TH2L」の成立時には「β(x0,y0)=βMIN」とされ、
不等式「TH2L≦E(x0,y0)<TH2H」の成立時には「β(x0,y0)=βMIN+(1−βMIN)×((E(x0,y0)−TH2L)/(TH2H−TH2L))」とされ、不等式「TH2H≦E(x0,y0)」の成立時には「β(x0,y0)=1」とされる。
In the case where any of the first, second and third inequalities is satisfied,
When the inequality “E (x 0 , y 0 ) <TH2 L ” is satisfied, “β (x 0 , y 0 ) = β MIN ” is set,
When the inequality “TH2 L ≦ E (x 0 , y 0 ) <TH 2 H ” is satisfied, “β (x 0 , y 0 ) = β MIN + (1−β MIN ) × ((E (x 0 , y 0 )) −TH2 L ) / (TH2 H −TH2 L )) ”, and“ β (x 0 , y 0 ) = 1 ”when the inequality“ TH2 H ≦ E (x 0 , y 0 ) ”is satisfied.

ここで、下限値βMINは領域エッジ量ERG[p0,q0]に依存する可変値である。上記第3不等式の成立時における下限値βMINは、上記第2不等式の成立時における下限値βMINよりも大きくされ、且つ、上記第2不等式の成立時における下限値βMINは、上記第1不等式の成立時における下限値βMINよりも大きくされる。特に、図19(a)に示す例では、上記第1不等式の成立時における下限値βMINがゼロに設定されている。 Here, the lower limit value β MIN is a variable value that depends on the region edge amount E RG [p 0 , q 0 ]. The lower limit value β MIN when the third inequality is satisfied is set larger than the lower limit value β MIN when the second inequality is satisfied, and the lower limit value β MIN when the second inequality is satisfied is the first value It is made larger than the lower limit β MIN when the inequality is established. In particular, in the example shown in FIG. 19A, the lower limit β MIN when the first inequality is satisfied is set to zero.

閾値TH2L及びTH2Hは、第1実施形態で述べたように、常に不等式「0<TH2L<TH2H」を満たす。但し、第1実施形態では閾値TH2L及びTH2Hが一定値であることを想定したが、第2実施形態では、閾値TH2L及びTH2Hの内の少なくとも一方が可変値とされる。図19(a)〜(c)に示す例では、閾値TH2Lは固定値である一方、閾値TH2Hは領域エッジ量ERG[p0,q0]に依存する可変値である。具体的には、上記第1不等式の成立時における閾値TH2Hは、上記第2不等式の成立時における閾値TH2Hよりも大きくされ、且つ、上記第2不等式の成立時における閾値TH2Hは、上記第3不等式の成立時における閾値TH2Hよりも大きくされる。 The thresholds TH2 L and TH2 H always satisfy the inequality “0 <TH2 L <TH2 H ” as described in the first embodiment. However, in the first embodiment, it is assumed that the threshold values TH2 L and TH2 H are constant values, but in the second embodiment, at least one of the threshold values TH2 L and TH2 H is a variable value. In the example shown in FIGS. 19A to 19C, the threshold value TH2 L is a fixed value, while the threshold value TH2 H is a variable value that depends on the region edge amount E RG [p 0 , q 0 ]. Specifically, the threshold TH2 H when the first inequality is established is set larger than the threshold TH2 H when the second inequality is established, and the threshold TH2 H when the second inequality is established is It is larger than the threshold value TH2 H during the establishment of the third inequality.

尚、図19(a)〜(c)に示す関係例を採用する場合、不等式「TH2L≦E(x0,y0)<TH2H」の成立時において、エッジ強度値E(x0,y0)が閾値TH2Lから閾値TH2Hに向かって増大するにつれて対応する混合率β(x0,y0)が線形的に増加するが、混合率β(x0,y0)を非線形に増加させても構わない。また、領域エッジ量ERG[p0,q0]に応じて下限値βMIN及び閾値TH2Hを3段階で変化させる例を上述したが、それらを、領域エッジ量ERG[p0,q0]に応じて2段階若しくは4段階以上で段階的に変化させるようにしても構わないし、領域エッジ量ERG[p0,q0]に応じて連続的に変化させるようにしても構わない。何れにせよ、領域エッジ量ERG[p0,q0]が増大するにつれて、混合率β(x0,y0)を決定する際における下限値βMINを増大させると共に混合率β(x0,y0)を決定する際における閾値TH2Hを減少させると良い。領域エッジ量ERG[p0,q0]が増大するにつれて、閾値TH2Lを増加させることも可能である。 19A to 19C, when the inequality “TH2 L ≦ E (x 0 , y 0 ) <TH2 H ” is satisfied, the edge strength value E (x 0 , y 0) is the corresponding mixing ratio as increases from the threshold TH2 L the threshold TH2 H beta (x 0, y 0) is increased linearly, mixing ratio beta of (x 0, y 0) in a non-linear It may be increased. Further, although the above-described example of changing in three stages the lower limit value beta MIN and the threshold TH2 H in accordance with the area edge amount E RG [p 0, q 0 ], those regions edge amount E RG [p 0, q 0 ] may be changed stepwise in two steps or four or more steps, or may be changed continuously in accordance with the region edge amount E RG [p 0 , q 0 ]. . In any case, as the region edge amount E RG [p 0 , q 0 ] increases, the lower limit β MIN in determining the mixing rate β (x 0 , y 0 ) is increased and the mixing rate β (x 0 , Y 0 ), the threshold value TH2 H when determining is good. As the region edge amount E RG [p 0 , q 0 ] increases, the threshold value TH2 L can be increased.

上述のような、エッジ強度値E(x0,y0)及び領域エッジ量ERG[p0,q0]に基づく混合率(x0,y0)の設定は、全ての画素位置(x,y)を順次注目画素位置(x0,y0)と捉えた上で次々と実行され、最終的に、全ての画素位置(x,y)に対する混合率(x,y)が決定される。第2合成演算部56bによる、混合率β(x,y)を用いた目標補正画像の生成方法は、第1実施形態で述べた第2合成演算部56のそれと同じである。 As described above, the setting of the mixing ratio (x 0 , y 0 ) based on the edge intensity value E (x 0 , y 0 ) and the region edge amount E RG [p 0 , q 0 ] is performed for all pixel positions (x , Y) are sequentially executed after sequentially considering the target pixel position (x 0 , y 0 ), and finally, the mixture ratio (x, y) for all the pixel positions (x, y) is determined. . The method of generating the target correction image using the mixing ratio β (x, y) by the second synthesis calculation unit 56b is the same as that of the second synthesis calculation unit 56 described in the first embodiment.

第2実施形態によれば、部分画像領域ごとに、当該部分画像領域におけるエッジ強度の大きさを表す領域エッジ量ERG[p,q]が当該部分画像領域の画像特徴量として抽出される。そして、目標補正画像に対する短露光画像の寄与度(即ちβ(x,y))が、部分画像領域ごとに領域エッジ量ERG[p,q]に応じて調整される。この調整によって、全画素位置に対するエッジ強度値E(x,y)が同じであると仮定したならば、領域エッジ量ERG[p,q]が比較的大きい部分画像領域に対しては、目標補正画像に対する短露光画像の寄与度が比較的大きくなり、領域エッジ量ERG[p,q]が比較的小さい部分画像領域に対しては、目標補正画像に対する短露光画像の寄与度が比較的小さくなる。 According to the second embodiment, for each partial image region, the region edge amount E RG [p, q] representing the magnitude of the edge strength in the partial image region is extracted as the image feature amount of the partial image region. Then, the degree of contribution of the short-exposure image to the target correction image (that is, β (x, y)) is adjusted according to the region edge amount E RG [p, q] for each partial image region. If it is assumed that the edge intensity values E (x, y) for all pixel positions are the same by this adjustment, the target for a partial image region having a relatively large region edge amount E RG [p, q] The contribution of the short-exposure image to the correction image is relatively large, and the contribution of the short-exposure image to the target correction image is relatively small for a partial image region having a relatively small area edge amount E RG [p, q] Get smaller.

従って例えば、注目画素位置の属する部分画像領域の画像が連続する大きな平坦部の画像である場合には、対応する領域エッジ量が小さくなるので、当該部分画像領域において目標補正画像に対する第3中間生成画像の寄与度が大きくされて良好なるノイズ低減が図られる。連続する大きな平坦部ではノイズが目立ちやすいため、第3中間生成画像の寄与度を高めることが全体的な画質向上に貢献する。   Therefore, for example, if the image of the partial image region to which the target pixel position belongs is an image of a large flat portion that is continuous, the corresponding region edge amount is small, and therefore the third intermediate generation for the target correction image in the partial image region The contribution degree of the image is increased, and the noise can be reduced satisfactorily. Since noise is conspicuous in a large continuous flat portion, increasing the contribution of the third intermediate generation image contributes to the improvement of the overall image quality.

一方、注目画素位置の属する部分画像領域の画像にエッジ部と平坦部が混在する場合には、当該部分画像領域において目標補正画像に対する短露光画像の寄与度が大きくされ、結果、エッジがなまることによる鮮鋭度低下が回避される。即ち例えば、図15に示すような植物の葉や花を撮影対象とした場合(図16も参照)、画素位置ごとのエッジ強度値だけでなく、葉の輪郭部を含む部分画像領域の全体的なエッジ強度にも基づいて当該部分画像領域に対する混合率β(x,y)が決定されるため(結果的に、第1実施形態と比べて、当該部分画像領域に対する混合率β(x,y)が増大補正されるため)、葉の輪郭の内側に存在する葉脈などのエッジが適切に保存されて、第1実施形態よりも鮮鋭度が増す。   On the other hand, when the edge portion and the flat portion are mixed in the image of the partial image region to which the target pixel position belongs, the contribution of the short-exposure image to the target correction image is increased in the partial image region, and as a result, the edge is rounded. The sharpness reduction due to this is avoided. That is, for example, when a leaf or flower of a plant as shown in FIG. 15 is taken as an object to be photographed (see also FIG. 16), not only the edge intensity value for each pixel position but also the entire partial image area including the outline of the leaf Since the mixing rate β (x, y) for the partial image region is determined based on the edge intensity as a result (as a result, the mixing rate β (x, y) for the partial image region is compared with the first embodiment. ) Is corrected to increase), edges such as leaf veins existing inside the contour of the leaf are appropriately stored, and sharpness is increased as compared with the first embodiment.

尚、第2合成演算部56bに入力される第3中間生成画を第1中間生成画像(図5参照)に置き換えても、第2実施形態に特有の作用及び効果を得ることができる。即ち、図20に示す如く、第2合成演算部56bに対して、第3中間生成画像の代わりに第1中間生成画像を入力し、第2合成演算部56bにおいて第1中間生成画像と短露光画像を合成することで目標補正画像を生成するようにしても良い。この場合、第2実施形態の説明文中における第3中間生成画像、及び、第1実施形態で述べた第2合成演算部56の機能の説明文中における第3中間生成画像を、第1中間生成画像に読み替えれば足る(上記式(6)におけるP3(x,y)もP1(x,y)に置き換えて考えればよい)。また、第2合成演算部56bに対して第3中間生成画像の代わりに第1中間生成画像を入力する場合には、画像補正部20又は20aから第1合成部61を割愛することも可能である(図1、図5参照)。   In addition, even if the third intermediate generation image input to the second synthesis calculation unit 56b is replaced with the first intermediate generation image (see FIG. 5), the operations and effects peculiar to the second embodiment can be obtained. That is, as shown in FIG. 20, the first intermediate generation image is input to the second synthesis calculation unit 56b instead of the third intermediate generation image, and the first intermediate generation image and the short exposure are input in the second synthesis calculation unit 56b. The target correction image may be generated by combining the images. In this case, the third intermediate generated image in the explanatory text of the second embodiment and the third intermediate generated image in the explanatory text of the function of the second synthesis calculation unit 56 described in the first embodiment are converted into the first intermediate generated image. (P3 (x, y) in the above equation (6) may be replaced with P1 (x, y)). In addition, when the first intermediate generation image is input to the second synthesis calculation unit 56b instead of the third intermediate generation image, the first synthesis unit 61 can be omitted from the image correction unit 20 or 20a. Yes (see FIGS. 1 and 5).

<<第3実施形態>>
本発明の第3実施形態を説明する。第3実施形態は、第2実施形態の一部を変形した実施形態であり、本実施形態にて特に述べない事項に関しては、第2実施形態の記載が本実施形態にも適用される。
<< Third Embodiment >>
A third embodiment of the present invention will be described. The third embodiment is an embodiment obtained by modifying a part of the second embodiment, and the description of the second embodiment is also applied to the present embodiment with respect to matters not specifically described in the present embodiment.

第2実施形態においては、部分画像領域[p0,q0]に属する全画素位置に対して同一の領域エッジ量E[p0,q0]が適用され、結果、部分画像領域[p0,q0]に属する全画素位置に対して、領域エッジ量E[p0,q0]に応じた共通の下限値βMIN及び閾値TH2Hが適用される。従って、第2実施形態においては、隣接する部分画像領域に対して求められた領域エッジ量が大きく異なる場合、隣接する部分画像領域の境界部分において画像の質感(画像鮮鋭度等)が急峻に変化することがある。第3実施形態に係る技術は、このような急峻な変化の抑制に寄与する。 In the second embodiment, the same region edge amount E [p 0 , q 0 ] is applied to all pixel positions belonging to the partial image region [p 0 , q 0 ]. As a result, the partial image region [p 0 , Q 0 ], a common lower limit value β MIN and threshold value TH 2H according to the region edge amount E [p 0 , q 0 ] are applied to all pixel positions belonging to. Therefore, in the second embodiment, when the obtained region edge amount differs greatly between adjacent partial image regions, the texture (image sharpness, etc.) of the image changes sharply at the boundary between adjacent partial image regions. There are things to do. The technology according to the third embodiment contributes to suppression of such a steep change.

第3実施形態に係る技術を具体的に説明する。今、図21に示す、4つの部分画像領域[p,q]、[p+1,q]、[p,q+1]及び[p+1,q+1]に注目し、部分画像領域[p,q]、[p+1,q]、[p,q+1]及び[p+1,q+1]の中心に配置された画素位置を、夫々、符号431、432、433及び434によって表す。   The technique according to the third embodiment will be specifically described. Now, paying attention to the four partial image regions [p, q], [p + 1, q], [p, q + 1] and [p + 1, q + 1] shown in FIG. 21, the partial image regions [p, q], [p + 1] , Q], [p, q + 1] and [p + 1, q + 1], the pixel positions arranged at the centers are represented by reference numerals 431, 432, 433 and 434, respectively.

領域エッジ量算出部71は、第2実施形態で述べたように、部分画像領域[p,q]に属する画素位置のエッジ強度値E(x,y)を積算し、積算値を領域エッジ量EEG[p,q]として求める。同様の積算演算を経て、部分画像領域[p+1,q]、[p,q+1]及び[p+1,q+1]に対して、夫々、領域エッジ量EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]を求める。 As described in the second embodiment, the region edge amount calculation unit 71 integrates the edge intensity values E (x, y) of pixel positions belonging to the partial image region [p, q], and uses the integrated value as the region edge amount. Calculated as E EG [p, q]. Through similar integration calculations, region edge amounts E EG [p + 1, q] and E EG [p, q + 1] are respectively obtained for partial image regions [p + 1, q], [p, q + 1] and [p + 1, q + 1]. ] And E EG [p + 1, q + 1].

第2合成演算部56bは、画素位置431が注目画素位置(x0,y0)である場合においては、混合率β(x0,y0)を決定する際における下限値βMIN及び閾値TH2Hを領域エッジ量EEG[p,q]に応じたものに設定する。同様に、画素位置432、433及び434が注目画素位置(x0,y0)である場合においては、混合率β(x0,y0)を決定する際における下限値βMIN及び閾値TH2Hを、夫々、領域エッジ量EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]に応じたものに設定する。このように、画素位置431、432、433及び434に対する下限値βMIN及び閾値TH2Hは、夫々、領域エッジ量EEG[p,q]、EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]のみに依存して設定される。 When the pixel position 431 is the target pixel position (x 0 , y 0 ), the second composition calculation unit 56b determines the lower limit value β MIN and the threshold value TH2 when determining the mixing ratio β (x 0 , y 0 ). H is set according to the region edge amount E EG [p, q]. Similarly, when the pixel positions 432, 433, and 434 are the target pixel position (x 0 , y 0 ), the lower limit value β MIN and the threshold value TH2 H when determining the mixing ratio β (x 0 , y 0 ). Are set according to the region edge amounts E EG [p + 1, q], E EG [p, q + 1] and E EG [p + 1, q + 1], respectively. Thus, the lower limit β MIN and threshold TH2 H for the pixel positions 431, 432, 433, and 434 are the region edge amounts E EG [p, q], E EG [p + 1, q], E EG [p, q + 1] and E EG [p + 1, q + 1] only.

一方、図21に示す画素位置441又は442のような、画素位置431〜434にて囲まれた矩形領域内の画素位置(画素位置431〜434を除く)が注目画素位置(x0,y0)である場合においては、混合率β(x0,y0)を決定する際における下限値βMIN及び閾値TH2Hを、領域エッジ量EEG[p,q]、EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]の内の2以上の領域エッジ量に基づいて設定する。画素位置441及び442の夫々は画素位置431〜434にて囲まれた矩形領域内の画素位置であると共に、画素位置441は部分画像領域[p,q]に属し且つ画素位置442は部分画像領域[p+1,q+1]に属している。 On the other hand, the pixel positions (excluding the pixel positions 431 to 434) in the rectangular region surrounded by the pixel positions 431 to 434, such as the pixel position 441 or 442 shown in FIG. 21, are the target pixel positions (x 0 , y 0). ), The lower limit value β MIN and threshold value TH2 H when determining the mixing ratio β (x 0 , y 0 ) are set to the region edge amounts E EG [p, q], E EG [p + 1, q]. , E EG [p, q + 1] and E EG [p + 1, q + 1] are set based on two or more region edge amounts. Each of the pixel positions 441 and 442 is a pixel position in a rectangular area surrounded by the pixel positions 431 to 434, the pixel position 441 belongs to the partial image area [p, q], and the pixel position 442 is a partial image area. It belongs to [p + 1, q + 1].

領域エッジ量算出部71又は第2合成演算部56bは、領域エッジ量EEG[p,q]、EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]をそれぞれ画素位置431、432、433及び434に対する領域エッジ量と見立てた上で、画素位置441に対する領域エッジ量EEG_441を、領域エッジ量EEG[p,q]、EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]並びに画素位置441と画素位置431〜434との間の距離に基づきバイリニア補間によって求め、同様に、画素位置442に対する領域エッジ量EEG_442を、領域エッジ量EEG[p,q]、EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]並びに画素位置442と画素位置431〜434との間の距離に基づきバイリニア補間によって求める。図21に示す状況とは異なるが、仮に例えば、画素位置431及び433を結ぶ線分の中心に画素位置441が配置されているとしたならば「EEG_441=(EEG[p,q]+EEG[p,q+1])/2」となり、画素位置431〜434にて囲まれた矩形領域の中心に画素位置442が配置されているとしたならば「EEG_442=(EEG[p,q]+EEG[p+1,q]+EEG[p,q+1]+EEG[p+1,q+1])/4」となる。 The region edge amount calculation unit 71 or the second composition calculation unit 56b calculates the region edge amounts E EG [p, q], E EG [p + 1, q], E EG [p, q + 1], and E EG [p + 1, q + 1]. Assume that the region edge amounts for the pixel positions 431 , 432, 433, and 434 are the region edge amounts E EG — 441 for the pixel position 441, the region edge amounts E EG [p, q], E EG [p + 1, q], E EG [p, q + 1] and E EG [p + 1, q + 1] are obtained by bilinear interpolation based on the distance between the pixel position 441 and the pixel positions 431 to 434. Similarly, the region edge amount E EG — 442 with respect to the pixel position 442 is obtained. , area edge amount E EG [p, q], the distance between the E EG [p + 1, q ], E EG [p, q + 1] and E EG [p + 1, q + 1] as well as the pixel position 442 and the pixel position 431-434 Based calculated by bilinear interpolation. Although different from the situation shown in FIG. 21, if the pixel position 441 is arranged at the center of a line segment connecting the pixel positions 431 and 433, for example, “E EG441 = (E EG [p, q] + E EG [p, q + 1]) / 2 ”and if the pixel position 442 is arranged at the center of the rectangular area surrounded by the pixel positions 431 to 434, “ E EG442 = (E EG [p, q ] + E EG [p + 1, q] + E EG [p, q + 1] + E EG [p + 1, q + 1]) / 4 ”.

第2合成演算部56bは、画素位置441が注目画素位置(x0,y0)である場合には、混合率β(x0,y0)を決定する際における下限値βMIN及び閾値TH2Hを領域エッジ量EEG_441に応じたものに設定し、画素位置442が注目画素位置(x0,y0)である場合には、混合率β(x0,y0)を決定する際における下限値βMIN及び閾値TH2Hを領域エッジ量EEG_442に応じたものに設定する。 When the pixel position 441 is the target pixel position (x 0 , y 0 ), the second composition calculation unit 56b determines the lower limit value β MIN and the threshold value TH2 when determining the mixing ratio β (x 0 , y 0 ). When H is set according to the region edge amount E EG — 441 and the pixel position 442 is the target pixel position (x 0 , y 0 ), the mixing ratio β (x 0 , y 0 ) is determined. The lower limit value β MIN and threshold value TH2 H are set according to the region edge amount E EG — 442 .

上述したように、画素位置441及び442の夫々は画素位置431〜434にて囲まれた矩形領域内の画素位置であると共に、画素位置441は部分画像領域[p,q]に属し且つ画素位置442は部分画像領域[p+1,q+1]に属している。従って例えば、図22に示す如く、領域エッジ量EEG[p,q]、EEG[p+1,q]、EEG[p,q+1]及びEEG[p+1,q+1]を表す数値が、夫々、255、200、200及び200である場合においては、領域エッジ量EEG_441及びEEG_442の夫々は255未満であって且つ200よりも大きくなり、且つ、領域エッジ量EEG_441は領域エッジ量EEG_442よりも大きくなる。 As described above, each of the pixel positions 441 and 442 is a pixel position in a rectangular area surrounded by the pixel positions 431 to 434, and the pixel position 441 belongs to the partial image area [p, q] and the pixel position. 442 belongs to the partial image area [p + 1, q + 1]. Therefore, for example, as shown in FIG. 22, numerical values representing the region edge amounts E EG [p, q], E EG [p + 1, q], E EG [p, q + 1], and E EG [p + 1, q + 1] In the case of 255, 200, 200 and 200, each of the region edge amounts E EG — 441 and E EG — 442 is less than 255 and greater than 200, and the region edge amount E EG — 441 is greater than the region edge amount E EG — 442 . Also grows.

即ち、図23(a)に示す如く、第2実施形態を採用した場合と比べて画素位置441に対する下限値βMINは減少補正されると共に画素位置441に対する閾値TH2Hは増大補正され、図23(b)に示す如く、第2実施形態を採用した場合と比べて画素位置442に対する下限値βMINは増大補正されると共に画素位置442に対する閾値TH2Hは減少補正される。結果、第2実施形態を採用した場合と比べて、画素位置441に対する混合率β(x,y)は減少補正される一方で、画素位置442に対する混合率β(x,y)は増大補正される。 That is, as shown in FIG. 23A, the lower limit β MIN for the pixel position 441 is corrected to be decreased and the threshold value TH2 H for the pixel position 441 is increased and corrected as compared to the case where the second embodiment is adopted. As shown in (b), the lower limit value β MIN for the pixel position 442 is corrected to increase and the threshold value TH2 H for the pixel position 442 is corrected to decrease compared to the case where the second embodiment is adopted. As a result, compared with the case where the second embodiment is adopted, the mixing rate β (x, y) with respect to the pixel position 441 is corrected to decrease, while the mixing rate β (x, y) with respect to the pixel position 442 is corrected to increase. The

このように、第3実施形態では、領域エッジ量EEG[p,q]に基づいて部分画像領域ごとに下限値βMIN及び閾値TH2Hが暫定的に定められるものの、隣接する部分画像領域間で下限値βMIN及び閾値TH2Hの変化量が抑制される方向に暫定的な下限値βMIN及び閾値TH2Hが修正され、修正後の下限値βMIN及び閾値TH2Hを用いて最終的な混合率β(x,y)が決定される。言い換えれば、領域エッジ量EEG[p,q]に基づいて導出される部分画像領域ごとの混合率β(x,y)が、隣接する部分画像領域間で混合率β(x,y)の変化量が抑制されるように修正され、修正後の混合率β(x,y)を用いて第3中間生成画像と短露光画像の合成が成される。これにより、隣接する部分画像領域の境界部分において画像の質感(画像鮮鋭度等)が急峻に変化することが抑制される。 As described above, in the third embodiment, although the lower limit value β MIN and the threshold value TH2 H are provisionally determined for each partial image area based on the area edge amount E EG [p, q], in corrected lower limit value beta MIN and threshold TH2 provisional limit value in the direction of variation of H is suppressed beta MIN and threshold TH2 H is the final using the lower limit value beta MIN and the threshold TH2 H after correction The mixing rate β (x, y) is determined. In other words, the mixing rate β (x, y) for each partial image region derived based on the region edge amount E EG [p, q] is equal to the mixing rate β (x, y) between adjacent partial image regions. The correction is performed so that the amount of change is suppressed, and the third intermediate generation image and the short-exposure image are combined using the corrected mixing ratio β (x, y). Thereby, it is possible to suppress a sharp change in the texture of the image (image sharpness or the like) at the boundary between adjacent partial image regions.

<<第4実施形態>>
本発明の第4実施形態を説明する。図24は、第4実施形態に係る第2合成部62dの内部ブロック図である。図5の画像補正部20aに対して図5の第2合成部62の代わりに図24の第2合成部62dを設けた画像補正部を、図1の画像補正部20として用いることができる。
<< Fourth Embodiment >>
A fourth embodiment of the present invention will be described. FIG. 24 is an internal block diagram of the second synthesis unit 62d according to the fourth embodiment. An image correcting unit provided with a second combining unit 62d in FIG. 24 instead of the second combining unit 62 in FIG. 5 with respect to the image correcting unit 20a in FIG. 5 can be used as the image correcting unit 20 in FIG.

第2合成部62dは、エッジ強度値算出部55、第2合成演算部56d及び特定領域検出部81を備える。第2合成部62dにおけるエッジ強度値算出部55の機能は、第1実施形態で述べたものと同じである。即ち、第2合成部62dにおけるエッジ強度値算出部55は、エッジ評価画像に対してエッジ抽出処理を行うことで、エッジ評価画像の各画素位置におけるエッジ強度値E(x,y)を算出する。エッジ評価画像は、第1実施形態の説明からも明らかなように、短露光画像(第1画像)又は第2中間生成画像(第3画像)である。   The second synthesis unit 62d includes an edge strength value calculation unit 55, a second synthesis calculation unit 56d, and a specific area detection unit 81. The function of the edge strength value calculation unit 55 in the second synthesis unit 62d is the same as that described in the first embodiment. That is, the edge strength value calculation unit 55 in the second synthesis unit 62d performs edge extraction processing on the edge evaluation image, thereby calculating an edge strength value E (x, y) at each pixel position of the edge evaluation image. . As is clear from the description of the first embodiment, the edge evaluation image is a short-exposure image (first image) or a second intermediate generation image (third image).

特定領域検出部81には、検出対象画像の画像データが与えられる。検出対象画像は、目標補正画像の元となる短露光画像若しくは適正露光画像、又は、第1〜第3中間生成画像の何れかである。通常は、第2合成部62dに入力される短露光画像又は第3中間生成画像(第4画像)が検出対象画像とされる。但し、目標補正画像の元となる短露光画像及び適正露光画像並びにそれらに基づく第1〜第3中間生成画像以外の画像が、検出対象画像であっても良い。例えば、目標補正画像の元となる短露光画像の次に適正露光画像が撮影される場合、短露光画像の撮影直前に撮像部11にて撮影された画像、又は、適正露光画像の撮影直後に撮像部11にて撮影された画像を、検出対象画像として取り扱うことも可能である。   The specific area detection unit 81 is provided with image data of the detection target image. The detection target image is any one of a short exposure image, a proper exposure image, and first to third intermediate generation images that are the basis of the target correction image. Normally, the short exposure image or the third intermediate generation image (fourth image) input to the second synthesis unit 62d is set as the detection target image. However, the image other than the short exposure image and the proper exposure image that are the basis of the target correction image and the first to third intermediate generation images based on them may be detection target images. For example, when a proper exposure image is photographed next to a short exposure image that is a source of the target correction image, an image photographed by the imaging unit 11 immediately before the short exposure image is photographed, or just after the proper exposure image is photographed. It is also possible to handle an image captured by the imaging unit 11 as a detection target image.

特定領域検出部81は、検出対象画像の画像データに基づいて、特定被写体(換言すれば特定物体)の画像データが存在する画像領域(以下、特定領域という)を検出対象画像の全画像領域の中から抽出し、検出対象画像及び二次元座標系XY上における特定領域の位置及び大きさを表す情報を含む特定領域情報を作成する。特定領域情報によって、特定領域の形状をもが規定されるものとする。例えば、特定領域が矩形領域である場合には、その矩形領域の対角線上の2頂点の座標値を特定領域情報に含めておけば良い、或いは、その矩形領域の一頂点の座標値と該矩形領域の水平及び垂直方向の大きさを特定領域情報に含めておけば良い。図25に示す如く、任意の二次元画像300において、特定領域以外の画像領域を非特定領域という。   Based on the image data of the detection target image, the specific area detection unit 81 selects an image area (hereinafter, referred to as a specific area) in which image data of a specific subject (in other words, a specific object) exists as the entire image area of the detection target image. Specific area information is extracted from the image and includes information indicating the position and size of the specific area on the detection target image and the two-dimensional coordinate system XY. The shape of the specific area is defined by the specific area information. For example, if the specific area is a rectangular area, the coordinate values of two vertices on the diagonal of the rectangular area may be included in the specific area information, or the coordinate value of one vertex of the rectangular area and the rectangle The size of the region in the horizontal and vertical directions may be included in the specific region information. As shown in FIG. 25, in any two-dimensional image 300, an image area other than the specific area is referred to as a non-specific area.

第2合成演算部56dは、エッジ強度値E(x,y)及び特定領域情報に基づき、短露光画像と第3中間生成画像を合成することにより目標補正画像を生成する。この際、短露光画像と第3中間生成画像を合成する際の合成比率(即ち、β(x,y))を、エッジ強度値E(x,y)が同じであっても、特定領域及び非特定領域間で異ならせるようにする。   Based on the edge intensity value E (x, y) and the specific area information, the second combination calculation unit 56d generates a target correction image by combining the short exposure image and the third intermediate generation image. At this time, even if the edge intensity value E (x, y) is the same, the combination ratio (that is, β (x, y)) when combining the short-exposure image and the third intermediate generation image is the same. Differentiate between non-specific areas.

特定被写体の種類等に応じて、第2合成部62dの具体的な動作は異なる。以下、第2合成部62dの動作の具体例として、第1〜第3動作例を個別に説明する。   The specific operation of the second combining unit 62d differs depending on the type of the specific subject. Hereinafter, first to third operation examples will be individually described as specific examples of the operation of the second combining unit 62d.

[第1動作例]
第1動作例を説明する。第1動作例では、特定被写体(換言すれば特定物体)が人物の顔であることが想定される。図26に示す如く、第1動作例における特定領域は人物の顔の画像データが存在する顔領域であり、第1動作例における非特定領域は顔領域以外の画像領域である非顔領域である。検出対象画像の画像データに基づく顔領域の抽出方法として、公知の方法を含む任意の方法を利用可能である。
[First operation example]
A first operation example will be described. In the first operation example, it is assumed that the specific subject (in other words, the specific object) is a human face. As shown in FIG. 26, the specific area in the first operation example is a face area where image data of a human face exists, and the non-specific area in the first operation example is a non-face area that is an image area other than the face area. . Any method including a known method can be used as a method for extracting a face region based on the image data of the detection target image.

第2合成演算部56dは、顔領域の位置及び大きさを表す特定領域情報に基づき、注目画素位置(x0,y0)が顔領域及び非顔領域の何れに属するのかを判断し、注目画素位置(x0,y0)が顔領域及び非顔領域の何れに属するかによって、エッジ強度値E(x0,y0)と混合率β(x0,y0)との関係を異ならせる。エッジ強度値E(x0,y0)と混合率β(x0,y0)との関係には、複数種類の関係があり、その複数種類の関係には関係RLA及びRLBが含まれる。図27(a)及び(b)の折れ線470A及び470Bは、夫々、関係RLA及びRLBを示している。 Based on the specific area information indicating the position and size of the face area, the second composition calculation unit 56d determines whether the target pixel position (x 0 , y 0 ) belongs to the face area or the non-face area. Depending on whether the pixel position (x 0 , y 0 ) belongs to a face area or a non-face area, the relationship between the edge intensity value E (x 0 , y 0 ) and the mixing rate β (x 0 , y 0 ) differs. Make it. The relationship between the edge strength value E (x 0 , y 0 ) and the mixing ratio β (x 0 , y 0 ) has a plurality of types of relationships, and the plurality of types of relationships include the relationships RL A and RL B. It is. The broken lines 470 A and 470 B in FIGS. 27A and 27B indicate the relations RL A and RL B , respectively.

注目画素位置(x0,y0)が顔領域に属する場合、注目画素位置(x0,y0)に関係RLAが適用される。注目画素位置(x0,y0)に関係RLAが適用される場合、
不等式「E(x0,y0)<THLA」の成立時には「β(x0,y0)=0」とされ、
不等式「THLA≦E(x0,y0)<THHA」の成立時には「β(x0,y0)=(E(x0,y0)−THLA)/(THHA−THLA)」とされ、
不等式「THHA≦E(x0,y0)」の成立時には「β(x0,y0)=1」とされる。
注目画素位置(x0,y0)が非顔領域に属する場合、注目画素位置(x0,y0)に関係RLBが適用される。注目画素位置(x0,y0)に関係RLBが適用される場合、
不等式「E(x0,y0)<THLB」の成立時には「β(x0,y0)=0」とされ、
不等式「THLB≦E(x0,y0)<THHB」の成立時には「β(x0,y0)=(E(x0,y0)−THLB)/(THHB−THLB)」とされ、
不等式「THHB≦E(x0,y0)」の成立時には「β(x0,y0)=1」とされる。
When the target pixel position (x 0 , y 0 ) belongs to the face area, the relationship RL A is applied to the target pixel position (x 0 , y 0 ). When the relationship RL A is applied to the target pixel position (x 0 , y 0 ),
When the inequality “E (x 0 , y 0 ) <TH LA ” is satisfied, “β (x 0 , y 0 ) = 0” is set,
When the inequality “TH LA ≦ E (x 0 , y 0 ) <TH HA ” holds, “β (x 0 , y 0 ) = (E (x 0 , y 0 ) −TH LA ) / (TH HA −TH LA ) "
When the inequality “TH HA ≦ E (x 0 , y 0 )” is satisfied, “β (x 0 , y 0 ) = 1” is set.
When the target pixel position (x 0 , y 0 ) belongs to the non-face area, the relationship RL B is applied to the target pixel position (x 0 , y 0 ). When the relationship RL B is applied to the target pixel position (x 0 , y 0 ),
When the inequality “E (x 0 , y 0 ) <TH LB ” is satisfied, “β (x 0 , y 0 ) = 0” is set,
When the inequality “TH LB ≦ E (x 0 , y 0 ) <TH HB ” is satisfied, “β (x 0 , y 0 ) = (E (x 0 , y 0 ) −TH LB ) / (TH HB −TH LB) ) "
When the inequality “TH HB ≦ E (x 0 , y 0 )” is satisfied, “β (x 0 , y 0 ) = 1” is set.

THLA、THHA、THLB及びTHHBは、不等式「0<THLA<THHA」及び「0<THLB<THHB」を満たす所定の閾値である。尚、図27(a)及び(b)に示される関係RLA及びRLBでは、エッジ強度値E(x0,y0)が閾値THLAから閾値THHAに向かって増大するにつれて又は閾値THLBから閾値THHBに向かって増大するにつれて混合率β(x0,y0)が0から1に向かって線形的に増加するが、混合率β(x0,y0)を非線形に増加させても構わない。 TH LA , TH HA , TH LB and TH HB are predetermined thresholds satisfying the inequalities “0 <TH LA <TH HA ” and “0 <TH LB <TH HB ”. In relations RL A and RL B shown in FIGS. 27A and 27B, the edge strength value E (x 0 , y 0 ) increases from the threshold value TH LA toward the threshold value TH HA or the threshold value TH. The mixing rate β (x 0 , y 0 ) increases linearly from 0 to 1 as it increases from LB toward the threshold TH HB , but the mixing rate β (x 0 , y 0 ) is increased nonlinearly. It doesn't matter.

上述のような、エッジ強度値E(x0,y0)及び特定領域情報に基づく混合率(x0,y0)の設定は、全ての画素位置(x,y)を順次注目画素位置(x0,y0)と捉えた上で次々と実行され、最終的に、全ての画素位置(x,y)に対する混合率(x,y)が決定される(後述の第2及び第3動作例においても同様)。第2合成演算部56dによる、混合率β(x,y)を用いた目標補正画像の生成方法は、第1実施形態で述べた第2合成演算部56のそれと同じである。 As described above, the setting of the mixing rate (x 0 , y 0 ) based on the edge intensity value E (x 0 , y 0 ) and the specific area information is performed by sequentially setting all pixel positions (x, y) to the target pixel position ( x 0 , y 0 ) and then executed one after another, and finally, the mixture ratio (x, y) for all pixel positions (x, y) is determined (second and third operations described later). The same applies to the example). The method of generating the target correction image using the mixing ratio β (x, y) by the second synthesis calculation unit 56d is the same as that of the second synthesis calculation unit 56 described in the first embodiment.

ここで、不等式「THLB<THLA」及び「THHB<THHA」の内の少なくとも一方、望ましくは双方が満たされるように、各閾値を定めておく。これにより、顔領域に対しては、目標補正画像に対する短露光画像の寄与度(即ちβ(x,y))が比較的小さくなる一方で、非顔領域に対しては該寄与度(即ちβ(x,y))が比較的大きくなる。この結果、目標補正画像の顔領域内において、細部が目立たなくなり(例えば、肌のざらつきが目立たなくなり)、美肌の演出効果を得ることができる。 Here, each threshold value is determined so that at least one of the inequalities “TH LB <TH LA ” and “TH HB <TH HA ”, preferably both, is satisfied. Accordingly, the contribution of the short-exposure image to the target correction image (that is, β (x, y)) is relatively small for the face area, while the contribution (that is, β is applied to the non-face area. (X, y)) becomes relatively large. As a result, in the face area of the target correction image, details are not conspicuous (for example, skin roughness is inconspicuous), and an effect of producing beautiful skin can be obtained.

尚、顔領域の内、肌色を有する画素位置に対してのみ関係RLAを適用するようにしてもよい。即ち、注目画素位置(x0,y0)が顔領域内に位置しており且つ注目画素位置(x0,y0)における画素の色が肌色に分類される場合にのみ、注目画素位置(x0,y0)に関係RLAを適用し、それ以外の場合には、注目画素位置(x0,y0)に関係RLBを適用するようにしても良い。注目画素位置(x0,y0)における画素が肌色に分類されるか否かを、検出対象画像の注目画素位置(x0,y0)の画素信号に基づいて判断することができる。例えば、肌色に分類されるべきR、G及びB信号の信号値範囲を予め設定しておき、注目画素位置(x0,y0)の画素信号としてのR、G及びB信号が該信号値範囲に収まるか否かを判断することによって、注目画素位置(x0,y0)における画素が肌色に分類されるか否か検出することができる。 Among the face region may be only apply the relationship RL A relative pixel positions having a skin color. That is, only when the target pixel position (x 0 , y 0 ) is located in the face area and the color of the pixel at the target pixel position (x 0 , y 0 ) is classified as skin color, The relationship RL A may be applied to x 0 , y 0 ), and in other cases, the relationship RL B may be applied to the target pixel position (x 0 , y 0 ). Whether or not the pixel at the target pixel position (x 0 , y 0 ) is classified as a skin color can be determined based on the pixel signal at the target pixel position (x 0 , y 0 ) of the detection target image. For example, signal value ranges of R, G, and B signals to be classified into skin colors are set in advance, and R, G, and B signals as pixel signals at the target pixel position (x 0 , y 0 ) are the signal values. By determining whether or not it falls within the range, it is possible to detect whether or not the pixel at the target pixel position (x 0 , y 0 ) is classified into the skin color.

特定被写体(換言すれば特定物体)が人物の顔以外である時にも、第1動作例にて上述した方法は適用可能である。目標補正画像において細部を目立たせたくない任意の被写体を特定被写体に設定すれば、第1動作例は有益に作用する。   Even when the specific subject (in other words, the specific object) is other than a human face, the method described above in the first operation example can be applied. If an arbitrary subject whose details are not conspicuous in the target correction image is set as the specific subject, the first operation example is beneficial.

[第2動作例]
第2動作例を説明する。第2動作例では、人物が飼っているペットが特定被写体(換言すれば特定物体)であることが想定される。従って、第2動作例における特定領域はペットの顔及び体の画像データが存在するペット領域であり、第2動作例における非特定領域はペット領域以外の画像領域である非ペット領域である。
[Second operation example]
A second operation example will be described. In the second operation example, it is assumed that a pet kept by a person is a specific subject (in other words, a specific object). Therefore, the specific area in the second operation example is a pet area where image data of the pet's face and body exists, and the non-specific area in the second operation example is a non-pet area that is an image area other than the pet area.

顔領域の抽出方法と同様の方法にてペット領域を抽出することが可能である。人物の顔領域を抽出する場合には、人物の顔の画像特徴を学習しておくことで顔辞書データを予め作成し、その顔辞書データを用いて検出対象画像から顔領域を抽出することができる。これと同様に、例えば、ペット(例えば犬)の顔の画像特徴を学習しておくことでペット顔辞書データを予め作成し、そのペット顔辞書データを用いて検出対象画像からペットの顔領域を抽出する。その後例えば、公知の輪郭抽出処理等を用いて、ペットの顔領域を含む、エッジで囲まれた閉領域をペット領域として抽出すればよい。   It is possible to extract the pet area by the same method as the face area extraction method. When extracting the face area of a person, it is possible to create face dictionary data in advance by learning the image features of the person's face and extract the face area from the detection target image using the face dictionary data. it can. Similarly, for example, pet face dictionary data is created in advance by learning the image characteristics of the face of a pet (for example, a dog), and the pet face region is detected from the detection target image using the pet face dictionary data. Extract. Then, for example, a closed region surrounded by edges including the pet face region may be extracted as a pet region using a known contour extraction process or the like.

第2合成演算部56dは、ペット領域の位置及び大きさを表す特定領域情報に基づき、注目画素位置(x0,y0)がペット領域及び非ペット領域の何れに属するのかを判断し、注目画素位置(x0,y0)がペット領域及び非ペット領域の何れに属するかによって、エッジ強度値E(x0,y0)と混合率β(x0,y0)との関係を異ならせる。 The second composition calculation unit 56d determines whether the target pixel position (x 0 , y 0 ) belongs to the pet region or the non-pet region based on the specific region information indicating the position and size of the pet region. Depending on whether the pixel position (x 0 , y 0 ) belongs to a pet area or a non-pet area, the relationship between the edge intensity value E (x 0 , y 0 ) and the mixing rate β (x 0 , y 0 ) differs. Make it.

具体的には、注目画素位置(x0,y0)がペット領域に属する場合には、注目画素位置(x0,y0)に対して関係RLBを適用し、注目画素位置(x0,y0)が非ペット領域に属する場合には、注目画素位置(x0,y0)に対して関係RLAを適用する(図27(a)及び(b)参照)。関係RLA及びRLBの特性は、第1動作例の説明において述べた通りである。 Specifically, when the target pixel position (x 0 , y 0 ) belongs to the pet region, the relationship RL B is applied to the target pixel position (x 0 , y 0 ), and the target pixel position (x 0 , if y 0) belongs to the non-pet area (applying the relationship RL a relative x 0, y 0) (FIG. 27 (a) the target pixel position reference and (b)). The characteristics of the relations RL A and RL B are as described in the description of the first operation example.

これにより、ペット領域に対しては、目標補正画像に対する短露光画像の寄与度(即ちβ(x,y))が比較的大きくなる一方で、非ペット領域に対しては該寄与度(即ちβ(x,y))が比較的小さくなる。この結果、目標補正画像において、ペット領域の鮮鋭度が高まり、ペットの毛並み等が鮮明に描写されるようになる。   As a result, the contribution of the short-exposure image to the target correction image (that is, β (x, y)) is relatively large for the pet area, while the contribution (that is, β) (X, y)) becomes relatively small. As a result, the sharpness of the pet region is increased in the target correction image, and the pet's hair and the like are clearly depicted.

説明の便宜上、第2動作例における特定被写体(換言すれば特定物体)がペットであることを想定したが、ペットを動物に読み替えても良い。更に、特定被写体がペット(動物)以外である時にも、第2動作例にて上述した方法は適用可能である。目標補正画像において鮮明に描写したい任意の被写体を特定被写体に設定すれば、第2動作例は有益に作用する。   For convenience of explanation, it is assumed that the specific subject (in other words, the specific object) in the second operation example is a pet, but the pet may be read as an animal. Furthermore, the method described above in the second operation example can also be applied when the specific subject is other than a pet (animal). If an arbitrary subject to be clearly depicted in the target correction image is set as the specific subject, the second operation example is beneficial.

[第3動作例]
第3動作例を説明する。撮像部11は、シャッタボタン17aが押下されていなくても所定のフレーム周期にて順次撮影を行い、図1の主制御部13は、1つのフレーム周期分のAFE12の出力データから1枚の撮影画像(以下、フレーム画像とも言う)の映像信号を生成する。時系列上に並ぶフレーム画像の集まりをフレーム画像列という。
[Third operation example]
A third operation example will be described. The imaging unit 11 sequentially performs imaging at a predetermined frame period even when the shutter button 17a is not pressed, and the main control unit 13 in FIG. 1 captures one image from the output data of the AFE 12 for one frame period. A video signal of an image (hereinafter also referred to as a frame image) is generated. A group of frame images arranged in time series is called a frame image sequence.

第3動作例を利用する場合、主制御部13に、図28に示す追尾処理部82が設けられる。追尾処理部82には、特定領域検出部81が内包される。追尾処理部82は、フレーム画像列の画像データに基づいてフレーム画像列上における注目物体をフレーム画像列上で追尾する追尾処理を実行する。追尾処理によって追尾されるべき注目物体を、以下、追尾対象という。   When the third operation example is used, the main control unit 13 is provided with a tracking processing unit 82 shown in FIG. The tracking processing unit 82 includes a specific area detection unit 81. The tracking processing unit 82 executes a tracking process for tracking the object of interest on the frame image sequence on the frame image sequence based on the image data of the frame image sequence. The target object to be tracked by the tracking process is hereinafter referred to as a tracking target.

ユーザは、追尾対象を指定することができる。例えば、表示部15に所謂タッチパネル機能を設けておく。そして、フレーム画像列を動画像として表示部27の表示画面上で表示している時において、注目物体が表示されている、表示画面上の表示領域を、ユーザが指で触れることにより、該注目物体が追尾対象として設定される。或いは例えば、ユーザは、操作部17に対する所定操作によって追尾対象を指定することもできる。   The user can specify a tracking target. For example, a so-called touch panel function is provided in the display unit 15. Then, when the frame image sequence is displayed as a moving image on the display screen of the display unit 27, the user touches the display area on the display screen where the target object is displayed with the finger. An object is set as a tracking target. Alternatively, for example, the user can designate a tracking target by a predetermined operation on the operation unit 17.

追尾対象の設定後、追尾処理では、フレーム画像列の画像データに基づき、各フレーム画像における追尾対象の位置及び大きさが逐次検出される。実際には、追尾対象を表す画像データの存在する画像領域が追尾対象領域として各フレーム画像内に設定され、追尾対象領域の位置(例えば中心又は重心位置)及び大きさが追尾対象の位置及び大きさとして検出される。   After the tracking target is set, in the tracking process, the position and size of the tracking target in each frame image are sequentially detected based on the image data of the frame image sequence. Actually, an image area where image data representing the tracking target exists is set as a tracking target area in each frame image, and the position (for example, the center or the center of gravity) and the size of the tracking target area are the position and the size of the tracking target. Is detected.

第1及び第2のフレーム画像間における追尾処理を次のように実行することができる。ここにおける第1のフレーム画像とは、既に追尾対象の位置及び大きさが検出されているフレーム画像を指し、第2のフレーム画像とは、これから追尾対象の位置及び大きさが検出されるべきフレーム画像を指す。第2のフレーム画像は、通常、第1のフレーム画像の次に撮影されるフレーム画像である。   The tracking process between the first and second frame images can be executed as follows. Here, the first frame image refers to a frame image in which the position and size of the tracking target have already been detected, and the second frame image refers to a frame from which the position and size of the tracking target are to be detected. Refers to the image. The second frame image is a frame image that is usually taken after the first frame image.

画像データに基づく追尾処理の方法として、公知の方法を含む任意の方法を利用可能である。例えば、追尾処理部82は、追尾対象が有する画像特徴に基づいて追尾処理を行うことができる。画像特徴は、輝度情報及び色情報を含む。より具体的には例えば、第2のフレーム画像内に、追尾対象領域の大きさと同程度の大きさを有すると推定される追尾枠を設定して、第2のフレーム画像における追尾枠内の画像の画像特徴と、第1のフレーム画像における追尾対象領域内の画像の画像特徴との類似性評価を追尾枠の位置を探索領域内で順次変更しながら実行し、最大の類似性が得られた追尾枠の中心位置に、第2のフレーム画像における追尾対象領域の中心位置が存在すると判断する。第2のフレーム画像に対する探索領域は、第1のフレーム画像における追尾対象の位置を基準にして設定される。尚、フレーム画像上の追尾対象の位置及び大きさを検出する方法として、上述した方法と異なる他の任意の方法(例えば、特開2004−94680号公報に記載された方法や特開2009−38777号公報に記載された方法)を採用することも可能である。   As a tracking processing method based on image data, any method including a publicly known method can be used. For example, the tracking processing unit 82 can perform the tracking process based on the image characteristics of the tracking target. The image feature includes luminance information and color information. More specifically, for example, a tracking frame that is estimated to have the same size as the size of the tracking target area is set in the second frame image, and the image in the tracking frame in the second frame image is set. The similarity between the image feature and the image feature of the image in the tracking target area in the first frame image was executed while sequentially changing the position of the tracking frame in the search area, and the maximum similarity was obtained. It is determined that the center position of the tracking target area in the second frame image exists at the center position of the tracking frame. The search area for the second frame image is set with reference to the position of the tracking target in the first frame image. As a method for detecting the position and size of the tracking target on the frame image, any other method different from the method described above (for example, the method described in Japanese Patent Application Laid-Open No. 2004-94680, or Japanese Patent Application Laid-Open No. 2009-38777). It is also possible to adopt the method described in the publication.

シャッタボタン17aの押下に伴って取得される短露光画像及び適正露光画像も、追尾処理の対象となるフレーム画像列の一部と考えることができる。今、図29に示す如く、シャッタボタン17aの押下後、短露光画像503及び適正露光画像504がこの順番で連続撮影された場合を考える。また、短露光画像503の撮影直前においてフレーム画像502が撮影され、フレーム画像502の撮影直前にフレーム画像501が撮影され、適正露光画像504の直後にフレーム画像505が撮影されたものとする。尚、第1実施形態でも述べたように、短露光画像503よりも先に適正露光画像504が撮影されても良い。   The short exposure image and the proper exposure image acquired when the shutter button 17a is pressed can also be considered as a part of the frame image sequence to be tracked. Consider a case where, after the shutter button 17a is pressed, the short exposure image 503 and the proper exposure image 504 are continuously photographed in this order as shown in FIG. Further, it is assumed that the frame image 502 is photographed immediately before the short exposure image 503 is photographed, the frame image 501 is photographed immediately before the frame image 502 is photographed, and the frame image 505 is photographed immediately after the proper exposure image 504. As described in the first embodiment, the proper exposure image 504 may be taken before the short exposure image 503.

図29に示すような画像501〜505が撮影された場合、特定領域検出部81(図24及び図28参照)にとっての検出対象画像は、短露光画像503及び適正露光画像504から目標補正画像をリアルタイムに生成するべく、例えばフレーム画像502とされる。但し、短露光画像503又は適正露光画像504を検出対象画像として取り扱っても良い。更に、短露光画像503及び/又は適正露光画像504に基づく第1〜第3中間生成画像の何れかを検出対象画像として取り扱っても良いし、短露光画像503及び適正露光画像504の撮影後に撮影されるフレーム画像(例えば、フレーム画像505)を検出対象画像として取り扱うことも可能である。   When images 501 to 505 as shown in FIG. 29 are taken, the detection target image for the specific area detection unit 81 (see FIGS. 24 and 28) is a target correction image from the short exposure image 503 and the appropriate exposure image 504. In order to generate in real time, for example, a frame image 502 is used. However, the short exposure image 503 or the proper exposure image 504 may be handled as the detection target image. Further, any one of the first to third intermediate generation images based on the short exposure image 503 and / or the proper exposure image 504 may be handled as a detection target image, or is shot after the short exposure image 503 and the proper exposure image 504 are taken. It is also possible to handle a frame image (for example, frame image 505) to be detected as a detection target image.

特定領域検出部81は、検出対象画像上における追尾対象領域を特定領域とみなして特定領域情報を作成する。従って、第3動作例における特定領域は追尾対象の画像データが存在する追尾対象領域であり、第3動作例における非特定領域は追尾対象領域以外の画像領域である非追尾対象領域である。   The specific area detection unit 81 regards the tracking target area on the detection target image as a specific area and creates specific area information. Therefore, the specific area in the third operation example is a tracking target area in which image data to be tracked exists, and the non-specific area in the third operation example is a non-tracking target area that is an image area other than the tracking target area.

第2合成演算部56dは、追尾対象領域の位置及び大きさを表す特定領域情報に基づき、注目画素位置(x0,y0)が追尾対象領域及び非追尾対象領域の何れに属するのかを判断し、注目画素位置(x0,y0)が追尾対象領域及び非追尾対象領域の何れに属するかによって、エッジ強度値E(x0,y0)と混合率β(x0,y0)との関係を異ならせる。 The second composition calculation unit 56d determines whether the target pixel position (x 0 , y 0 ) belongs to the tracking target area or the non-tracking target area based on the specific area information indicating the position and size of the tracking target area. Depending on whether the target pixel position (x 0 , y 0 ) belongs to the tracking target area or the non-tracking target area, the edge intensity value E (x 0 , y 0 ) and the mixing ratio β (x 0 , y 0 ) Different relationship with.

具体的には、注目画素位置(x0,y0)が追尾対象領域に属する場合には、注目画素位置(x0,y0)に対して関係RLBを適用し、注目画素位置(x0,y0)が非追尾対象領域に属する場合には、注目画素位置(x0,y0)に対して関係RLAを適用する(図27(a)及び(b)参照)。関係RLA及びRLBの特性は、第1動作例の説明において述べた通りである。 Specifically, when the target pixel position (x 0, y 0) belongs to the tracking target area, by applying the relationship RL B with respect to the target pixel position (x 0, y 0), the target pixel position (x When 0 , y 0 ) belongs to the non-tracking target region, the relationship RL A is applied to the target pixel position (x 0 , y 0 ) (see FIGS. 27A and 27B). The characteristics of the relations RL A and RL B are as described in the description of the first operation example.

これにより、追尾対象領域に対しては、目標補正画像に対する短露光画像の寄与度(即ちβ(x,y))が比較的大きくなる一方で、非追尾対象領域に対しては該寄与度(即ちβ(x,y))が比較的小さくなる。この結果、目標補正画像において、追尾対象領域の鮮鋭度が高まり、追尾対象としての注目物体が鮮明に描写されるようになる。   Thereby, while the contribution degree of the short exposure image to the target correction image (that is, β (x, y)) is relatively large for the tracking target area, the contribution degree ( That is, β (x, y)) becomes relatively small. As a result, in the target correction image, the sharpness of the tracking target area is increased, and the target object as the tracking target is clearly depicted.

尚、第2合成演算部56dに入力される第3中間生成画を第1中間生成画像(図5参照)に置き換えても、第4実施形態に特有の作用及び効果を得ることができる。即ち、図30に示す如く、第2合成演算部56dに対して、第3中間生成画像の代わりに第1中間生成画像を入力し、第2合成演算部56dにおいて第1中間生成画像と短露光画像を合成することで目標補正画像を生成するようにしても良い。この場合、第4実施形態の説明文中における第3中間生成画像、及び、第1実施形態で述べた第2合成演算部56の機能の説明文中における第3中間生成画像を、第1中間生成画像に読み替えれば足る(上記式(6)におけるP3(x,y)もP1(x,y)に置き換えて考えればよい)。また、第2合成演算部56dに対して第3中間生成画像の代わりに第1中間生成画像を入力する場合には、画像補正部20又は20aから第1合成部61を割愛することも可能である(図1、図5参照)。   In addition, even if the third intermediate generation image input to the second synthesis calculation unit 56d is replaced with the first intermediate generation image (see FIG. 5), it is possible to obtain operations and effects peculiar to the fourth embodiment. That is, as shown in FIG. 30, the first intermediate generation image is input instead of the third intermediate generation image to the second synthesis calculation unit 56d, and the first intermediate generation image and the short exposure are input in the second synthesis calculation unit 56d. The target correction image may be generated by combining the images. In this case, the third intermediate generated image in the explanatory text of the fourth embodiment and the third intermediate generated image in the explanatory text of the function of the second composition calculation unit 56 described in the first embodiment are converted into the first intermediate generated image. (P3 (x, y) in the above equation (6) may be replaced with P1 (x, y)). When the first intermediate generation image is input instead of the third intermediate generation image to the second synthesis calculation unit 56d, the first synthesis unit 61 can be omitted from the image correction unit 20 or 20a. Yes (see FIGS. 1 and 5).

<<第5実施形態>>
本発明の第5実施形態を説明する。第5実施形態は、第4実施形態の一部を変形した実施形態であり、本実施形態にて特に述べない事項に関しては、第4実施形態の記載が本実施形態にも適用される。
<< Fifth Embodiment >>
A fifth embodiment of the present invention will be described. The fifth embodiment is an embodiment obtained by modifying a part of the fourth embodiment. Regarding matters not specifically described in the present embodiment, the description of the fourth embodiment is also applied to the present embodiment.

第4実施形態では、注目画素位置が特定領域と非特定領域の何れかに属しているかでエッジ強度値E(x,y)及び混合率(x,y)間の関係が急峻に変化する。従って、第4実施形態では、隣接する部分画像領域の境界部分において画像の質感(画像鮮鋭度等)が急峻に変化することがある。第5実施形態に係る技術は、このような急峻な変化の抑制に寄与する。   In the fourth embodiment, the relationship between the edge intensity value E (x, y) and the mixing ratio (x, y) changes sharply depending on whether the target pixel position belongs to either the specific area or the non-specific area. Therefore, in the fourth embodiment, the texture of the image (image sharpness or the like) may change sharply at the boundary between adjacent partial image areas. The technique according to the fifth embodiment contributes to suppression of such a steep change.

説明の具体化のため、特定領域が顔領域であって非特定領域が非顔領域である場合を例にとり、第5実施形態に係る技術を説明する。   For specific description, the technique according to the fifth embodiment will be described by taking as an example the case where the specific area is a face area and the non-specific area is a non-face area.

特定領域検出部81又は第2合成演算部56d(図24、図30参照)は、特定領域情報によって指し示される顔領域を、顔中央領域と顔周辺領域に分類する。顔領域の外形は矩形以外であってもよいが、今、顔領域の外形が矩形である場合を考える。そうすると、顔領域は、図31に示すような顔中央領域と顔周辺領域に分類される。図31及び後述の図33において、ドットで満たされた領域が顔中央領域であり、斜線で満たされた領域が顔周辺領域である。顔領域の中心を、顔中心と呼ぶ。顔中央領域は、顔中心からの距離が基準距離以下の画素で形成される画像領域であり、顔の鼻などの画像データを内包する。基準距離は、顔中央領域が顔領域の一部となるように顔領域の大きさに基づいて決定される。顔領域の内、顔中央領域以外の画像領域が顔周辺領域である。   The specific area detection unit 81 or the second synthesis calculation unit 56d (see FIGS. 24 and 30) classifies the face area indicated by the specific area information into a face center area and a face peripheral area. The outer shape of the face area may be other than a rectangle, but now consider the case where the outer shape of the face area is a rectangle. Then, the face area is classified into a face center area and a face peripheral area as shown in FIG. In FIG. 31 and FIG. 33 described later, the area filled with dots is the face center area, and the area filled with diagonal lines is the face peripheral area. The center of the face area is called the face center. The face center area is an image area formed by pixels whose distance from the face center is a reference distance or less, and includes image data such as the nose of the face. The reference distance is determined based on the size of the face area so that the face center area becomes a part of the face area. Among the face areas, the image area other than the face center area is the face peripheral area.

注目画素位置(x0,y0)が顔中央領域に属する場合は、注目画素位置(x0,y0)に関係RLAが適用され、注目画素位置(x0,y0)が非顔領域に属する場合は、注目画素位置(x0,y0)に関係RLBが適用される(図27(a)及び(b)参照)。この点に関しては、第4実施形態と同様である。 If the target pixel position (x 0, y 0) belongs to the face central region, the relationship RL A to the target pixel position (x 0, y 0) is applied, the target pixel position (x 0, y 0) is the non-face If it belongs to the region, the relationship RL B is applied to the target pixel position (x 0 , y 0 ) (see FIGS. 27A and 27B). This is the same as in the fourth embodiment.

但し、注目画素位置(x0,y0)が顔周辺領域に属する場合は、注目画素位置(x0,y0)に関係RLCが適用される。図30(a)の折れ線470Cは関係RLCを表している。図30(b)では、図27(a)及び(b)にも示される折れ線470A及び470Bと共に、折れ線470Cが示されている。
注目画素位置(x0,y0)に関係RLCが適用される場合、
不等式「E(x0,y0)<THLC」の成立時には「β(x0,y0)=0」とされ、
不等式「THLC≦E(x0,y0)<THHC」の成立時には「β(x0,y0)=(E(x0,y0)−THLC)/(THHC−THLC)」とされ、
不等式「THHC≦E(x0,y0)」の成立時には「β(x0,y0)=1」とされる。
However, when the target pixel position (x 0, y 0) belongs to the face peripheral region, the relationship RL C to the target pixel position (x 0, y 0) is applied. A broken line 470 C in FIG. 30A represents the relationship RL C. In FIG. 30B, a broken line 470 C is shown together with the broken lines 470 A and 470 B also shown in FIGS. 27A and 27B.
When the relationship RL C is applied to the target pixel position (x 0, y 0),
When the inequality “E (x 0 , y 0 ) <TH LC ” is satisfied, “β (x 0 , y 0 ) = 0” is set,
When the inequality “TH LC ≦ E (x 0 , y 0 ) <TH HC ” is satisfied, “β (x 0 , y 0 ) = (E (x 0 , y 0 ) −TH LC ) / (TH HC −TH LC ) "
When the inequality “TH HC ≦ E (x 0 , y 0 )” is satisfied, “β (x 0 , y 0 ) = 1” is set.

注目画素位置(x0,y0)が顔周辺領域に属する場合、第2合成演算部56dは、注目画素位置(x0,y0)と顔中央領域との距離及び注目画素位置(x0,y0)と非顔領域との距離に基づき、閾値THLC及びTHHCを調整する。但し、この調整は、不等式「0<THLC<THHC」、「THLB<THLC<THLA」及び「THHB<THHC<THHA」が満たされる範囲内で行われる。 When the target pixel position (x 0 , y 0 ) belongs to the face peripheral area, the second synthesis calculation unit 56d determines the distance between the target pixel position (x 0 , y 0 ) and the face center area and the target pixel position (x 0 , Y 0 ) and the non-face area are adjusted to adjust the thresholds TH LC and TH HC . However, this adjustment is performed within a range where the inequalities “0 <TH LC <TH HC ”, “TH LB <TH LC <TH LA ”, and “TH HB <TH HC <TH HA ” are satisfied.

図33に示す如く、注目画素位置(x0,y0)が画素位置530である場合を考える。この場合、画素位置530と顔中心とを結ぶ直線を想定し、該直線と顔中央領域の外周との交点に配置された画素位置531、及び、該直線と顔周辺領域の外周との交点に配置された画素位置532を参照する。画素位置530に対する閾値THLCは、画素位置530が画素位置531から画素位置532に向かうにつれて、顔中央領域に対応する閾値THLAから非顔領域に対応する閾値THLBに向かって線形的に又は非線形に減少せしめられる。同様に、画素位置530に対する閾値THHCは、画素位置530が画素位置531から画素位置532に向かうにつれて、顔中央領域に対応する閾値THHAから非顔領域に対応する閾値THHBに向かって線形的に又は非線形に減少せしめられる。 Consider the case where the pixel position of interest (x 0 , y 0 ) is the pixel position 530 as shown in FIG. In this case, assuming a straight line connecting the pixel position 530 and the face center, the pixel position 531 disposed at the intersection of the straight line and the outer periphery of the face central region, and the intersection of the straight line and the outer periphery of the face peripheral region Reference is made to the arranged pixel position 532. The threshold value TH LC for the pixel position 530 is linearly or gradually from the threshold value TH LA corresponding to the face center area toward the threshold value TH LB corresponding to the non-face area as the pixel position 530 moves from the pixel position 531 to the pixel position 532. It is reduced non-linearly. Similarly, the threshold value TH HC for the pixel position 530 is linear from the threshold value TH HA corresponding to the face center area toward the threshold value TH HB corresponding to the non-face area as the pixel position 530 moves from the pixel position 531 to the pixel position 532. Or non-linearly.

このため、全画素位置に対するエッジ強度値E(x,y)が同じであると仮定したならば、目標補正画像に対する短露光画像の寄与度(即ち、β(x,y))は、顔中央領域において最も小さく、顔周辺領域において2番目に小さく、非顔領域において最も大きくなる。そして、その寄与度は、顔領域と非顔領域の境界部分において滑らかに変化することが期待される。この結果、顔領域と非顔領域の境界部分において画像の質感(画像鮮鋭度等)が急峻に変化することが抑制される。   For this reason, if it is assumed that the edge intensity values E (x, y) for all pixel positions are the same, the contribution of the short-exposure image to the target correction image (that is, β (x, y)) is the center of the face. It is the smallest in the area, the second smallest in the face peripheral area, and the largest in the non-face area. The contribution is expected to change smoothly at the boundary between the face area and the non-face area. As a result, a sharp change in the texture of the image (image sharpness or the like) at the boundary between the face area and the non-face area is suppressed.

特定領域が顔領域である場合を例に挙げたが、特定領域がペット領域又は追尾対象領域である場合も同様である。但し、特定領域がペット領域又は追尾対象領域である場合においては、目標補正画像に対する短露光画像の寄与度(即ち、β(x,y))は、特定中央領域において最も大きく、特定周辺領域において2番目に大きく、非特定領域において最も小さくなる(但し、全画素位置に対するエッジ強度値E(x,y)が同じであると仮定)。特定中央領域とは、特定領域の中心からの距離が基準距離以下の画素で形成される画像領域である(ここにおける基準距離は、特定中央領域が特定領域の一部となるように特定領域の大きさに基づいて決定される)。特定領域の内、特定中央領域以外の画像領域が特定周辺領域である。   Although the case where the specific area is the face area has been described as an example, the same applies to the case where the specific area is the pet area or the tracking target area. However, when the specific area is the pet area or the tracking target area, the contribution of the short-exposure image to the target correction image (that is, β (x, y)) is the largest in the specific central area and in the specific peripheral area. Second largest and smallest in non-specific area (assuming that edge intensity values E (x, y) for all pixel positions are the same). The specific center area is an image area formed by pixels whose distance from the center of the specific area is equal to or less than the reference distance (the reference distance here is the specific area so that the specific central area becomes a part of the specific area). Determined based on size). Among the specific areas, the image area other than the specific central area is the specific peripheral area.

<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 3 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
画像補正部(20又は20a)を含む画像処理装置が撮像装置1内に設けられている例を上述したが、画像補正部(20又は20a)を、撮像装置1の外部の画像処理装置(不図示)に設けるようにしてもよい。この場合、その外部の画像処理装置に含まれる画像補正部(20又は20a)に対して、撮像装置1の撮影によって得られた画像データ(短露光画像及び適正露光画像の画像データを含む)を供給することにより、その外部の画像処理装置に含まれる画像補正部(20又は20a)にて目標補正画像の画像データが生成される。
[Note 1]
Although the example in which the image processing device including the image correction unit (20 or 20a) is provided in the imaging device 1 has been described above, the image correction unit (20 or 20a) is connected to an image processing device (not configured) outside the imaging device 1. It may be provided in the figure). In this case, image data (including image data of a short exposure image and a proper exposure image) obtained by photographing with the imaging device 1 with respect to an image correction unit (20 or 20a) included in the external image processing device. By supplying, the image correction unit (20 or 20a) included in the external image processing apparatus generates image data of the target correction image.

[注釈2]
撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、画像補正部(20又は20a)内で実行される処理の全部又は一部は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
[Note 2]
The imaging device 1 can be realized by hardware or a combination of hardware and software. In particular, all or part of the processing executed in the image correction unit (20 or 20a) can be realized by hardware, software, or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

[注釈3]
例えば、以下のように考えることができる。第2及び第3実施形態において、領域エッジ量算出部71(図17又は図20参照)は、部分画像領域ごとの画像特徴量を抽出する特徴量抽出部として機能する。エッジ強度値算出部55も特徴量抽出部の構成要素に含まれる、と考えることも可能である。
[Note 3]
For example, it can be considered as follows. In the second and third embodiments, the region edge amount calculation unit 71 (see FIG. 17 or 20) functions as a feature amount extraction unit that extracts an image feature amount for each partial image region. It can also be considered that the edge strength value calculation unit 55 is also included in the constituent elements of the feature amount extraction unit.

1 撮像装置
11 撮像部
12 AFE
13 主制御部
20、20a 画像補正部
51 位置合わせ部
52 ノイズ低減部
53 差分値算出部
54 第1合成演算部
55 エッジ強度値算出部
56、56b、56d 第2合成演算部
61 第1合成部
62、62b、62d 第2合成部
71 領域エッジ量算出部
81 特定領域検出部
82 追尾処理部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 12 AFE
13 Main control unit 20, 20a Image correction unit 51 Position adjustment unit 52 Noise reduction unit 53 Difference value calculation unit 54 First synthesis calculation unit 55 Edge intensity value calculation unit 56, 56b, 56d Second synthesis calculation unit 61 First synthesis unit 62, 62b, 62d Second composition unit 71 Region edge amount calculation unit 81 Specific region detection unit 82 Tracking processing unit

Claims (6)

撮影によって得られた第1画像を第1合成対象画像とし、
前記第1画像の露光時間よりも長い露光時間の撮影によって得られた第2画像、又は、前記第1画像のノイズを低減することによって得られた第3画像と前記第2画像との合成画像である第4画像を第2合成対象画像とし、前記第1及び第2合成対象画像を合成することで出力画像を生成する画像処理装置であって、
前記第1合成対象画像又は前記第3画像の全体画像領域を複数の部分画像領域に分割し、前記部分画像領域ごとに当該部分画像領域の画像データに基づいて当該部分画像領域の画像特徴量を抽出する特徴量抽出部を備え、
前記第1及び第2合成対象画像を合成する際の合成比率を、前記部分画像領域ごとに当該部分画像領域の画像特徴量に基づいて調整する
ことを特徴とする画像処理装置。
The first image obtained by photographing is set as a first composition target image,
A second image obtained by photographing with an exposure time longer than the exposure time of the first image, or a composite image of the third image obtained by reducing noise in the first image and the second image An image processing apparatus for generating an output image by synthesizing the first and second synthesis target images.
The entire image area of the first synthesis target image or the third image is divided into a plurality of partial image areas, and the image feature amount of the partial image area is determined for each partial image area based on the image data of the partial image area. A feature extraction unit for extracting,
An image processing apparatus, wherein a composition ratio when the first and second synthesis target images are synthesized is adjusted for each partial image area based on an image feature amount of the partial image area.
前記特徴量抽出部は、前記部分画像領域ごとに当該部分画像領域におけるエッジ強度の大きさを前記画像特徴量として抽出する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the feature amount extraction unit extracts, as the image feature amount, a magnitude of edge strength in the partial image region for each partial image region.
前記画像特徴量としてのエッジ強度の大きさが比較的大きい部分画像領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的大きくなるように、且つ、前記画像特徴量としてのエッジ強度の大きさが比較的小さい部分画像領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的小さくなるように、前記合成比率を調整する
ことを特徴とする請求項2に記載の画像処理装置。
For the partial image region having a relatively large edge strength as the image feature amount, the image feature amount is set so that the contribution degree of the first synthesis target image to the output image is relatively large. For the partial image region having a relatively small edge strength, the composition ratio is adjusted so that the contribution of the first composition target image to the output image is relatively small. The image processing apparatus according to claim 2.
撮影によって得られた第1画像を第1合成対象画像とし、
前記第1画像の露光時間よりも長い露光時間の撮影によって得られた第2画像、又は、前記第1画像のノイズを低減することによって得られた第3画像と前記第2画像との合成画像である第4画像を第2合成対象画像とし、前記第1及び第2合成対象画像を合成することで出力画像を生成する画像処理装置であって、
前記第1〜第4画像の何れか又は前記第1画像の撮影前若しくは後の撮影によって得られた画像である検出対象画像の画像データに基づいて、前記検出対象画像の中から特定物体の画像データが存在する画像領域の位置及び大きさを検出する特定物体検出部を備え、
前記第1及び第2合成対象画像の各全体画像領域を、検出された位置及び大きさに応じた特定領域とそれ以外の非特定領域とに分類し、前記第1及び第2合成対象画像を合成する際の合成比率を前記特定領域及び前記非特定領域間で異ならせる
ことを特徴とする画像処理装置。
The first image obtained by photographing is set as a first composition target image,
A second image obtained by photographing with an exposure time longer than the exposure time of the first image, or a composite image of the third image obtained by reducing noise in the first image and the second image An image processing apparatus for generating an output image by synthesizing the first and second synthesis target images.
An image of a specific object from among the detection target images based on image data of the detection target image that is an image obtained by any one of the first to fourth images or before or after the first image is captured. A specific object detection unit for detecting the position and size of an image area where data exists,
Each whole image area of the first and second synthesis target images is classified into a specific area according to the detected position and size and other non-specific areas, and the first and second synthesis target images are classified. An image processing apparatus, wherein a composition ratio at the time of composition is different between the specific area and the non-specific area.
前記特定物体の画像データが存在する画像領域とは、人物の顔の画像データが存在する顔領域であり、
前記顔領域に対応する前記特定領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的小さくなるように、且つ、前記非特定領域に対しては、前記出力画像に対する前記第1合成対象画像の寄与度が比較的大きくなるように、前記合成比率を調整する
ことを特徴とする請求項4に記載の画像処理装置。
The image area in which the image data of the specific object exists is a face area in which image data of a human face exists,
For the specific area corresponding to the face area, the contribution of the first synthesis target image to the output image is relatively small, and for the non-specific area, the output image The image processing apparatus according to claim 4, wherein the composition ratio is adjusted so that the contribution degree of the first composition target image is relatively large.
撮影によって画像を取得する撮像部と、
請求項1〜請求項5の何れかに記載の画像処理装置と、を備え、
前記第1及び第2画像は前記撮像部によって取得される
ことを特徴とする撮像装置。
An imaging unit for acquiring an image by shooting;
An image processing apparatus according to any one of claims 1 to 5,
The imaging apparatus, wherein the first and second images are acquired by the imaging unit.
JP2009190851A 2009-08-20 2009-08-20 Image processor and imaging apparatus Pending JP2011044846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009190851A JP2011044846A (en) 2009-08-20 2009-08-20 Image processor and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009190851A JP2011044846A (en) 2009-08-20 2009-08-20 Image processor and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2011044846A true JP2011044846A (en) 2011-03-03

Family

ID=43831957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009190851A Pending JP2011044846A (en) 2009-08-20 2009-08-20 Image processor and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011044846A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2639769A2 (en) 2012-03-16 2013-09-18 Fujitsu Limited Image synthesis device and computer program for image synthesis
US10269128B2 (en) 2015-04-16 2019-04-23 Mitsubishi Electric Corporation Image processing device and method, and recording medium
CN116741194A (en) * 2023-08-10 2023-09-12 同方节能工程技术有限公司 Spatial local noise reduction method, device, equipment, system and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009006A (en) * 2001-06-20 2003-01-10 Sony Corp Image pickup method and device
JP2003018451A (en) * 2001-06-28 2003-01-17 Canon Inc Imaging apparatus
WO2007129533A1 (en) * 2006-05-09 2007-11-15 Sharp Kabushiki Kaisha Imaging device
JP2008277896A (en) * 2007-04-25 2008-11-13 Kyocera Corp Imaging device and imaging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009006A (en) * 2001-06-20 2003-01-10 Sony Corp Image pickup method and device
JP2003018451A (en) * 2001-06-28 2003-01-17 Canon Inc Imaging apparatus
WO2007129533A1 (en) * 2006-05-09 2007-11-15 Sharp Kabushiki Kaisha Imaging device
JP2008277896A (en) * 2007-04-25 2008-11-13 Kyocera Corp Imaging device and imaging method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2639769A2 (en) 2012-03-16 2013-09-18 Fujitsu Limited Image synthesis device and computer program for image synthesis
KR101424923B1 (en) * 2012-03-16 2014-08-01 후지쯔 가부시끼가이샤 Image synthesis device and computer program for image synthesis
US9007483B2 (en) 2012-03-16 2015-04-14 Fujitsu Limited Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times
US10269128B2 (en) 2015-04-16 2019-04-23 Mitsubishi Electric Corporation Image processing device and method, and recording medium
CN116741194A (en) * 2023-08-10 2023-09-12 同方节能工程技术有限公司 Spatial local noise reduction method, device, equipment, system and storage medium
CN116741194B (en) * 2023-08-10 2024-01-12 同方节能工程技术有限公司 Spatial local noise reduction method, device, equipment, system and storage medium

Similar Documents

Publication Publication Date Title
US20190130169A1 (en) Image processing method and device, readable storage medium and electronic device
EP2302903B1 (en) Image processing method, image processing apparatus, computer readable medium, and imaging apparatus
JP2010141653A (en) Image processing device and imaging apparatus
JP5413002B2 (en) Imaging apparatus and method, and program
WO2021047345A1 (en) Image noise reduction method and apparatus, and storage medium and electronic device
JP5112104B2 (en) Image processing apparatus and image processing program
US20110080503A1 (en) Image sensing apparatus
JP2010011441A (en) Imaging apparatus and image playback device
US9743015B2 (en) Image capturing apparatus and method of controlling the same
JP2009284001A (en) Image processing device, image shooting device, and image processing method
JP2005130297A (en) System, method and program of signal processing
JP4752941B2 (en) Image composition apparatus and program
CN110636216B (en) Image processing method and device, electronic equipment and computer readable storage medium
EP3891974B1 (en) High dynamic range anti-ghosting and fusion
JP5468930B2 (en) Image processing apparatus and image processing program
US20120212640A1 (en) Electronic device
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JP2014021928A (en) Image processor, image processing method and program
JP5589660B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2011171842A (en) Image processor and image processing program
JP7057079B2 (en) Image processing device, image pickup device, image processing method, and program
JP2011044846A (en) Image processor and imaging apparatus
JP5733588B2 (en) Image processing apparatus and method, and program
JP2019016893A (en) Image processing apparatus, control method therefor, and program
JP2014120139A (en) Image process device and image process device control method, imaging device and display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120720

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131001