JP6810299B2 - Image processing equipment, methods, and programs as well as imaging equipment - Google Patents

Image processing equipment, methods, and programs as well as imaging equipment Download PDF

Info

Publication number
JP6810299B2
JP6810299B2 JP2020516173A JP2020516173A JP6810299B2 JP 6810299 B2 JP6810299 B2 JP 6810299B2 JP 2020516173 A JP2020516173 A JP 2020516173A JP 2020516173 A JP2020516173 A JP 2020516173A JP 6810299 B2 JP6810299 B2 JP 6810299B2
Authority
JP
Japan
Prior art keywords
image
emission
light
distribution information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020516173A
Other languages
Japanese (ja)
Other versions
JPWO2019208155A1 (en
Inventor
祐也 西尾
祐也 西尾
智紀 増田
智紀 増田
智大 島田
智大 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Application granted granted Critical
Publication of JP6810299B2 publication Critical patent/JP6810299B2/en
Publication of JPWO2019208155A1 publication Critical patent/JPWO2019208155A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description


本発明は画像処理装置、方法、及びプログラム並びに撮像装置に係り、特に露出の異なる複数枚の画像を合成してダイナミックレンジを広げるハイダイナミックレンジ合成(HDR(High-dynamic-range)合成)を行う技術に関する。

The present invention relates to an image processing device, a method, a program, and an imaging device, and particularly performs high dynamic range composition (HDR (High-dynamic-range) composition) in which a plurality of images having different exposures are combined to widen the dynamic range. Regarding technology.


デジタルカメラなどでダイナミックレンジの広い被写体を撮像すると、ハイライト部の領域ではイメージセンサの出力が飽和し、いわゆる「白飛び」が発生し、シャドウ部の領域ではイメージセンサの出力の階調が失われ、いわゆる「黒つぶれ」が発生することがある。

When a subject with a wide dynamic range is imaged with a digital camera or the like, the output of the image sensor is saturated in the highlight area, so-called "blown out" occurs, and the gradation of the image sensor output is lost in the shadow area. Therefore, so-called "black crushing" may occur.


被写体の持つダイナミックレンジをより広く画像で表現する方法の1つとして、HDR処理を行うことが知られている。HDR処理では、例えば、適正露光に対して露光量を落として撮像した画像(アンダー露光画像)と露光量を上げて撮像した画像(オーバー露光画像)を取得し、暗い被写体が撮像されている画素はオーバー露光画像の画素を、明るい被写体が撮像されている画素はアンダー露光画像の画素を用いることで(実際はどちらかだけでなく混合することもある)、白飛び及び黒つぶれの少ないHDR画像を作成する。

It is known that HDR processing is performed as one of the methods for expressing the dynamic range of a subject in a wider image. In HDR processing, for example, an image (underexposure image) captured with a reduced exposure amount and an image (overexposure image) captured with an increased exposure amount are acquired with respect to proper exposure, and a pixel in which a dark subject is captured is captured. By using the pixels of the overexposed image and the pixels of the underexposed image for the pixels in which a bright subject is captured (actually, not only one of them but also the pixels may be mixed), an HDR image with less overexposure and underexposure can be obtained. create.


従来、異なる露光で撮像した複数の画像から1枚のHDR画像を生成する装置として、特許文献1、2に記載のものがある。

Conventionally, there are devices described in Patent Documents 1 and 2 as an apparatus for generating one HDR image from a plurality of images taken with different exposures.


特許文献1に記載の撮像システムは、同一の被写体に対して異なる露光条件で撮像した複数の画像(長時間露光画像と短時間露光画像)から、長時間露光画像に係る輝度信号のうちの露光オーバーとなる領域(非適正露光域)以外の領域(適正露光域)の輝度信号を取得し、短時間露光画像に係る輝度信号の場合には、長時間露光画像における非適正露光域に対応する輝度信号を取得する。そして、各画像の適正露光域を合成することにより、広ダイナミックレンジ画像を生成している。

The imaging system described in Patent Document 1 exposes a plurality of images (long-exposure image and short-exposure image) captured under different exposure conditions on the same subject among the brightness signals related to the long-exposure image. The brightness signal of the area (appropriate exposure area) other than the overexposed area (inappropriate exposure area) is acquired, and in the case of the brightness signal related to the short exposure image, it corresponds to the improper exposure area in the long exposure image. Get the brightness signal. Then, a wide dynamic range image is generated by synthesizing the appropriate exposure areas of each image.


また、特許文献1に記載の撮像システムは、長時間露光画像及び短時間露光画像から主要被写体領域を推定し、推定した主要被写体領域に重点的に階調幅が配分されるように階調補正を行い、階調補正後の各画像の適正露光域を合成することで、適正露光域内の主要被写体に対する階調を豊かにしている。

Further, the imaging system described in Patent Document 1 estimates a main subject area from a long-exposure image and a short-exposure image, and performs gradation correction so that the gradation width is mainly distributed to the estimated main subject area. By synthesizing the appropriate exposure range of each image after gradation correction, the gradation for the main subject in the appropriate exposure range is enriched.


一方、特許文献2に記載の撮像装置は、長時間露光する画素群と短時間露光する画素群とを有する1つの撮像素子を備え、撮像素子から読み出した第1画素群の画像データと第2画素群の画像データとを合成し、HDR画像を生成している。

On the other hand, the image pickup apparatus described in Patent Document 2 includes one image pickup element having a pixel group for long-time exposure and a pixel group for short-time exposure, and the image data of the first pixel group read from the image pickup element and the second image sensor. An HDR image is generated by synthesizing the image data of the pixel group.


また、特許文献2には、長時間露光データであるフラッシュ画像データと、短時間露光データであるノンフラッシュ画像データとの混合比率を、被写体までの距離の推定値に応じて調整しながら加算し、1枚の合成画像を得る記載がある。これにより、背景画像の雰囲気を残したまま主要被写体の高SN比(Signal to Noise Ratio)の画像を得るようにしている。

Further, in Patent Document 2, the mixing ratio of the flash image data which is the long exposure data and the non-flash image data which is the short exposure data is added while adjusting according to the estimated value of the distance to the subject. There is a description of obtaining one composite image. As a result, an image having a high SN ratio (Signal to Noise Ratio) of the main subject is obtained while leaving the atmosphere of the background image.


特開2002−232777号公報JP-A-2002-232777 特開2009−206925号公報Japanese Unexamined Patent Publication No. 2009-20625


特許文献1には、HDR画像を生成する際の長時間露光画像と短時間露光画像との混合比率に関する明確な記載がないが、長時間露光画像の非適正露光域に対応する輝度信号については、短時間露光画像に係る輝度信号を使用するため、輝度信号の大きさにより長時間露光画像と短時間露光画像との混合比率を決めている、一般的なHDR合成であると考えられる。したがって、後述するように主要被写体の一部に影があると、影の領域が暗いままになるという問題がある。

Patent Document 1 does not clearly describe the mixing ratio of the long-exposure image and the short-exposure image when generating the HDR image, but the luminance signal corresponding to the improper exposure range of the long-exposure image is not described. Since the luminance signal related to the short-exposure image is used, it is considered to be a general HDR composition in which the mixing ratio of the long-exposure image and the short-exposure image is determined by the magnitude of the luminance signal. Therefore, as will be described later, if there is a shadow on a part of the main subject, there is a problem that the shadow area remains dark.


一方、特許文献2に記載の発明は、長時間露光データであるフラッシュ画像データと、短時間露光データであるノンフラッシュ画像データとの混合比率を、被写体までの距離の推定値に応じて調整しながら加算し、1枚の合成画像を生成している。また、特許文献2に記載の発明は、フラッシュ画像データとノンフラッシュ画像データとを合成するものであり、露出条件が異なる非発光画像(ノンフラッシュ画像)を合成するものではない。

On the other hand, in the invention described in Patent Document 2, the mixing ratio of the flash image data which is the long exposure data and the non-flash image data which is the short exposure data is adjusted according to the estimated value of the distance to the subject. While adding, one composite image is generated. Further, the invention described in Patent Document 2 synthesizes flash image data and non-flash image data, and does not synthesize non-emission images (non-flash images) having different exposure conditions.


このように特許文献1、2には、いずれも同一の被写体に対して異なる露光条件で撮像した複数の画像を合成し、HDR画像を生成する際に、被写体に照射されている光の強度に応じて複数の画像の合成比率を調整する記載がない。

As described above, in Patent Documents 1 and 2, when a plurality of images captured under different exposure conditions for the same subject are combined to generate an HDR image, the intensity of the light shining on the subject is determined. There is no description of adjusting the composition ratio of a plurality of images accordingly.


とろこで、一般的なHDR処理のように、オーバー画像の画素値を使うかアンダー画像の画素値を使うかを、イメージセンサから得られる輝度値によって決める場合、被写体に当たっている光の強さによらず、同じHDR処理が実施され、以下のような問題が発生する。

When deciding whether to use the pixel value of the over image or the pixel value of the under image based on the brightness value obtained from the image sensor, as in general HDR processing, the intensity of the light hitting the subject is used. Regardless, the same HDR processing is performed, and the following problems occur.


例えば、図21に示すように、人物の顔の左半分に日光が当たる日向領域Aとなり、右半分が日陰領域Bとなる場合を想定する。この場合、「強い光が当たっている黒い髪(1)」と、「影になっている肌(2)」とが同じ輝度値、又は略同じ輝度値になる場合、HDR合成に同じようにオーバー画像が使われてしまい、影になっている肌(2)が明るくなるだけでなく、黒い髪(1)も明るい色になってしまうという問題が発生する。

For example, as shown in FIG. 21, it is assumed that the left half of the face of a person is the sunlit area A and the right half is the shaded area B. In this case, if "black hair (1) exposed to strong light" and "shadowed skin (2)" have the same brightness value or substantially the same brightness value, the same applies to HDR synthesis. The over-image is used, and not only the shaded skin (2) becomes brighter, but also the black hair (1) becomes brighter.


本発明はこのような事情に鑑みてなされたもので、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像を取得することができる画像処理装置、方法、及びプログラム並びに撮像装置を提供することを目的とする。

The present invention has been made in view of such circumstances, and is an image processing device capable of acquiring an HDR image having excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the subject. It is an object of the present invention to provide methods and programs as well as imaging devices.


上記目的を達成するために本発明の一の態様に係る画像処理装置は、同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像と、フラッシュ光の発光下において複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像とを取得する画像取得部と、被写体の距離の分布を示す距離分布情報を取得する距離分布情報取得部と、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出する光強度分布情報算出部と、光強度分布情報に基づいて複数の非発光画像の合成比率を決定する合成比率決定部と、合成比率にしたがって複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する画像合成部と、を備える。

In order to achieve the above object, the image processing apparatus according to one aspect of the present invention is an image obtained by capturing the same subject, and a plurality of non-emission images captured under different exposure conditions under non-emission of flash light. Distribution of distance between an image acquisition unit that acquires an image and a light emitting image captured under the same exposure conditions as the exposure condition of any of a plurality of non-light emitting images under the light emission of flash light, and a subject. The light intensity of the light shining on the subject based on the distance distribution information acquisition unit that acquires the distance distribution information indicating the above, the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information. A light intensity distribution information calculation unit that calculates distribution information, a composition ratio determination unit that determines the composition ratio of a plurality of non-emission images based on the light intensity distribution information, and a composition ratio determination unit that synthesizes a plurality of non-emission images according to the composition ratio. It includes an image compositing unit that generates a compositing image with an expanded dynamic range.


本発明の一の態様によれば、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出する。そして、算出した光強度分布情報に基づいて複数の非発光画像の合成比率を決定し、決定した合成比率にしたがって複数の非発光画像を合成することによって、ダイナミックレンジが拡大された合成画像(HDR画像)を生成する。このようにして生成されたHDR画像は、被写体のもつ明暗が損なわれずに、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像となる。

According to one aspect of the present invention, the light intensity distribution information of the light shining on the subject is calculated based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information. .. Then, the composite image (HDR) having an expanded dynamic range is determined by determining the composite ratio of the plurality of non-emission images based on the calculated light intensity distribution information and synthesizing the plurality of non-emission images according to the determined composite ratio. Image) is generated. The HDR image generated in this way is an HDR image having excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the subject without impairing the brightness of the subject.


本発明の他の態様に係る画像処理装置において、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定し、画像合成部は、複数の非発光画像のそれぞれ対応する画素又は領域毎に決定した合成比率を適用して複数の非発光画像を合成することが好ましい。

In the image processing apparatus according to another aspect of the present invention, the composition ratio is determined for each of the corresponding pixels or regions of the plurality of non-emission images, and the image compositing unit determines the corresponding pixels or regions of the plurality of non-emission images. It is preferable to combine a plurality of non-emission images by applying the composition ratio determined for each.


本発明の更に他の態様に係る画像処理装置において、複数の非発光画像に対応する複数の露出条件は、適正露出の露出条件よりもアンダー露出の露出条件とオーバー露出の露出条件とを含むことが好ましい。これにより、白飛び及び黒つぶれの少ないHDR画像を作成することができる。

In the image processing apparatus according to still another aspect of the present invention, the plurality of exposure conditions corresponding to the plurality of non-emission images include an underexposure exposure condition and an overexposure exposure condition rather than the proper exposure exposure condition. Is preferable. This makes it possible to create an HDR image with less overexposure and underexposure.


本発明の更に他の態様に係る画像処理装置において、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度が大きい画素又は領域では複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくすることが好ましい。

In the image processing apparatus according to still another aspect of the present invention, when determining the composition ratio for each corresponding pixel or region of a plurality of non-emission images, the pixel or region having a large light intensity is based on the light intensity distribution information. Then, the mixing ratio of the first non-emissive image captured by the exposure condition having the smallest exposure value among the plurality of non-emission images is taken by the exposure condition having the largest exposure value among the plurality of non-emission images. 2 It is preferable that the mixing ratio of the non-emissive image is larger than that of the first non-emissive image in the pixel or region where the light intensity is low.


即ち、光強度が大きい画素(強い光が当たっている被写体に対応する画素)又は領域では、第1非発光画像の混合率を、第2非発光画像の混合率よりも大きくすることで、白飛びの少ないHDR画像を生成し、光強度が小さい画素(弱い光が当たっている被写体に対応する画素)又は領域では、第2非発光画像の混合率を、第1非発光画像の混合率よりも大きくすることで、黒つぶれの少ないHDR画像を生成する。

That is, in a pixel or region having a high light intensity (a pixel corresponding to a subject exposed to strong light), the mixing ratio of the first non-emission image is made larger than the mixing ratio of the second non-emission image to make white. For pixels or regions that generate HDR images with less skipping and have low light intensity (pixels corresponding to subjects exposed to weak light), the mixing ratio of the second non-emission image is higher than the mixing ratio of the first non-emission image. By increasing the size of the image, an HDR image with less blackout is generated.


本発明の更に他の態様に係る画像処理装置において、合成比率決定部は、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度分布情報のうちの最小光強度と最大光強度との間において、光強度が増加した場合、第2非発光画像の混合率を単調減少させることが好ましい。光強度分布情報のうちの最小光強度と最大光強度との間において、光強度が増加した場合、第2非発光画像の混合率を単調減少させる(第1非発光画像の混合率を単調増加させる)ことによって、光強度の増減に応じて連続的に混合率を変化させたHDR合成を行うことができる。尚、最小光強度は、光強度分布情報の中の最小値に限らず、例えば、最小値から一定値だけオフセットした値の光強度でもよく、同様に最大光強度は、光強度分布情報の中の最大値に限らず、例えば、最大値から一定値だけオフセットした値の光強度でもよい。単調減少は、リニアに減少する場合も含むことは言うまでもない。

In the image processing apparatus according to still another aspect of the present invention, the composite ratio determining unit determines the composite ratio for each corresponding pixel or region of a plurality of non-emission images, based on the light intensity distribution information. When the light intensity increases between the minimum light intensity and the maximum light intensity in the intensity distribution information, it is preferable to monotonically decrease the mixing ratio of the second non-emission image. When the light intensity increases between the minimum light intensity and the maximum light intensity in the light intensity distribution information, the mixing ratio of the second non-emission image is monotonically decreased (the mixing ratio of the first non-emission image is monotonically increased). By doing so, HDR synthesis in which the mixing ratio is continuously changed according to the increase or decrease in light intensity can be performed. The minimum light intensity is not limited to the minimum value in the light intensity distribution information, and may be, for example, a light intensity with a value offset by a certain value from the minimum value. Similarly, the maximum light intensity is in the light intensity distribution information. The light intensity is not limited to the maximum value of, and may be, for example, a value offset by a certain value from the maximum value. It goes without saying that the monotonous decrease includes the case of a linear decrease.


本発明の更に他の態様に係る画像処理装置において、光強度分布情報に基づいて光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、合成比率決定部は、作成された分布情報に基づいて度数又は頻度の高い第1頂点に対応する第1光強度と、度数又は頻度の高い第2頂点に対応する第2光強度であって、第1光強度よりも大きい第2光強度とを求め、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、第1光強度以下の光強度の場合には第2非発光画像の混合率を最大値にし、第2光強度以上の光強度の場合には第2非発光画像の混合率を最小値にし、第1光強度よりも大きく第2光強度よりも小さい光強度の場合には第2非発光画像の混合率を最大値と最小値との間において単調減少させることが好ましい。

The image processing apparatus according to still another aspect of the present invention includes a distribution information creating unit that creates distribution information indicating the frequency distribution or frequency distribution of light intensity based on the light intensity distribution information, and the synthesis ratio determining unit is created. The first light intensity corresponding to the first luminosity or frequency and the second light intensity corresponding to the second luminosity or frequency based on the distributed distribution information are larger than the first light intensity. When the second light intensity is obtained and the composition ratio is determined for each corresponding pixel or region of a plurality of non-emission images, if the light intensity is equal to or less than the first light intensity, the mixing ratio of the second non-emission image is determined. Is set to the maximum value, the mixing ratio of the second non-emissive image is set to the minimum value when the light intensity is equal to or higher than the second light intensity, and when the light intensity is larger than the first light intensity and lower than the second light intensity, It is preferable to monotonically reduce the mixing ratio of the second non-emission image between the maximum value and the minimum value.


例えば、晴れた日の日中屋外では、日光が当たっていない暗い被写体(日陰の被写体)から日光が当たっている明るい被写体(日向の被写体)まで、ダイナミックレンジの広い被写体が撮像対象になり、この場合の撮像対象は、日陰の被写体と、日向の被写体とに大別することができる。このようなシーンの光強度分布情報に基づいて光強度の度数分布又は頻度分布を示す分布情報を作成すると、その分布情報には、2つ山(2つの頂点となる第1頂点と第2頂点)が存在する。第1頂点は、日陰の被写体に対応する被写体領域の光強度分布情報の度数又は頻度に対応する頂点であり、第2頂点は、日向の被写体に対応する被写体領域の光強度分布情報の度数又は頻度に対応する頂点である。

For example, outdoors during the daytime on a sunny day, subjects with a wide dynamic range, from dark subjects that are not exposed to sunlight (shade subjects) to bright subjects that are exposed to sunlight (subjects in the sun), are subject to imaging. In this case, the imaging target can be roughly divided into a shaded subject and a sunlit subject. When distribution information showing the frequency distribution or frequency distribution of light intensity is created based on the light intensity distribution information of such a scene, the distribution information includes two peaks (first vertex and second vertex which are two vertices). ) Exists. The first vertex is the vertex corresponding to the power or frequency of the light intensity distribution information of the subject area corresponding to the shaded subject, and the second vertex is the power of the light intensity distribution information of the subject area corresponding to the subject in the sun. It is the apex corresponding to the frequency.


そして、第1頂点に対応する光強度(第1光強度)と、第2頂点に対応する光強度(第2光強度)とを求め、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、第1光強度以下の光強度の場合には第2非発光画像の混合率を最大値にし、第2光強度以上の光強度の場合には第2非発光画像の混合率を最小値にする。第1光強度以下の光強度の領域は、日陰の領域と考えられ、第2光強度以上の領域は、日向の領域と考えられるからである。また、第1光強度と第2光強度の間の光強度の場合は、第2非発光画像の混合率を最大値と最小値との間において単調減少させ、光強度の増減に応じて連続的に混合率を変化させる。尚、晴れた日の日中屋外のシーンに限らず、日光が屋内の一部に差し込むシーン、人工光源により照明されている領域と影になっている領域とが存在するシーンなどの場合も上記のように光強度の度数分布又は頻度分布を示す分布曲線は、2つの頂点が存在し得る。

Then, the light intensity corresponding to the first vertex (first light intensity) and the light intensity corresponding to the second vertex (second light intensity) are obtained, and for each of the corresponding pixels or regions of the plurality of non-emission images. When determining the composition ratio, the mixing ratio of the second non-emissive image is maximized when the light intensity is lower than the first light intensity, and the second non-emissive image is when the light intensity is higher than the second light intensity. Minimize the mixing ratio of. This is because the region having a light intensity equal to or lower than the first light intensity is considered to be a shaded region, and the region having a light intensity equal to or higher than the second light intensity is considered to be a region in the sun. Further, in the case of a light intensity between the first light intensity and the second light intensity, the mixing ratio of the second non-emissive image is monotonically decreased between the maximum value and the minimum value, and continuously as the light intensity increases or decreases. The mixing ratio is changed. It should be noted that the above is not limited to outdoor scenes during the daytime on a sunny day, but also in scenes where sunlight shines into a part of the room, and where there are areas illuminated by artificial light sources and areas that are shaded. A distribution curve showing a frequency distribution or a frequency distribution of light intensity, such as, may have two vertices.


本発明の更に他の態様に係る画像処理装置において、光強度分布情報に基づいて光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、合成比率決定部は、作成された分布情報に基づいて度数又は頻度の低い底点に対応する光強度を求め、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、底点に対応する光強度を閾値にして、閾値以下の光強度の場合には第2非発光画像の混合率を最大値にし、閾値を超える光強度の場合には第2非発光画像の混合率を最小値にすることが好ましい。

The image processing apparatus according to still another aspect of the present invention includes a distribution information creating unit that creates distribution information indicating the frequency distribution or frequency distribution of light intensity based on the light intensity distribution information, and the synthesis ratio determining unit is created. The light corresponding to the bottom point is obtained when the light intensity corresponding to the low frequency or infrequent bottom point is obtained based on the distributed distribution information and the composition ratio is determined for each corresponding pixel or region of a plurality of non-emission images. The intensity is set as a threshold value, and when the light intensity is below the threshold value, the mixing ratio of the second non-emission image is maximized, and when the light intensity exceeds the threshold value, the mixing ratio of the second non-emission image is set to the minimum value. Is preferable.


上記と同様に、晴れた日の日中屋外のシーンの場合、光強度の度数分布又は頻度分布を示す分布情報には、2つの山の間の谷(底点)が存在する。そこで、光強度の度数分布又は頻度分布を示す分布情報から底点を求め、この底点に対応する光強度を閾値にして、閾値以下の光強度の場合には第2非発光画像の混合率を最大値(第1非発光画像の混合率を最小値)にし、閾値を超える光強度の場合には第2非発光画像の混合率を最小値(第2非発光画像の混合率を最大値)にすることが好ましい。尚、閾値前後の一定範囲の光強度に対しは、光強度の大きさに応じて、第2非発光画像の混合率を最大値と最小値との間において連続的に混合率を変化させる場合も含む。

Similar to the above, in the case of a daytime outdoor scene on a sunny day, there is a valley (bottom point) between two mountains in the distribution information indicating the frequency distribution or frequency distribution of light intensity. Therefore, the bottom point is obtained from the distribution information indicating the frequency distribution or frequency distribution of the light intensity, the light intensity corresponding to this bottom point is set as a threshold, and when the light intensity is below the threshold, the mixing ratio of the second non-emission image is obtained. Is the maximum value (the mixing ratio of the first non-emission image is the minimum value), and when the light intensity exceeds the threshold value, the mixing ratio of the second non-emission image is set to the minimum value (the mixing ratio of the second non-emission image is the maximum value). ) Is preferable. For light intensities in a certain range before and after the threshold value, the mixing ratio of the second non-emission image is continuously changed between the maximum value and the minimum value according to the magnitude of the light intensity. Also includes.


本発明の更に他の態様に係る画像処理装置において、複数の非発光画像のうちの少なくとも1つの非発光画像の画像内の輝度の分布を示す輝度分布情報を算出する輝度分布情報算出部を備え、合成比率決定部は、光強度分布情報及び輝度分布情報に基づいて複数の非発光画像の合成比率を決定することが好ましい。

The image processing apparatus according to still another aspect of the present invention includes a luminance distribution information calculation unit that calculates luminance distribution information indicating the luminance distribution in an image of at least one non-luminous image among a plurality of non-luminous images. It is preferable that the composite ratio determining unit determines the composite ratio of a plurality of non-emission images based on the light intensity distribution information and the brightness distribution information.


これにより、光強度分布情報のみならず、従来の輝度分布情報を加味して複数の非発光画像の合成比率を決定することができる。

Thereby, not only the light intensity distribution information but also the conventional luminance distribution information can be taken into consideration to determine the composition ratio of a plurality of non-emission images.


本発明の更に他の態様に係る画像処理装置において、発光画像におけるフラッシュ光が到達していない画素又は領域を検出する検出部を備え、合成比率決定部は、フラッシュ光が到達していない画素又は領域に対する合成比率を決定する際に、輝度分布情報のみに基づいて複数の非発光画像の合成比率を決定することが好ましい。

In the image processing apparatus according to still another aspect of the present invention, the image processing apparatus includes a detection unit that detects pixels or regions that the flash light has not reached in the emitted image, and the synthesis ratio determining unit is a pixel or a pixel that the flash light has not reached. When determining the composite ratio for a region, it is preferable to determine the composite ratio of a plurality of non-emission images based only on the luminance distribution information.


フラッシュ光が到達していない画素又は領域は、その画素又は領域に対応する光強度が不明になる。したがって、この場合には従来と同様に輝度分布情報に基づいて複数の非発光画像の合成比率を決定することが好ましい。

For pixels or regions that the flash light has not reached, the light intensity corresponding to the pixels or regions becomes unknown. Therefore, in this case, it is preferable to determine the composition ratio of the plurality of non-emission images based on the luminance distribution information as in the conventional case.


本発明の更に他の態様に係る画像処理装置において、合成比率決定部は、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、画素又は領域の位置を示すパラメータをi、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率をαi、輝度分布情報に基づく第2非発光画像の混合率であって、輝度が高いほど小さい値となる混合率をβiとすると、光強度分布情報及び輝度分布情報に基づく第2非発光画像の混合率γiを、次式、

γi=αi×βiにより算出することが好ましい。

In the image processing apparatus according to still another aspect of the present invention, the composition ratio determining unit is a parameter indicating the position of a pixel or region when determining the composition ratio for each corresponding pixel or region of a plurality of non-emission images. I, the mixing ratio of the second non-light emitting image captured under the exposure condition having the largest exposure value among the plurality of non-light emitting images is αi, and the mixing ratio of the second non-light emitting image based on the luminance distribution information. Assuming that βi is the mixing ratio that becomes smaller as the brightness is higher, the mixing ratio γi of the second non-emission image based on the light intensity distribution information and the brightness distribution information is calculated by the following equation.

It is preferable to calculate by γi = αi × βi.


本発明の更に他の態様に係る画像処理装置において、発光画像の露出条件は、複数の非発光画像に対応する複数の露出条件のうちの最も露出値が小さい露出条件であることが好ましい。これにより、発光画像を撮像する場合のフラッシュ光の発光量を大きくすることができ、フラッシュ光未到達画素を最小限にすることができる。

In the image processing apparatus according to still another aspect of the present invention, the exposure condition of the light emitting image is preferably the exposure condition having the smallest exposure value among the plurality of exposure conditions corresponding to the plurality of non-light emitting images. As a result, it is possible to increase the amount of flash light emitted when capturing a light emitting image, and to minimize the number of pixels that have not reached the flash light.


本発明の更に他の態様に係る撮像装置は、被写体を異なる露出条件により撮像可能な撮像部と、フラッシュ光を発光するフラッシュ発光部と、フラッシュ発光部から発光されるフラッシュ光を制御するフラッシュ制御部と、上述した画像処理装置と、を備え、画像取得部は、フラッシュ発光部から発光されるフラッシュ光の非発光下において、撮像部によりそれぞれ異なる露出条件により撮像された複数の非発光画像と、フラッシュ発光部から発光されるフラッシュ光の発光下において、撮像部により複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像とを取得する。

The imaging device according to still another aspect of the present invention includes an imaging unit capable of imaging a subject under different exposure conditions, a flash emitting unit that emits flash light, and a flash control that controls flash light emitted from the flash emitting unit. The image acquisition unit includes a unit and the image processing device described above, and the image acquisition unit includes a plurality of non-emission images captured under different exposure conditions by the imaging unit under the non-emission of the flash light emitted from the flash light emitting unit. Under the light emission of the flash light emitted from the flash light emitting unit, the imaging unit acquires a light emitting image captured under the same exposure conditions as the exposure condition of any one of the plurality of non-light emitting images.


本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、フラッシュ発光部からフラッシュ光を調光発光させ、調光発光下において撮像部が撮像した調光画像と調光発光せずに撮像部が撮像した画像とに基づいて調光発光したフラッシュ光が到達していない領域が検出された場合、調光発光したフラッシュ光が到達している領域が飽和しない最大の発光量を算出し、発光画像を取得する際に算出した最大の発光量においてフラッシュ発光部からフラッシュ光を本発光させることが好ましい。このようにして本発光時の発光量を決定することによって、フラッシュ光未到達画素を最小限にすることができる。

In the image pickup apparatus according to still another aspect of the present invention, the flash control unit causes the flash light to be dimmed from the flash light emitting unit, and the flash light is not dimmed with the dimming image captured by the imaging unit under the dimming light emission. When a region where the dimmed flash light does not reach is detected based on the image captured by the imaging unit, the maximum amount of light emitted is calculated so that the region where the dimmed flash light reaches does not saturate. It is preferable that the flash light is mainly emitted from the flash light emitting unit at the maximum light emission amount calculated when the light emission image is acquired. By determining the amount of light emitted during the main light emission in this way, it is possible to minimize the pixels that have not reached the flash light.


本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、被写体の平均反射率と距離分布情報取得部が取得した距離分布情報とに基づいて最大の発光量を算出することが好ましい。これにより、フラッシュ光が到達する領域が白飛びしない、最大の発光量を算出することができる。

In the image pickup apparatus according to still another aspect of the present invention, it is preferable that the flash control unit calculates the maximum amount of light emission based on the average reflectance of the subject and the distance distribution information acquired by the distance distribution information acquisition unit. As a result, it is possible to calculate the maximum amount of light emitted without overexposure in the area where the flash light reaches.


本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、フラッシュ発光部からフラッシュ光を調光発光させ、調光発光下において撮像部が撮像した調光画像と調光発光せずに撮像部が撮像した画像とに基づいて調光画像の全領域にフラッシュ光が到達していることが検出された場合、画像取得部は、調光画像を発光画像として取得することが好ましい。

In the image pickup apparatus according to still another aspect of the present invention, the flash control unit causes the flash light to be dimmed from the flash light emitting unit, and the flash light is not dimmed with the dimming image captured by the imaging unit under the dimming light emission. When it is detected that the flash light reaches the entire region of the dimming image based on the image captured by the imaging unit, the image acquisition unit preferably acquires the dimming image as a light emitting image.


調光画像の全領域にフラッシュ光が到達している場合、全領域の光強度分布情報を算出することができ、改めて本発光する必要がないからである。

This is because when the flash light reaches the entire region of the dimming image, the light intensity distribution information of the entire region can be calculated, and it is not necessary to perform the main light emission again.


本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、フラッシュ発光部からフラッシュ光を調光発光させ、調光発光下において撮像部が撮像した調光画像と調光発光せずに撮像部が撮像した画像とに基づいて調光画像にフラッシュ光が到達していない領域が検出され、かつ距離分布情報に基づいてフラッシュ光が到達していない領域の距離が、フラッシュ発光部から発光されるフラッシュ光の最大発光量の到達距離よりも遠い場合、画像取得部は、調光画像を発光画像として取得することが好ましい。

In the image pickup apparatus according to still another aspect of the present invention, the flash control unit causes the flash light to be dimmed from the flash light emitting unit, and the flash light is not dimmed with the dimming image captured by the imaging unit under the dimming light emission. A region where the flash light does not reach the dimming image is detected based on the image captured by the imaging unit, and the distance of the region where the flash light does not reach is emitted from the flash light emitting unit based on the distance distribution information. When it is farther than the reach of the maximum emission amount of the flash light to be generated, the image acquisition unit preferably acquires the dimming image as the emission image.


調光発光のフラッシュ光が到達していない領域の距離が、フラッシュ光の最大発光量の到達距離よりも遠い場合、本発光してもフラッシュ光未到達画素にフラッシュ光を到達させることができず、改めた本発光する必要がないからである。

If the distance of the area where the flash light of the dimming light emission does not reach is farther than the reachable distance of the maximum light emission amount of the flash light, the flash light cannot reach the pixels which have not reached the flash light even if the main light emission is performed. This is because there is no need to make a new flash.


本発明の更に他の態様に係る画像処理方法は、同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得するステップと、フラッシュ光の発光下において複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得するステップと、被写体の距離の分布を示す距離分布情報を取得するステップと、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出するステップと、光強度分布情報に基づいて複数の非発光画像の合成比率を決定するステップと、合成比率にしたがって複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成するステップと、を含む。

The image processing method according to still another aspect of the present invention includes a step of acquiring a plurality of non-emission images of the same subject captured under different exposure conditions under non-emission of flash light. , A step of acquiring a luminescent image captured under the same exposure conditions as the exposure condition of any of a plurality of non-luminous images under the emission of flash light, and distance distribution information indicating the distribution of the distance of the subject. And the step of calculating the light intensity distribution information of the light shining on the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information, and the light. It includes a step of determining a composite image of a plurality of non-emission images based on intensity distribution information, and a step of synthesizing a plurality of non-emission images according to the composite ratio to generate a composite image with an expanded dynamic range.


本発明の更に他の態様に係る画像処理方法において、合成比率を決定するステップは、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度が大きい画素又は領域では複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくすることが好ましい。

In the image processing method according to still another aspect of the present invention, the step of determining the composition ratio is based on the light intensity distribution information when determining the composition ratio for each corresponding pixel or region of the plurality of non-emission images. In a pixel or region with high light intensity, the mixing ratio of the first non-emission image captured under the exposure condition with the smallest exposure value among the plurality of non-emission images is determined by the most exposure value among the plurality of non-emission images. The mixing ratio of the second non-emissive image captured under a large exposure condition should be larger than the mixing ratio of the second non-emissive image, and the mixing ratio of the second non-emissive image should be larger than the mixing ratio of the first non-emissive image in a pixel or region where the light intensity is low. Is preferable.


本発明の更に他の態様に係る画像処理プログラムは、同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得する機能と、フラッシュ光の発光下において複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得する機能と、被写体の距離の分布を示す距離分布情報を取得する機能と、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出する機能と、光強度分布情報に基づいて複数の非発光画像の合成比率を決定する機能と、合成比率にしたがって複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する機能と、をコンピュータに実現させる。

The image processing program according to still another aspect of the present invention has a function of acquiring a plurality of non-emission images captured under different exposure conditions under non-emission of flash light, which are images of the same subject. , A function to acquire a luminescent image captured under the same exposure conditions as the exposure condition of any of a plurality of non-luminous images under the emission of flash light, and distance distribution information indicating the distribution of the distance of the subject. And a function to calculate the light intensity distribution information of the light shining on the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information, and the light. A computer has a function to determine the composition ratio of multiple non-emission images based on intensity distribution information and a function to synthesize multiple non-emission images according to the composition ratio to generate a composite image with an expanded dynamic range. make it happen.


本発明の更に他の態様に係る画像処理プログラムにおいて、合成比率を決定する機能は、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度が大きい画素又は領域では複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくすることが好ましい。

In the image processing program according to still another aspect of the present invention, the function of determining the composition ratio is based on the light intensity distribution information when determining the composition ratio for each corresponding pixel or region of a plurality of non-emission images. In a pixel or region with high light intensity, the mixing ratio of the first non-emission image captured under the exposure condition with the smallest exposure value among the plurality of non-emission images is determined by the most exposure value among the plurality of non-emission images. The mixing ratio of the second non-emissive image captured under a large exposure condition should be larger than the mixing ratio of the second non-emissive image, and the mixing ratio of the second non-emissive image should be larger than the mixing ratio of the first non-emissive image in a pixel or region where the light intensity is low. Is preferable.


本発明によれば、被写体に当たっている光の明るさ(光強度)に応じて、複数の非発光画像の合成比率を決定してHDR合成するようにしたため、被写体のもつ明暗が損なわれずに、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像を取得することができる

According to the present invention, since the composition ratio of a plurality of non-emission images is determined according to the brightness (light intensity) of the light hitting the subject and HDR composition is performed, the brightness of the subject is not impaired and the subject is not impaired. It is possible to acquire an HDR image with excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the light.


図1は本発明に係る撮像装置を斜め前方から見た斜視図である。FIG. 1 is a perspective view of the image pickup apparatus according to the present invention as viewed diagonally from the front. 図2は撮像装置の背面図である。FIG. 2 is a rear view of the image pickup apparatus. 図3は撮像装置の内部構成の実施形態を示すブロック図である。FIG. 3 is a block diagram showing an embodiment of the internal configuration of the image pickup apparatus. 図4はイメージセンサの構成例を示す正面図である。FIG. 4 is a front view showing a configuration example of the image sensor. 図5は本発明に係る画像処理装置として機能する本体側CPU220の第1実施形態を示す機能ブロック図である。FIG. 5 is a functional block diagram showing a first embodiment of a main body side CPU 220 that functions as an image processing device according to the present invention. 図6は光強度分布情報Sと第2非発光画像の混合率αiとの関係を示すグラフである。6 is a graph showing the relationship between the mixing ratio αi of the light intensity distribution information S i and a second non-emission image. 図7は光強度分布情報Siと第2非発光画像の混合率αiとの他の関係を示すグラフである。FIG. 7 is a graph showing another relationship between the light intensity distribution information Si and the mixing ratio αi of the second non-emission image. 図8は光強度分布情報Siと第2非発光画像の混合率αiとの更に他の関係を示すグラフである。FIG. 8 is a graph showing still another relationship between the light intensity distribution information Si and the mixing ratio αi of the second non-emission image. 図9は、本発明に係る画像処理装置として機能する本体側CPU220の第2実施形態を示す機能ブロック図である。FIG. 9 is a functional block diagram showing a second embodiment of the main body side CPU 220 that functions as the image processing device according to the present invention. 図10は光強度の度数分布の一例を示す度数分布図である。FIG. 10 is a frequency distribution diagram showing an example of the frequency distribution of light intensity. 図11は光強度分布情報Siと第2非発光画像の混合率αiとの更に他の関係を示すグラフである。FIG. 11 is a graph showing still another relationship between the light intensity distribution information Si and the mixing ratio αi of the second non-emission image. 図12は図10に示した光強度の度数分布と同様の度数分布図である。光強度の度数分布の一例を示す度数分布図である。FIG. 12 is a frequency distribution diagram similar to the frequency distribution of the light intensity shown in FIG. It is a frequency distribution diagram which shows an example of the frequency distribution of light intensity. 図13は光強度分布情報Siと第2非発光画像の混合率αiとの更に他の関係を示すグラフである。FIG. 13 is a graph showing still another relationship between the light intensity distribution information Si and the mixing ratio αi of the second non-emission image. 図14は発明に係る画像処理装置として機能する本体側CPU220の第3実施形態を示す機能ブロック図である。FIG. 14 is a functional block diagram showing a third embodiment of the main body side CPU 220 that functions as the image processing device according to the invention. 図15は発明に係る画像処理装置として機能する本体側CPU220の第4実施形態を示す機能ブロック図である。FIG. 15 is a functional block diagram showing a fourth embodiment of the main body side CPU 220 that functions as the image processing device according to the invention. 図16は発明に係る画像処理装置として機能する本体側CPU220の第5実施形態を示す機能ブロック図である。FIG. 16 is a functional block diagram showing a fifth embodiment of the main body side CPU 220 functioning as the image processing device according to the invention. 図17は本発明に係る画像処理方法の実施形態を示すフローチャートである。FIG. 17 is a flowchart showing an embodiment of the image processing method according to the present invention. 図18は図17のステップS12における詳細な動作を示すフローチャートである。FIG. 18 is a flowchart showing a detailed operation in step S12 of FIG. 図19は本発明に係る撮像装置の一実施形態であるスマートフォンの外観図である。FIG. 19 is an external view of a smartphone according to an embodiment of the imaging device according to the present invention. 図20はスマートフォンの構成を示すブロック図である。FIG. 20 is a block diagram showing the configuration of a smartphone. 図21は従来のHDR合成の課題を説明するために用いた図である。FIG. 21 is a diagram used to explain the problems of conventional HDR synthesis.


以下、添付図面にしたがって本発明に係る画像処理装置、方法、及びプログラム並びに撮像装置の好ましい実施形態について説明する。

Hereinafter, preferred embodiments of the image processing apparatus, method, program, and imaging apparatus according to the present invention will be described with reference to the accompanying drawings.


<撮像装置の外観>

図1は、本発明に係る撮像装置を斜め前方から見た斜視図であり、図2は撮像装置の背面図である。

<Appearance of imaging device>

FIG. 1 is a perspective view of the image pickup apparatus according to the present invention as viewed diagonally from the front, and FIG. 2 is a rear view of the image pickup apparatus.


図1に示すように撮像装置10は、交換レンズ100と、交換レンズ100が着脱可能なカメラ本体200とから構成されたミラーレスのデジタル一眼カメラである。

As shown in FIG. 1, the image pickup apparatus 10 is a mirrorless digital single-lens camera composed of an interchangeable lens 100 and a camera body 200 to which the interchangeable lens 100 can be attached and detached.


図1において、カメラ本体200の前面には、交換レンズ100が装着される本体マウント260と、光学ファインダのファインダ窓20等が設けられ、カメラ本体200の上面には、主としてシャッタレリーズスイッチ22、シャッタスピードダイヤル23、露出補正ダイヤル24、電源レバー25、及び内蔵フラッシュ30が設けられている。

In FIG. 1, a main body mount 260 on which an interchangeable lens 100 is mounted, a finder window 20 of an optical finder, and the like are provided on the front surface of the camera main body 200, and a shutter release switch 22 and a shutter are mainly provided on the upper surface of the camera main body 200. A speed dial 23, an exposure compensation dial 24, a power lever 25, and a built-in flash 30 are provided.


また、図2に示すようにカメラ本体200の背面には、主として液晶モニタ216、光学ファインダの接眼部26、MENU/OKキー27、十字キー28、再生ボタン29等が設けられている。

Further, as shown in FIG. 2, a liquid crystal monitor 216, an eyepiece 26 of an optical viewfinder, a MENU / OK key 27, a cross key 28, a play button 29, and the like are mainly provided on the back surface of the camera body 200.


液晶モニタ216は、撮影モード時にライブビュー画像を表示したり、再生モード時に撮像した画像を再生表示する他、各種のメニュー画面を表示する表示部として機能し、またユーザに対して各種の情報を通知する通知部として機能する。MENU/OKキー27は、液晶モニタ216の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キー28は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするマルチファンクションキーとして機能する。また、十字キー28の上キー及び下キーは撮像時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左キー及び右キーは再生モード時のコマ送り(順方向及び逆方向送り)ボタンとして機能する。また、液晶モニタ216に表示された複数の被写体から焦点調節を行う任意の被写体を指定する操作部としても機能する。

The liquid crystal monitor 216 displays a live view image in the shooting mode, reproduces and displays the image captured in the playback mode, functions as a display unit for displaying various menu screens, and provides various information to the user. It functions as a notification unit to notify. The MENU / OK key 27 has both a function as a menu button for issuing a command to display a menu on the screen of the liquid crystal monitor 216 and a function as an OK button for instructing confirmation and execution of selected contents. The key. The cross key 28 is an operation unit for inputting instructions in four directions of up, down, left, and right, and functions as a multifunction key for selecting an item from the menu screen or instructing selection of various setting items from each menu. In addition, the up and down keys of the cross key 28 function as a zoom switch during imaging or a playback zoom switch during playback mode, and the left and right keys are frame advance (forward and reverse direction) buttons during playback mode. Functions as. It also functions as an operation unit for designating an arbitrary subject for which focus adjustment is performed from a plurality of subjects displayed on the liquid crystal monitor 216.


また、MENU/OKキー27、十字キー28、及び液晶モニタ216に表示されるメニュー画面を使用することで、1枚の静止画を撮像する静止画撮像モードの他に、静止画を連続撮影する連写モード、連写モードの一種であり、ダイナミックレンジを広げるHDR合成に使用する複数枚の画像を撮像するHDR撮像モード、動画を撮像する動画撮像モードを含む各種の撮像モードの設定を行うことができる。

Further, by using the menu screen displayed on the MENU / OK key 27, the cross key 28, and the liquid crystal monitor 216, in addition to the still image imaging mode for capturing one still image, the still image is continuously photographed. Set various imaging modes including continuous shooting mode, which is a type of continuous shooting mode, HDR imaging mode that captures multiple images used for HDR composition that expands the dynamic range, and moving image imaging mode that captures moving images. Can be done.


再生ボタン29は、記録した静止画又は動画を液晶モニタ216に表示させる再生モードに切り替えるためのボタンである。

The play button 29 is a button for switching to a play mode in which the recorded still image or moving image is displayed on the liquid crystal monitor 216.


<撮像装置の内部構成>

[交換レンズ]

図3は、撮像装置10の内部構成の実施形態を示すブロック図である。

<Internal configuration of imaging device>

[interchangeable lens]

FIG. 3 is a block diagram showing an embodiment of the internal configuration of the image pickup apparatus 10.


撮像装置10を構成する撮像光学系として機能する交換レンズ100は、カメラ本体200の通信規格に沿って製造されたものであり、後述するようにカメラ本体200との間で通信を行うことができる交換レンズである。この交換レンズ100は、撮像光学系102、フォーカスレンズ制御部116、絞り制御部118、レンズ側CPU(Central Processing Unit)120、フラッシュROM(Read Only Memory)126、レンズ側通信部150、及びレンズマウント160を備える。

The interchangeable lens 100 that functions as an imaging optical system constituting the imaging device 10 is manufactured in accordance with the communication standard of the camera body 200, and can communicate with the camera body 200 as described later. It is an interchangeable lens. The interchangeable lens 100 includes an imaging optical system 102, a focus lens control unit 116, an aperture control unit 118, a lens side CPU (Central Processing Unit) 120, a flash ROM (Read Only Memory) 126, a lens side communication unit 150, and a lens mount. It is equipped with 160.


交換レンズ100の撮像光学系102は、フォーカスレンズを含むレンズ群104及び絞り108を含む。

The imaging optical system 102 of the interchangeable lens 100 includes a lens group 104 including a focus lens and an aperture 108.


フォーカスレンズ制御部116は、レンズ側CPU120からの指令にしたがってフォーカスレンズを移動させ、フォーカスレンズの位置(合焦位置)を制御する。絞り制御部118は、レンズ側CPU120からの指令にしたがって絞り108を制御する。

The focus lens control unit 116 moves the focus lens according to a command from the lens side CPU 120, and controls the position (focus position) of the focus lens. The aperture control unit 118 controls the aperture 108 according to a command from the lens-side CPU 120.


レンズ側CPU120は、交換レンズ100を統括制御するもので、ROM124及びRAM(Random Access Memory)122を内蔵している。

The lens-side CPU 120 controls the interchangeable lens 100 in an integrated manner, and incorporates a ROM 124 and a RAM (Random Access Memory) 122.


フラッシュROM126は、カメラ本体200からダウンロードされたプログラム等を格納する不揮発性のメモリである。

The flash ROM 126 is a non-volatile memory for storing programs and the like downloaded from the camera body 200.


レンズ側CPU120は、ROM124又はフラッシュROM126に格納された制御プログラムに従い、RAM122を作業領域として、交換レンズ100の各部を統括制御する。

The lens-side CPU 120 collectively controls each part of the interchangeable lens 100 with the RAM 122 as a work area according to a control program stored in the ROM 124 or the flash ROM 126.


レンズ側通信部150は、レンズマウント160がカメラ本体200の本体マウント260に装着されている状態で、レンズマウント160に設けられた複数の信号端子(レンズ側信号端子)を介してカメラ本体200との通信を行う。即ち、レンズ側通信部150は、レンズ側CPU120の指令にしたがって、レンズマウント160及び本体マウント260を介して接続されたカメラ本体200の本体側通信部250との間で、リクエスト信号、回答信号の送受信(双方向通信)を行い、撮像光学系102の各光学部材のレンズ情報(フォーカスレンズの位置情報、焦点距離情報及び絞り情報等)を、カメラ本体200に通知する。

The lens-side communication unit 150 is connected to the camera body 200 via a plurality of signal terminals (lens-side signal terminals) provided on the lens mount 160 in a state where the lens mount 160 is mounted on the body mount 260 of the camera body 200. To communicate. That is, the lens-side communication unit 150 receives a request signal and a response signal from the main body-side communication unit 250 of the camera body 200 connected via the lens mount 160 and the main body mount 260 in accordance with the command of the lens-side CPU 120. Transmission / reception (two-way communication) is performed, and lens information (position information of the focus lens, focal length information, aperture information, etc.) of each optical member of the imaging optical system 102 is notified to the camera body 200.


また、交換レンズ100は、フォーカスレンズの位置情報、及び絞り情報を検出する検出部(図示せず)を備えている。ここで、絞り情報とは、絞り108の絞り値(F値)、絞り108の開口径等を示す情報である。

Further, the interchangeable lens 100 includes a detection unit (not shown) that detects the position information of the focus lens and the aperture information. Here, the diaphragm information is information indicating the diaphragm value (F value) of the diaphragm 108, the aperture diameter of the diaphragm 108, and the like.


レンズ側CPU120は、カメラ本体200からのレンズ情報のリクエストに応えるために、検出されたフォーカスレンズの位置情報及び絞り情報を含む各種のレンズ情報をRAM122に保持することが好ましい。また、レンズ情報は、カメラ本体200からのレンズ情報の要求があると検出され、又は光学部材が駆動されるときに検出され、又は一定の周期(動画のフレーム周期よりも十分に短い周期)で検出され、検出結果を保持することができる。

It is preferable that the lens-side CPU 120 holds various lens information including the detected focus lens position information and aperture information in the RAM 122 in order to respond to the request for lens information from the camera body 200. Further, the lens information is detected when there is a request for lens information from the camera body 200, or is detected when the optical member is driven, or at a constant cycle (a cycle sufficiently shorter than the frame cycle of the moving image). It is detected and the detection result can be retained.


[カメラ本体]

図3に示す撮像装置10を構成するカメラ本体200は、イメージセンサ201、イメージセンサ制御部202、アナログ信号処理部203、A/D(Analog/Digital)変換器204、画像入力コントローラ205、デジタル信号処理部206、RAM207、圧縮伸張処理部208、メディア制御部210、メモリカード212、表示制御部214、液晶モニタ216、本体側CPU220、操作部222、時計部224、フラッシュROM226、ROM228、AF(Autofocus)制御部230、AE(Auto Exposure)制御部232、ホワイトバランス補正部234、無線通信部236、GPS(Global Positioning System)受信部238、電源制御部240、バッテリ242、本体側通信部250、本体マウント260、内蔵フラッシュ30(図1)を構成するフラッシュ発光部270、フラッシュ制御部272、フォーカルプレーンシャッタ(FPS:focal-plane shutter)280、及びFPS制御部296を備える。

[Camera body]

The camera body 200 constituting the image pickup apparatus 10 shown in FIG. 3 includes an image sensor 201, an image sensor control unit 202, an analog signal processing unit 203, an A / D (Analog / Digital) converter 204, an image input controller 205, and a digital signal. Processing unit 206, RAM 207, compression / decompression processing unit 208, media control unit 210, memory card 212, display control unit 214, liquid crystal monitor 216, main unit CPU 220, operation unit 222, clock unit 224, flash ROM 226, ROM 228, AF (Autofocus) ) Control unit 230, AE (Auto Exposure) control unit 232, white balance correction unit 234, wireless communication unit 236, GPS (Global Positioning System) receiver unit 238, power supply control unit 240, battery 242, main unit side communication unit 250, main unit It includes a mount 260, a flash light emitting unit 270 constituting the built-in flash 30 (FIG. 1), a flash control unit 272, a focal-plane shutter (FPS) 280, and an FPS control unit 296.


<イメージセンサの構成>

イメージセンサ201は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成されている。尚、イメージセンサ201は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。

<Configuration of image sensor>

The image sensor 201 is composed of a CMOS (Complementary Metal-Oxide Semiconductor) type color image sensor. The image sensor 201 is not limited to the CMOS type, but may be an XY address type or a CCD (Charge Coupled Device) type image sensor.


図4はイメージセンサ201の構成を示す正面図である。

FIG. 4 is a front view showing the configuration of the image sensor 201.


図4に示すようにイメージセンサ201は、水平方向(x方向)及び垂直方向(y方向)に2次元状に配列された光電変換素子(受光セル)により構成された複数の画素を有するイメージセンサであって、交換レンズ100を介して入射する光束を、以下に示す瞳分割手段により瞳分割して選択的に受光する第1画素SA、第2画素Sを含んで構成されている。

As shown in FIG. 4, the image sensor 201 is an image sensor having a plurality of pixels composed of photoelectric conversion elements (light receiving cells) arranged two-dimensionally in the horizontal direction (x direction) and the vertical direction (y direction). a is, the light beam incident thereon through the interchangeable lens 100, and a first pixel S a, include a second pixel S B selectively received by pupil division by the pupil dividing means described below.


図4に示すようにイメージセンサ201は、瞳分割手段として瞳結像レンズ(マイクロレンズ)201Aによる瞳像分離方式が適用されている。

As shown in FIG. 4, the image sensor 201 is applied with a pupil image separation method using a pupil imaging lens (microlens) 201A as a pupil dividing means.


瞳像分離方式は、1つのマイクロレンズ201Aに対して複数(本例では2つ)の画素(第1画素S,第2画素S)が割り当てられており、1つのマイクロレンズ201Aに入射する瞳像は、マイクロレンズ201Aにより瞳分割され、2つ(一対)の第1画素S,第2画素Sにより受光される。従って、マイクロレンズ201Aへの光の入射角度に応じて瞳像が分離され、それぞれ対応する一対の第1画素S,第2画素Sにより受光される。

Pupil image separation method, pixels of a plurality for one microlens 201A (2 two in this example) (the first pixel S A, second pixel S B) is assigned, incident to one microlens 201A pupil image which is pupil division by the microlens 201A, the first pixel S a two (a pair), and is received by the second pixel S B. Thus, the pupil image is separated according to the incident angle of the light entering the microlens 201A, the corresponding pair of the first pixel S A, is received by the second pixel S B.


一対の第1画素S,第2画素Sは、位相差AFに使用可能な一対の位相差画素に相当する。また、一対の第1画素S,第2画素Sの各画素から得られる画素値を加算した画素値は、瞳分割されていない通常画素の画素値と同等になるため、一対の第1画素S,第2画素Sは、通常画素(1画素)として扱うことができる。

A pair of first pixel S A, second pixel S B corresponds to a pair of phase difference pixels available on the phase difference AF. The pair of first pixel S A, pixel values obtained by adding the pixel values obtained from the pixels of the second pixel S B are to become equal to the pixel value of normal pixels that are not pupil division, the pair of first pixel S A, second pixel S B can be treated as a normal pixel (1 pixel).


図4に示すようにイメージセンサ201の一対の第1画素SA、第2画素Sには、赤

(R)、緑(G)、青(B)の3原色のカラーフィルタ(Rフィルタ、Gフィルタ、Bフィルタ)のうちのいずれか1色のカラーフィルタが、所定のカラーフィルタ配列にしたがって配置されている。図4に示すカラーフィルタ配列は、一般的なベイヤー配列であるが、カラーフィルタ配列はこれに限定されるものではなく、例えば、Trans(登録商標)配列等の他のカラーフィルタ配列でもよい。

A pair of first pixel S A of the image sensor 201 as shown in FIG. 4, the second pixel S B, red

A color filter of any one of the three primary color filters (R filter, G filter, B filter) of (R), green (G), and blue (B) is arranged according to a predetermined color filter arrangement. ing. The color filter array shown in FIG. 4 is a general Bayer array, but the color filter array is not limited to this, and may be another color filter array such as a Trans (registered trademark) array.


図3に戻って、交換レンズ100の撮像光学系102によってイメージセンサ201の受光面に結像された被写体の光学像は、イメージセンサ201によって電気信号に変換される。イメージセンサ201の各画素(図4に示した第1画素SA、第2画素S)には、入射する光量に応じた電荷が蓄積され、イメージセンサ201からは各画素に蓄積された電荷量(信号電荷)に応じた電気信号が画像信号として読み出される。即ち、第1画素SA、第2画素Sに蓄積された電荷量に対応する信号(第1画素S,第2画素Sの各画素値)は、独立して読み出し可能である。

Returning to FIG. 3, the optical image of the subject imaged on the light receiving surface of the image sensor 201 by the imaging optical system 102 of the interchangeable lens 100 is converted into an electric signal by the image sensor 201. (First pixel S A shown in FIG. 4, the second pixel S B) each pixel of the image sensor 201, the charge corresponding to the amount of light incident are accumulated, the charge accumulated in each pixel from the image sensor 201 An electric signal corresponding to the amount (signal charge) is read out as an image signal. That is, the first pixel S A, a signal corresponding to the charge amount accumulated in the second pixel S B (first pixel S A, pixel values of the second pixel S B) can be read independently.


イメージセンサ制御部202は、本体側CPU220の指令にしたがってイメージセンサ201から画像信号の読み出し制御を行う。また、イメージセンサ制御部202は、静止画の撮像が行われる場合には、FPS280の開閉により露光時間が制御された後、FPS280が閉じた状態でイメージセンサ201の全ラインを読み出す。また、本例のイメージセンサ201及びイメージセンサ制御部202は、少なくとも1つ以上のライン毎や画素毎に順次露光動作を行う(即ち、ライン毎や画素毎に順次リセットを行い、電荷の蓄積を開始し、蓄積した電荷を読み出す方式である)、いわゆるローリングシャッタ方式にて駆動することができ、特にFPS280を開放した状態でローリングシャッタ方式にて動画の撮像、又はライブビュー画像の撮像を行う機能を有する。

The image sensor control unit 202 performs read control of an image signal from the image sensor 201 according to a command from the CPU 220 on the main body side. Further, when the image sensor control unit 202 captures a still image, the exposure time is controlled by opening and closing the FPS 280, and then the entire line of the image sensor 201 is read out with the FPS 280 closed. Further, the image sensor 201 and the image sensor control unit 202 of this example sequentially perform an exposure operation for at least one or more lines or pixels (that is, reset each line or pixel sequentially to accumulate charges. It can be driven by the so-called rolling shutter method (which is a method of starting and reading out the accumulated charge), and in particular, a function of capturing a moving image or a live view image by the rolling shutter method with the FPS280 open. Has.


アナログ信号処理部203は、イメージセンサ201で被写体を撮像して得られたアナログの画像信号に対して、各種のアナログ信号処理を施す。アナログ信号処理部203は、サンプリングホールド回路、色分離回路、AGC(Automatic Gain Control)回路等を含んで構成されている。AGC回路は、撮像時の感度(ISO感度(ISO:International Organization for Standardization))を調整する感度調整部として機能し、入力する画像信号を増幅する増幅器のゲインを調整し、画像信号の信号レベルが適切な範囲に入るようにする。A/D変換器204は、アナログ信号処理部203から出力されたアナログの画像信号をデジタルの画像信号に変換する。

The analog signal processing unit 203 performs various analog signal processing on the analog image signal obtained by imaging the subject with the image sensor 201. The analog signal processing unit 203 includes a sampling hold circuit, a color separation circuit, an AGC (Automatic Gain Control) circuit, and the like. The AGC circuit functions as a sensitivity adjustment unit that adjusts the sensitivity at the time of imaging (ISO (International Organization for Standardization)), adjusts the gain of the amplifier that amplifies the input image signal, and adjusts the signal level of the image signal. Make sure it is within the appropriate range. The A / D converter 204 converts the analog image signal output from the analog signal processing unit 203 into a digital image signal.


静止画又は動画の撮像時にイメージセンサ201、アナログ信号処理部203、及びA/D変換器204を介して出力されるRGBの画素毎の画像データ(モザイク画像データ)は、画像入力コントローラ205からRAM207に入力され、一時的に記憶される。

尚、イメージセンサ201がCMOS型イメージセンサである場合、アナログ信号処理部203及びA/D変換器204は、イメージセンサ201内に内蔵されていることが多い。

The image data (mosaic image data) for each pixel of RGB output via the image sensor 201, the analog signal processing unit 203, and the A / D converter 204 when capturing a still image or moving image is obtained from the image input controller 205 to the RAM 207. Is entered in and is temporarily stored.

When the image sensor 201 is a CMOS image sensor, the analog signal processing unit 203 and the A / D converter 204 are often built in the image sensor 201.


デジタル信号処理部206は、RAM207に格納されている画像データに対して、各種のデジタル信号処理を施す。デジタル信号処理部206は、RAM207に記憶されている画像データを適宜読み出し、読み出した画像データに対してオフセット処理、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理、同時化処理とも言う)、RGB/YCrCb変換処理等のデジタル信号処理を行い、デジタル信号処理後の画像データを再びRAM207に記憶させる。尚、デモザイク処理とは、例えば、RGB3色のカラーフィルタからなるイメージセンサの場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理であり、モザイクデータ(点順次のRGBデータ)から同時化されたRGB3面の画像データを生成する。

The digital signal processing unit 206 performs various digital signal processing on the image data stored in the RAM 207. The digital signal processing unit 206 appropriately reads out the image data stored in the RAM 207, and for the read image data, offset processing, gain control processing including sensitivity correction, gamma correction processing, demosaicing processing (demosaiking processing, simultaneous). Digital signal processing such as conversion processing) and RGB / YCrCb conversion processing is performed, and the image data after the digital signal processing is stored in the RAM 207 again. The demosaic process is, for example, in the case of an image sensor composed of color filters of three RGB colors, a process of calculating all RGB color information for each pixel from a mosaic image composed of RGB, and mosaic data (point-sequential RGB data). ) To generate the image data of three RGB planes simultaneously.


RGB/YCrCb変換処理は、同時化されたRGBデータを輝度データ(Y)及び色差データ(Cr、Cb)に変換する処理である。

The RGB / YCrCb conversion process is a process of converting the simultaneous RGB data into luminance data (Y) and color difference data (Cr, Cb).


圧縮伸張処理部208は、静止画又は動画の記録時に、一旦RAM207に格納された非圧縮の輝度データY及び色差データCb,Crに対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮伸張処理部208により圧縮された画像データは、メディア制御部210を介してメモリカード212に記録される。また、圧縮伸張処理部208は、再生モード時にメディア制御部210を介してメモリカード212から得た圧縮された画像データに対して伸張処理を施し、非圧縮の画像データを生成する。

The compression / decompression processing unit 208 performs compression processing on the uncompressed luminance data Y and the color difference data Cb and Cr once stored in the RAM 207 when recording a still image or a moving image. In the case of a still image, for example, it is compressed in the JPEG (Joint Photographic coding Experts Group) format, and in the case of a moving image, for example, H. Compress in 264 format. The image data compressed by the compression / decompression processing unit 208 is recorded in the memory card 212 via the media control unit 210. Further, the compression / decompression processing unit 208 performs decompression processing on the compressed image data obtained from the memory card 212 via the media control unit 210 in the playback mode to generate uncompressed image data.


メディア制御部210は、圧縮伸張処理部208で圧縮された画像データを、メモリカード212に記録する制御を行う。また、メディア制御部210は、メモリカード212から、圧縮された画像データを読み出す制御を行う。

The media control unit 210 controls to record the image data compressed by the compression / decompression processing unit 208 on the memory card 212. Further, the media control unit 210 controls to read the compressed image data from the memory card 212.


表示制御部214は、RAM207に格納されている非圧縮の画像データを、液晶モニタ216に表示させる制御を行う。液晶モニタ216は、液晶表示デバイスにより構成されているが、液晶モニタ216の代わりに有機エレクトロルミネッセンスなどの表示デバイスによって構成してもよい。

The display control unit 214 controls the liquid crystal monitor 216 to display the uncompressed image data stored in the RAM 207. Although the liquid crystal monitor 216 is composed of a liquid crystal display device, it may be configured by a display device such as organic electroluminescence instead of the liquid crystal monitor 216.


液晶モニタ216にライブビュー画像を表示させる場合には、デジタル信号処理部206で連続的に生成されたデジタルの画像信号が、RAM207に一時的に記憶される。表示制御部214は、このRAM207に一時記憶されたデジタルの画像信号を表示用の信号形式に変換して、液晶モニタ216に順次出力する。これにより、液晶モニタ216に撮像画像がリアルタイムに表示され、液晶モニタ216を電子ビューファインダとして使用することができる。

When the live view image is displayed on the liquid crystal monitor 216, the digital image signal continuously generated by the digital signal processing unit 206 is temporarily stored in the RAM 207. The display control unit 214 converts the digital image signal temporarily stored in the RAM 207 into a signal format for display, and sequentially outputs the digital image signal to the liquid crystal monitor 216. As a result, the captured image is displayed on the liquid crystal monitor 216 in real time, and the liquid crystal monitor 216 can be used as an electronic viewfinder.


シャッタレリーズスイッチ22は、静止画や動画の撮像指示を入力するための撮像指示部であり、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。

The shutter release switch 22 is an imaging instruction unit for inputting an imaging instruction for a still image or a moving image, and is composed of a two-stage stroke type switch composed of a so-called "half-press" and "full-press".


静止画撮像モードの場合、シャッタレリーズスイッチ22が半押しされることによってS1オンの信号、半押しから更に押し込む全押しがされることによってS2オンの信号が出力され、S1オン信号が出力されると、本体側CPU220は、AF制御(自動焦点調節)及びAE制御(自動露出制御)などの撮影準備処理を実行し、S2オン信号が出力されると、静止画の撮像処理及び記録処理を実行する。

In the still image imaging mode, the shutter release switch 22 is half-pressed to output an S1 on signal, and half-pressed to a full-pressed output to output an S2 on signal and an S1 on signal. Then, the CPU 220 on the main body side executes shooting preparation processing such as AF control (automatic focus adjustment) and AE control (automatic exposure control), and when an S2 on signal is output, executes still image imaging processing and recording processing. To do.


尚、AF制御及びAE制御は、それぞれ操作部222によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。

The AF control and the AE control are automatically performed when the auto mode is set by the operation unit 222, respectively, and the AF control and the AE control are not performed when the manual mode is set. Needless to say.


また、動画撮像モードの場合、シャッタレリーズスイッチ22が全押しされることによってS2オンの信号が出力されると、カメラ本体200は、動画の記録を開始する動画記録モードになり、動画の画像処理及び記録処理を実行し、その後、シャッタレリーズスイッチ22が再び全押しされることによってS2オンの信号が出力されると、カメラ本体200は、スタンバイ状態になり、動画の記録処理を一時停止する。

Further, in the moving image imaging mode, when the S2 ON signal is output by fully pressing the shutter release switch 22, the camera body 200 enters the moving image recording mode for starting the moving image recording, and the moving image processing of the moving image is performed. And, when the recording process is executed and then the S2 ON signal is output by fully pressing the shutter release switch 22 again, the camera body 200 enters the standby state and pauses the moving image recording process.


尚、シャッタレリーズスイッチ22は半押しと全押しとからなる2段ストローク式のスイッチの形態に限られず、1回の操作でS1オンの信号、S2オンの信号を出力しても良く、それぞれ個別のスイッチを設けてS1オンの信号、S2オンの信号を出力しても良い。

The shutter release switch 22 is not limited to the form of a two-stage stroke type switch consisting of a half-press and a full-press, and may output an S1 on signal and an S2 on signal with a single operation, and each of them may be output individually. A switch may be provided to output an S1 on signal and an S2 on signal.


また、タッチ式パネル等により操作指示を行う形態では、これら操作手段としてタッチ式パネルの画面に表示される操作指示に対応する領域をタッチすることで操作指示を出力するようにしても良く、撮影準備処理や撮像処理を指示するものであれば操作手段の形態はこれらに限られない。

Further, in the form of giving an operation instruction by a touch panel or the like, the operation instruction may be output by touching the area corresponding to the operation instruction displayed on the screen of the touch panel as these operation means. The form of the operating means is not limited to these as long as it instructs the preparatory process and the imaging process.


撮像により取得された静止画又は動画は、圧縮伸張処理部208により圧縮され、圧縮された画像データは、撮像日時、GPS情報、撮像条件(F値、シャッタスピード、ISO感度等)の所要の付属情報が、ヘッダに付加された画像ファイルとされた後、メディア制御部210を介してメモリカード212に格納される。

The still image or moving image acquired by imaging is compressed by the compression / decompression processing unit 208, and the compressed image data is the necessary attachment of the imaging date / time, GPS information, and imaging conditions (F value, shutter speed, ISO sensitivity, etc.). The information is converted into an image file added to the header, and then stored in the memory card 212 via the media control unit 210.


本体側CPU220は、カメラ本体200全体の動作及び交換レンズ100の光学部材の駆動等を統括制御するもので、シャッタレリーズスイッチ22を含む操作部222等からの入力に基づき、カメラ本体200の各部及び交換レンズ100を制御する。

The CPU 220 on the main body side comprehensively controls the operation of the entire camera main body 200 and the drive of the optical member of the interchangeable lens 100. Based on the input from the operation unit 222 including the shutter release switch 22, each part of the camera main body 200 and each part and the like. Controls the interchangeable lens 100.


時計部224は、タイマとして、本体側CPU220からの指令に基づいて時間を計測する。また、時計部224は、カレンダとして、現在の年月日及び時刻を計測する。

As a timer, the clock unit 224 measures the time based on a command from the CPU 220 on the main body side. In addition, the clock unit 224 measures the current date and time as a calendar.


フラッシュROM226は、読み取り及び書き込みが可能な不揮発性メモリであり、設定情報を記憶する。

The flash ROM 226 is a non-volatile memory that can be read and written, and stores setting information.


ROM228には、本体側CPU220が実行するカメラ制御プログラム、本発明に係る合成用画像撮像モードでの撮像を実行させる画像位置合わせ補助プログラム、イメージセンサ201の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されている。本体側CPU220は、ROM228に格納されたカメラ制御プログラム、あるいは画像位置合わせ補助プログラムにしたがい、RAM207を作業領域としながらカメラ本体200の各部、及び交換レンズ100を制御する。

The ROM 228 contains a camera control program executed by the CPU 220 on the main body side, an image alignment assist program for executing imaging in the composite image imaging mode according to the present invention, defect information of the image sensor 201, various types used for image processing, and the like. Parameters and tables are stored. The main body side CPU 220 controls each part of the camera main body 200 and the interchangeable lens 100 while using the RAM 207 as a work area according to the camera control program stored in the ROM 228 or the image alignment assist program.


自動焦点調節部として機能するAF制御部230は、位相差AFの制御に必要なデフォーカス量を算出し、算出したデフォーカス量に基づいて、フォーカスレンズが移動すべき位置(合焦位置)指令を、本体側CPU220及び本体側通信部250を介して交換レンズ100に通知する。

The AF control unit 230, which functions as an automatic focus adjustment unit, calculates the defocus amount required for controlling the phase difference AF, and based on the calculated defocus amount, commands the position (focus position) at which the focus lens should move. Is notified to the interchangeable lens 100 via the main body side CPU 220 and the main body side communication unit 250.


ここで、AF制御部230は、位相差検出部とデフォーカス量算出部とを含む。位相差検出部は、イメージセンサ201のAF領域(ユーザが指定した主要被写体が存在する領域、顔検出等により自動的に検出される主要被写体の領域、又はデフォルトで設定された領域等)内の、同色のカラーフィルタが配設された第1画素Sからなる第1画素群と、第1画素Sからなる第2画素群からそれぞれ画素データ(第1画素値及び第2画素値)を取得し、これらの第1画素値及び第2画素値に基づいて位相差を検出する。この位相差は、第1画素群の複数の第1画素値と第2画素群の複数の第2画素値の相関が最大になるとき(複数の第1画素値と複数の第2画素値の差分絶対値の積算値が最小になるとき)の第1画素値と第2画素値との間の瞳分割方向のシフト量から算出することができる。

Here, the AF control unit 230 includes a phase difference detection unit and a defocus amount calculation unit. The phase difference detection unit is within the AF area of the image sensor 201 (the area where the main subject specified by the user exists, the area of the main subject automatically detected by face detection, or the area set by default). a first pixel group including a first pixel S a which color filters of the same color are disposed, respectively the pixel data from the second pixel group composed of the first pixel S a (the first pixel value and second pixel value) It is acquired and the phase difference is detected based on these first pixel value and second pixel value. This phase difference is obtained when the correlation between the plurality of first pixel values of the first pixel group and the plurality of second pixel values of the second pixel group is maximized (the plurality of first pixel values and the plurality of second pixel values). It can be calculated from the shift amount in the pupil division direction between the first pixel value and the second pixel value (when the integrated value of the absolute difference value becomes the minimum).


デフォーカス量算出部は、位相差検出部により検出された位相差と、交換レンズ100の現在のF値(光線角度)に対応する係数とを乗算することによりデフォーカス量を算出する。

The defocus amount calculation unit calculates the defocus amount by multiplying the phase difference detected by the phase difference detection unit with the coefficient corresponding to the current F value (light ray angle) of the interchangeable lens 100.


AF制御部230により算出されたデフォーカス量に対応するフォーカスレンズの位置指令は、交換レンズ100に通知され、フォーカスレンズの位置指令を受け付けた交換レンズ100のレンズ側CPU120は、フォーカスレンズ制御部116を介してフォーカスレンズを移動させ、フォーカスレンズの位置(合焦位置)を制御する。

The position command of the focus lens corresponding to the defocus amount calculated by the AF control unit 230 is notified to the interchangeable lens 100, and the lens-side CPU 120 of the interchangeable lens 100 that receives the position command of the focus lens is the focus lens control unit 116. The focus lens is moved via the lens to control the position (focus position) of the focus lens.


AE制御部232は、被写体の明るさ(被写体輝度)を検出する部分であり、被写体輝度に対応するAE制御及びAWB(Auto White Balance)制御に必要な数値(露出値(EV値(exposure value)))を算出する。AE制御部232は、イメージセンサ201を介して取得した画像の輝度、画像の輝度の取得時のシャッタスピード及びF値によりEV値を算出する。

The AE control unit 232 is a part that detects the brightness of the subject (subject brightness), and is a numerical value (exposure value) required for AE control and AWB (Auto White Balance) control corresponding to the subject brightness. )) Is calculated. The AE control unit 232 calculates the EV value from the brightness of the image acquired via the image sensor 201, the shutter speed at the time of acquiring the brightness of the image, and the F value.


本体側CPU220は、AE制御部232から得たEV値に基づいて所定のプログラム線図からF値、シャッタスピード及びISO感度を決定し、AE制御を行うことができる。

The main body side CPU 220 can determine the F value, the shutter speed, and the ISO sensitivity from a predetermined program diagram based on the EV value obtained from the AE control unit 232, and perform AE control.


ホワイトバランス補正部234は、RGBデータ(Rデータ、Gデータ及びBデータ)の色データ毎のホワイトバランスゲイン(WB(White Balance)ゲイン)Gr,Gg,Gbを算出し、Rデータ、Gデータ及びBデータに、それぞれ算出したWBゲインGr,Gg,Gbを乗算することによりホワイトバランス補正を行う。ここで、WBゲインGr,Gg,Gbの算出方法としては、被写体の明るさ(EV値)によるシーン認識(屋外、屋内の判定等)及び周囲光の色温度等に基づいて被写体を照明している光源種を特定し、予め光源種毎に適切なWBゲインが記憶されている記憶部から特定した光源種に対応するWBゲインを読み出す方法が考えられるが、少なくともEV値を使用してWBゲインGr,Gg,Gbを求める他の公知の方法が考えられる。

The white balance correction unit 234 calculates the white balance gain (WB (White Balance) gain) Gr, Gg, Gb for each color data of RGB data (R data, G data and B data), and calculates the R data, G data and Gb. White balance correction is performed by multiplying the B data by the calculated WB gains Gr, Gg, and Gb, respectively. Here, as a method of calculating the WB gains Gr, Gg, and Gb, the subject is illuminated based on the scene recognition (outdoor / indoor determination, etc.) based on the brightness (EV value) of the subject and the color temperature of the ambient light. A method is conceivable in which the WB gain corresponding to the specified light source type is read out from the storage unit in which the appropriate WB gain is stored in advance for each light source type, but at least the EV value is used to read the WB gain. Other known methods for determining Gr, Gg, Gb can be considered.


無線通信部236は、Wi-Fi(Wireless Fidelity)(登録商標)、Bluetooth(登録商標)等の規格の近距離無線通信を行う部分であり、周辺のデジタル機器(スマートフォン、等の携帯端末)との間で必要な情報の送受信を行う。

The wireless communication unit 236 is a part that performs short-range wireless communication of standards such as Wi-Fi (Wireless Fidelity) (registered trademark) and Bluetooth (registered trademark), and is connected to peripheral digital devices (mobile terminals such as smartphones). Send and receive necessary information between.


GPS受信部238は、本体側CPU220の指示にしたがって、複数のGPS衛星から送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、カメラ本体200の緯度、経度、及び高度からなるGPS情報を取得する。取得されたGPS情報は、撮像された画像の撮像位置を示す付属情報として画像ファイルのヘッダに記録することができる。

The GPS receiving unit 238 receives GPS signals transmitted from a plurality of GPS satellites according to instructions from the CPU 220 on the main body side, executes positioning calculation processing based on the received plurality of GPS signals, and executes positioning calculation processing based on the received GPS signals, and the latitude and longitude of the camera main body 200. , And GPS information consisting of altitude is acquired. The acquired GPS information can be recorded in the header of the image file as ancillary information indicating the imaging position of the captured image.


電源制御部240は、本体側CPU220の指令にしたがって、バッテリ242から供給される電源電圧をカメラ本体200の各部に与える。また、電源制御部240は、本体側CPU220の指令にしたがって、本体マウント260及びレンズマウント160を介して、バッテリ242から供給される電源電圧を交換レンズ100の各部に与える。

The power supply control unit 240 applies the power supply voltage supplied from the battery 242 to each part of the camera main body 200 according to the command of the main body side CPU 220. Further, the power supply control unit 240 applies the power supply voltage supplied from the battery 242 to each part of the interchangeable lens 100 via the main body mount 260 and the lens mount 160 in accordance with the command of the main body side CPU 220.


レンズ電源スイッチ244は、本体側CPU220の指令にしたがって、本体マウント260及びレンズマウント160を介して交換レンズ100に与える電源電圧のオン及びオフの切り替えとレベルの切り替えを行う。

The lens power switch 244 switches the power supply voltage applied to the interchangeable lens 100 on and off and switches the level via the main body mount 260 and the lens mount 160 in accordance with the command of the main body side CPU 220.


本体側通信部250は、本体側CPU220の指令にしたがって、本体マウント260及びレンズマウント160を介して接続された交換レンズ100のレンズ側通信部150との間で、リクエスト信号、回答信号の送受信(双方向通信)を行う。尚、本体マウント260には、図1に示すように複数の端子260Aが設けられており、交換レンズ100がカメラ本体200に装着(レンズマウント160と本体マウント260とが接続)されると、本体マウント260に設けられた複数の端子260A(図1)と、レンズマウント160に設けられた複数の端子(図示せず)とが電気的に接続され、本体側通信部250とレンズ側通信部150との間で双方向通信が可能になる。

The main body side communication unit 250 transmits and receives a request signal and a response signal between the main body side communication unit 250 and the lens side communication unit 150 of the interchangeable lens 100 connected via the main body mount 260 and the lens mount 160 according to a command from the main body side CPU 220. Two-way communication). As shown in FIG. 1, the main body mount 260 is provided with a plurality of terminals 260A, and when the interchangeable lens 100 is attached to the camera main body 200 (the lens mount 160 and the main body mount 260 are connected), the main body is mounted. A plurality of terminals 260A (FIG. 1) provided on the mount 260 and a plurality of terminals (not shown) provided on the lens mount 160 are electrically connected, and the main body side communication unit 250 and the lens side communication unit 150 are electrically connected. Two-way communication with and from is possible.


内蔵フラッシュ30(図1)は、例えば、TTL(Through The Lens)自動調光方式のフラッシュであり、フラッシュ発光部270と、フラッシュ制御部272とから構成されている。

The built-in flash 30 (FIG. 1) is, for example, a TTL (Through The Lens) automatic dimming flash, and includes a flash light emitting unit 270 and a flash control unit 272.


フラッシュ制御部272は、フラッシュ発光部270から発光するフラッシュ光の発光量(ガイドナンバー)を調整する機能を有する。即ち、フラッシュ制御部272は、本体側CPU220からのフラッシュ撮像指示に同期してフラッシュ発光部270から、発光量の小さいフラッシュ光をプリ発光(調光発光)させ、交換レンズ100の撮像光学系102を介して入射する反射光(周囲光を含む)に基づいて本発光するフラッシュ光の発光量を決定し、決定した発光量のフラッシュ光を、フラッシュ発光部270から発光(本発光)させる。尚、HDR撮像モードが選択されている場合、フラッシュ制御部272は、通常のフラッシュ発光画像の撮像とは異なる発光制御を行うが、その詳細については後述する。

The flash control unit 272 has a function of adjusting the amount of flash light (guide number) emitted from the flash light emitting unit 270. That is, the flash control unit 272 pre-emits (dimming) a small amount of flash light from the flash light emitting unit 270 in synchronization with the flash imaging instruction from the main body side CPU 220, and the imaging optical system 102 of the interchangeable lens 100. The amount of light emitted from the flash light to be actually emitted is determined based on the reflected light (including ambient light) incident on the flash, and the determined amount of flash light is emitted from the flash light emitting unit 270 (main emission). When the HDR imaging mode is selected, the flash control unit 272 performs emission control different from the imaging of a normal flash emission image, the details of which will be described later.


FPS280は、撮像装置10のメカシャッタを構成し、イメージセンサ201の直前に配置される。FPS制御部296は、本体側CPU220からの入力情報(S2オン信号、シャッタスピード等)に基づいてFPS280の先幕、後幕の開閉を制御し、イメージセンサ201における露光時間(シャッタスピード)を制御する。

The FPS 280 constitutes the mechanical shutter of the image pickup apparatus 10 and is arranged immediately before the image sensor 201. The FPS control unit 296 controls the opening and closing of the front curtain and the rear curtain of the FPS 280 based on the input information (S2 on signal, shutter speed, etc.) from the CPU 220 on the main body side, and controls the exposure time (shutter speed) in the image sensor 201. To do.


次に、HDR撮像モードによりダイナミックレンジを広げるHDR合成に使用する露出の異なる複数の画像を撮像し、撮像した複数の画像のHDR合成を行う撮像装置10の制御について説明する。

Next, the control of the imaging device 10 that captures a plurality of images with different exposures used for HDR composition that widens the dynamic range by the HDR imaging mode and performs HDR composition of the captured plurality of images will be described.


[HDR処理の第1実施形態]

図5は、本発明に係る画像処理装置として機能する本体側CPU220の第1実施形態を示す機能ブロック図であり、主としてHDR撮像モードにより撮像されたHDR合成用の複数の画像に基づいてHDR合成用の画像処理(HDR処理)を実行する場合の機能ブロック図である。

[First Embodiment of HDR processing]

FIG. 5 is a functional block diagram showing a first embodiment of the main body side CPU 220 that functions as an image processing device according to the present invention, and is an HDR composition based mainly on a plurality of images for HDR composition captured in the HDR imaging mode. It is a functional block diagram at the time of executing the image processing (HDR processing) for.


HDR撮像モードによる撮像を行う場合、主として本体側CPU220が、HDR撮像モードによる撮像用の制御を統括制御するとともに、図5に示すように距離分布情報取得部220A,光強度分布情報算出部220B,合成比率決定部220C及び画像合成部220Dとして機能する。

When imaging in the HDR imaging mode, the CPU 220 on the main body side mainly controls the control for imaging in the HDR imaging mode, and as shown in FIG. 5, the distance distribution information acquisition unit 220A, the light intensity distribution information calculation unit 220B, It functions as a composition ratio determination unit 220C and an image composition unit 220D.


即ち、HDR撮像モードによる撮像を行う場合、本体側CPU220は、フラッシュ光の非発光下でそれぞれ異なる露出条件による複数(本例では2つ)の非発光画像の撮像と、フラッシュ光の発光下で複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件による発光画像の撮像とを実行する。

That is, when performing imaging in the HDR imaging mode, the CPU 220 on the main body side captures a plurality of (two in this example) non-emission images under different exposure conditions under the non-emission of the flash light, and under the emission of the flash light. Capturing a light emitting image under the same exposure conditions as the exposure condition of any of the non-light emitting images among the plurality of non-light emitting images is executed.


ここで、複数の非発光画像に対応する複数の露出条件は、適正露出の露出条件よりもアンダー露出の露出条件とオーバー露出の露出条件とを含む。本例では、本体側CPU220は、AE制御部232により算出されたEV値に応じて定まる適正露出に対して、アンダー露出、及びオーバー露出の2つの露出条件にて2つの非発光画像の撮像を行わせる。尚、適正露出に対するアンダー露出、オーバー露出となる露出補正値(例えば、±3EV)は、ユーザが任意に設定できるようにしてもよいし、被写界の明るさ(EV値)に応じて自動的に設定できるようにしてもよい。

Here, the plurality of exposure conditions corresponding to the plurality of non-emission images include an underexposure exposure condition and an overexposure exposure condition rather than the proper exposure exposure condition. In this example, the CPU 220 on the main body side captures two non-emission images under two exposure conditions, underexposure and overexposure, with respect to the appropriate exposure determined according to the EV value calculated by the AE control unit 232. Let me do it. The exposure compensation value (for example, ± 3EV) that causes underexposure or overexposure with respect to the proper exposure may be arbitrarily set by the user, or is automatically set according to the brightness (EV value) of the field of view. It may be possible to set the target.


また、本体側CPU220は、フラッシュ光の発光下で複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件(本例では、アンダー露出の露出条件)にて発光画像の撮像を実行する。

Further, the CPU 220 on the main body side displays the light emitting image under the same exposure condition (in this example, the underexposure exposure condition) as the exposure condition of any one of the plurality of non-light emitting images under the light emission of the flash light. Perform imaging.


尚、2つの非発光画像と1つの発光画像は、それぞれ同一の被写体に対して撮像された画像であり、可能な限り撮像間隔を短くして連続して撮像された連写画像であることが好ましい。

The two non-emission images and one emissive image are images captured for the same subject, and are continuously captured images with the imaging interval as short as possible. preferable.


図5において、画像取得部221は、フラッシュ光の非発光下で撮像部(交換レンズ100、イメージセンサ201)により、それぞれアンダー露出で撮像された非発光画像(第1非発光画像)と、オーバー露出で撮像された非発光画像(第2非発光画像)と、フラッシュ発光部270から発光されるフラッシュ光の発光下で、第1非発光画像の露出条件と同じ露出条件で撮像部により撮像された発光画像とを取得する部分である。

In FIG. 5, the image acquisition unit 221 is overexposed with a non-emission image (first non-emission image) captured by an imaging unit (interchangeable lens 100, image sensor 201) under non-emission of flash light. Under the light emission of the non-emission image (second non-emission image) captured by exposure and the flash light emitted from the flash light emitting unit 270, the image is captured by the imaging unit under the same exposure conditions as the exposure condition of the first non-emission image. This is the part to acquire the light emission image.


画像取得部221は、例えば画像入力コントローラ205を介して一時的にRAM207に保持された第1非発光画像、第2非発光画像及び発光画像を、RAM207から取得してもよいし、撮像部により撮像された第1非発光画像、第2非発光画像及び発光画像を画像入力コントローラ205を介して直接取得してもよい。

The image acquisition unit 221 may acquire the first non-emission image, the second non-emission image, and the emissive image temporarily held in the RAM 207 via, for example, the image input controller 205 from the RAM 207, or the image acquisition unit may acquire the image. The captured first non-emission image, second non-emission image, and emissive image may be directly acquired via the image input controller 205.


また、本例の画像入力コントローラ205は、図4に示したイメージセンサ201の一対の第1画素S,第2画素Sの画素値を加算して、1つのマイクロレンズ201A当り1画素の画素値とした、第1非発光画像、第2非発光画像、及び発光画像の他に、第1非発光画像、第2非発光画像、及び発光画像のうちのいずれかの画像の、第1画素Sのみの画素群からなる第1画像と第2画素Sのみの画素群からなる第2画像とを取得する。尚、第1画像と第2画像とは、被写体距離に応じて位相差をもつ位相差画像である。

The image input controller 205 of this embodiment, a pair of first pixel S A of the image sensor 201 shown in FIG. 4, by adding the pixel value of the second pixel S B, 1 pixel per one microlens 201A In addition to the first non-emission image, the second non-emission image, and the emissive image, which are the pixel values, the first of the first non-emission image, the second non-emission image, and the emissive image. acquiring a second image comprising a first image and a second pixel S B only pixel groups consisting of the pixel group of only the pixel S a. The first image and the second image are phase difference images having a phase difference according to the subject distance.


距離分布情報取得部220Aは、画像取得部221から互いに位相差をもつ位相差画像である第1画像と第2画像とを取得し、これらの第1画像及び第2画像に基づいて画像内の被写体の距離の分布を示す距離分布情報を取得する。

The distance distribution information acquisition unit 220A acquires a first image and a second image, which are retardation images having a phase difference from each other, from the image acquisition unit 221, and based on these first and second images, the distance distribution information acquisition unit 220A in the image. Acquires distance distribution information indicating the distribution of the distance of the subject.


即ち、距離分布情報取得部220Aは、第1画像内の特徴となる特徴点と、各特徴点に対応する第2画像内の特徴点とのずれ量(位相差)を算出し、算出した位相差と現在の絞り108のF値に基づいて各特徴点のデフォーカス量を算出し、更に算出した各特徴点のデフォーカス量と現在の交換レンズ100(撮像光学系102のフォーカスレンズ)のレンズ位置とから各特徴点(被写体)の距離を算出する。例えば、デフォーカス量がゼロの特徴点は、現在のフォーカスレンズのレンズ位置にて合焦する合焦距離にあり、各特徴点のデフォーカス量が、前ピン側又は後ビン側にずれるにしたがって、各特徴点の距離は、合焦距離よりも遠側又は近側に移動した距離となる。

That is, the distance distribution information acquisition unit 220A calculates the amount of deviation (phase difference) between the feature points in the first image and the feature points in the second image corresponding to each feature point, and the calculated position. The defocus amount of each feature point is calculated based on the phase difference and the F value of the current aperture 108, and the defocus amount of each feature point calculated further and the lens of the current interchangeable lens 100 (focus lens of the imaging optical system 102) The distance of each feature point (subject) is calculated from the position. For example, a feature point with a defocus amount of zero is at the focusing distance at the lens position of the current focus lens, and as the defocus amount of each feature point shifts to the front pin side or the rear bin side. , The distance of each feature point is the distance moved to the far side or the near side from the focusing distance.


光強度分布情報算出部220Bは、画像取得部221から同じ露出条件により撮像された発光画像及び第1非発光画像を取得し、距離分布情報取得部220Aから画像内の被写体の距離の分布を示す距離分布情報を取得する。そして、取得した発光画像、第1非発光画像及び距離分布情報に基づいて、被写体に照射されている光(フラッシュ光ではなく、環境光)の強度を示す指標の分布情報である光強度分布情報を算出する。

The light intensity distribution information calculation unit 220B acquires a light emitting image and a first non-light emitting image captured under the same exposure conditions from the image acquisition unit 221 and shows the distribution of the distance of the subject in the image from the distance distribution information acquisition unit 220A. Acquire distance distribution information. Then, based on the acquired light emission image, the first non-light emission image, and the distance distribution information, the light intensity distribution information which is the distribution information of the index indicating the intensity of the light (ambient light, not the flash light) shining on the subject. Is calculated.


以下、光強度分布情報算出部220Bによる光強度分布情報の算出方法について詳述する。

Hereinafter, the method of calculating the light intensity distribution information by the light intensity distribution information calculation unit 220B will be described in detail.


第1非発光画像の各画素の座標を示すパラメータをiとし、画素iの輝度値をY、発光画像の同じ座標の画素iの輝度値をYLi、その座標の距離情報d(=撮像装置10からそこに写っている被写体との距離)としたとき、光強度分布情報Sを、次式、

[数1]

=Y/{(YLi−Y)×(d )}

により定義する。パラメータiは、画素の座標を示すパラメータに限らず、画像を複数の領域に分割した各領域の位置を示すパラメータでも良い。この場合、輝度値Y、YLi、距離情報d、及び光強度分布情報Sも、領域i毎の輝度値(代表輝度値)、距離情報、及び光強度分布情報である。

A parameter indicating the coordinates of each pixel of the first non-emission image and i, the luminance value of the pixel i Y i, the luminance value Y Li pixel i of the same coordinates of the luminescent image, the coordinate distance information d i (= When the distance from the image pickup device 10 to the subject reflected therein), the light intensity distribution information Si is expressed by the following equation.

[Number 1]

S i = Y i / {( Y Li -Y i) × (d i 2)}

Defined by. The parameter i is not limited to the parameter indicating the coordinates of the pixels, and may be a parameter indicating the position of each region obtained by dividing the image into a plurality of regions. In this case, the luminance value Y i, Y Li, distance information d i, and the light intensity distribution information S i be the luminance value of each region i (representative luminance value), distance information, and the light intensity distribution information.


以下、[数1]式を説明する。

The equation [Equation 1] will be described below.


第1非発光画像のYiは、そこにある被写体に当たっている光の強さをB、被写体の反射率をR、イメージセンサ201による光電変換係数をKとすると、第1非発光画像のYiは、次式により表わされる。

Yi of the first non-emission image, the intensity of the B i of the light hitting the object there, the reflectance R i of the object, the photoelectric conversion coefficient by the image sensor 201 and K, Yi of the first non-emission image Is expressed by the following equation.


[数2]

=B×R×K

発光画像のYLiは、被写体に当たっているフラッシュ光の強さをFとすると、次式により表わされる。

[Number 2]

Y i = Bi x R i x K

Y Li of the light-emitting image when the intensity of the flash light hitting the object and F i, is expressed by the following equation.


[数3]

Li=(B+F)×R×K

は、フラッシュ発光部270から単位距離は離れた場所でのフラッシュ光の強さをFsとすると、光の減衰に関する逆2乗の法則より、次式により表わされる。

[Number 3]

Y Li = (B i + Fi ) x R i x K

F i, when the Fs strength of the flash light in a place unit distance away from the flash light emitting section 270, from the inverse-square law regarding attenuation of light is represented by the following equation.


[数4]

=Fs/(d

光強度分布情報の[数1]式は、[数2]式〜[数4]式により、[数5]式のように変形できる。

[Number 4]

F i = Fs / (d i 2)

The equation [Equation 1] of the light intensity distribution information can be transformed into the equation [Equation 5] by the equations [Equation 2] to [Equation 4].


[数5]

=Y/{(YLi−Y)×(d )} =(B×R×K)/[{(B+F)×R×K−(B×R×K)}×(d )]=(B/{F×(d )}=B/Fs

画素iによらず、Fsは一定なので、光強度分布情報Sは、画素i(=1〜N(N:画素数)ごとの被写体に当たっている光強度Bを相対的に比較できる指数といえる。

[Number 5]

S i = Y i / {( Y Li -Y i) × (d i 2)} = (B i × R i × K) / [{(B i + F i) × R i × K- (B i × R i × K)} × ( d i 2)] = (B i / {F i × (d i 2)} = B i / Fs

Regardless of the pixel i, since Fs is constant, the light intensity distribution information S i, the pixel i (= 1~N (N: it can be said that the index can be compared relatively light intensity B i that is hitting the subject per pixel number) ..


合成比率決定部220Cは、光強度分布情報に基づいて複数の非発光画像(第1非発光画像と第2非発光画像)の合成比率を決定する。光強度分布情報Sの値が大きい箇所は強く光が当たっているので、アンダー画像である第1非発光画像を使うことが好ましく、光強度分布情報Sの値が小さい箇所は光があまり当たっていないので、オーバー画像である第2非発光画像を使うことが好ましい。

The composition ratio determining unit 220C determines the composition ratio of a plurality of non-emission images (first non-emission image and second non-emission image) based on the light intensity distribution information. Since the part where the value of the light intensity distribution information S i is large is exposed to strong light, it is preferable to use the first non-emission image which is an under image, and the part where the value of the light intensity distribution information S i is small is too light. Since it does not hit, it is preferable to use a second non-emission image which is an over image.


次に、合成比率決定部220Cによる合成比率の決定方法について説明する。

Next, a method of determining the synthesis ratio by the synthesis ratio determination unit 220C will be described.


<合成比率の第1決定方法>

合成比率決定部220Cは、複数の非発光画像のそれぞれ対応する画素毎に合成比率を決定する際に、光強度分布情報Sに基づいて光強度が大きい画素では複数の非発光画像のうちの最も露出値が小さい露出条件で撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件で撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくする。尚、画像を複数の領域に分割した領域毎に合成比率を決定してもよい。

<First method for determining the synthesis ratio>

Synthesis ratio determining unit 220C, in determining the respective combination ratio for each pixel of the plurality of non-emission image, among the plurality of non-light emission image at the pixel light intensity is high on the basis of the light intensity distribution information S i The mixing ratio of the first non-emission image captured under the exposure condition with the smallest exposure value is larger than the mixing ratio of the second non-emission image captured under the exposure condition with the largest exposure value among the plurality of non-emission images. For pixels that are large and have low light intensity, the mixing ratio of the second non-emission image is made larger than the mixing ratio of the first non-emission image. The composition ratio may be determined for each region in which the image is divided into a plurality of regions.


図6から図7は、それぞれ光強度分布情報Sと第2非発光画像の混合率αiとの関係を示すグラフである。

FIGS. 6 7 are each graphs showing the relationship between the mixing ratio αi of the light intensity distribution information S i and a second non-emission image.


図6に示すように合成比率決定部220Cは、第2非発光画像の混合率をαiとし、図6に示すように光強度分布情報Sの最小値をSmin.、最大値をSmax.とすると、最も簡単には、最小値Smin.〜最大値Smax.の光強度分布情報Sにより、混合率αi(=0〜1)を線形補間することで、第1非発光画像と第2非発光画像との合成比率を決定する。この場合、第1非発光画像の混合率は、(1−αi)となり、第1非発光画像と第2非発光画像との合成比率は、(1−αi):αiとなる。

Synthesis ratio determining unit 220C as shown in FIG. 6, the mixing ratio of the second non-emission image and .alpha.i, minimum value S min of the light intensity distribution information S i, as shown in FIG., The maximum value S max . and when, most briefly, the minimum value S min. ~ maximum value S max. of the light intensity distribution information S i, the mixing ratio αi a (= 0-1) by linear interpolation, the first non-emission image And the second non-emission image are determined. In this case, the mixing ratio of the first non-emission image is (1-αi), and the composite ratio of the first non-emission image and the second non-emission image is (1-αi): αi.


また、合成比率決定部220Cは、図7に示すように混合率αiに最小値αmin.(>0)と最大値αmax.(<1)を設け、最小値Smin.〜最大値Smax.の光強度分布情報Sにより、混合率αiを最小値αmin.〜最大値αmax.の範囲で線形補間することで、第1非発光画像と第2非発光画像との合成比率を決定することができる。

Further, as shown in FIG. 7, the synthesis ratio determining unit 220C sets a minimum value α min. (> 0) and a maximum value α max. (<1) in the mixing ratio αi, and the minimum value S min. To the maximum value S. max by. the light intensity distribution information S i, the mixing ratio αi minimum value alpha min. by linear interpolation the maximum value alpha max. range between the synthesis ratio of the first non-emission image and the second non-emission image Can be determined.


更に、合成比率決定部220Cは、図8に示すように混合率αiに最小値αmin.(>0)と最大値αmax.(<1)を設け、最小値Smin.〜最大値Smax.の光強度分布情報Sにより、混合率αiを最小値αmin.〜最大値αmax.の範囲で非線形補間(混合率αiが単調減少するように非線形補間)することで、第1非発光画像と第2非発光画像との合成比率を決定することができる。

Further, the synthesis ratio determining unit 220C sets a minimum value α min. (> 0) and a maximum value α max. (<1) in the mixing ratio αi as shown in FIG. 8, and the minimum value S min. To the maximum value S. The first is performed by non-linear interpolation (non-linear interpolation so that the mixing ratio αi decreases monotonically) in the range of the minimum value α min. To the maximum value α max. By the light intensity distribution information S i of max. The composite ratio of the non-emission image and the second non-emission image can be determined.


図5に戻って、画像合成部220Dは、合成比率決定部220Cにより決定された合成比率にしたがって、アンダー露出の第1非発光画像とオーバー露出の第2非発光画像とを合成し、ダイナミックレンジが拡大された合成画像(HDR画像)を生成する。即ち、画像合成部220Dは、第1非発光画像と第2非発光画像のそれぞれ対応する画素毎に決定した合成比率を適用して、第1非発光画像と第2発光画像とを合成する。尚、画像を複数に分割した領域毎に合成比率が決定される場合には、第1非発光画像と第2非発光画像のそれぞれ対応する領域毎に決定した合成比率を適用して、第1非発光画像と第2発光画像とを合成し、HDR画像を生成する。

Returning to FIG. 5, the image compositing unit 220D synthesizes the underexposed first non-emission image and the overexposed second non-emission image according to the compositing ratio determined by the compositing ratio determining unit 220C, and has a dynamic range. Generates an enlarged composite image (HDR image). That is, the image synthesizing unit 220D synthesizes the first non-emission image and the second non-emission image by applying the composition ratio determined for each corresponding pixel of the first non-emission image and the second non-emission image. When the compositing ratio is determined for each region in which the image is divided into a plurality of regions, the compositing ratio determined for each corresponding region of the first non-emission image and the second non-emission image is applied to the first. The non-emission image and the second emission image are combined to generate an HDR image.


このようにして生成されたHDR画像は、被写体のもつ明暗が損なわれずに、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像となる。

The HDR image generated in this way is an HDR image having excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the subject without impairing the brightness of the subject.


[HDR処理の第2実施形態]

図9は、本発明に係る画像処理装置として機能する本体側CPU220の第2実施形態を示す機能ブロック図である。尚、図9において、図5に示した第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。

[Second Embodiment of HDR Processing]

FIG. 9 is a functional block diagram showing a second embodiment of the main body side CPU 220 that functions as the image processing device according to the present invention. In FIG. 9, the same reference numerals are given to the parts common to those of the first embodiment shown in FIG. 5, and detailed description thereof will be omitted.


図9に示す第2実施形態の本体側CPU220は、分布情報作成部220Eの機能が追加されている点で、図5に示した第1実施形態と相違する。

The main body side CPU 220 of the second embodiment shown in FIG. 9 is different from the first embodiment shown in FIG. 5 in that the function of the distribution information creating unit 220E is added.


分布情報作成部220Eは、光強度分布情報算出部220Bにより算出された光強度分布情報Sに基づいて光強度の度数分布を示す分布情報(例えば、度数分布図や度数分布表)を算出する。

Distribution information creating unit 220E calculates the distribution information indicating a frequency distribution of light intensity based on the light intensity distribution information calculated by the light intensity distribution information calculation unit 220B S i (e.g., histogram or frequency distribution table) ..


図10は、光強度の度数分布の一例を示す度数分布図である。

FIG. 10 is a frequency distribution diagram showing an example of the frequency distribution of light intensity.


例えば、晴れた日の日中屋外では、日光が当たっていない暗い被写体(日陰の被写体)

から日光が当たっている明るい被写体(日向の被写体)まで、ダイナミックレンジの広い被写体が撮像対象になり、この場合の撮像対象は、日陰の被写体と、日向の被写体とに大別することができる。このようなシーンの光強度分布情報に基づいて生成した光強度の度数分布図には、図10に示すように2つの山(2つの頂点となる第1頂点P1と第2頂点P2)が存在する。第1頂点P1は、日陰の被写体に対応する被写体領域の光強度分布情報の度数に対応する頂点であり、第2頂点P2は、日向の被写体に対応する被写体領域の光強度分布情報の度数に対応する頂点である。

For example, a dark subject (shaded subject) that is not exposed to sunlight outdoors during the day on a sunny day.

A subject with a wide dynamic range is the subject to be imaged, from a subject to a bright subject exposed to sunlight (a subject in the sun), and the subject to be imaged in this case can be roughly divided into a subject in the shade and a subject in the sun. As shown in FIG. 10, the frequency distribution map of the light intensity generated based on the light intensity distribution information of such a scene has two peaks (the first vertex P1 and the second vertex P2 which are the two vertices). To do. The first vertex P1 is the vertex corresponding to the power of the light intensity distribution information of the subject area corresponding to the shaded subject, and the second vertex P2 is the vertex corresponding to the power of the light intensity distribution information of the subject area corresponding to the subject in the sun. The corresponding vertices.


また、晴れた日の日中屋外のシーンに限らず、日光が屋内の一部に差し込むシーン、人工光源により照明されている領域と影になっている領域とが存在するシーンなどの場合も上記のように光強度の度数分布図には、2つの頂点が存在し得る。

In addition, not only the outdoor scene during the daytime on a sunny day, but also the scene where sunlight shines into a part of the room, the scene where there is an area illuminated by an artificial light source and the area where it is shaded, etc. There can be two vertices in the light intensity histogram.


尚、本例では、光強度の度数分布を示す分布情報を作成するが、光強度の頻度分布を示す分布情報を作成してもよいし、度数分布又は頻度分布を曲線近似した分布情報を作成してもよい。

In this example, the distribution information showing the frequency distribution of the light intensity is created, but the distribution information showing the frequency distribution of the light intensity may be created, or the frequency distribution or the distribution information obtained by approximating the frequency distribution by a curve is created. You may.


図9に示す合成比率決定部220Cは、分布情報作成部220Eが作成した分布情報に基づいて、図10に示すように光強度の度数の高い第1頂点P1に対応する第1光強度(Sdark)と、光強度の度数の高い第2頂点P2に対応する第2光強度(Sblight)とを求める。

The composite ratio determining unit 220C shown in FIG. 9 has a first light intensity (S) corresponding to the first vertex P1 having a high luminous intensity as shown in FIG. 10 based on the distribution information created by the distribution information creating unit 220E. dark ) and the second light intensity (S blight ) corresponding to the second vertex P2 having a high light intensity frequency are obtained.


そして、合成比率決定部220Cは、第1非発光画像及び第2非発光画像のそれぞれ対応する画素毎に合成比率を決定する際に、図11に示すように第1光強度(Sdark)以下の光強度の場合には第2非発光画像の混合率αiを最大値αmax.にし、第2光強度(Sblight)以上の光強度の場合には第2非発光画像の混合率αiを最小値αmin.にし、第1光強度(Sdark)よりも大きく第2光強度(Sblight)よりも小さい光強度の場合には第2非発光画像の混合率αiを最大値αmax.と最小値αmin.との間で線形に減少(単調減少)させる。

Then, when the composition ratio determining unit 220C determines the composition ratio for each corresponding pixel of the first non-emission image and the second non-emission image, as shown in FIG. 11, the composition ratio is equal to or less than the first light intensity (S dark ). In the case of the light intensity of, the mixing ratio αi of the second non-emission image is set to the maximum value α max. , And in the case of the light intensity of the second light intensity (S blight ) or more, the mixing ratio αi of the second non-emission image is set. When the minimum value is α min. And the light intensity is larger than the first light intensity (S dark ) and smaller than the second light intensity (S blight ), the mixing ratio αi of the second non-emission image is set to the maximum value α max. It decreases linearly (monotonically decreases) between and the minimum value α min .


第1光強度(Sdark)以下の光強度を有する画素又は領域は、日陰の領域と考えられ、オーバー露出の第2非発光画像の混合率αiを最大値αmax.にすることが好ましく、一方、第2光強度(Sblight)以上の光強度を有する画素又は領域は、日向の領域と考えられ、オーバー露出の第2非発光画像の混合率αiを最小値αmin.(アンダー露出の第1非発光画像の混合率を最大値)にすることが好ましい。これにより、ハイライト部やシャドウ部の階調を豊かにすることができる。

A pixel or region having a light intensity equal to or lower than the first light intensity (S dark ) is considered to be a shaded region, and it is preferable to set the mixing ratio αi of the overexposed second non-emission image to the maximum value α max. On the other hand, a pixel or region having a light intensity equal to or higher than the second light intensity (S blight ) is considered to be a region of the sun, and the mixing ratio αi of the overexposed second non-emission image is set to the minimum value α min. (Underexposure) . It is preferable to set the mixing ratio of the first non-emission image to the maximum value). As a result, the gradation of the highlight portion and the shadow portion can be enriched.


図12は、図10に示した光強度の度数分布と同様の度数分布図である。

FIG. 12 is a frequency distribution diagram similar to the frequency distribution of the light intensity shown in FIG.


図12に示す度数分布図には、度数が高くなる2つの山が存在するため、2つの山の間で度数が低くなる谷(底点V)が存在する。

In the frequency distribution map shown in FIG. 12, since there are two peaks with high frequencies, there is a valley (bottom point V) between the two peaks with low frequencies.


図9に示す合成比率決定部220Cの他の実施形態では、分布情報作成部220Eが作成した分布情報に基づいて、図12に示すように光強度の度数の低い底点Vに対応する光強度(St)を求める。

In another embodiment of the synthesis ratio determining unit 220C shown in FIG. 9, the light intensity corresponding to the bottom point V having a low light intensity frequency is shown in FIG. 12 based on the distribution information created by the distribution information creating unit 220E. Find (St).


そして、合成比率決定部220Cは、第1非発光画像及び第2非発光画像のそれぞれ対応する画素毎に合成比率を決定する際に、図13に示すように光強度(St)を閾値にして、閾値以下の光強度の場合には第2非発光画像の混合率αiを最大値αmax.にし、閾値を超える光強度の場合には第2非発光画像の混合率αiを最小値αmin.(アンダー露出の第1非発光画像の混合率を最大値)にする。

Then, when the composition ratio determination unit 220C determines the composition ratio for each corresponding pixel of the first non-emission image and the second non-emission image, the light intensity (St) is set as a threshold value as shown in FIG. When the light intensity is below the threshold value, the mixing ratio αi of the second non-emission image is set to the maximum value α max. , And when the light intensity exceeds the threshold value, the mixing ratio αi of the second non-emission image is set to the minimum value α min. . to (maximum mixing ratio of the first non-emission image of underexposure).


尚、閾値となる光強度(St)の前後の一定範囲ΔSの光強度に対しては、光強度の大きさに応じて、第2非発光画像の混合率を最大値αmax.と最小値αmin.との間で連続的に混合率を変化させる場合も含む。

For the light intensity in a certain range ΔS before and after the light intensity (St) which is the threshold value, the mixing ratio of the second non-emission image is set to the maximum value α max. And the minimum value according to the magnitude of the light intensity . It also includes the case where the mixing ratio is continuously changed with α min .


[HDR処理の第3実施形態]

図14は、本発明に係る画像処理装置として機能する本体側CPU220の第3実施形態を示す機能ブロック図である。尚、図14において、図5に示した第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。

[Third Embodiment of HDR processing]

FIG. 14 is a functional block diagram showing a third embodiment of the main body side CPU 220 that functions as the image processing device according to the present invention. In FIG. 14, the same reference numerals are given to the parts common to those of the first embodiment shown in FIG. 5, and detailed description thereof will be omitted.


図14に示す第3実施形態の本体側CPU220は、輝度分布情報算出部220Fの機能が追加されている点で、図5に示した第1実施形態と相違する。

The main body side CPU 220 of the third embodiment shown in FIG. 14 is different from the first embodiment shown in FIG. 5 in that the function of the luminance distribution information calculation unit 220F is added.


輝度分布情報算出部220Fは、複数の非発光画像(第1非発光画像、第2非発光画像)のうちの少なくとも1つの非発光画像の画像内の輝度の分布を示す輝度分布情報を算出する部分である。輝度分布情報は、例えば、第1非発光画像の輝度信号からなる画像として作成し、又は画像を分割した領域毎の輝度(代表輝度)を示す情報として作成することができる。

The luminance distribution information calculation unit 220F calculates the luminance distribution information indicating the luminance distribution in the image of at least one of the plurality of non-emission images (first non-emission image, second non-emission image). It is a part. The luminance distribution information can be created, for example, as an image composed of the luminance signals of the first non-emission image, or as information indicating the luminance (representative luminance) for each region in which the image is divided.


図14に示す合成比率決定部220Cは、光強度分布情報算出部220Bが算出した光強度分布情報及び輝度分布情報算出部220Fが算出した輝度分布情報に基づいて複数の非発光画像(第1非発光画像、第2非発光画像)の合成比率を決定する。

The composite ratio determination unit 220C shown in FIG. 14 has a plurality of non-emission images (first non-emission image) based on the light intensity distribution information calculated by the light intensity distribution information calculation unit 220B and the brightness distribution information calculated by the brightness distribution information calculation unit 220F. The composite ratio of the luminescent image and the second non-luminous image) is determined.


具体的には、合成比率決定部220Cは、第1非発光画像及び第2非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、画素又は領域の位置を示すパラメータをi、光強度分布情報に基づく第2非発光画像の混合率をαi、輝度分布情報に基づく第2非発光画像の混合率であって、輝度が高いほど小さい値となる混合率をβiとすると、光強度分布情報及び輝度分布情報に基づく第2非発光画像の混合率γiを、次式、

[数6]

γi=αi×βiにより算出する。この場合、第1非発光画像の混合率は、(1−γi)となり、第1非発光画像と第2非発光画像との合成比率は、(1−γi):γiとなる。

Specifically, the composite ratio determination unit 220C sets a parameter indicating the position of the pixel or region when determining the composite ratio for each corresponding pixel or region of the first non-emission image and the second non-emission image. Let αi be the mixing ratio of the second non-emission image based on the light intensity distribution information, and βi be the mixing ratio of the second non-emission image based on the brightness distribution information, which becomes smaller as the brightness increases. The mixing ratio γi of the second non-emission image based on the light intensity distribution information and the brightness distribution information is calculated by the following equation.

[Number 6]

Calculated by γi = αi × βi. In this case, the mixing ratio of the first non-emission image is (1-γi), and the composite ratio of the first non-emission image and the second non-emission image is (1-γi): γi.


[HDR処理の第4実施形態]

図15は、本発明に係る画像処理装置として機能する本体側CPU220の第4実施形態を示す機能ブロック図である。尚、図15において、図14に示した第3実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。

[Fourth Embodiment of HDR processing]

FIG. 15 is a functional block diagram showing a fourth embodiment of the main body side CPU 220 that functions as the image processing device according to the present invention. In FIG. 15, the same reference numerals are given to the parts common to the third embodiment shown in FIG. 14, and detailed description thereof will be omitted.


図15に示す第4実施形態の本体側CPU220は、フラッシュ光未到達画素検出部220Gの機能が追加されている点で、図14に示した第3実施形態と相違する。

The main body side CPU 220 of the fourth embodiment shown in FIG. 15 is different from the third embodiment shown in FIG. 14 in that the function of the flash light unreachable pixel detection unit 220G is added.


フラッシュ光未到達画素検出部220Gは、第1非発光画像の画素iの輝度値Yと発光画像の同じ座標の画素iの輝度値をYLiとの差分(YLi−Y)を算出し、差分(YLi−Y)が0になる画素iを、フラッシュ光未到達画素として検出する。

The flash light unreachable pixel detection unit 220G calculates the difference (Y Li − Y i ) between the brightness value Y i of the pixel i of the first non-emission image and the brightness value of the pixel i at the same coordinates of the light emission image with Y Li. Then, the pixel i in which the difference (Y Li − Y i ) becomes 0 is detected as a pixel that has not reached the flash light.


図15に示す合成比率決定部220Cは、光強度分布情報算出部220Bが算出した光強度分布情報及び輝度分布情報算出部220Fが算出した輝度分布情報に基づいて複数の非発光画像(第1非発光画像、第2非発光画像)の合成比率を決定するが、フラッシュ光未到達画素検出部220Gによりフラッシュ光未到達画素が検出されると、そのフラッシュ光未到達画素に対する合成比率を決定する際に、輝度分布情報のみに基づいて複数の非発光画像の合成比率を決定する。

The composite ratio determination unit 220C shown in FIG. 15 has a plurality of non-emission images (first non-emission image) based on the light intensity distribution information calculated by the light intensity distribution information calculation unit 220B and the brightness distribution information calculated by the brightness distribution information calculation unit 220F. The composite ratio of the light emitting image and the second non-light emitting image) is determined. When the flash light unreachable pixel detection unit 220G detects the flash light unreachable pixel, the composite ratio with respect to the flash light unreachable pixel is determined. In addition, the composite ratio of a plurality of non-emission images is determined based only on the luminance distribution information.


被写体の背景などが遠くにあると、フラッシュ光が届かず、(YLi−Y)が0になり、[数1]式に示した光強度分布情報Sを算出することできなくなり、その結果、光強度分布情報Sに基づく第2非発光画像の混合率αiも求めることができなくなるからである。

If the background of the subject is far away, the flash light does not reach and (Y Li − Y i ) becomes 0, and the light intensity distribution information S i shown in the equation [Equation 1] cannot be calculated. result, since the mixing ratio αi of the second non-emission image based on the light intensity distribution information S i also becomes impossible to obtain.


したがって、この場合には、輝度分布情報のみに基づいて複数の非発光画像の合成比率を決定することで、フラッシュ光が届かない被写体に対しても妥当な合成比率を決めることができる。

Therefore, in this case, by determining the composition ratio of the plurality of non-emission images based only on the luminance distribution information, it is possible to determine an appropriate composition ratio even for a subject to which the flash light does not reach.


具体的には、合成比率決定部220Cは、[数6]式により光強度分布情報及び輝度分布情報に基づく第2非発光画像の混合率γiを算出しているが、フラッシュ光が届かない画素(フラッシュ光未到達画素)が、フラッシュ光未到達画素検出部220Gにより検出されると、フラッシュ光未到達画素の第2非発光画像の混合率αiを1とすることで、輝度分布情報に基づく第2非発光画像の混合率βiのみで第2非発光画像の混合率γiを求める。

Specifically, the synthesis ratio determining unit 220C calculates the mixing ratio γi of the second non-emission image based on the light intensity distribution information and the brightness distribution information by the equation [Equation 6], but the pixels that the flash light does not reach. When (flash light unreachable pixel) is detected by the flash light unreachable pixel detection unit 220G, it is based on the luminance distribution information by setting the mixing ratio αi of the second non-emission image of the flash light unreachable pixel to 1. The mixing ratio γi of the second non-emission image is obtained only from the mixing ratio βi of the second non-emission image.


尚、フラッシュ光未到達画素検出部220Gは、フラッシュ光未到達画素を検出する場合に限らず、画像を複数の領域に分割した場合、フラッシュ光未到達領域を検出する検出部として機能させてもよい。

The flash light unreachable pixel detection unit 220G is not limited to the case of detecting the flash light unreachable pixel, and may function as a detection unit for detecting the flash light unreachable region when the image is divided into a plurality of regions. Good.


また、フラッシュ光未到達画素検出部220Gは、フラッシュ制御部272が、フラッシュ発光部270から発光させるフラッシュ光の発光量の制御にも使用されるが、フラッシュ制御部272による発光量制御の詳細については後述する。

Further, the flash light unreachable pixel detection unit 220G is also used for controlling the amount of flash light emitted by the flash control unit 272 from the flash light emitting unit 270. Regarding the details of the light emission amount control by the flash control unit 272. Will be described later.


[HDR処理の第5実施形態]

図16は、本発明に係る画像処理装置として機能する本体側CPU220の第5実施形態を示す機能ブロック図である。尚、図16において、図5に示した第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。

[Fifth Embodiment of HDR processing]

FIG. 16 is a functional block diagram showing a fifth embodiment of the main body side CPU 220 that functions as the image processing device according to the present invention. In FIG. 16, the same reference numerals are given to the parts common to those of the first embodiment shown in FIG. 5, and detailed description thereof will be omitted.


図16に示す第4実施形態の本体側CPU220は、第1実施形態に示した距離分布情報取得部220Aを有しておらず、外部の距離分布情報取得部223から距離分布情報を取得している。

The main body side CPU 220 of the fourth embodiment shown in FIG. 16 does not have the distance distribution information acquisition unit 220A shown in the first embodiment, and acquires the distance distribution information from the external distance distribution information acquisition unit 223. There is.


距離分布情報取得部223は、例えば、複数の受光素子が2次元状に配列された距離画像センサにより構成することができる。距離画像センサとしては、TOF(Time Of Flight)方式により距離画像を取得するものが考えられる。TOF方式は、被写体に光を照射し、その反射光をセンサで受光するまでの時間を測定することにより被写体までの距離を求める方式であり、パルス光を被写体に照射し、その反射光を複数の画素を有する距離画像センサにより受光し、距離画像センサの画素毎の受光量(受光強度)から被写体の距離画像を取得する方式と、高周波で変調した光を被写体に照射し、照射時点から反射光を受光するまでの位相ずれを検出することにより距離画像を取得する方式とが知られている。

The distance distribution information acquisition unit 223 can be configured by, for example, a distance image sensor in which a plurality of light receiving elements are arranged two-dimensionally. As the distance image sensor, a sensor that acquires a distance image by a TOF (Time Of Flight) method can be considered. The TOF method is a method of irradiating a subject with light and measuring the time until the reflected light is received by a sensor to obtain the distance to the subject. The subject is irradiated with pulsed light and a plurality of reflected lights are emitted. A method of receiving light from a distance image sensor having the above pixels and acquiring a distance image of the subject from the amount of light received (light receiving intensity) for each pixel of the distance image sensor, and a method of irradiating the subject with high-frequency modulated light and reflecting it from the time of irradiation. A method of acquiring a distance image by detecting a phase shift until light is received is known.


また、距離分布情報取得部223としては、3次元レーザ計測器、ステレオカメラ等を適用することができる。尚、距離分布情報取得部223を使用する場合、イメージセンサ201は、本例のようなイメージセンサに限らず、距離計測が不能なイメージセンサでもよい。

Further, as the distance distribution information acquisition unit 223, a three-dimensional laser measuring instrument, a stereo camera, or the like can be applied. When the distance distribution information acquisition unit 223 is used, the image sensor 201 is not limited to the image sensor as in this example, but may be an image sensor that cannot measure the distance.


[画像処理方法]

図17は、本発明に係る画像処理方法の実施形態を示すフローチャートである。以下、主として図5等に示した各部の機能を有する本体側CPU220によるHDR処理の動作について説明する。

[Image processing method]

FIG. 17 is a flowchart showing an embodiment of the image processing method according to the present invention. Hereinafter, the operation of HDR processing by the main body side CPU 220 having the functions of each part shown in FIG. 5 and the like will be described.


図17において、本体側CPU220の距離分布情報取得部220Aは、画像内の被写体の距離の分布を示す距離分布情報を取得する(ステップS10)。本例では、距離分布情報取得部220Aは、画像取得部221から互いに位相差をもつ位相差画像である第1画像と第2画像とを取得し、これらの第1画像及び第2画像に基づいて画像内の被写体の距離の分布を示す距離分布情報を取得する。

In FIG. 17, the distance distribution information acquisition unit 220A of the main body side CPU 220 acquires the distance distribution information indicating the distance distribution of the subject in the image (step S10). In this example, the distance distribution information acquisition unit 220A acquires a first image and a second image, which are retardation images having a phase difference from each other, from the image acquisition unit 221 and is based on these first and second images. The distance distribution information indicating the distribution of the distance of the subject in the image is acquired.


また、画像取得部221により、同一の被写体をそれぞれ異なる撮像条件で撮像した画像であって、フラッシュ光の非発光下でそれぞれ異なる露出条件により撮像された複数の非発光画像(第1非発光画像と第2非発光画像)、及びフラッシュ光の発光下で複数の非発光画像のうちのいずれかの非発光画像(本例では、アンダー露出の第1非発光画像の露出条件)と同じ露出条件により撮像された発光画像を取得する(ステップS12)。

Further, a plurality of non-emission images (first non-emission image) taken by the image acquisition unit 221 under different exposure conditions under the non-emission of the flash light, which are images of the same subject under different imaging conditions. And the second non-emission image), and the same exposure conditions as any one of the non-emission images (in this example, the exposure condition of the underexposed first non-emission image) under the light emission of the flash light. The light emission image captured by the above is acquired (step S12).


次に、ステップS12における詳細な動作について、図18に示すフローチャートにより説明する。

Next, the detailed operation in step S12 will be described with reference to the flowchart shown in FIG.


図18において、フラッシュ制御部272は、ステップS10で取得された距離分布情報に基づいてフラッシュ発光部270から発光させる調光画像用の調光発光量を決定する

(ステップS100)。調光発光量は、画角内の被写体の平均反射率が18%と仮定して、距離分布から白飛びしない最大の発光量として計算する。

In FIG. 18, the flash control unit 272 determines the dimming light emission amount for the dimming image to be emitted from the flash light emitting unit 270 based on the distance distribution information acquired in step S10.

(Step S100). The dimming light emission amount is calculated as the maximum light emission amount that does not cause overexposure from the distance distribution, assuming that the average reflectance of the subject within the angle of view is 18%.


次に、フラッシュ制御部272は、フラッシュ発光部270から、算出した調光発光量のフラッシュ光を発光させ、本体側CPU220は、調光発光下で第1非発光画像と同じ露出条件(アンダー露出)で撮像された調光画像を取得する(ステップS102)。

Next, the flash control unit 272 emits the flash light of the calculated dimming light emission amount from the flash light emitting unit 270, and the main body side CPU 220 emits the same exposure conditions (underexposure) as the first non-emission image under the dimming light emission. ), The dimming image captured in (step S102) is acquired.


続いて、本体側CPU220は、フラッシュ光未到達画素検出部220G(図15)の検出出力によりフラッシュ光が到達していない画素又は領域があるかを判別する(ステップS104)。尚、フラッシュ光未到達画素検出部220Gは、調光画像と同じ露出条件で撮像されているライブビュー画像の1フレームの画像(非発光画像)を取得し、調光画像と非発光画像とを比較してフラッシュ光未到達画素又は領域を検出する。

Subsequently, the CPU 220 on the main body side determines whether there is a pixel or region where the flash light has not reached based on the detection output of the flash light unreachable pixel detection unit 220G (FIG. 15) (step S104). The flash light unreachable pixel detection unit 220G acquires a one-frame image (non-emission image) of the live view image captured under the same exposure conditions as the dimming image, and separates the dimming image and the non-emission image. The flash light unreachable pixel or area is detected by comparison.


ステップS104によりフラッシュ光が全領域に到達していると判別されると(「No」

の場合)、本体側CPU220は、調光画像に白飛びしている領域があるか否かを判別する(ステップS106)。調光画像内に最大画素値(8ビットで画素値が表されている場合は、255)の領域がある場合、その領域は白飛びしている領域として判別することができる。

When it is determined in step S104 that the flash light has reached the entire area (“No””.

In the case of), the main body side CPU 220 determines whether or not there is an overexposed area in the dimming image (step S106). When there is a region having a maximum pixel value (255 when the pixel value is represented by 8 bits) in the dimming image, that region can be determined as an overexposed region.


ステップS106により調光画像内に白飛びしている領域がないと判別されると(「No」の場合)、調光画像を発光画像として取得する(ステップS108)。この場合改めて発光画像を撮像する必要がなく、撮像枚数を減らすことができる。

When it is determined in step S106 that there is no overexposed area in the dimming image (in the case of "No"), the dimming image is acquired as a light emitting image (step S108). In this case, it is not necessary to capture the luminescent image again, and the number of captured images can be reduced.


ステップS106により調光画像内に白飛びしている領域があると判別されると(「Yes」の場合)、フラッシュ制御部272は、白飛びしている領域が白飛びしない最大発光量を算出し、算出した最大発光量を、発光画像を取得するときの本発光量とする(ステップS110)。

When it is determined in step S106 that there is an overexposed area in the dimming image (in the case of "Yes"), the flash control unit 272 calculates the maximum amount of light emission at which the overexposed area is not overexposed. Then, the calculated maximum light emission amount is used as the main light emission amount when the light emission image is acquired (step S110).


一方、ステップS104によりフラッシュ光が到達していない領域があると判別されると(「Yes」の場合)、本体側CPU220は、フラッシュ光が到達していない領域は、フラッシュ光の最大到達距離よりも近いか否かを判別する(ステップS112)。尚、フラッシュ光が到達していない領域の距離は、距離分布情報から取得することができ、フラッシュ光の最大到達距離は、フラッシュ発光部270のガイドナンバーとF値とにより求めることができる。

On the other hand, when it is determined in step S104 that there is an area where the flash light has not reached (in the case of "Yes"), the CPU 220 on the main body side determines that the area where the flash light does not reach is greater than the maximum reach of the flash light. It is determined whether or not the light is close (step S112). The distance of the region where the flash light has not reached can be obtained from the distance distribution information, and the maximum reachable distance of the flash light can be obtained from the guide number and the F value of the flash light emitting unit 270.


ステップS112によりフラッシュ光が到達していない領域が、フラッシュ光の最大到達距離よりも遠いと判別されると(「No」の場合)、図15に示した合成比率決定部220Cは、フラッシュ光が到達していない領域の混合率αi([数6]式に示した第2非発光画像の混合率αi)を1にする(ステップS114)。これにより、フラッシュ光が到達していない領域の第2非発光画像の混合率γiは、輝度分布情報に基づく第2非発光画像の混合率βiのみで決定されることになる。

When it is determined in step S112 that the region where the flash light has not reached is farther than the maximum reach of the flash light (in the case of "No"), the composite ratio determining unit 220C shown in FIG. 15 receives the flash light. The mixing ratio αi of the unreached region (the mixing ratio αi of the second non-emission image shown in the equation [Equation 6]) is set to 1 (step S114). As a result, the mixing ratio γi of the second non-emission image in the region where the flash light does not reach is determined only by the mixing ratio βi of the second non-emission image based on the luminance distribution information.


一方、ステップS112によりフラッシュ光が到達していない領域が、フラッシュ光の最大到達距離よりも近いと判別されると(「Yes」の場合)、フラッシュ制御部272は、フラッシュ光が到達した領域が白飛びしない最大発光量を算出し、算出した最大発光量を、発光画像を取得するときの本発光量とする(ステップS116)。

On the other hand, when it is determined in step S112 that the area where the flash light has not reached is closer than the maximum reach of the flash light (in the case of "Yes"), the flash control unit 272 determines that the area where the flash light has reached is located. The maximum light emission amount that does not cause overexposure is calculated, and the calculated maximum light emission amount is used as the main light emission amount when acquiring a light emission image (step S116).


フラッシュ制御部272は、ステップS110又はステップS116により本発光量を算出すると、算出した本発光量でフラッシュ発光部270からフラッシュ光を本発光させ、画像取得部221は、本発光下で第1非発光画像の露出条件と同じ露出条件で撮像部(交換レンズ100及びイメージセンサ201)により撮像された発光画像を取得する(ステップS118)。

When the flash control unit 272 calculates the main light emission amount in step S110 or step S116, the flash light emission amount is mainly emitted from the flash light emission unit 270, and the image acquisition unit 221 is the first non-light emission under the main light emission. The light-emitting image captured by the imaging unit (interchangeable lens 100 and image sensor 201) is acquired under the same exposure conditions as the exposure condition of the light-emitting image (step S118).


上記のようにして発光画像を取得すると、続いて発光画像と同じ露出条件(アンダー露出)で撮像される非発光画像(第1非発光画像)と、オーバー露出で撮像される第2非発光画像とを取得する。

When the light emitting image is acquired as described above, the non-light emitting image (first non-light emitting image) captured under the same exposure conditions (underexposure) as the light emitting image and the second non-light emitting image captured under overexposure are subsequently captured. And get.


図17に戻って、光強度分布情報算出部220Bは、非発光画像(アンダー露出の第1非発光画像)と発光画像と距離分布情報取得部220Aにより取得した距離分布情報に基づいて、[数1]式により光強度分布情報Sを算出する(ステップS14)。

Returning to FIG. 17, the light intensity distribution information calculation unit 220B is based on the non-emission image (the first non-emission image underexposed), the light emission image, and the distance distribution information acquired by the distance distribution information acquisition unit 220A. 1] The light intensity distribution information Si is calculated by the equation (step S14).


合成比率決定部220Cは、ステップS14で算出された光強度分布情報Sに基づいて複数の非発光画像(第1非発光画像、第2非発光画像)をHDR合成するための合成比率を決定する(ステップS16)。例えば、合成比率決定部220Cは、複数の非発光画像(第1非発光画像と第2非発光画像)のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報Sに基づいて光強度が大きい画素又は領域では、アンダー露出の第1非発光画像の混合率を、オーバー露出の第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくする。

Synthesis ratio determining unit 220C may determine the synthesis ratio for a plurality of non-emission image (first non-emission image, the second non-emission image) is HDR synthesized based on the light intensity distribution information S i calculated in step S14 (Step S16). For example, the composite ratio determination unit 220C determines the composite ratio for each corresponding pixel or region of the plurality of non-emission images (first non-emission image and second non-emission image), and when the composite ratio is determined, the light intensity distribution information Si In pixels or regions with high light intensity, the mixing ratio of the underexposed first non-emission image is made larger than the mixing ratio of the overexposed second non-emission image, and in pixels or regions with low light intensity, 2 The mixing ratio of the non-emission image is made larger than the mixing ratio of the first non-emission image.


画像合成部220Dは、ステップS16で決定された合成比率に基づいて第1非発光画像と第2非発光画像とのHDR合成を行い、HDR画像を生成する(ステップS18)。

The image compositing unit 220D performs HDR compositing of the first non-emission image and the second non-emission image based on the compositing ratio determined in step S16, and generates an HDR image (step S18).


本実施形態の撮像装置10は、ミラーレスのデジタル一眼カメラであるが、これに限らず、一眼レフカメラ、レンズ一体型の撮像装置、デジタルビデオカメラ等でもよく、また、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器に対しても適用可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。

The image pickup device 10 of the present embodiment is a mirrorless digital single-lens camera, but is not limited to this, and may be a single-lens reflex camera, a lens-integrated image pickup device, a digital video camera, or the like, and also takes an image in addition to the image pickup function. It is also applicable to mobile devices having other functions (call function, communication function, other computer functions) other than the above. Other aspects to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDAs (Personal Digital Assistants), and portable game machines. Hereinafter, an example of a smartphone to which the present invention can be applied will be described.


<スマートフォンの構成>

図19は、本発明の撮像装置の一実施形態であるスマートフォン500の外観を示すものである。図19に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、係る筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。

<Smartphone configuration>

FIG. 19 shows the appearance of the smartphone 500, which is an embodiment of the imaging device of the present invention. The smartphone 500 shown in FIG. 19 has a flat-plate housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. The unit 520 is provided. Further, the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541. The configuration of the housing 502 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent can be adopted, or a configuration having a folding structure or a slide mechanism can be adopted.


図20は、図19に示すスマートフォン500の構成を示すブロック図である。図20に示すように、スマートフォンの主たる構成要素として、基地局と移動通信網とを介した移動無線通信を行う無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記録部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。

FIG. 20 is a block diagram showing the configuration of the smartphone 500 shown in FIG. As shown in FIG. 20, as the main components of the smartphone, a wireless communication unit 510 that performs mobile wireless communication via a base station and a mobile communication network, a display input unit 520, a call unit 530, and an operation unit 540. A camera unit 541, a recording unit 550, an external input / output unit 560, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501 are provided.


無線通信部510は、主制御部501の指示にしたがって、移動通信網に収容された基地局に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信、Webデータ及びストリーミングデータなどの受信を行う。

The wireless communication unit 510 performs wireless communication with the base station accommodated in the mobile communication network in accordance with the instruction of the main control unit 501. This wireless communication is used to send and receive various file data such as voice data and image data, e-mail data, and receive Web data and streaming data.


表示入力部520は、主制御部501の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。

Under the control of the main control unit 501, the display input unit 520 displays images (still images and moving images), character information, and the like to visually convey the information to the user, and detects the user operation for the displayed information. It is a so-called touch panel, and includes a display panel 521 and an operation panel 522.


表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。

The display panel 521 uses an LCD (Liquid Crystal Display), an OLED (Organic Electro-Luminescence Display), or the like as a display device. The operation panel 522 is a device on which an image displayed on the display surface of the display panel 521 is visibly placed and detects one or a plurality of coordinates operated by a user's finger or a stylus. When such a device is operated with a user's finger or a stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects the operation position (coordinates) on the display panel 521 based on the received detection signal.


図19に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。

As shown in FIG. 19, the display panel 521 and the operation panel 522 of the smartphone 500 illustrated as one embodiment of the image pickup apparatus of the present invention integrally constitute the display input unit 520, but the operation panel The arrangement is such that the 522 completely covers the display panel 521. When such an arrangement is adopted, the operation panel 522 may also have a function of detecting a user operation in an area outside the display panel 521. In other words, the operation panel 522 has a detection area (hereinafter, referred to as a display area) for the overlapping portion overlapping the display panel 521 and a detection area (hereinafter, non-display area) for the outer edge portion not overlapping the other display panel 521. ) And may be provided.


尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。また、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。

The size of the display area and the size of the display panel 521 may be completely matched, but it is not always necessary to match the two. Further, the operation panel 522 may include two sensitive regions, an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Further, examples of the position detection method adopted in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like, and any of these methods is adopted. You can also do it.


通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図19に示すように、例えば、スピーカ531、マイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。

The call unit 530 includes a speaker 531 and a microphone 532, converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the data to the main control unit 501, or a wireless communication unit. The audio data received by the 510 or the external input / output unit 560 is decoded and output from the speaker 531. Further, as shown in FIG. 19, for example, the speaker 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.


操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図19に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。

The operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user. For example, as shown in FIG. 19, the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500, and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.


記録部550は、主制御部501の制御プログラム、制御データ、アプリケーションソフトウェア(本発明に係る画像処理プログラムを含む)、通信相手の名称及び電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記録部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部562により構成される。尚、記録部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの記録媒体を用いて実現される。

The recording unit 550 includes the control program of the main control unit 501, control data, application software (including the image processing program according to the present invention), address data associated with the name and telephone number of the communication partner, and the transmitted / received e-mail. It stores data, Web data downloaded by Web browsing, downloaded content data, and temporarily stores streaming data and the like. Further, the recording unit 550 is composed of an internal storage unit 551 built in the smartphone and an external storage unit 562 having a detachable external memory slot. The internal storage unit 551 and the external storage unit 552 constituting the recording unit 550 are a flash memory type, a hard disk type, a multimedia card micro type, and a multimedia card micro type. It is realized by using a recording medium such as a card type memory (for example, Micro SD (registered trademark) memory), RAM (Random Access Memory), and ROM (Read Only Memory).


外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、及びIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。

The external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, universal serial bus (USB), IEEE1394, etc.) or Networks (eg, Internet, wireless LAN (Local Area Network), Bluetooth (Bluetooth) (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) ( It is for direct or indirect connection by (registered trademark), ZigBee (registered trademark), etc.).


スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、又はオーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及びイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達し、又はスマートフォン500の内部のデータを外部機器に伝送することが可能である。

Examples of external devices connected to the smartphone 500 include a presence / wireless headset, a presence / wireless external charger, a presence / wireless data port, a memory card connected via a card socket, and a SIM (Subscriber). External audio / video device connected via Identity Module Card) / UIM (User Identity Module Card) card or audio / video I / O (Input / Output) terminal, external audio / video device connected wirelessly, Yes / Wireless There are connected smartphones, Yes / wirelessly connected personal computers, Yes / wirelessly connected PDAs, and earphones. The external input / output unit can transmit the data transmitted from such an external device to each component inside the smartphone 500, or can transmit the data inside the smartphone 500 to the external device.


GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、及び高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。

The GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn according to the instruction of the main control unit 501, executes positioning calculation processing based on the received plurality of GPS signals, and determines the latitude of the smartphone 500. Detects the position consisting of longitude and altitude. When the GPS receiving unit 570 can acquire the position information from the wireless communication unit 510 or the external input / output unit 560 (for example, wireless LAN), the GPS receiving unit 570 can also detect the position using the position information.


モーションセンサ部580は、例えば、3軸の加速度センサ及びジャイロセンサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。

The motion sensor unit 580 includes, for example, a three-axis acceleration sensor and a gyro sensor, and detects the physical movement of the smartphone 500 according to the instruction of the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.


電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。

The power supply unit 590 supplies electric power stored in a battery (not shown) to each unit of the smartphone 500 according to the instruction of the main control unit 501.


主制御部501は、マイクロプロセッサを備え、記録部550が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能及びアプリケーション処理機能を備える。

The main control unit 501 includes a microprocessor, operates according to the control program and control data stored in the recording unit 550, and controls each unit of the smartphone 500 in an integrated manner. In addition, the main control unit 501 includes a mobile communication control function and an application processing function that control each unit of the communication system in order to perform voice communication and data communication through the wireless communication unit 510.


アプリケーション処理機能は、記録部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係るHDR合成を行う画像処理機能などがある。

The application processing function is realized by operating the main control unit 501 according to the application software stored in the recording unit 550. Examples of the application processing function include an infrared communication function that controls an external input / output unit 560 to perform data communication with an opposite device, an e-mail function that transmits / receives e-mail, a Web browsing function that browses a Web page, and the present invention. There is an image processing function that performs HDR composition related to the above.


また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。

Further, the main control unit 501 is provided with an image processing function such as displaying an image on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function refers to a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays the image on the display input unit 520.


更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。

Further, the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.


表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。

By executing the display control, the main control unit 501 displays a software key such as an icon and a scroll bar for starting the application software, or displays a window for composing an e-mail. The scroll bar is a software key for receiving an instruction to move a display portion of an image for a large image or the like that cannot fit in the display area of the display panel 521.


また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じてアイコンに対する操作、及びウィンドウの入力欄に対する文字列の入力を受け付け、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。

Further, by executing the operation detection control, the main control unit 501 detects the user operation through the operation unit 540, operates the icon through the operation panel 522, and accepts the input of the character string in the input field of the window, or scrolls. Accepts scrolling requests for displayed images through the bar.


更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域及びソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。

Further, by executing the operation detection control, the main control unit 501 has an overlapping portion (display area) whose operation position with respect to the operation panel 522 overlaps the display panel 521, or an outer edge portion (non-display area) which does not overlap the other display panel 521. ), And a touch panel control function that controls the sensitive area of the operation panel 522 and the display position of the software key.


また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。

The main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation. Gesture operation is not a conventional simple touch operation, but an operation of drawing a locus with a finger or the like, specifying a plurality of positions at the same time, or combining these to draw a locus of at least one from a plurality of positions. means.


カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図1に示した撮像装置10に相当する。また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図19に示すようにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、或いは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合、撮影に供するカメラ部541を切り替えて単独にて撮影したり、或いは、複数のカメラ部541を同時に使用して撮影することもできる。

The camera unit 541 is a digital camera that electronically photographs using an image pickup device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and corresponds to the image pickup device 10 shown in FIG. Further, the camera unit 541 converts the image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 501, and records it in the recording unit 550 or externally. It can be output through the input / output unit 560 and the wireless communication unit 510. As shown in FIG. 19, in the smartphone 500, the camera unit 541 is mounted on the same surface as the display input unit 520, but the mounting position of the camera unit 541 is not limited to this, and is mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. When a plurality of camera units 541 are mounted, the camera units 541 used for shooting can be switched for shooting independently, or the plurality of camera units 541 can be used at the same time for shooting.


また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサ(ジャイロセンサ)と併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。

In addition, the camera unit 541 can be used for various functions of the smartphone 500. For example, the image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of the operation inputs of the operation panel 522. Further, when the GPS receiving unit 570 detects the position, the position can be detected by referring to the image from the camera unit 541. Further, referring to the image from the camera unit 541, the optical axis direction of the camera unit 541 of the smartphone 500 is used without using the 3-axis acceleration sensor or in combination with the 3-axis acceleration sensor (gyro sensor). It is also possible to judge the current usage environment. Of course, the image from the camera unit 541 can also be used in the application software.


その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することもできる。

In addition, the position information acquired by the GPS receiving unit 570 and the voice information acquired by the microphone 532 (the voice text may be converted by the main control unit or the like to become the text information) in the image data of the still image or the moving image. It is also possible to add posture information or the like acquired by the motion sensor unit 580 and record it in the recording unit 550, or output it through the external input / output unit 560 or the wireless communication unit 510.


[その他]

本実施形態では、HDR合成を行う画像処理装置(本体側CPU220)は、撮像装置に内蔵されたものであるが、本発明に係る画像処理装置は、例えば、本発明に係る画像処理プログラムを実行する撮像装置とは別体のパーソナルコンピュータ、携帯端末等であってもよい。この場合、複数の非発光画像、発光画像及び距離分布情報等を、HDR合成用の情報として入力する必要がある。

[Other]

In the present embodiment, the image processing device (main body side CPU 220) that performs HDR synthesis is built in the image pickup device, but the image processing device according to the present invention executes, for example, the image processing program according to the present invention. It may be a personal computer, a mobile terminal, or the like that is separate from the image pickup device. In this case, it is necessary to input a plurality of non-emission images, emissive images, distance distribution information, and the like as information for HDR composition.


また、複数の非発光画像は、アンダー露出の第1非発光画像、オーバー露出の第2非発光画像の2つの非発光画像に限らず、同一の被写体をそれぞれ異なる撮像条件で撮像した3以上の非発光画像でもよい。この場合、合成比率決定部は、3以上の非発光画像の合成比率を決定することになる。

Further, the plurality of non-emission images are not limited to two non-emission images, an underexposed first non-emission image and an overexposed second non-emission image, and three or more images of the same subject under different imaging conditions. It may be a non-emission image. In this case, the composition ratio determining unit determines the composition ratio of three or more non-emission images.


また、本実施形態において、例えば、本体側CPU220等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。

Further, in the present embodiment, for example, the hardware structure of the processing unit that executes various processes such as the main body side CPU 220 is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. Programmable Logic Device (PLD), a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as an ASIC (Application Specific Integrated Circuit), etc. Is done.


1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。

One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which a processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.


更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。

Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.


更にまた、本発明は、撮像装置又はコンピュータにインストールされることにより、本発明に係る撮像装置又は画像処理装置として機能させる画像処理プログラム、及びこの画像処理プログラムが記録された記録媒体を含む。

Furthermore, the present invention includes an image processing program that, when installed in an image pickup apparatus or a computer, functions as the image pickup apparatus or image processing apparatus according to the present invention, and a recording medium on which the image processing program is recorded.


また、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。

Further, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.


10 撮像装置

20 ファインダ窓

22 シャッタレリーズスイッチ

23 シャッタスピードダイヤル

24 露出補正ダイヤル

25 電源レバー

26 接眼部

27 MENU/OKキー

28 十字キー

29 再生ボタン

30 内蔵フラッシュ

100 交換レンズ

102 撮像光学系

104 レンズ群

108 絞り

116 フォーカスレンズ制御部

118 絞り制御部

120 レンズ側CPU

122、207 RAM

124、228 ROM

126 フラッシュROM

150 レンズ側通信部

160 レンズマウント

200 カメラ本体

201 イメージセンサ

201A マイクロレンズ

202 イメージセンサ制御部

203 アナログ信号処理部

204 A/D変換器

205 画像入力コントローラ

206 デジタル信号処理部

208 圧縮伸張処理部

210 メディア制御部

212 メモリカード

214 表示制御部

216 液晶モニタ

220 本体側CPU

220A 距離分布情報取得部

220B 光強度分布情報算出部

220C 合成比率決定部

220D 画像合成部

220E 分布情報作成部

220F 輝度分布情報算出部

220G フラッシュ光未到達画素検出部

221 画像取得部

222 操作部

223 距離分布情報取得部

224 時計部

226 フラッシュROM

230 AF制御部

232 AE制御部

234 ホワイトバランス補正部

236 無線通信部

238 GPS受信部

240 電源制御部

242 バッテリ

244 レンズ電源スイッチ

250 本体側通信部

260 本体マウント

260A 端子

270 フラッシュ発光部

272 フラッシュ制御部

296 FPS制御部

500 スマートフォン

501 主制御部

502 筐体

510 無線通信部

520 表示入力部

521 表示パネル

522 操作パネル

530 通話部

531 スピーカ

532 マイクロホン

540 操作部

541 カメラ部

550 記録部

551 内部記憶部

552 外部記憶部

560 外部入出力部

562 外部記憶部

570 受信部

570 GPS受信部

580 モーションセンサ部

590 電源部

S10〜S18、S100〜S118 ステップ

光強度分布情報

Li 輝度値

輝度値

距離情報

αi、βi、γi 混合率

10 Imaging device

20 Finder window

22 Shutter release switch

23 Shutter speed dial

24 Exposure compensation dial

25 Power lever

26 Eyepiece

27 MENU / OK key

28 cross key

29 Play button

30 Built-in flash

100 interchangeable lens

102 Imaging optical system

104 lens group

108 aperture

116 Focus lens control unit

118 Aperture control unit

120 Lens side CPU

122, 207 RAM

124, 228 ROM

126 flash ROM

150 Lens side communication unit

160 lens mount

200 camera body

201 image sensor

201A micro lens

202 Image sensor control unit

203 Analog signal processing unit

204 A / D converter

205 image input controller

206 Digital signal processing unit

208 Compression / decompression processing unit

210 Media control unit

212 memory card

214 Display control unit

216 LCD monitor

220 CPU on the main unit

220A Distance distribution information acquisition unit

220B Light intensity distribution information calculation unit

220C synthesis ratio determination unit

220D image compositing unit

220E Distribution information creation unit

220F Luminance distribution information calculation unit

220G flash light unreachable pixel detector

221 Image acquisition section

222 Operation unit

223 Distance distribution information acquisition unit

224 Clock section

226 flash ROM

230 AF control unit

232 AE control unit

234 White balance correction unit

236 Wireless communication unit

238 GPS receiver

240 power control unit

242 battery

244 Lens power switch

250 Main unit communication unit

260 body mount

260A terminal

270 flash light emitting part

272 Flash control unit

296 FPS control unit

500 smartphone

501 main control unit

502 chassis

510 wireless communication unit

520 Display input section

521 display panel

522 operation panel

530 Call section

531 speaker

532 microphone

540 operation unit

541 camera unit

550 recording section

551 Internal storage

552 external storage unit

560 External input / output unit

562 External storage

570 receiver

570 GPS receiver

580 motion sensor unit

590 power supply

Steps S10 to S18 and S100 to S118

Si light intensity distribution information

Y Li brightness value

Y i brightness value

d i distance information

αi, βi, γi mixing ratio

Claims (20)


同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像と、フラッシュ光の発光下において前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像とを取得する画像取得部と、

前記被写体の距離の分布を示す距離分布情報を取得する距離分布情報取得部と、

前記発光画像、前記発光画像と同じ露出条件により撮像された前記非発光画像、及び前記距離分布情報に基づいて、前記被写体に照射されている光の光強度分布情報を算出する光強度分布情報算出部と、

前記光強度分布情報に基づいて前記複数の非発光画像の合成比率を決定する合成比率決定部と、

前記合成比率にしたがって前記複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する画像合成部と、

を備えた画像処理装置。

One of a plurality of non-emission images obtained by capturing the same subject under different exposure conditions under non-flash light emission and the plurality of non-emission images under flash light emission. An image acquisition unit that acquires a light-emitting image captured under the same exposure conditions as the non-light-emitting image of

A distance distribution information acquisition unit that acquires distance distribution information indicating the distance distribution of the subject,

Light intensity distribution information calculation that calculates the light intensity distribution information of the light shining on the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information. Department and

A composite ratio determining unit that determines the composite ratio of the plurality of non-emission images based on the light intensity distribution information,

An image compositing unit that synthesizes the plurality of non-emission images according to the compositing ratio and generates a composite image having an expanded dynamic range.

Image processing device equipped with.

前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定し、

前記画像合成部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記決定した合成比率を適用して前記複数の非発光画像を合成する、請求項1に記載の画像処理装置。

The composite ratio determining unit determines the composite ratio for each corresponding pixel or region of the plurality of non-emission images.

The image processing apparatus according to claim 1, wherein the image synthesizing unit synthesizes the plurality of non-emission images by applying the determined synthesis ratio for each corresponding pixel or region of the plurality of non-emission images.

前記複数の非発光画像に対応する複数の露出条件は、適正露出の露出条件よりもアンダー露出の露出条件とオーバー露出の露出条件とを含む請求項1又は2に記載の画像処理装置。

The image processing apparatus according to claim 1 or 2, wherein the plurality of exposure conditions corresponding to the plurality of non-emission images include an underexposure exposure condition and an overexposure exposure condition rather than a proper exposure exposure condition.

前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて光強度が大きい画素又は領域では前記複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では前記第2非発光画像の混合率を前記第1非発光画像の混合率よりも大きくする、請求項1から3のいずれか1項に記載の画像処理装置。

When determining the composite ratio for each of the corresponding pixels or regions of the plurality of non-emission images, the composite ratio determining unit may determine the plurality of pixels or regions having high light intensity based on the light intensity distribution information. The mixing ratio of the first non-emission image captured under the exposure condition having the smallest exposure value among the non-emission images is the second non-emission image captured under the exposure condition having the largest exposure value among the plurality of non-emission images. Any of claims 1 to 3, which is larger than the mixing ratio of the luminescent image and is larger than the mixing ratio of the first non-light emitting image in the pixel or region where the light intensity is low. The image processing apparatus according to item 1.

前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて前記光強度分布情報のうちの最小光強度と最大光強度との間において、前記光強度が増加した場合、前記第2非発光画像の混合率を単調減少させる、請求項4に記載の画像処理装置。

When determining the composite ratio for each pixel or region corresponding to each of the plurality of non-emission images, the composite ratio determining unit determines the minimum light intensity of the light intensity distribution information based on the light intensity distribution information. The image processing apparatus according to claim 4, wherein when the light intensity increases between the light intensity and the maximum light intensity, the mixing ratio of the second non-emission image is monotonically decreased.

前記光強度分布情報に基づいて前記光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、

前記合成比率決定部は、前記作成された分布情報に基づいて度数又は頻度の高い第1頂点に対応する第1光強度と、度数又は頻度の高い第2頂点に対応する第2光強度であって、前記第1光強度よりも大きい第2光強度とを求め、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記第1光強度以下の光強度の場合には前記第2非発光画像の混合率を最大値にし、前記第2光強度以上の光強度の場合には前記第2非発光画像の混合率を最小値にし、前記第1光強度よりも大きく前記第2光強度よりも小さい光強度の場合には前記第2非発光画像の混合率を前記最大値と前記最小値との間において単調減少させる、請求項4に記載の画像処理装置。

It is provided with a distribution information creation unit that creates distribution information indicating the frequency distribution or frequency distribution of the light intensity based on the light intensity distribution information.

The composite ratio determining unit has a first light intensity corresponding to the first vertex having a high frequency or frequency and a second light intensity corresponding to the second peak having a high frequency or frequency based on the created distribution information. Therefore, when a second light intensity higher than the first light intensity is obtained and the synthesis ratio is determined for each corresponding pixel or region of the plurality of non-emission images, the light having the first light intensity or less is determined. In the case of intensity, the mixing ratio of the second non-emission image is maximized, and in the case of light intensity equal to or higher than the second light intensity, the mixing ratio of the second non-emission image is minimized, and the first light The image according to claim 4, wherein in the case of a light intensity larger than the intensity and lower than the second light intensity, the mixing ratio of the second non-emissive image is monotonically reduced between the maximum value and the minimum value. Processing equipment.

前記光強度分布情報に基づいて前記光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、

前記合成比率決定部は、前記作成された分布情報に基づいて度数又は頻度の低い底点に対応する光強度を求め、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記底点に対応する光強度を閾値にして、前記閾値以下の光強度の場合には前記第2非発光画像の混合率を最大値にし、前記閾値を超える光強度の場合には前記第2非発光画像の混合率を最小値にする、請求項5に記載の画像処理装置。

It is provided with a distribution information creation unit that creates distribution information indicating the frequency distribution or frequency distribution of the light intensity based on the light intensity distribution information.

The composite ratio determining unit obtains the light intensity corresponding to the low frequency or infrequent bottom point based on the created distribution information, and determines the composite ratio for each corresponding pixel or region of the plurality of non-emission images. When determining, the light intensity corresponding to the bottom point is set as a threshold value, the mixing ratio of the second non-emission image is maximized in the case of a light intensity below the threshold value, and the light intensity exceeds the threshold value. The image processing apparatus according to claim 5, wherein the mixing ratio of the second non-emission image is minimized.

前記複数の非発光画像のうちの少なくとも1つの非発光画像の画像内の輝度の分布を示す輝度分布情報を算出する輝度分布情報算出部を備え、

前記合成比率決定部は、前記光強度分布情報及び前記輝度分布情報に基づいて前記複数の非発光画像の合成比率を決定する、請求項1から7のいずれか1項に記載の画像処理装置。

A brightness distribution information calculation unit for calculating the luminance distribution information indicating the luminance distribution in the image of at least one non-luminance image among the plurality of non-emission images is provided.

The image processing apparatus according to any one of claims 1 to 7, wherein the composite ratio determining unit determines a composite ratio of the plurality of non-emission images based on the light intensity distribution information and the brightness distribution information.

前記発光画像における前記フラッシュ光が到達していない画素又は領域を検出する検出部を備え、

前記合成比率決定部は、前記フラッシュ光が到達していない画素又は領域に対する前記合成比率を決定する際に、前記輝度分布情報のみに基づいて前記複数の非発光画像の合成比率を決定する、請求項8に記載の画像処理装置。

A detection unit that detects pixels or regions that the flash light has not reached in the emitted image is provided.

The composite ratio determining unit determines the composite ratio of the plurality of non-emission images based only on the luminance distribution information when determining the composite ratio for pixels or regions not reached by the flash light. Item 8. The image processing apparatus according to item 8.

前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、画素又は領域の位置を示すパラメータをi、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率をαi、前記輝度分布情報に基づく前記第2非発光画像の混合率であって、輝度が高いほど小さい値となる混合率をβiとすると、前記光強度分布情報及び前記輝度分布情報に基づく前記第2非発光画像の混合率γiを、次式、

γi=αi×βiにより算出する、請求項8又は9に記載の画像処理装置。

When determining the composite ratio for each of the corresponding pixels or regions of the plurality of non-emission images, the composite ratio determining unit sets a parameter indicating the position of the pixel or region i, and among the plurality of non-emission images. The mixing ratio of the second non-emissive image captured under the exposure condition having the largest exposure value is αi, which is the mixing ratio of the second non-emissive image based on the luminance distribution information, and the higher the luminance, the smaller the value. Assuming that the mixing ratio is βi, the mixing ratio γi of the second non-emission image based on the light intensity distribution information and the brightness distribution information is calculated by the following equation.

The image processing apparatus according to claim 8 or 9, which is calculated by γi = αi × βi.

前記発光画像の露出条件は、前記複数の非発光画像に対応する複数の露出条件のうちの最も露出値が小さい露出条件である、請求項1から10のいずれか1項に記載の画像処理装置。

The image processing apparatus according to any one of claims 1 to 10, wherein the exposure condition of the light emitting image is the exposure condition having the smallest exposure value among the plurality of exposure conditions corresponding to the plurality of non-light emitting images. ..

被写体を異なる露出条件により撮像可能な撮像部と、

フラッシュ光を発光するフラッシュ発光部と、

前記フラッシュ発光部から発光される前記フラッシュ光を制御するフラッシュ制御部と、

請求項1から11のいずれか1項に記載の画像処理装置と、を備え、

前記画像取得部は、前記フラッシュ発光部から発光されるフラッシュ光の非発光下において、前記撮像部によりそれぞれ異なる露出条件により撮像された前記複数の非発光画像と、前記フラッシュ発光部から発光されるフラッシュ光の発光下において、前記撮像部により前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された前記発光画像とを取得する、撮像装置。

An image pickup unit that can image the subject under different exposure conditions,

A flash light emitting part that emits flash light and

A flash control unit that controls the flash light emitted from the flash light emitting unit,

The image processing apparatus according to any one of claims 1 to 11 is provided.

The image acquisition unit emits light from the flash light emitting unit and the plurality of non-light emitting images captured by the imaging unit under different exposure conditions under the non-emission of the flash light emitted from the flash light emitting unit. An imaging device that acquires the luminescent image captured by the imaging unit under the same exposure conditions as the exposure condition of any one of the plurality of non-emitting images under the light emission of the flash light.

前記フラッシュ制御部は、前記フラッシュ発光部からフラッシュ光を調光発光させ、前記調光発光下において前記撮像部が撮像した調光画像と前記調光発光せずに前記撮像部が撮像した画像とに基づいて前記調光発光したフラッシュ光が到達していない領域が検出された場合、前記調光発光したフラッシュ光が到達している領域が飽和しない最大の発光量を算出し、前記発光画像を取得する際に前記算出した最大の発光量によって前記フラッシュ発光部からフラッシュ光を本発光させる、請求項12に記載の撮像装置。

The flash control unit dimmes the flash light from the flash light emitting unit, and the dimming image captured by the imaging unit under the dimming light emission and the image captured by the imaging unit without the dimming light emission. When a region not reached by the dimmed flash light is detected based on the above, the maximum amount of light emitted that the region reached by the dimmed flash light is not saturated is calculated, and the emitted image is displayed. The imaging device according to claim 12, wherein the flash light is mainly emitted from the flash light emitting unit according to the calculated maximum light emission amount at the time of acquisition.

前記フラッシュ制御部は、被写体の平均反射率と前記距離分布情報取得部が取得した前記距離分布情報とに基づいて前記最大の発光量を算出する、請求項13に記載の撮像装置。

The imaging device according to claim 13, wherein the flash control unit calculates the maximum amount of light emission based on the average reflectance of the subject and the distance distribution information acquired by the distance distribution information acquisition unit.

前記フラッシュ制御部は、前記フラッシュ発光部からフラッシュ光を調光発光させ、前記調光発光下において前記撮像部が撮像した調光画像と前記調光発光せずに前記撮像部が撮像した画像とに基づいて前記調光画像の全領域にフラッシュ光が到達していることが検出された場合、前記画像取得部は、前記調光画像を前記発光画像として取得する、請求項12に記載の撮像装置。

The flash control unit dimmes the flash light from the flash light emitting unit, and the dimming image captured by the imaging unit under the dimming light emission and the image captured by the imaging unit without the dimming light emission. The imaging according to claim 12, wherein when it is detected that the flash light has reached the entire region of the dimming image based on the above, the image acquisition unit acquires the dimming image as the light emitting image. apparatus.

前記フラッシュ制御部は、前記フラッシュ発光部からフラッシュ光を調光発光させ、前記調光発光下において前記撮像部が撮像した調光画像と前記調光発光せずに前記撮像部が撮像した画像とに基づいて前記調光画像にフラッシュ光が到達していない領域が検出され、かつ前記距離分布情報に基づいて前記フラッシュ光が到達していない領域の距離が、前記フラッシュ発光部から発光されるフラッシュ光の最大発光量の到達距離よりも遠い場合、前記画像取得部は、前記調光画像を前記発光画像として取得する、請求項12に記載の撮像装置。

The flash control unit dimmes the flash light from the flash light emitting unit, and the dimming image captured by the imaging unit under the dimming light emission and the image captured by the imaging unit without the dimming light emission. The area where the flash light does not reach the dimming image is detected based on the above, and the distance of the area where the flash light does not reach based on the distance distribution information is emitted from the flash light emitting unit. The imaging device according to claim 12, wherein when the distance is longer than the reach of the maximum amount of light emitted, the image acquisition unit acquires the dimming image as the emitted image.

同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得するステップと、

フラッシュ光の発光下において前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得するステップと、

前記被写体の距離の分布を示す距離分布情報を取得するステップと、

前記発光画像、前記発光画像と同じ露出条件により撮像された前記非発光画像、及び前記距離分布情報に基づいて、前記被写体に照射されている光の光強度分布情報を算出するステップと、

前記光強度分布情報に基づいて前記複数の非発光画像の合成比率を決定するステップと、

前記合成比率にしたがって前記複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成するステップと、

を含む画像処理方法。

A step of acquiring a plurality of non-emission images captured under different exposure conditions under non-emission of flash light, which are images of the same subject.

A step of acquiring a light emitting image captured under the same exposure conditions as the exposure condition of any of the plurality of non-light emitting images under the light emission of the flash light.

A step of acquiring distance distribution information indicating the distance distribution of the subject, and

A step of calculating the light intensity distribution information of the light irradiating the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information.

A step of determining the composition ratio of the plurality of non-emission images based on the light intensity distribution information, and

A step of synthesizing the plurality of non-emission images according to the synthesis ratio to generate a composite image having an expanded dynamic range.

Image processing method including.

前記合成比率を決定するステップは、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて光強度が大きい画素又は領域では前記複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では前記第2非発光画像の混合率を前記第1非発光画像の混合率よりも大きくする、請求項17に記載の画像処理方法。

The step of determining the composite ratio is that when the composite ratio is determined for each corresponding pixel or region of the plurality of non-emission images, the pixel or region having a large light intensity is described based on the light intensity distribution information. The mixing ratio of the first non-emission image captured under the exposure condition having the smallest exposure value among the plurality of non-emission images is the first imaged under the exposure condition having the largest exposure value among the plurality of non-emission images. 2. The 17th aspect of claim 17, wherein the mixing ratio of the second non-emission image is made larger than the mixing ratio of the first non-emissive image, and the mixing ratio of the second non-emissive image is made larger than the mixing ratio of the first non-emission image in a pixel or region where the light intensity is low. Image processing method.

同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得する機能と、

フラッシュ光の発光下において前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得する機能と、

前記被写体の距離の分布を示す距離分布情報を取得する機能と、

前記発光画像、前記発光画像と同じ露出条件により撮像された前記非発光画像、及び前記距離分布情報に基づいて、前記被写体に照射されている光の光強度分布情報を算出する機能と、

前記光強度分布情報に基づいて前記複数の非発光画像の合成比率を決定する機能と、

前記合成比率にしたがって前記複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する機能と、

をコンピュータに実現させる画像処理プログラム。

A function to acquire a plurality of non-emission images captured under different exposure conditions under non-emission of flash light, which are images of the same subject.

A function of acquiring a light emitting image captured under the same exposure conditions as the exposure condition of any of the plurality of non-light emitting images under the light emission of the flash light.

A function to acquire distance distribution information indicating the distance distribution of the subject, and

A function of calculating the light intensity distribution information of the light irradiating the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information.

A function of determining the composition ratio of the plurality of non-emission images based on the light intensity distribution information, and

A function of synthesizing a plurality of non-emission images according to the composition ratio to generate a composite image with an expanded dynamic range.

An image processing program that makes a computer realize.

前記合成比率を決定する機能は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて光強度が大きい画素又は領域では前記複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では前記第2非発光画像の混合率を前記第1非発光画像の混合率よりも大きくする、請求項19に記載の画像処理プログラム。

The function of determining the composite ratio is that when the composite ratio is determined for each corresponding pixel or region of the plurality of non-emission images, the pixel or region having a large light intensity based on the light intensity distribution information is described. The mixing ratio of the first non-emission image captured under the exposure condition having the smallest exposure value among the plurality of non-emission images is the first imaged under the exposure condition having the largest exposure value among the plurality of non-emission images. 2. The 19th aspect of claim 19, wherein the mixing ratio of the second non-light emitting image is made larger than the mixing ratio of the first non-light emitting image, and the mixing ratio of the second non-light emitting image is made larger than the mixing ratio of the first non-light emitting image in a pixel or region having a small light intensity. Image processing program.
JP2020516173A 2018-04-26 2019-04-05 Image processing equipment, methods, and programs as well as imaging equipment Active JP6810299B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018085582 2018-04-26
JP2018085582 2018-04-26
PCT/JP2019/015046 WO2019208155A1 (en) 2018-04-26 2019-04-05 Image processing device, method and program, and imaging device

Publications (2)

Publication Number Publication Date
JP6810299B2 true JP6810299B2 (en) 2021-01-06
JPWO2019208155A1 JPWO2019208155A1 (en) 2021-03-25

Family

ID=68294051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020516173A Active JP6810299B2 (en) 2018-04-26 2019-04-05 Image processing equipment, methods, and programs as well as imaging equipment

Country Status (2)

Country Link
JP (1) JP6810299B2 (en)
WO (1) WO2019208155A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111327800B (en) * 2020-01-08 2022-02-01 深圳深知未来智能有限公司 All-weather vehicle-mounted vision system and method suitable for complex illumination environment
US11906895B2 (en) * 2020-10-06 2024-02-20 Mediatek Inc. Method and system for blending images captured under different strobe conditions
TWI757015B (en) * 2020-12-29 2022-03-01 財團法人工業技術研究院 Image obtaining method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018617A (en) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd Imaging apparatus
JP4802333B2 (en) * 2007-02-21 2011-10-26 国立大学法人静岡大学 Method for determining exposure ratio in image composition
US9936151B2 (en) * 2015-10-16 2018-04-03 Capsovision Inc Single image sensor for capturing mixed structured-light images and regular images

Also Published As

Publication number Publication date
JPWO2019208155A1 (en) 2021-03-25
WO2019208155A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
CN101610363B (en) Apparatus and method of blurring background of image in digital image processing device
WO2019183819A1 (en) Photographic method, photographic apparatus, and mobile terminal
JP6302554B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6272486B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6810299B2 (en) Image processing equipment, methods, and programs as well as imaging equipment
JP6063093B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6921972B2 (en) Image processing equipment, imaging equipment, image processing methods, imaging methods, and programs
US11032483B2 (en) Imaging apparatus, imaging method, and program
JP7112529B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM
WO2019111659A1 (en) Image processing device, imaging device, image processing method, and program
JP6534780B2 (en) Imaging device, imaging method, and program
JP6998454B2 (en) Imaging equipment, imaging methods, programs and recording media
JP6810298B2 (en) Image alignment aids, methods and programs and imaging devices
CN116055855B (en) Image processing method and related device
JP6941744B2 (en) Image processing device, photographing device, image processing method and image processing program
JP7352034B2 (en) Imaging device, imaging instruction method, and imaging instruction program
KR101128518B1 (en) Imaging method for digital image processing device
JP2015037254A (en) Imaging apparatus and program
JP2004364163A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201106

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201106

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6810299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250