JP6810299B2 - Image processing equipment, methods, and programs as well as imaging equipment - Google Patents
Image processing equipment, methods, and programs as well as imaging equipment Download PDFInfo
- Publication number
- JP6810299B2 JP6810299B2 JP2020516173A JP2020516173A JP6810299B2 JP 6810299 B2 JP6810299 B2 JP 6810299B2 JP 2020516173 A JP2020516173 A JP 2020516173A JP 2020516173 A JP2020516173 A JP 2020516173A JP 6810299 B2 JP6810299 B2 JP 6810299B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- emission
- light
- distribution information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 111
- 238000003384 imaging method Methods 0.000 title claims description 85
- 238000000034 method Methods 0.000 title description 35
- 238000009826 distribution Methods 0.000 claims description 239
- 238000002156 mixing Methods 0.000 claims description 111
- 239000002131 composite material Substances 0.000 claims description 58
- 239000000203 mixture Substances 0.000 claims description 51
- 238000001514 detection method Methods 0.000 claims description 27
- 230000015572 biosynthetic process Effects 0.000 claims description 23
- 238000003786 synthesis reaction Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 238000003672 processing method Methods 0.000 claims description 7
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 229920006395 saturated elastomer Polymers 0.000 claims description 2
- 230000006870 function Effects 0.000 description 59
- 238000004891 communication Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 21
- 239000004973 liquid crystal related substance Substances 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 15
- 210000001747 pupil Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 8
- 230000006837 decompression Effects 0.000 description 8
- 230000007423 decrease Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- RMFAWIUWXUCNQL-UHFFFAOYSA-N 1-[2-[[2-hydroxy-3-(3-methoxyphenoxy)propyl]amino]ethylamino]-3-(3-methoxyphenoxy)propan-2-ol;dihydrochloride Chemical compound Cl.Cl.COC1=CC=CC(OCC(O)CNCCNCC(O)COC=2C=C(OC)C=CC=2)=C1 RMFAWIUWXUCNQL-UHFFFAOYSA-N 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000003760 hair shine Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- PMGQWSIVQFOFOQ-YKVZVUFRSA-N clemastine fumarate Chemical compound OC(=O)\C=C\C(O)=O.CN1CCC[C@@H]1CCO[C@@](C)(C=1C=CC(Cl)=CC=1)C1=CC=CC=C1 PMGQWSIVQFOFOQ-YKVZVUFRSA-N 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003863 fast low-angle shot imaging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/02—Illuminating scene
- G03B15/03—Combinations of cameras with lighting apparatus; Flash units
- G03B15/05—Combinations of cameras with electronic flash apparatus; Electronic flash units
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B7/00—Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
- G03B7/08—Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
- G03B7/091—Digital circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Description
本発明は画像処理装置、方法、及びプログラム並びに撮像装置に係り、特に露出の異なる複数枚の画像を合成してダイナミックレンジを広げるハイダイナミックレンジ合成(HDR(High-dynamic-range)合成)を行う技術に関する。
The present invention relates to an image processing device, a method, a program, and an imaging device, and particularly performs high dynamic range composition (HDR (High-dynamic-range) composition) in which a plurality of images having different exposures are combined to widen the dynamic range. Regarding technology.
デジタルカメラなどでダイナミックレンジの広い被写体を撮像すると、ハイライト部の領域ではイメージセンサの出力が飽和し、いわゆる「白飛び」が発生し、シャドウ部の領域ではイメージセンサの出力の階調が失われ、いわゆる「黒つぶれ」が発生することがある。
When a subject with a wide dynamic range is imaged with a digital camera or the like, the output of the image sensor is saturated in the highlight area, so-called "blown out" occurs, and the gradation of the image sensor output is lost in the shadow area. Therefore, so-called "black crushing" may occur.
被写体の持つダイナミックレンジをより広く画像で表現する方法の1つとして、HDR処理を行うことが知られている。HDR処理では、例えば、適正露光に対して露光量を落として撮像した画像(アンダー露光画像)と露光量を上げて撮像した画像(オーバー露光画像)を取得し、暗い被写体が撮像されている画素はオーバー露光画像の画素を、明るい被写体が撮像されている画素はアンダー露光画像の画素を用いることで(実際はどちらかだけでなく混合することもある)、白飛び及び黒つぶれの少ないHDR画像を作成する。
It is known that HDR processing is performed as one of the methods for expressing the dynamic range of a subject in a wider image. In HDR processing, for example, an image (underexposure image) captured with a reduced exposure amount and an image (overexposure image) captured with an increased exposure amount are acquired with respect to proper exposure, and a pixel in which a dark subject is captured is captured. By using the pixels of the overexposed image and the pixels of the underexposed image for the pixels in which a bright subject is captured (actually, not only one of them but also the pixels may be mixed), an HDR image with less overexposure and underexposure can be obtained. create.
従来、異なる露光で撮像した複数の画像から1枚のHDR画像を生成する装置として、特許文献1、2に記載のものがある。
Conventionally, there are devices described in
特許文献1に記載の撮像システムは、同一の被写体に対して異なる露光条件で撮像した複数の画像(長時間露光画像と短時間露光画像)から、長時間露光画像に係る輝度信号のうちの露光オーバーとなる領域(非適正露光域)以外の領域(適正露光域)の輝度信号を取得し、短時間露光画像に係る輝度信号の場合には、長時間露光画像における非適正露光域に対応する輝度信号を取得する。そして、各画像の適正露光域を合成することにより、広ダイナミックレンジ画像を生成している。
The imaging system described in
また、特許文献1に記載の撮像システムは、長時間露光画像及び短時間露光画像から主要被写体領域を推定し、推定した主要被写体領域に重点的に階調幅が配分されるように階調補正を行い、階調補正後の各画像の適正露光域を合成することで、適正露光域内の主要被写体に対する階調を豊かにしている。
Further, the imaging system described in
一方、特許文献2に記載の撮像装置は、長時間露光する画素群と短時間露光する画素群とを有する1つの撮像素子を備え、撮像素子から読み出した第1画素群の画像データと第2画素群の画像データとを合成し、HDR画像を生成している。
On the other hand, the image pickup apparatus described in
また、特許文献2には、長時間露光データであるフラッシュ画像データと、短時間露光データであるノンフラッシュ画像データとの混合比率を、被写体までの距離の推定値に応じて調整しながら加算し、1枚の合成画像を得る記載がある。これにより、背景画像の雰囲気を残したまま主要被写体の高SN比(Signal to Noise Ratio)の画像を得るようにしている。
Further, in
特許文献1には、HDR画像を生成する際の長時間露光画像と短時間露光画像との混合比率に関する明確な記載がないが、長時間露光画像の非適正露光域に対応する輝度信号については、短時間露光画像に係る輝度信号を使用するため、輝度信号の大きさにより長時間露光画像と短時間露光画像との混合比率を決めている、一般的なHDR合成であると考えられる。したがって、後述するように主要被写体の一部に影があると、影の領域が暗いままになるという問題がある。
一方、特許文献2に記載の発明は、長時間露光データであるフラッシュ画像データと、短時間露光データであるノンフラッシュ画像データとの混合比率を、被写体までの距離の推定値に応じて調整しながら加算し、1枚の合成画像を生成している。また、特許文献2に記載の発明は、フラッシュ画像データとノンフラッシュ画像データとを合成するものであり、露出条件が異なる非発光画像(ノンフラッシュ画像)を合成するものではない。
On the other hand, in the invention described in
このように特許文献1、2には、いずれも同一の被写体に対して異なる露光条件で撮像した複数の画像を合成し、HDR画像を生成する際に、被写体に照射されている光の強度に応じて複数の画像の合成比率を調整する記載がない。
As described above, in
とろこで、一般的なHDR処理のように、オーバー画像の画素値を使うかアンダー画像の画素値を使うかを、イメージセンサから得られる輝度値によって決める場合、被写体に当たっている光の強さによらず、同じHDR処理が実施され、以下のような問題が発生する。
When deciding whether to use the pixel value of the over image or the pixel value of the under image based on the brightness value obtained from the image sensor, as in general HDR processing, the intensity of the light hitting the subject is used. Regardless, the same HDR processing is performed, and the following problems occur.
例えば、図21に示すように、人物の顔の左半分に日光が当たる日向領域Aとなり、右半分が日陰領域Bとなる場合を想定する。この場合、「強い光が当たっている黒い髪(1)」と、「影になっている肌(2)」とが同じ輝度値、又は略同じ輝度値になる場合、HDR合成に同じようにオーバー画像が使われてしまい、影になっている肌(2)が明るくなるだけでなく、黒い髪(1)も明るい色になってしまうという問題が発生する。
For example, as shown in FIG. 21, it is assumed that the left half of the face of a person is the sunlit area A and the right half is the shaded area B. In this case, if "black hair (1) exposed to strong light" and "shadowed skin (2)" have the same brightness value or substantially the same brightness value, the same applies to HDR synthesis. The over-image is used, and not only the shaded skin (2) becomes brighter, but also the black hair (1) becomes brighter.
本発明はこのような事情に鑑みてなされたもので、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像を取得することができる画像処理装置、方法、及びプログラム並びに撮像装置を提供することを目的とする。
The present invention has been made in view of such circumstances, and is an image processing device capable of acquiring an HDR image having excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the subject. It is an object of the present invention to provide methods and programs as well as imaging devices.
上記目的を達成するために本発明の一の態様に係る画像処理装置は、同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像と、フラッシュ光の発光下において複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像とを取得する画像取得部と、被写体の距離の分布を示す距離分布情報を取得する距離分布情報取得部と、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出する光強度分布情報算出部と、光強度分布情報に基づいて複数の非発光画像の合成比率を決定する合成比率決定部と、合成比率にしたがって複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する画像合成部と、を備える。
In order to achieve the above object, the image processing apparatus according to one aspect of the present invention is an image obtained by capturing the same subject, and a plurality of non-emission images captured under different exposure conditions under non-emission of flash light. Distribution of distance between an image acquisition unit that acquires an image and a light emitting image captured under the same exposure conditions as the exposure condition of any of a plurality of non-light emitting images under the light emission of flash light, and a subject. The light intensity of the light shining on the subject based on the distance distribution information acquisition unit that acquires the distance distribution information indicating the above, the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information. A light intensity distribution information calculation unit that calculates distribution information, a composition ratio determination unit that determines the composition ratio of a plurality of non-emission images based on the light intensity distribution information, and a composition ratio determination unit that synthesizes a plurality of non-emission images according to the composition ratio. It includes an image compositing unit that generates a compositing image with an expanded dynamic range.
本発明の一の態様によれば、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出する。そして、算出した光強度分布情報に基づいて複数の非発光画像の合成比率を決定し、決定した合成比率にしたがって複数の非発光画像を合成することによって、ダイナミックレンジが拡大された合成画像(HDR画像)を生成する。このようにして生成されたHDR画像は、被写体のもつ明暗が損なわれずに、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像となる。
According to one aspect of the present invention, the light intensity distribution information of the light shining on the subject is calculated based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information. .. Then, the composite image (HDR) having an expanded dynamic range is determined by determining the composite ratio of the plurality of non-emission images based on the calculated light intensity distribution information and synthesizing the plurality of non-emission images according to the determined composite ratio. Image) is generated. The HDR image generated in this way is an HDR image having excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the subject without impairing the brightness of the subject.
本発明の他の態様に係る画像処理装置において、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定し、画像合成部は、複数の非発光画像のそれぞれ対応する画素又は領域毎に決定した合成比率を適用して複数の非発光画像を合成することが好ましい。
In the image processing apparatus according to another aspect of the present invention, the composition ratio is determined for each of the corresponding pixels or regions of the plurality of non-emission images, and the image compositing unit determines the corresponding pixels or regions of the plurality of non-emission images. It is preferable to combine a plurality of non-emission images by applying the composition ratio determined for each.
本発明の更に他の態様に係る画像処理装置において、複数の非発光画像に対応する複数の露出条件は、適正露出の露出条件よりもアンダー露出の露出条件とオーバー露出の露出条件とを含むことが好ましい。これにより、白飛び及び黒つぶれの少ないHDR画像を作成することができる。
In the image processing apparatus according to still another aspect of the present invention, the plurality of exposure conditions corresponding to the plurality of non-emission images include an underexposure exposure condition and an overexposure exposure condition rather than the proper exposure exposure condition. Is preferable. This makes it possible to create an HDR image with less overexposure and underexposure.
本発明の更に他の態様に係る画像処理装置において、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度が大きい画素又は領域では複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくすることが好ましい。
In the image processing apparatus according to still another aspect of the present invention, when determining the composition ratio for each corresponding pixel or region of a plurality of non-emission images, the pixel or region having a large light intensity is based on the light intensity distribution information. Then, the mixing ratio of the first non-emissive image captured by the exposure condition having the smallest exposure value among the plurality of non-emission images is taken by the exposure condition having the largest exposure value among the plurality of non-emission images. 2 It is preferable that the mixing ratio of the non-emissive image is larger than that of the first non-emissive image in the pixel or region where the light intensity is low.
即ち、光強度が大きい画素(強い光が当たっている被写体に対応する画素)又は領域では、第1非発光画像の混合率を、第2非発光画像の混合率よりも大きくすることで、白飛びの少ないHDR画像を生成し、光強度が小さい画素(弱い光が当たっている被写体に対応する画素)又は領域では、第2非発光画像の混合率を、第1非発光画像の混合率よりも大きくすることで、黒つぶれの少ないHDR画像を生成する。
That is, in a pixel or region having a high light intensity (a pixel corresponding to a subject exposed to strong light), the mixing ratio of the first non-emission image is made larger than the mixing ratio of the second non-emission image to make white. For pixels or regions that generate HDR images with less skipping and have low light intensity (pixels corresponding to subjects exposed to weak light), the mixing ratio of the second non-emission image is higher than the mixing ratio of the first non-emission image. By increasing the size of the image, an HDR image with less blackout is generated.
本発明の更に他の態様に係る画像処理装置において、合成比率決定部は、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度分布情報のうちの最小光強度と最大光強度との間において、光強度が増加した場合、第2非発光画像の混合率を単調減少させることが好ましい。光強度分布情報のうちの最小光強度と最大光強度との間において、光強度が増加した場合、第2非発光画像の混合率を単調減少させる(第1非発光画像の混合率を単調増加させる)ことによって、光強度の増減に応じて連続的に混合率を変化させたHDR合成を行うことができる。尚、最小光強度は、光強度分布情報の中の最小値に限らず、例えば、最小値から一定値だけオフセットした値の光強度でもよく、同様に最大光強度は、光強度分布情報の中の最大値に限らず、例えば、最大値から一定値だけオフセットした値の光強度でもよい。単調減少は、リニアに減少する場合も含むことは言うまでもない。
In the image processing apparatus according to still another aspect of the present invention, the composite ratio determining unit determines the composite ratio for each corresponding pixel or region of a plurality of non-emission images, based on the light intensity distribution information. When the light intensity increases between the minimum light intensity and the maximum light intensity in the intensity distribution information, it is preferable to monotonically decrease the mixing ratio of the second non-emission image. When the light intensity increases between the minimum light intensity and the maximum light intensity in the light intensity distribution information, the mixing ratio of the second non-emission image is monotonically decreased (the mixing ratio of the first non-emission image is monotonically increased). By doing so, HDR synthesis in which the mixing ratio is continuously changed according to the increase or decrease in light intensity can be performed. The minimum light intensity is not limited to the minimum value in the light intensity distribution information, and may be, for example, a light intensity with a value offset by a certain value from the minimum value. Similarly, the maximum light intensity is in the light intensity distribution information. The light intensity is not limited to the maximum value of, and may be, for example, a value offset by a certain value from the maximum value. It goes without saying that the monotonous decrease includes the case of a linear decrease.
本発明の更に他の態様に係る画像処理装置において、光強度分布情報に基づいて光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、合成比率決定部は、作成された分布情報に基づいて度数又は頻度の高い第1頂点に対応する第1光強度と、度数又は頻度の高い第2頂点に対応する第2光強度であって、第1光強度よりも大きい第2光強度とを求め、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、第1光強度以下の光強度の場合には第2非発光画像の混合率を最大値にし、第2光強度以上の光強度の場合には第2非発光画像の混合率を最小値にし、第1光強度よりも大きく第2光強度よりも小さい光強度の場合には第2非発光画像の混合率を最大値と最小値との間において単調減少させることが好ましい。
The image processing apparatus according to still another aspect of the present invention includes a distribution information creating unit that creates distribution information indicating the frequency distribution or frequency distribution of light intensity based on the light intensity distribution information, and the synthesis ratio determining unit is created. The first light intensity corresponding to the first luminosity or frequency and the second light intensity corresponding to the second luminosity or frequency based on the distributed distribution information are larger than the first light intensity. When the second light intensity is obtained and the composition ratio is determined for each corresponding pixel or region of a plurality of non-emission images, if the light intensity is equal to or less than the first light intensity, the mixing ratio of the second non-emission image is determined. Is set to the maximum value, the mixing ratio of the second non-emissive image is set to the minimum value when the light intensity is equal to or higher than the second light intensity, and when the light intensity is larger than the first light intensity and lower than the second light intensity, It is preferable to monotonically reduce the mixing ratio of the second non-emission image between the maximum value and the minimum value.
例えば、晴れた日の日中屋外では、日光が当たっていない暗い被写体(日陰の被写体)から日光が当たっている明るい被写体(日向の被写体)まで、ダイナミックレンジの広い被写体が撮像対象になり、この場合の撮像対象は、日陰の被写体と、日向の被写体とに大別することができる。このようなシーンの光強度分布情報に基づいて光強度の度数分布又は頻度分布を示す分布情報を作成すると、その分布情報には、2つ山(2つの頂点となる第1頂点と第2頂点)が存在する。第1頂点は、日陰の被写体に対応する被写体領域の光強度分布情報の度数又は頻度に対応する頂点であり、第2頂点は、日向の被写体に対応する被写体領域の光強度分布情報の度数又は頻度に対応する頂点である。
For example, outdoors during the daytime on a sunny day, subjects with a wide dynamic range, from dark subjects that are not exposed to sunlight (shade subjects) to bright subjects that are exposed to sunlight (subjects in the sun), are subject to imaging. In this case, the imaging target can be roughly divided into a shaded subject and a sunlit subject. When distribution information showing the frequency distribution or frequency distribution of light intensity is created based on the light intensity distribution information of such a scene, the distribution information includes two peaks (first vertex and second vertex which are two vertices). ) Exists. The first vertex is the vertex corresponding to the power or frequency of the light intensity distribution information of the subject area corresponding to the shaded subject, and the second vertex is the power of the light intensity distribution information of the subject area corresponding to the subject in the sun. It is the apex corresponding to the frequency.
そして、第1頂点に対応する光強度(第1光強度)と、第2頂点に対応する光強度(第2光強度)とを求め、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、第1光強度以下の光強度の場合には第2非発光画像の混合率を最大値にし、第2光強度以上の光強度の場合には第2非発光画像の混合率を最小値にする。第1光強度以下の光強度の領域は、日陰の領域と考えられ、第2光強度以上の領域は、日向の領域と考えられるからである。また、第1光強度と第2光強度の間の光強度の場合は、第2非発光画像の混合率を最大値と最小値との間において単調減少させ、光強度の増減に応じて連続的に混合率を変化させる。尚、晴れた日の日中屋外のシーンに限らず、日光が屋内の一部に差し込むシーン、人工光源により照明されている領域と影になっている領域とが存在するシーンなどの場合も上記のように光強度の度数分布又は頻度分布を示す分布曲線は、2つの頂点が存在し得る。
Then, the light intensity corresponding to the first vertex (first light intensity) and the light intensity corresponding to the second vertex (second light intensity) are obtained, and for each of the corresponding pixels or regions of the plurality of non-emission images. When determining the composition ratio, the mixing ratio of the second non-emissive image is maximized when the light intensity is lower than the first light intensity, and the second non-emissive image is when the light intensity is higher than the second light intensity. Minimize the mixing ratio of. This is because the region having a light intensity equal to or lower than the first light intensity is considered to be a shaded region, and the region having a light intensity equal to or higher than the second light intensity is considered to be a region in the sun. Further, in the case of a light intensity between the first light intensity and the second light intensity, the mixing ratio of the second non-emissive image is monotonically decreased between the maximum value and the minimum value, and continuously as the light intensity increases or decreases. The mixing ratio is changed. It should be noted that the above is not limited to outdoor scenes during the daytime on a sunny day, but also in scenes where sunlight shines into a part of the room, and where there are areas illuminated by artificial light sources and areas that are shaded. A distribution curve showing a frequency distribution or a frequency distribution of light intensity, such as, may have two vertices.
本発明の更に他の態様に係る画像処理装置において、光強度分布情報に基づいて光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、合成比率決定部は、作成された分布情報に基づいて度数又は頻度の低い底点に対応する光強度を求め、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、底点に対応する光強度を閾値にして、閾値以下の光強度の場合には第2非発光画像の混合率を最大値にし、閾値を超える光強度の場合には第2非発光画像の混合率を最小値にすることが好ましい。
The image processing apparatus according to still another aspect of the present invention includes a distribution information creating unit that creates distribution information indicating the frequency distribution or frequency distribution of light intensity based on the light intensity distribution information, and the synthesis ratio determining unit is created. The light corresponding to the bottom point is obtained when the light intensity corresponding to the low frequency or infrequent bottom point is obtained based on the distributed distribution information and the composition ratio is determined for each corresponding pixel or region of a plurality of non-emission images. The intensity is set as a threshold value, and when the light intensity is below the threshold value, the mixing ratio of the second non-emission image is maximized, and when the light intensity exceeds the threshold value, the mixing ratio of the second non-emission image is set to the minimum value. Is preferable.
上記と同様に、晴れた日の日中屋外のシーンの場合、光強度の度数分布又は頻度分布を示す分布情報には、2つの山の間の谷(底点)が存在する。そこで、光強度の度数分布又は頻度分布を示す分布情報から底点を求め、この底点に対応する光強度を閾値にして、閾値以下の光強度の場合には第2非発光画像の混合率を最大値(第1非発光画像の混合率を最小値)にし、閾値を超える光強度の場合には第2非発光画像の混合率を最小値(第2非発光画像の混合率を最大値)にすることが好ましい。尚、閾値前後の一定範囲の光強度に対しは、光強度の大きさに応じて、第2非発光画像の混合率を最大値と最小値との間において連続的に混合率を変化させる場合も含む。
Similar to the above, in the case of a daytime outdoor scene on a sunny day, there is a valley (bottom point) between two mountains in the distribution information indicating the frequency distribution or frequency distribution of light intensity. Therefore, the bottom point is obtained from the distribution information indicating the frequency distribution or frequency distribution of the light intensity, the light intensity corresponding to this bottom point is set as a threshold, and when the light intensity is below the threshold, the mixing ratio of the second non-emission image is obtained. Is the maximum value (the mixing ratio of the first non-emission image is the minimum value), and when the light intensity exceeds the threshold value, the mixing ratio of the second non-emission image is set to the minimum value (the mixing ratio of the second non-emission image is the maximum value). ) Is preferable. For light intensities in a certain range before and after the threshold value, the mixing ratio of the second non-emission image is continuously changed between the maximum value and the minimum value according to the magnitude of the light intensity. Also includes.
本発明の更に他の態様に係る画像処理装置において、複数の非発光画像のうちの少なくとも1つの非発光画像の画像内の輝度の分布を示す輝度分布情報を算出する輝度分布情報算出部を備え、合成比率決定部は、光強度分布情報及び輝度分布情報に基づいて複数の非発光画像の合成比率を決定することが好ましい。
The image processing apparatus according to still another aspect of the present invention includes a luminance distribution information calculation unit that calculates luminance distribution information indicating the luminance distribution in an image of at least one non-luminous image among a plurality of non-luminous images. It is preferable that the composite ratio determining unit determines the composite ratio of a plurality of non-emission images based on the light intensity distribution information and the brightness distribution information.
これにより、光強度分布情報のみならず、従来の輝度分布情報を加味して複数の非発光画像の合成比率を決定することができる。
Thereby, not only the light intensity distribution information but also the conventional luminance distribution information can be taken into consideration to determine the composition ratio of a plurality of non-emission images.
本発明の更に他の態様に係る画像処理装置において、発光画像におけるフラッシュ光が到達していない画素又は領域を検出する検出部を備え、合成比率決定部は、フラッシュ光が到達していない画素又は領域に対する合成比率を決定する際に、輝度分布情報のみに基づいて複数の非発光画像の合成比率を決定することが好ましい。
In the image processing apparatus according to still another aspect of the present invention, the image processing apparatus includes a detection unit that detects pixels or regions that the flash light has not reached in the emitted image, and the synthesis ratio determining unit is a pixel or a pixel that the flash light has not reached. When determining the composite ratio for a region, it is preferable to determine the composite ratio of a plurality of non-emission images based only on the luminance distribution information.
フラッシュ光が到達していない画素又は領域は、その画素又は領域に対応する光強度が不明になる。したがって、この場合には従来と同様に輝度分布情報に基づいて複数の非発光画像の合成比率を決定することが好ましい。
For pixels or regions that the flash light has not reached, the light intensity corresponding to the pixels or regions becomes unknown. Therefore, in this case, it is preferable to determine the composition ratio of the plurality of non-emission images based on the luminance distribution information as in the conventional case.
本発明の更に他の態様に係る画像処理装置において、合成比率決定部は、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、画素又は領域の位置を示すパラメータをi、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率をαi、輝度分布情報に基づく第2非発光画像の混合率であって、輝度が高いほど小さい値となる混合率をβiとすると、光強度分布情報及び輝度分布情報に基づく第2非発光画像の混合率γiを、次式、
γi=αi×βiにより算出することが好ましい。
In the image processing apparatus according to still another aspect of the present invention, the composition ratio determining unit is a parameter indicating the position of a pixel or region when determining the composition ratio for each corresponding pixel or region of a plurality of non-emission images. I, the mixing ratio of the second non-light emitting image captured under the exposure condition having the largest exposure value among the plurality of non-light emitting images is αi, and the mixing ratio of the second non-light emitting image based on the luminance distribution information. Assuming that βi is the mixing ratio that becomes smaller as the brightness is higher, the mixing ratio γi of the second non-emission image based on the light intensity distribution information and the brightness distribution information is calculated by the following equation.
It is preferable to calculate by γi = αi × βi.
本発明の更に他の態様に係る画像処理装置において、発光画像の露出条件は、複数の非発光画像に対応する複数の露出条件のうちの最も露出値が小さい露出条件であることが好ましい。これにより、発光画像を撮像する場合のフラッシュ光の発光量を大きくすることができ、フラッシュ光未到達画素を最小限にすることができる。
In the image processing apparatus according to still another aspect of the present invention, the exposure condition of the light emitting image is preferably the exposure condition having the smallest exposure value among the plurality of exposure conditions corresponding to the plurality of non-light emitting images. As a result, it is possible to increase the amount of flash light emitted when capturing a light emitting image, and to minimize the number of pixels that have not reached the flash light.
本発明の更に他の態様に係る撮像装置は、被写体を異なる露出条件により撮像可能な撮像部と、フラッシュ光を発光するフラッシュ発光部と、フラッシュ発光部から発光されるフラッシュ光を制御するフラッシュ制御部と、上述した画像処理装置と、を備え、画像取得部は、フラッシュ発光部から発光されるフラッシュ光の非発光下において、撮像部によりそれぞれ異なる露出条件により撮像された複数の非発光画像と、フラッシュ発光部から発光されるフラッシュ光の発光下において、撮像部により複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像とを取得する。
The imaging device according to still another aspect of the present invention includes an imaging unit capable of imaging a subject under different exposure conditions, a flash emitting unit that emits flash light, and a flash control that controls flash light emitted from the flash emitting unit. The image acquisition unit includes a unit and the image processing device described above, and the image acquisition unit includes a plurality of non-emission images captured under different exposure conditions by the imaging unit under the non-emission of the flash light emitted from the flash light emitting unit. Under the light emission of the flash light emitted from the flash light emitting unit, the imaging unit acquires a light emitting image captured under the same exposure conditions as the exposure condition of any one of the plurality of non-light emitting images.
本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、フラッシュ発光部からフラッシュ光を調光発光させ、調光発光下において撮像部が撮像した調光画像と調光発光せずに撮像部が撮像した画像とに基づいて調光発光したフラッシュ光が到達していない領域が検出された場合、調光発光したフラッシュ光が到達している領域が飽和しない最大の発光量を算出し、発光画像を取得する際に算出した最大の発光量においてフラッシュ発光部からフラッシュ光を本発光させることが好ましい。このようにして本発光時の発光量を決定することによって、フラッシュ光未到達画素を最小限にすることができる。
In the image pickup apparatus according to still another aspect of the present invention, the flash control unit causes the flash light to be dimmed from the flash light emitting unit, and the flash light is not dimmed with the dimming image captured by the imaging unit under the dimming light emission. When a region where the dimmed flash light does not reach is detected based on the image captured by the imaging unit, the maximum amount of light emitted is calculated so that the region where the dimmed flash light reaches does not saturate. It is preferable that the flash light is mainly emitted from the flash light emitting unit at the maximum light emission amount calculated when the light emission image is acquired. By determining the amount of light emitted during the main light emission in this way, it is possible to minimize the pixels that have not reached the flash light.
本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、被写体の平均反射率と距離分布情報取得部が取得した距離分布情報とに基づいて最大の発光量を算出することが好ましい。これにより、フラッシュ光が到達する領域が白飛びしない、最大の発光量を算出することができる。
In the image pickup apparatus according to still another aspect of the present invention, it is preferable that the flash control unit calculates the maximum amount of light emission based on the average reflectance of the subject and the distance distribution information acquired by the distance distribution information acquisition unit. As a result, it is possible to calculate the maximum amount of light emitted without overexposure in the area where the flash light reaches.
本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、フラッシュ発光部からフラッシュ光を調光発光させ、調光発光下において撮像部が撮像した調光画像と調光発光せずに撮像部が撮像した画像とに基づいて調光画像の全領域にフラッシュ光が到達していることが検出された場合、画像取得部は、調光画像を発光画像として取得することが好ましい。
In the image pickup apparatus according to still another aspect of the present invention, the flash control unit causes the flash light to be dimmed from the flash light emitting unit, and the flash light is not dimmed with the dimming image captured by the imaging unit under the dimming light emission. When it is detected that the flash light reaches the entire region of the dimming image based on the image captured by the imaging unit, the image acquisition unit preferably acquires the dimming image as a light emitting image.
調光画像の全領域にフラッシュ光が到達している場合、全領域の光強度分布情報を算出することができ、改めて本発光する必要がないからである。
This is because when the flash light reaches the entire region of the dimming image, the light intensity distribution information of the entire region can be calculated, and it is not necessary to perform the main light emission again.
本発明の更に他の態様に係る撮像装置において、フラッシュ制御部は、フラッシュ発光部からフラッシュ光を調光発光させ、調光発光下において撮像部が撮像した調光画像と調光発光せずに撮像部が撮像した画像とに基づいて調光画像にフラッシュ光が到達していない領域が検出され、かつ距離分布情報に基づいてフラッシュ光が到達していない領域の距離が、フラッシュ発光部から発光されるフラッシュ光の最大発光量の到達距離よりも遠い場合、画像取得部は、調光画像を発光画像として取得することが好ましい。
In the image pickup apparatus according to still another aspect of the present invention, the flash control unit causes the flash light to be dimmed from the flash light emitting unit, and the flash light is not dimmed with the dimming image captured by the imaging unit under the dimming light emission. A region where the flash light does not reach the dimming image is detected based on the image captured by the imaging unit, and the distance of the region where the flash light does not reach is emitted from the flash light emitting unit based on the distance distribution information. When it is farther than the reach of the maximum emission amount of the flash light to be generated, the image acquisition unit preferably acquires the dimming image as the emission image.
調光発光のフラッシュ光が到達していない領域の距離が、フラッシュ光の最大発光量の到達距離よりも遠い場合、本発光してもフラッシュ光未到達画素にフラッシュ光を到達させることができず、改めた本発光する必要がないからである。
If the distance of the area where the flash light of the dimming light emission does not reach is farther than the reachable distance of the maximum light emission amount of the flash light, the flash light cannot reach the pixels which have not reached the flash light even if the main light emission is performed. This is because there is no need to make a new flash.
本発明の更に他の態様に係る画像処理方法は、同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得するステップと、フラッシュ光の発光下において複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得するステップと、被写体の距離の分布を示す距離分布情報を取得するステップと、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出するステップと、光強度分布情報に基づいて複数の非発光画像の合成比率を決定するステップと、合成比率にしたがって複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成するステップと、を含む。
The image processing method according to still another aspect of the present invention includes a step of acquiring a plurality of non-emission images of the same subject captured under different exposure conditions under non-emission of flash light. , A step of acquiring a luminescent image captured under the same exposure conditions as the exposure condition of any of a plurality of non-luminous images under the emission of flash light, and distance distribution information indicating the distribution of the distance of the subject. And the step of calculating the light intensity distribution information of the light shining on the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information, and the light. It includes a step of determining a composite image of a plurality of non-emission images based on intensity distribution information, and a step of synthesizing a plurality of non-emission images according to the composite ratio to generate a composite image with an expanded dynamic range.
本発明の更に他の態様に係る画像処理方法において、合成比率を決定するステップは、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度が大きい画素又は領域では複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくすることが好ましい。
In the image processing method according to still another aspect of the present invention, the step of determining the composition ratio is based on the light intensity distribution information when determining the composition ratio for each corresponding pixel or region of the plurality of non-emission images. In a pixel or region with high light intensity, the mixing ratio of the first non-emission image captured under the exposure condition with the smallest exposure value among the plurality of non-emission images is determined by the most exposure value among the plurality of non-emission images. The mixing ratio of the second non-emissive image captured under a large exposure condition should be larger than the mixing ratio of the second non-emissive image, and the mixing ratio of the second non-emissive image should be larger than the mixing ratio of the first non-emissive image in a pixel or region where the light intensity is low. Is preferable.
本発明の更に他の態様に係る画像処理プログラムは、同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得する機能と、フラッシュ光の発光下において複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得する機能と、被写体の距離の分布を示す距離分布情報を取得する機能と、発光画像、発光画像と同じ露出条件により撮像された非発光画像、及び距離分布情報に基づいて、被写体に照射されている光の光強度分布情報を算出する機能と、光強度分布情報に基づいて複数の非発光画像の合成比率を決定する機能と、合成比率にしたがって複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する機能と、をコンピュータに実現させる。
The image processing program according to still another aspect of the present invention has a function of acquiring a plurality of non-emission images captured under different exposure conditions under non-emission of flash light, which are images of the same subject. , A function to acquire a luminescent image captured under the same exposure conditions as the exposure condition of any of a plurality of non-luminous images under the emission of flash light, and distance distribution information indicating the distribution of the distance of the subject. And a function to calculate the light intensity distribution information of the light shining on the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information, and the light. A computer has a function to determine the composition ratio of multiple non-emission images based on intensity distribution information and a function to synthesize multiple non-emission images according to the composition ratio to generate a composite image with an expanded dynamic range. make it happen.
本発明の更に他の態様に係る画像処理プログラムにおいて、合成比率を決定する機能は、複数の非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報に基づいて光強度が大きい画素又は領域では複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくすることが好ましい。
In the image processing program according to still another aspect of the present invention, the function of determining the composition ratio is based on the light intensity distribution information when determining the composition ratio for each corresponding pixel or region of a plurality of non-emission images. In a pixel or region with high light intensity, the mixing ratio of the first non-emission image captured under the exposure condition with the smallest exposure value among the plurality of non-emission images is determined by the most exposure value among the plurality of non-emission images. The mixing ratio of the second non-emissive image captured under a large exposure condition should be larger than the mixing ratio of the second non-emissive image, and the mixing ratio of the second non-emissive image should be larger than the mixing ratio of the first non-emissive image in a pixel or region where the light intensity is low. Is preferable.
本発明によれば、被写体に当たっている光の明るさ(光強度)に応じて、複数の非発光画像の合成比率を決定してHDR合成するようにしたため、被写体のもつ明暗が損なわれずに、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像を取得することができる
According to the present invention, since the composition ratio of a plurality of non-emission images is determined according to the brightness (light intensity) of the light hitting the subject and HDR composition is performed, the brightness of the subject is not impaired and the subject is not impaired. It is possible to acquire an HDR image with excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the light.
以下、添付図面にしたがって本発明に係る画像処理装置、方法、及びプログラム並びに撮像装置の好ましい実施形態について説明する。
Hereinafter, preferred embodiments of the image processing apparatus, method, program, and imaging apparatus according to the present invention will be described with reference to the accompanying drawings.
<撮像装置の外観>
図1は、本発明に係る撮像装置を斜め前方から見た斜視図であり、図2は撮像装置の背面図である。
<Appearance of imaging device>
FIG. 1 is a perspective view of the image pickup apparatus according to the present invention as viewed diagonally from the front, and FIG. 2 is a rear view of the image pickup apparatus.
図1に示すように撮像装置10は、交換レンズ100と、交換レンズ100が着脱可能なカメラ本体200とから構成されたミラーレスのデジタル一眼カメラである。
As shown in FIG. 1, the
図1において、カメラ本体200の前面には、交換レンズ100が装着される本体マウント260と、光学ファインダのファインダ窓20等が設けられ、カメラ本体200の上面には、主としてシャッタレリーズスイッチ22、シャッタスピードダイヤル23、露出補正ダイヤル24、電源レバー25、及び内蔵フラッシュ30が設けられている。
In FIG. 1, a
また、図2に示すようにカメラ本体200の背面には、主として液晶モニタ216、光学ファインダの接眼部26、MENU/OKキー27、十字キー28、再生ボタン29等が設けられている。
Further, as shown in FIG. 2, a
液晶モニタ216は、撮影モード時にライブビュー画像を表示したり、再生モード時に撮像した画像を再生表示する他、各種のメニュー画面を表示する表示部として機能し、またユーザに対して各種の情報を通知する通知部として機能する。MENU/OKキー27は、液晶モニタ216の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キー28は、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするマルチファンクションキーとして機能する。また、十字キー28の上キー及び下キーは撮像時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左キー及び右キーは再生モード時のコマ送り(順方向及び逆方向送り)ボタンとして機能する。また、液晶モニタ216に表示された複数の被写体から焦点調節を行う任意の被写体を指定する操作部としても機能する。
The liquid crystal monitor 216 displays a live view image in the shooting mode, reproduces and displays the image captured in the playback mode, functions as a display unit for displaying various menu screens, and provides various information to the user. It functions as a notification unit to notify. The MENU /
また、MENU/OKキー27、十字キー28、及び液晶モニタ216に表示されるメニュー画面を使用することで、1枚の静止画を撮像する静止画撮像モードの他に、静止画を連続撮影する連写モード、連写モードの一種であり、ダイナミックレンジを広げるHDR合成に使用する複数枚の画像を撮像するHDR撮像モード、動画を撮像する動画撮像モードを含む各種の撮像モードの設定を行うことができる。
Further, by using the menu screen displayed on the MENU /
再生ボタン29は、記録した静止画又は動画を液晶モニタ216に表示させる再生モードに切り替えるためのボタンである。
The
<撮像装置の内部構成>
[交換レンズ]
図3は、撮像装置10の内部構成の実施形態を示すブロック図である。
<Internal configuration of imaging device>
[interchangeable lens]
FIG. 3 is a block diagram showing an embodiment of the internal configuration of the
撮像装置10を構成する撮像光学系として機能する交換レンズ100は、カメラ本体200の通信規格に沿って製造されたものであり、後述するようにカメラ本体200との間で通信を行うことができる交換レンズである。この交換レンズ100は、撮像光学系102、フォーカスレンズ制御部116、絞り制御部118、レンズ側CPU(Central Processing Unit)120、フラッシュROM(Read Only Memory)126、レンズ側通信部150、及びレンズマウント160を備える。
The
交換レンズ100の撮像光学系102は、フォーカスレンズを含むレンズ群104及び絞り108を含む。
The imaging
フォーカスレンズ制御部116は、レンズ側CPU120からの指令にしたがってフォーカスレンズを移動させ、フォーカスレンズの位置(合焦位置)を制御する。絞り制御部118は、レンズ側CPU120からの指令にしたがって絞り108を制御する。
The focus
レンズ側CPU120は、交換レンズ100を統括制御するもので、ROM124及びRAM(Random Access Memory)122を内蔵している。
The lens-
フラッシュROM126は、カメラ本体200からダウンロードされたプログラム等を格納する不揮発性のメモリである。
The
レンズ側CPU120は、ROM124又はフラッシュROM126に格納された制御プログラムに従い、RAM122を作業領域として、交換レンズ100の各部を統括制御する。
The lens-
レンズ側通信部150は、レンズマウント160がカメラ本体200の本体マウント260に装着されている状態で、レンズマウント160に設けられた複数の信号端子(レンズ側信号端子)を介してカメラ本体200との通信を行う。即ち、レンズ側通信部150は、レンズ側CPU120の指令にしたがって、レンズマウント160及び本体マウント260を介して接続されたカメラ本体200の本体側通信部250との間で、リクエスト信号、回答信号の送受信(双方向通信)を行い、撮像光学系102の各光学部材のレンズ情報(フォーカスレンズの位置情報、焦点距離情報及び絞り情報等)を、カメラ本体200に通知する。
The lens-
また、交換レンズ100は、フォーカスレンズの位置情報、及び絞り情報を検出する検出部(図示せず)を備えている。ここで、絞り情報とは、絞り108の絞り値(F値)、絞り108の開口径等を示す情報である。
Further, the
レンズ側CPU120は、カメラ本体200からのレンズ情報のリクエストに応えるために、検出されたフォーカスレンズの位置情報及び絞り情報を含む各種のレンズ情報をRAM122に保持することが好ましい。また、レンズ情報は、カメラ本体200からのレンズ情報の要求があると検出され、又は光学部材が駆動されるときに検出され、又は一定の周期(動画のフレーム周期よりも十分に短い周期)で検出され、検出結果を保持することができる。
It is preferable that the lens-
[カメラ本体]
図3に示す撮像装置10を構成するカメラ本体200は、イメージセンサ201、イメージセンサ制御部202、アナログ信号処理部203、A/D(Analog/Digital)変換器204、画像入力コントローラ205、デジタル信号処理部206、RAM207、圧縮伸張処理部208、メディア制御部210、メモリカード212、表示制御部214、液晶モニタ216、本体側CPU220、操作部222、時計部224、フラッシュROM226、ROM228、AF(Autofocus)制御部230、AE(Auto Exposure)制御部232、ホワイトバランス補正部234、無線通信部236、GPS(Global Positioning System)受信部238、電源制御部240、バッテリ242、本体側通信部250、本体マウント260、内蔵フラッシュ30(図1)を構成するフラッシュ発光部270、フラッシュ制御部272、フォーカルプレーンシャッタ(FPS:focal-plane shutter)280、及びFPS制御部296を備える。
[Camera body]
The
<イメージセンサの構成>
イメージセンサ201は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成されている。尚、イメージセンサ201は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。
<Configuration of image sensor>
The
図4はイメージセンサ201の構成を示す正面図である。
FIG. 4 is a front view showing the configuration of the
図4に示すようにイメージセンサ201は、水平方向(x方向)及び垂直方向(y方向)に2次元状に配列された光電変換素子(受光セル)により構成された複数の画素を有するイメージセンサであって、交換レンズ100を介して入射する光束を、以下に示す瞳分割手段により瞳分割して選択的に受光する第1画素SA、第2画素SBを含んで構成されている。
As shown in FIG. 4, the
図4に示すようにイメージセンサ201は、瞳分割手段として瞳結像レンズ(マイクロレンズ)201Aによる瞳像分離方式が適用されている。
As shown in FIG. 4, the
瞳像分離方式は、1つのマイクロレンズ201Aに対して複数(本例では2つ)の画素(第1画素SA,第2画素SB)が割り当てられており、1つのマイクロレンズ201Aに入射する瞳像は、マイクロレンズ201Aにより瞳分割され、2つ(一対)の第1画素SA,第2画素SBにより受光される。従って、マイクロレンズ201Aへの光の入射角度に応じて瞳像が分離され、それぞれ対応する一対の第1画素SA,第2画素SBにより受光される。
Pupil image separation method, pixels of a plurality for one
一対の第1画素SA,第2画素SBは、位相差AFに使用可能な一対の位相差画素に相当する。また、一対の第1画素SA,第2画素SBの各画素から得られる画素値を加算した画素値は、瞳分割されていない通常画素の画素値と同等になるため、一対の第1画素SA,第2画素SBは、通常画素(1画素)として扱うことができる。
A pair of first pixel S A, second pixel S B corresponds to a pair of phase difference pixels available on the phase difference AF. The pair of first pixel S A, pixel values obtained by adding the pixel values obtained from the pixels of the second pixel S B are to become equal to the pixel value of normal pixels that are not pupil division, the pair of first pixel S A, second pixel S B can be treated as a normal pixel (1 pixel).
図4に示すようにイメージセンサ201の一対の第1画素SA、第2画素SBには、赤
(R)、緑(G)、青(B)の3原色のカラーフィルタ(Rフィルタ、Gフィルタ、Bフィルタ)のうちのいずれか1色のカラーフィルタが、所定のカラーフィルタ配列にしたがって配置されている。図4に示すカラーフィルタ配列は、一般的なベイヤー配列であるが、カラーフィルタ配列はこれに限定されるものではなく、例えば、Trans(登録商標)配列等の他のカラーフィルタ配列でもよい。
A pair of first pixel S A of the
A color filter of any one of the three primary color filters (R filter, G filter, B filter) of (R), green (G), and blue (B) is arranged according to a predetermined color filter arrangement. ing. The color filter array shown in FIG. 4 is a general Bayer array, but the color filter array is not limited to this, and may be another color filter array such as a Trans (registered trademark) array.
図3に戻って、交換レンズ100の撮像光学系102によってイメージセンサ201の受光面に結像された被写体の光学像は、イメージセンサ201によって電気信号に変換される。イメージセンサ201の各画素(図4に示した第1画素SA、第2画素SB)には、入射する光量に応じた電荷が蓄積され、イメージセンサ201からは各画素に蓄積された電荷量(信号電荷)に応じた電気信号が画像信号として読み出される。即ち、第1画素SA、第2画素SBに蓄積された電荷量に対応する信号(第1画素SA,第2画素SBの各画素値)は、独立して読み出し可能である。
Returning to FIG. 3, the optical image of the subject imaged on the light receiving surface of the
イメージセンサ制御部202は、本体側CPU220の指令にしたがってイメージセンサ201から画像信号の読み出し制御を行う。また、イメージセンサ制御部202は、静止画の撮像が行われる場合には、FPS280の開閉により露光時間が制御された後、FPS280が閉じた状態でイメージセンサ201の全ラインを読み出す。また、本例のイメージセンサ201及びイメージセンサ制御部202は、少なくとも1つ以上のライン毎や画素毎に順次露光動作を行う(即ち、ライン毎や画素毎に順次リセットを行い、電荷の蓄積を開始し、蓄積した電荷を読み出す方式である)、いわゆるローリングシャッタ方式にて駆動することができ、特にFPS280を開放した状態でローリングシャッタ方式にて動画の撮像、又はライブビュー画像の撮像を行う機能を有する。
The image
アナログ信号処理部203は、イメージセンサ201で被写体を撮像して得られたアナログの画像信号に対して、各種のアナログ信号処理を施す。アナログ信号処理部203は、サンプリングホールド回路、色分離回路、AGC(Automatic Gain Control)回路等を含んで構成されている。AGC回路は、撮像時の感度(ISO感度(ISO:International Organization for Standardization))を調整する感度調整部として機能し、入力する画像信号を増幅する増幅器のゲインを調整し、画像信号の信号レベルが適切な範囲に入るようにする。A/D変換器204は、アナログ信号処理部203から出力されたアナログの画像信号をデジタルの画像信号に変換する。
The analog
静止画又は動画の撮像時にイメージセンサ201、アナログ信号処理部203、及びA/D変換器204を介して出力されるRGBの画素毎の画像データ(モザイク画像データ)は、画像入力コントローラ205からRAM207に入力され、一時的に記憶される。
尚、イメージセンサ201がCMOS型イメージセンサである場合、アナログ信号処理部203及びA/D変換器204は、イメージセンサ201内に内蔵されていることが多い。
The image data (mosaic image data) for each pixel of RGB output via the
When the
デジタル信号処理部206は、RAM207に格納されている画像データに対して、各種のデジタル信号処理を施す。デジタル信号処理部206は、RAM207に記憶されている画像データを適宜読み出し、読み出した画像データに対してオフセット処理、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理、同時化処理とも言う)、RGB/YCrCb変換処理等のデジタル信号処理を行い、デジタル信号処理後の画像データを再びRAM207に記憶させる。尚、デモザイク処理とは、例えば、RGB3色のカラーフィルタからなるイメージセンサの場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理であり、モザイクデータ(点順次のRGBデータ)から同時化されたRGB3面の画像データを生成する。
The digital
RGB/YCrCb変換処理は、同時化されたRGBデータを輝度データ(Y)及び色差データ(Cr、Cb)に変換する処理である。
The RGB / YCrCb conversion process is a process of converting the simultaneous RGB data into luminance data (Y) and color difference data (Cr, Cb).
圧縮伸張処理部208は、静止画又は動画の記録時に、一旦RAM207に格納された非圧縮の輝度データY及び色差データCb,Crに対して圧縮処理を施す。静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮し、動画の場合には、例えばH.264形式で圧縮する。圧縮伸張処理部208により圧縮された画像データは、メディア制御部210を介してメモリカード212に記録される。また、圧縮伸張処理部208は、再生モード時にメディア制御部210を介してメモリカード212から得た圧縮された画像データに対して伸張処理を施し、非圧縮の画像データを生成する。
The compression /
メディア制御部210は、圧縮伸張処理部208で圧縮された画像データを、メモリカード212に記録する制御を行う。また、メディア制御部210は、メモリカード212から、圧縮された画像データを読み出す制御を行う。
The
表示制御部214は、RAM207に格納されている非圧縮の画像データを、液晶モニタ216に表示させる制御を行う。液晶モニタ216は、液晶表示デバイスにより構成されているが、液晶モニタ216の代わりに有機エレクトロルミネッセンスなどの表示デバイスによって構成してもよい。
The
液晶モニタ216にライブビュー画像を表示させる場合には、デジタル信号処理部206で連続的に生成されたデジタルの画像信号が、RAM207に一時的に記憶される。表示制御部214は、このRAM207に一時記憶されたデジタルの画像信号を表示用の信号形式に変換して、液晶モニタ216に順次出力する。これにより、液晶モニタ216に撮像画像がリアルタイムに表示され、液晶モニタ216を電子ビューファインダとして使用することができる。
When the live view image is displayed on the
シャッタレリーズスイッチ22は、静止画や動画の撮像指示を入力するための撮像指示部であり、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。
The
静止画撮像モードの場合、シャッタレリーズスイッチ22が半押しされることによってS1オンの信号、半押しから更に押し込む全押しがされることによってS2オンの信号が出力され、S1オン信号が出力されると、本体側CPU220は、AF制御(自動焦点調節)及びAE制御(自動露出制御)などの撮影準備処理を実行し、S2オン信号が出力されると、静止画の撮像処理及び記録処理を実行する。
In the still image imaging mode, the
尚、AF制御及びAE制御は、それぞれ操作部222によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。
The AF control and the AE control are automatically performed when the auto mode is set by the
また、動画撮像モードの場合、シャッタレリーズスイッチ22が全押しされることによってS2オンの信号が出力されると、カメラ本体200は、動画の記録を開始する動画記録モードになり、動画の画像処理及び記録処理を実行し、その後、シャッタレリーズスイッチ22が再び全押しされることによってS2オンの信号が出力されると、カメラ本体200は、スタンバイ状態になり、動画の記録処理を一時停止する。
Further, in the moving image imaging mode, when the S2 ON signal is output by fully pressing the
尚、シャッタレリーズスイッチ22は半押しと全押しとからなる2段ストローク式のスイッチの形態に限られず、1回の操作でS1オンの信号、S2オンの信号を出力しても良く、それぞれ個別のスイッチを設けてS1オンの信号、S2オンの信号を出力しても良い。
The
また、タッチ式パネル等により操作指示を行う形態では、これら操作手段としてタッチ式パネルの画面に表示される操作指示に対応する領域をタッチすることで操作指示を出力するようにしても良く、撮影準備処理や撮像処理を指示するものであれば操作手段の形態はこれらに限られない。
Further, in the form of giving an operation instruction by a touch panel or the like, the operation instruction may be output by touching the area corresponding to the operation instruction displayed on the screen of the touch panel as these operation means. The form of the operating means is not limited to these as long as it instructs the preparatory process and the imaging process.
撮像により取得された静止画又は動画は、圧縮伸張処理部208により圧縮され、圧縮された画像データは、撮像日時、GPS情報、撮像条件(F値、シャッタスピード、ISO感度等)の所要の付属情報が、ヘッダに付加された画像ファイルとされた後、メディア制御部210を介してメモリカード212に格納される。
The still image or moving image acquired by imaging is compressed by the compression /
本体側CPU220は、カメラ本体200全体の動作及び交換レンズ100の光学部材の駆動等を統括制御するもので、シャッタレリーズスイッチ22を含む操作部222等からの入力に基づき、カメラ本体200の各部及び交換レンズ100を制御する。
The
時計部224は、タイマとして、本体側CPU220からの指令に基づいて時間を計測する。また、時計部224は、カレンダとして、現在の年月日及び時刻を計測する。
As a timer, the
フラッシュROM226は、読み取り及び書き込みが可能な不揮発性メモリであり、設定情報を記憶する。
The
ROM228には、本体側CPU220が実行するカメラ制御プログラム、本発明に係る合成用画像撮像モードでの撮像を実行させる画像位置合わせ補助プログラム、イメージセンサ201の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されている。本体側CPU220は、ROM228に格納されたカメラ制御プログラム、あるいは画像位置合わせ補助プログラムにしたがい、RAM207を作業領域としながらカメラ本体200の各部、及び交換レンズ100を制御する。
The
自動焦点調節部として機能するAF制御部230は、位相差AFの制御に必要なデフォーカス量を算出し、算出したデフォーカス量に基づいて、フォーカスレンズが移動すべき位置(合焦位置)指令を、本体側CPU220及び本体側通信部250を介して交換レンズ100に通知する。
The
ここで、AF制御部230は、位相差検出部とデフォーカス量算出部とを含む。位相差検出部は、イメージセンサ201のAF領域(ユーザが指定した主要被写体が存在する領域、顔検出等により自動的に検出される主要被写体の領域、又はデフォルトで設定された領域等)内の、同色のカラーフィルタが配設された第1画素SAからなる第1画素群と、第1画素SAからなる第2画素群からそれぞれ画素データ(第1画素値及び第2画素値)を取得し、これらの第1画素値及び第2画素値に基づいて位相差を検出する。この位相差は、第1画素群の複数の第1画素値と第2画素群の複数の第2画素値の相関が最大になるとき(複数の第1画素値と複数の第2画素値の差分絶対値の積算値が最小になるとき)の第1画素値と第2画素値との間の瞳分割方向のシフト量から算出することができる。
Here, the
デフォーカス量算出部は、位相差検出部により検出された位相差と、交換レンズ100の現在のF値(光線角度)に対応する係数とを乗算することによりデフォーカス量を算出する。
The defocus amount calculation unit calculates the defocus amount by multiplying the phase difference detected by the phase difference detection unit with the coefficient corresponding to the current F value (light ray angle) of the
AF制御部230により算出されたデフォーカス量に対応するフォーカスレンズの位置指令は、交換レンズ100に通知され、フォーカスレンズの位置指令を受け付けた交換レンズ100のレンズ側CPU120は、フォーカスレンズ制御部116を介してフォーカスレンズを移動させ、フォーカスレンズの位置(合焦位置)を制御する。
The position command of the focus lens corresponding to the defocus amount calculated by the
AE制御部232は、被写体の明るさ(被写体輝度)を検出する部分であり、被写体輝度に対応するAE制御及びAWB(Auto White Balance)制御に必要な数値(露出値(EV値(exposure value)))を算出する。AE制御部232は、イメージセンサ201を介して取得した画像の輝度、画像の輝度の取得時のシャッタスピード及びF値によりEV値を算出する。
The AE control unit 232 is a part that detects the brightness of the subject (subject brightness), and is a numerical value (exposure value) required for AE control and AWB (Auto White Balance) control corresponding to the subject brightness. )) Is calculated. The AE control unit 232 calculates the EV value from the brightness of the image acquired via the
本体側CPU220は、AE制御部232から得たEV値に基づいて所定のプログラム線図からF値、シャッタスピード及びISO感度を決定し、AE制御を行うことができる。
The main
ホワイトバランス補正部234は、RGBデータ(Rデータ、Gデータ及びBデータ)の色データ毎のホワイトバランスゲイン(WB(White Balance)ゲイン)Gr,Gg,Gbを算出し、Rデータ、Gデータ及びBデータに、それぞれ算出したWBゲインGr,Gg,Gbを乗算することによりホワイトバランス補正を行う。ここで、WBゲインGr,Gg,Gbの算出方法としては、被写体の明るさ(EV値)によるシーン認識(屋外、屋内の判定等)及び周囲光の色温度等に基づいて被写体を照明している光源種を特定し、予め光源種毎に適切なWBゲインが記憶されている記憶部から特定した光源種に対応するWBゲインを読み出す方法が考えられるが、少なくともEV値を使用してWBゲインGr,Gg,Gbを求める他の公知の方法が考えられる。
The white balance correction unit 234 calculates the white balance gain (WB (White Balance) gain) Gr, Gg, Gb for each color data of RGB data (R data, G data and B data), and calculates the R data, G data and Gb. White balance correction is performed by multiplying the B data by the calculated WB gains Gr, Gg, and Gb, respectively. Here, as a method of calculating the WB gains Gr, Gg, and Gb, the subject is illuminated based on the scene recognition (outdoor / indoor determination, etc.) based on the brightness (EV value) of the subject and the color temperature of the ambient light. A method is conceivable in which the WB gain corresponding to the specified light source type is read out from the storage unit in which the appropriate WB gain is stored in advance for each light source type, but at least the EV value is used to read the WB gain. Other known methods for determining Gr, Gg, Gb can be considered.
無線通信部236は、Wi-Fi(Wireless Fidelity)(登録商標)、Bluetooth(登録商標)等の規格の近距離無線通信を行う部分であり、周辺のデジタル機器(スマートフォン、等の携帯端末)との間で必要な情報の送受信を行う。
The
GPS受信部238は、本体側CPU220の指示にしたがって、複数のGPS衛星から送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、カメラ本体200の緯度、経度、及び高度からなるGPS情報を取得する。取得されたGPS情報は、撮像された画像の撮像位置を示す付属情報として画像ファイルのヘッダに記録することができる。
The
電源制御部240は、本体側CPU220の指令にしたがって、バッテリ242から供給される電源電圧をカメラ本体200の各部に与える。また、電源制御部240は、本体側CPU220の指令にしたがって、本体マウント260及びレンズマウント160を介して、バッテリ242から供給される電源電圧を交換レンズ100の各部に与える。
The power supply control unit 240 applies the power supply voltage supplied from the
レンズ電源スイッチ244は、本体側CPU220の指令にしたがって、本体マウント260及びレンズマウント160を介して交換レンズ100に与える電源電圧のオン及びオフの切り替えとレベルの切り替えを行う。
The
本体側通信部250は、本体側CPU220の指令にしたがって、本体マウント260及びレンズマウント160を介して接続された交換レンズ100のレンズ側通信部150との間で、リクエスト信号、回答信号の送受信(双方向通信)を行う。尚、本体マウント260には、図1に示すように複数の端子260Aが設けられており、交換レンズ100がカメラ本体200に装着(レンズマウント160と本体マウント260とが接続)されると、本体マウント260に設けられた複数の端子260A(図1)と、レンズマウント160に設けられた複数の端子(図示せず)とが電気的に接続され、本体側通信部250とレンズ側通信部150との間で双方向通信が可能になる。
The main body
内蔵フラッシュ30(図1)は、例えば、TTL(Through The Lens)自動調光方式のフラッシュであり、フラッシュ発光部270と、フラッシュ制御部272とから構成されている。
The built-in flash 30 (FIG. 1) is, for example, a TTL (Through The Lens) automatic dimming flash, and includes a flash
フラッシュ制御部272は、フラッシュ発光部270から発光するフラッシュ光の発光量(ガイドナンバー)を調整する機能を有する。即ち、フラッシュ制御部272は、本体側CPU220からのフラッシュ撮像指示に同期してフラッシュ発光部270から、発光量の小さいフラッシュ光をプリ発光(調光発光)させ、交換レンズ100の撮像光学系102を介して入射する反射光(周囲光を含む)に基づいて本発光するフラッシュ光の発光量を決定し、決定した発光量のフラッシュ光を、フラッシュ発光部270から発光(本発光)させる。尚、HDR撮像モードが選択されている場合、フラッシュ制御部272は、通常のフラッシュ発光画像の撮像とは異なる発光制御を行うが、その詳細については後述する。
The
FPS280は、撮像装置10のメカシャッタを構成し、イメージセンサ201の直前に配置される。FPS制御部296は、本体側CPU220からの入力情報(S2オン信号、シャッタスピード等)に基づいてFPS280の先幕、後幕の開閉を制御し、イメージセンサ201における露光時間(シャッタスピード)を制御する。
The
次に、HDR撮像モードによりダイナミックレンジを広げるHDR合成に使用する露出の異なる複数の画像を撮像し、撮像した複数の画像のHDR合成を行う撮像装置10の制御について説明する。
Next, the control of the
[HDR処理の第1実施形態]
図5は、本発明に係る画像処理装置として機能する本体側CPU220の第1実施形態を示す機能ブロック図であり、主としてHDR撮像モードにより撮像されたHDR合成用の複数の画像に基づいてHDR合成用の画像処理(HDR処理)を実行する場合の機能ブロック図である。
[First Embodiment of HDR processing]
FIG. 5 is a functional block diagram showing a first embodiment of the main
HDR撮像モードによる撮像を行う場合、主として本体側CPU220が、HDR撮像モードによる撮像用の制御を統括制御するとともに、図5に示すように距離分布情報取得部220A,光強度分布情報算出部220B,合成比率決定部220C及び画像合成部220Dとして機能する。
When imaging in the HDR imaging mode, the
即ち、HDR撮像モードによる撮像を行う場合、本体側CPU220は、フラッシュ光の非発光下でそれぞれ異なる露出条件による複数(本例では2つ)の非発光画像の撮像と、フラッシュ光の発光下で複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件による発光画像の撮像とを実行する。
That is, when performing imaging in the HDR imaging mode, the
ここで、複数の非発光画像に対応する複数の露出条件は、適正露出の露出条件よりもアンダー露出の露出条件とオーバー露出の露出条件とを含む。本例では、本体側CPU220は、AE制御部232により算出されたEV値に応じて定まる適正露出に対して、アンダー露出、及びオーバー露出の2つの露出条件にて2つの非発光画像の撮像を行わせる。尚、適正露出に対するアンダー露出、オーバー露出となる露出補正値(例えば、±3EV)は、ユーザが任意に設定できるようにしてもよいし、被写界の明るさ(EV値)に応じて自動的に設定できるようにしてもよい。
Here, the plurality of exposure conditions corresponding to the plurality of non-emission images include an underexposure exposure condition and an overexposure exposure condition rather than the proper exposure exposure condition. In this example, the
また、本体側CPU220は、フラッシュ光の発光下で複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件(本例では、アンダー露出の露出条件)にて発光画像の撮像を実行する。
Further, the
尚、2つの非発光画像と1つの発光画像は、それぞれ同一の被写体に対して撮像された画像であり、可能な限り撮像間隔を短くして連続して撮像された連写画像であることが好ましい。
The two non-emission images and one emissive image are images captured for the same subject, and are continuously captured images with the imaging interval as short as possible. preferable.
図5において、画像取得部221は、フラッシュ光の非発光下で撮像部(交換レンズ100、イメージセンサ201)により、それぞれアンダー露出で撮像された非発光画像(第1非発光画像)と、オーバー露出で撮像された非発光画像(第2非発光画像)と、フラッシュ発光部270から発光されるフラッシュ光の発光下で、第1非発光画像の露出条件と同じ露出条件で撮像部により撮像された発光画像とを取得する部分である。
In FIG. 5, the
画像取得部221は、例えば画像入力コントローラ205を介して一時的にRAM207に保持された第1非発光画像、第2非発光画像及び発光画像を、RAM207から取得してもよいし、撮像部により撮像された第1非発光画像、第2非発光画像及び発光画像を画像入力コントローラ205を介して直接取得してもよい。
The
また、本例の画像入力コントローラ205は、図4に示したイメージセンサ201の一対の第1画素SA,第2画素SBの画素値を加算して、1つのマイクロレンズ201A当り1画素の画素値とした、第1非発光画像、第2非発光画像、及び発光画像の他に、第1非発光画像、第2非発光画像、及び発光画像のうちのいずれかの画像の、第1画素SAのみの画素群からなる第1画像と第2画素SBのみの画素群からなる第2画像とを取得する。尚、第1画像と第2画像とは、被写体距離に応じて位相差をもつ位相差画像である。
The
距離分布情報取得部220Aは、画像取得部221から互いに位相差をもつ位相差画像である第1画像と第2画像とを取得し、これらの第1画像及び第2画像に基づいて画像内の被写体の距離の分布を示す距離分布情報を取得する。
The distance distribution information acquisition unit 220A acquires a first image and a second image, which are retardation images having a phase difference from each other, from the
即ち、距離分布情報取得部220Aは、第1画像内の特徴となる特徴点と、各特徴点に対応する第2画像内の特徴点とのずれ量(位相差)を算出し、算出した位相差と現在の絞り108のF値に基づいて各特徴点のデフォーカス量を算出し、更に算出した各特徴点のデフォーカス量と現在の交換レンズ100(撮像光学系102のフォーカスレンズ)のレンズ位置とから各特徴点(被写体)の距離を算出する。例えば、デフォーカス量がゼロの特徴点は、現在のフォーカスレンズのレンズ位置にて合焦する合焦距離にあり、各特徴点のデフォーカス量が、前ピン側又は後ビン側にずれるにしたがって、各特徴点の距離は、合焦距離よりも遠側又は近側に移動した距離となる。
That is, the distance distribution information acquisition unit 220A calculates the amount of deviation (phase difference) between the feature points in the first image and the feature points in the second image corresponding to each feature point, and the calculated position. The defocus amount of each feature point is calculated based on the phase difference and the F value of the
光強度分布情報算出部220Bは、画像取得部221から同じ露出条件により撮像された発光画像及び第1非発光画像を取得し、距離分布情報取得部220Aから画像内の被写体の距離の分布を示す距離分布情報を取得する。そして、取得した発光画像、第1非発光画像及び距離分布情報に基づいて、被写体に照射されている光(フラッシュ光ではなく、環境光)の強度を示す指標の分布情報である光強度分布情報を算出する。
The light intensity distribution information calculation unit 220B acquires a light emitting image and a first non-light emitting image captured under the same exposure conditions from the
以下、光強度分布情報算出部220Bによる光強度分布情報の算出方法について詳述する。
Hereinafter, the method of calculating the light intensity distribution information by the light intensity distribution information calculation unit 220B will be described in detail.
第1非発光画像の各画素の座標を示すパラメータをiとし、画素iの輝度値をYi、発光画像の同じ座標の画素iの輝度値をYLi、その座標の距離情報di(=撮像装置10からそこに写っている被写体との距離)としたとき、光強度分布情報Siを、次式、
[数1]
Si=Yi/{(YLi−Yi)×(di 2)}
により定義する。パラメータiは、画素の座標を示すパラメータに限らず、画像を複数の領域に分割した各領域の位置を示すパラメータでも良い。この場合、輝度値Yi、YLi、距離情報di、及び光強度分布情報Siも、領域i毎の輝度値(代表輝度値)、距離情報、及び光強度分布情報である。
A parameter indicating the coordinates of each pixel of the first non-emission image and i, the luminance value of the pixel i Y i, the luminance value Y Li pixel i of the same coordinates of the luminescent image, the coordinate distance information d i (= When the distance from the
[Number 1]
S i = Y i / {( Y Li -Y i) × (d i 2)}
Defined by. The parameter i is not limited to the parameter indicating the coordinates of the pixels, and may be a parameter indicating the position of each region obtained by dividing the image into a plurality of regions. In this case, the luminance value Y i, Y Li, distance information d i, and the light intensity distribution information S i be the luminance value of each region i (representative luminance value), distance information, and the light intensity distribution information.
以下、[数1]式を説明する。
The equation [Equation 1] will be described below.
第1非発光画像のYiは、そこにある被写体に当たっている光の強さをBi、被写体の反射率をRi、イメージセンサ201による光電変換係数をKとすると、第1非発光画像のYiは、次式により表わされる。
Yi of the first non-emission image, the intensity of the B i of the light hitting the object there, the reflectance R i of the object, the photoelectric conversion coefficient by the
[数2]
Yi=Bi×Ri×K
発光画像のYLiは、被写体に当たっているフラッシュ光の強さをFiとすると、次式により表わされる。
[Number 2]
Y i = Bi x R i x K
Y Li of the light-emitting image when the intensity of the flash light hitting the object and F i, is expressed by the following equation.
[数3]
YLi=(Bi+Fi)×Ri×K
Fiは、フラッシュ発光部270から単位距離は離れた場所でのフラッシュ光の強さをFsとすると、光の減衰に関する逆2乗の法則より、次式により表わされる。
[Number 3]
Y Li = (B i + Fi ) x R i x K
F i, when the Fs strength of the flash light in a place unit distance away from the flash
[数4]
Fi=Fs/(di 2)
光強度分布情報の[数1]式は、[数2]式〜[数4]式により、[数5]式のように変形できる。
[Number 4]
F i = Fs / (d i 2)
The equation [Equation 1] of the light intensity distribution information can be transformed into the equation [Equation 5] by the equations [Equation 2] to [Equation 4].
[数5]
Si=Yi/{(YLi−Yi)×(di 2)} =(Bi×Ri×K)/[{(Bi+Fi)×Ri×K−(Bi×Ri×K)}×(di 2)]=(Bi/{Fi×(di 2)}=Bi/Fs
画素iによらず、Fsは一定なので、光強度分布情報Siは、画素i(=1〜N(N:画素数)ごとの被写体に当たっている光強度Biを相対的に比較できる指数といえる。
[Number 5]
S i = Y i / {( Y Li -Y i) × (d i 2)} = (B i × R i × K) / [{(B i + F i) × R i × K- (B i × R i × K)} × ( d i 2)] = (B i / {F i × (d i 2)} = B i / Fs
Regardless of the pixel i, since Fs is constant, the light intensity distribution information S i, the pixel i (= 1~N (N: it can be said that the index can be compared relatively light intensity B i that is hitting the subject per pixel number) ..
合成比率決定部220Cは、光強度分布情報に基づいて複数の非発光画像(第1非発光画像と第2非発光画像)の合成比率を決定する。光強度分布情報Siの値が大きい箇所は強く光が当たっているので、アンダー画像である第1非発光画像を使うことが好ましく、光強度分布情報Siの値が小さい箇所は光があまり当たっていないので、オーバー画像である第2非発光画像を使うことが好ましい。
The composition
次に、合成比率決定部220Cによる合成比率の決定方法について説明する。
Next, a method of determining the synthesis ratio by the synthesis
<合成比率の第1決定方法>
合成比率決定部220Cは、複数の非発光画像のそれぞれ対応する画素毎に合成比率を決定する際に、光強度分布情報Siに基づいて光強度が大きい画素では複数の非発光画像のうちの最も露出値が小さい露出条件で撮像された第1非発光画像の混合率を、複数の非発光画像のうちの最も露出値が大きい露出条件で撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくする。尚、画像を複数の領域に分割した領域毎に合成比率を決定してもよい。
<First method for determining the synthesis ratio>
Synthesis
図6から図7は、それぞれ光強度分布情報Siと第2非発光画像の混合率αiとの関係を示すグラフである。
FIGS. 6 7 are each graphs showing the relationship between the mixing ratio αi of the light intensity distribution information S i and a second non-emission image.
図6に示すように合成比率決定部220Cは、第2非発光画像の混合率をαiとし、図6に示すように光強度分布情報Siの最小値をSmin.、最大値をSmax.とすると、最も簡単には、最小値Smin.〜最大値Smax.の光強度分布情報Siにより、混合率αi(=0〜1)を線形補間することで、第1非発光画像と第2非発光画像との合成比率を決定する。この場合、第1非発光画像の混合率は、(1−αi)となり、第1非発光画像と第2非発光画像との合成比率は、(1−αi):αiとなる。
Synthesis
また、合成比率決定部220Cは、図7に示すように混合率αiに最小値αmin.(>0)と最大値αmax.(<1)を設け、最小値Smin.〜最大値Smax.の光強度分布情報Siにより、混合率αiを最小値αmin.〜最大値αmax.の範囲で線形補間することで、第1非発光画像と第2非発光画像との合成比率を決定することができる。
Further, as shown in FIG. 7, the synthesis
更に、合成比率決定部220Cは、図8に示すように混合率αiに最小値αmin.(>0)と最大値αmax.(<1)を設け、最小値Smin.〜最大値Smax.の光強度分布情報Siにより、混合率αiを最小値αmin.〜最大値αmax.の範囲で非線形補間(混合率αiが単調減少するように非線形補間)することで、第1非発光画像と第2非発光画像との合成比率を決定することができる。
Further, the synthesis
図5に戻って、画像合成部220Dは、合成比率決定部220Cにより決定された合成比率にしたがって、アンダー露出の第1非発光画像とオーバー露出の第2非発光画像とを合成し、ダイナミックレンジが拡大された合成画像(HDR画像)を生成する。即ち、画像合成部220Dは、第1非発光画像と第2非発光画像のそれぞれ対応する画素毎に決定した合成比率を適用して、第1非発光画像と第2発光画像とを合成する。尚、画像を複数に分割した領域毎に合成比率が決定される場合には、第1非発光画像と第2非発光画像のそれぞれ対応する領域毎に決定した合成比率を適用して、第1非発光画像と第2発光画像とを合成し、HDR画像を生成する。
Returning to FIG. 5, the
このようにして生成されたHDR画像は、被写体のもつ明暗が損なわれずに、被写体に当たっている光の明るさに応じて明暗差が調整された、階調特性に優れたHDR画像となる。
The HDR image generated in this way is an HDR image having excellent gradation characteristics, in which the difference in brightness is adjusted according to the brightness of the light hitting the subject without impairing the brightness of the subject.
[HDR処理の第2実施形態]
図9は、本発明に係る画像処理装置として機能する本体側CPU220の第2実施形態を示す機能ブロック図である。尚、図9において、図5に示した第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
[Second Embodiment of HDR Processing]
FIG. 9 is a functional block diagram showing a second embodiment of the main
図9に示す第2実施形態の本体側CPU220は、分布情報作成部220Eの機能が追加されている点で、図5に示した第1実施形態と相違する。
The main
分布情報作成部220Eは、光強度分布情報算出部220Bにより算出された光強度分布情報Siに基づいて光強度の度数分布を示す分布情報(例えば、度数分布図や度数分布表)を算出する。
Distribution
図10は、光強度の度数分布の一例を示す度数分布図である。
FIG. 10 is a frequency distribution diagram showing an example of the frequency distribution of light intensity.
例えば、晴れた日の日中屋外では、日光が当たっていない暗い被写体(日陰の被写体)
から日光が当たっている明るい被写体(日向の被写体)まで、ダイナミックレンジの広い被写体が撮像対象になり、この場合の撮像対象は、日陰の被写体と、日向の被写体とに大別することができる。このようなシーンの光強度分布情報に基づいて生成した光強度の度数分布図には、図10に示すように2つの山(2つの頂点となる第1頂点P1と第2頂点P2)が存在する。第1頂点P1は、日陰の被写体に対応する被写体領域の光強度分布情報の度数に対応する頂点であり、第2頂点P2は、日向の被写体に対応する被写体領域の光強度分布情報の度数に対応する頂点である。
For example, a dark subject (shaded subject) that is not exposed to sunlight outdoors during the day on a sunny day.
A subject with a wide dynamic range is the subject to be imaged, from a subject to a bright subject exposed to sunlight (a subject in the sun), and the subject to be imaged in this case can be roughly divided into a subject in the shade and a subject in the sun. As shown in FIG. 10, the frequency distribution map of the light intensity generated based on the light intensity distribution information of such a scene has two peaks (the first vertex P1 and the second vertex P2 which are the two vertices). To do. The first vertex P1 is the vertex corresponding to the power of the light intensity distribution information of the subject area corresponding to the shaded subject, and the second vertex P2 is the vertex corresponding to the power of the light intensity distribution information of the subject area corresponding to the subject in the sun. The corresponding vertices.
また、晴れた日の日中屋外のシーンに限らず、日光が屋内の一部に差し込むシーン、人工光源により照明されている領域と影になっている領域とが存在するシーンなどの場合も上記のように光強度の度数分布図には、2つの頂点が存在し得る。
In addition, not only the outdoor scene during the daytime on a sunny day, but also the scene where sunlight shines into a part of the room, the scene where there is an area illuminated by an artificial light source and the area where it is shaded, etc. There can be two vertices in the light intensity histogram.
尚、本例では、光強度の度数分布を示す分布情報を作成するが、光強度の頻度分布を示す分布情報を作成してもよいし、度数分布又は頻度分布を曲線近似した分布情報を作成してもよい。
In this example, the distribution information showing the frequency distribution of the light intensity is created, but the distribution information showing the frequency distribution of the light intensity may be created, or the frequency distribution or the distribution information obtained by approximating the frequency distribution by a curve is created. You may.
図9に示す合成比率決定部220Cは、分布情報作成部220Eが作成した分布情報に基づいて、図10に示すように光強度の度数の高い第1頂点P1に対応する第1光強度(Sdark)と、光強度の度数の高い第2頂点P2に対応する第2光強度(Sblight)とを求める。
The composite
そして、合成比率決定部220Cは、第1非発光画像及び第2非発光画像のそれぞれ対応する画素毎に合成比率を決定する際に、図11に示すように第1光強度(Sdark)以下の光強度の場合には第2非発光画像の混合率αiを最大値αmax.にし、第2光強度(Sblight)以上の光強度の場合には第2非発光画像の混合率αiを最小値αmin.にし、第1光強度(Sdark)よりも大きく第2光強度(Sblight)よりも小さい光強度の場合には第2非発光画像の混合率αiを最大値αmax.と最小値αmin.との間で線形に減少(単調減少)させる。
Then, when the composition
第1光強度(Sdark)以下の光強度を有する画素又は領域は、日陰の領域と考えられ、オーバー露出の第2非発光画像の混合率αiを最大値αmax.にすることが好ましく、一方、第2光強度(Sblight)以上の光強度を有する画素又は領域は、日向の領域と考えられ、オーバー露出の第2非発光画像の混合率αiを最小値αmin.(アンダー露出の第1非発光画像の混合率を最大値)にすることが好ましい。これにより、ハイライト部やシャドウ部の階調を豊かにすることができる。
A pixel or region having a light intensity equal to or lower than the first light intensity (S dark ) is considered to be a shaded region, and it is preferable to set the mixing ratio αi of the overexposed second non-emission image to the maximum value α max. On the other hand, a pixel or region having a light intensity equal to or higher than the second light intensity (S blight ) is considered to be a region of the sun, and the mixing ratio αi of the overexposed second non-emission image is set to the minimum value α min. (Underexposure) . It is preferable to set the mixing ratio of the first non-emission image to the maximum value). As a result, the gradation of the highlight portion and the shadow portion can be enriched.
図12は、図10に示した光強度の度数分布と同様の度数分布図である。
FIG. 12 is a frequency distribution diagram similar to the frequency distribution of the light intensity shown in FIG.
図12に示す度数分布図には、度数が高くなる2つの山が存在するため、2つの山の間で度数が低くなる谷(底点V)が存在する。
In the frequency distribution map shown in FIG. 12, since there are two peaks with high frequencies, there is a valley (bottom point V) between the two peaks with low frequencies.
図9に示す合成比率決定部220Cの他の実施形態では、分布情報作成部220Eが作成した分布情報に基づいて、図12に示すように光強度の度数の低い底点Vに対応する光強度(St)を求める。
In another embodiment of the synthesis
そして、合成比率決定部220Cは、第1非発光画像及び第2非発光画像のそれぞれ対応する画素毎に合成比率を決定する際に、図13に示すように光強度(St)を閾値にして、閾値以下の光強度の場合には第2非発光画像の混合率αiを最大値αmax.にし、閾値を超える光強度の場合には第2非発光画像の混合率αiを最小値αmin.(アンダー露出の第1非発光画像の混合率を最大値)にする。
Then, when the composition
尚、閾値となる光強度(St)の前後の一定範囲ΔSの光強度に対しては、光強度の大きさに応じて、第2非発光画像の混合率を最大値αmax.と最小値αmin.との間で連続的に混合率を変化させる場合も含む。
For the light intensity in a certain range ΔS before and after the light intensity (St) which is the threshold value, the mixing ratio of the second non-emission image is set to the maximum value α max. And the minimum value according to the magnitude of the light intensity . It also includes the case where the mixing ratio is continuously changed with α min .
[HDR処理の第3実施形態]
図14は、本発明に係る画像処理装置として機能する本体側CPU220の第3実施形態を示す機能ブロック図である。尚、図14において、図5に示した第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
[Third Embodiment of HDR processing]
FIG. 14 is a functional block diagram showing a third embodiment of the main
図14に示す第3実施形態の本体側CPU220は、輝度分布情報算出部220Fの機能が追加されている点で、図5に示した第1実施形態と相違する。
The main
輝度分布情報算出部220Fは、複数の非発光画像(第1非発光画像、第2非発光画像)のうちの少なくとも1つの非発光画像の画像内の輝度の分布を示す輝度分布情報を算出する部分である。輝度分布情報は、例えば、第1非発光画像の輝度信号からなる画像として作成し、又は画像を分割した領域毎の輝度(代表輝度)を示す情報として作成することができる。
The luminance distribution information calculation unit 220F calculates the luminance distribution information indicating the luminance distribution in the image of at least one of the plurality of non-emission images (first non-emission image, second non-emission image). It is a part. The luminance distribution information can be created, for example, as an image composed of the luminance signals of the first non-emission image, or as information indicating the luminance (representative luminance) for each region in which the image is divided.
図14に示す合成比率決定部220Cは、光強度分布情報算出部220Bが算出した光強度分布情報及び輝度分布情報算出部220Fが算出した輝度分布情報に基づいて複数の非発光画像(第1非発光画像、第2非発光画像)の合成比率を決定する。
The composite
具体的には、合成比率決定部220Cは、第1非発光画像及び第2非発光画像のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、画素又は領域の位置を示すパラメータをi、光強度分布情報に基づく第2非発光画像の混合率をαi、輝度分布情報に基づく第2非発光画像の混合率であって、輝度が高いほど小さい値となる混合率をβiとすると、光強度分布情報及び輝度分布情報に基づく第2非発光画像の混合率γiを、次式、
[数6]
γi=αi×βiにより算出する。この場合、第1非発光画像の混合率は、(1−γi)となり、第1非発光画像と第2非発光画像との合成比率は、(1−γi):γiとなる。
Specifically, the composite
[Number 6]
Calculated by γi = αi × βi. In this case, the mixing ratio of the first non-emission image is (1-γi), and the composite ratio of the first non-emission image and the second non-emission image is (1-γi): γi.
[HDR処理の第4実施形態]
図15は、本発明に係る画像処理装置として機能する本体側CPU220の第4実施形態を示す機能ブロック図である。尚、図15において、図14に示した第3実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
[Fourth Embodiment of HDR processing]
FIG. 15 is a functional block diagram showing a fourth embodiment of the main
図15に示す第4実施形態の本体側CPU220は、フラッシュ光未到達画素検出部220Gの機能が追加されている点で、図14に示した第3実施形態と相違する。
The main
フラッシュ光未到達画素検出部220Gは、第1非発光画像の画素iの輝度値Yiと発光画像の同じ座標の画素iの輝度値をYLiとの差分(YLi−Yi)を算出し、差分(YLi−Yi)が0になる画素iを、フラッシュ光未到達画素として検出する。
The flash light unreachable pixel detection unit 220G calculates the difference (Y Li − Y i ) between the brightness value Y i of the pixel i of the first non-emission image and the brightness value of the pixel i at the same coordinates of the light emission image with Y Li. Then, the pixel i in which the difference (Y Li − Y i ) becomes 0 is detected as a pixel that has not reached the flash light.
図15に示す合成比率決定部220Cは、光強度分布情報算出部220Bが算出した光強度分布情報及び輝度分布情報算出部220Fが算出した輝度分布情報に基づいて複数の非発光画像(第1非発光画像、第2非発光画像)の合成比率を決定するが、フラッシュ光未到達画素検出部220Gによりフラッシュ光未到達画素が検出されると、そのフラッシュ光未到達画素に対する合成比率を決定する際に、輝度分布情報のみに基づいて複数の非発光画像の合成比率を決定する。
The composite
被写体の背景などが遠くにあると、フラッシュ光が届かず、(YLi−Yi)が0になり、[数1]式に示した光強度分布情報Siを算出することできなくなり、その結果、光強度分布情報Siに基づく第2非発光画像の混合率αiも求めることができなくなるからである。
If the background of the subject is far away, the flash light does not reach and (Y Li − Y i ) becomes 0, and the light intensity distribution information S i shown in the equation [Equation 1] cannot be calculated. result, since the mixing ratio αi of the second non-emission image based on the light intensity distribution information S i also becomes impossible to obtain.
したがって、この場合には、輝度分布情報のみに基づいて複数の非発光画像の合成比率を決定することで、フラッシュ光が届かない被写体に対しても妥当な合成比率を決めることができる。
Therefore, in this case, by determining the composition ratio of the plurality of non-emission images based only on the luminance distribution information, it is possible to determine an appropriate composition ratio even for a subject to which the flash light does not reach.
具体的には、合成比率決定部220Cは、[数6]式により光強度分布情報及び輝度分布情報に基づく第2非発光画像の混合率γiを算出しているが、フラッシュ光が届かない画素(フラッシュ光未到達画素)が、フラッシュ光未到達画素検出部220Gにより検出されると、フラッシュ光未到達画素の第2非発光画像の混合率αiを1とすることで、輝度分布情報に基づく第2非発光画像の混合率βiのみで第2非発光画像の混合率γiを求める。
Specifically, the synthesis
尚、フラッシュ光未到達画素検出部220Gは、フラッシュ光未到達画素を検出する場合に限らず、画像を複数の領域に分割した場合、フラッシュ光未到達領域を検出する検出部として機能させてもよい。
The flash light unreachable pixel detection unit 220G is not limited to the case of detecting the flash light unreachable pixel, and may function as a detection unit for detecting the flash light unreachable region when the image is divided into a plurality of regions. Good.
また、フラッシュ光未到達画素検出部220Gは、フラッシュ制御部272が、フラッシュ発光部270から発光させるフラッシュ光の発光量の制御にも使用されるが、フラッシュ制御部272による発光量制御の詳細については後述する。
Further, the flash light unreachable pixel detection unit 220G is also used for controlling the amount of flash light emitted by the
[HDR処理の第5実施形態]
図16は、本発明に係る画像処理装置として機能する本体側CPU220の第5実施形態を示す機能ブロック図である。尚、図16において、図5に示した第1実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
[Fifth Embodiment of HDR processing]
FIG. 16 is a functional block diagram showing a fifth embodiment of the main
図16に示す第4実施形態の本体側CPU220は、第1実施形態に示した距離分布情報取得部220Aを有しておらず、外部の距離分布情報取得部223から距離分布情報を取得している。
The main
距離分布情報取得部223は、例えば、複数の受光素子が2次元状に配列された距離画像センサにより構成することができる。距離画像センサとしては、TOF(Time Of Flight)方式により距離画像を取得するものが考えられる。TOF方式は、被写体に光を照射し、その反射光をセンサで受光するまでの時間を測定することにより被写体までの距離を求める方式であり、パルス光を被写体に照射し、その反射光を複数の画素を有する距離画像センサにより受光し、距離画像センサの画素毎の受光量(受光強度)から被写体の距離画像を取得する方式と、高周波で変調した光を被写体に照射し、照射時点から反射光を受光するまでの位相ずれを検出することにより距離画像を取得する方式とが知られている。
The distance distribution
また、距離分布情報取得部223としては、3次元レーザ計測器、ステレオカメラ等を適用することができる。尚、距離分布情報取得部223を使用する場合、イメージセンサ201は、本例のようなイメージセンサに限らず、距離計測が不能なイメージセンサでもよい。
Further, as the distance distribution
[画像処理方法]
図17は、本発明に係る画像処理方法の実施形態を示すフローチャートである。以下、主として図5等に示した各部の機能を有する本体側CPU220によるHDR処理の動作について説明する。
[Image processing method]
FIG. 17 is a flowchart showing an embodiment of the image processing method according to the present invention. Hereinafter, the operation of HDR processing by the main
図17において、本体側CPU220の距離分布情報取得部220Aは、画像内の被写体の距離の分布を示す距離分布情報を取得する(ステップS10)。本例では、距離分布情報取得部220Aは、画像取得部221から互いに位相差をもつ位相差画像である第1画像と第2画像とを取得し、これらの第1画像及び第2画像に基づいて画像内の被写体の距離の分布を示す距離分布情報を取得する。
In FIG. 17, the distance distribution information acquisition unit 220A of the main
また、画像取得部221により、同一の被写体をそれぞれ異なる撮像条件で撮像した画像であって、フラッシュ光の非発光下でそれぞれ異なる露出条件により撮像された複数の非発光画像(第1非発光画像と第2非発光画像)、及びフラッシュ光の発光下で複数の非発光画像のうちのいずれかの非発光画像(本例では、アンダー露出の第1非発光画像の露出条件)と同じ露出条件により撮像された発光画像を取得する(ステップS12)。
Further, a plurality of non-emission images (first non-emission image) taken by the
次に、ステップS12における詳細な動作について、図18に示すフローチャートにより説明する。
Next, the detailed operation in step S12 will be described with reference to the flowchart shown in FIG.
図18において、フラッシュ制御部272は、ステップS10で取得された距離分布情報に基づいてフラッシュ発光部270から発光させる調光画像用の調光発光量を決定する
(ステップS100)。調光発光量は、画角内の被写体の平均反射率が18%と仮定して、距離分布から白飛びしない最大の発光量として計算する。
In FIG. 18, the
(Step S100). The dimming light emission amount is calculated as the maximum light emission amount that does not cause overexposure from the distance distribution, assuming that the average reflectance of the subject within the angle of view is 18%.
次に、フラッシュ制御部272は、フラッシュ発光部270から、算出した調光発光量のフラッシュ光を発光させ、本体側CPU220は、調光発光下で第1非発光画像と同じ露出条件(アンダー露出)で撮像された調光画像を取得する(ステップS102)。
Next, the
続いて、本体側CPU220は、フラッシュ光未到達画素検出部220G(図15)の検出出力によりフラッシュ光が到達していない画素又は領域があるかを判別する(ステップS104)。尚、フラッシュ光未到達画素検出部220Gは、調光画像と同じ露出条件で撮像されているライブビュー画像の1フレームの画像(非発光画像)を取得し、調光画像と非発光画像とを比較してフラッシュ光未到達画素又は領域を検出する。
Subsequently, the
ステップS104によりフラッシュ光が全領域に到達していると判別されると(「No」
の場合)、本体側CPU220は、調光画像に白飛びしている領域があるか否かを判別する(ステップS106)。調光画像内に最大画素値(8ビットで画素値が表されている場合は、255)の領域がある場合、その領域は白飛びしている領域として判別することができる。
When it is determined in step S104 that the flash light has reached the entire area (“No””.
In the case of), the main
ステップS106により調光画像内に白飛びしている領域がないと判別されると(「No」の場合)、調光画像を発光画像として取得する(ステップS108)。この場合改めて発光画像を撮像する必要がなく、撮像枚数を減らすことができる。
When it is determined in step S106 that there is no overexposed area in the dimming image (in the case of "No"), the dimming image is acquired as a light emitting image (step S108). In this case, it is not necessary to capture the luminescent image again, and the number of captured images can be reduced.
ステップS106により調光画像内に白飛びしている領域があると判別されると(「Yes」の場合)、フラッシュ制御部272は、白飛びしている領域が白飛びしない最大発光量を算出し、算出した最大発光量を、発光画像を取得するときの本発光量とする(ステップS110)。
When it is determined in step S106 that there is an overexposed area in the dimming image (in the case of "Yes"), the
一方、ステップS104によりフラッシュ光が到達していない領域があると判別されると(「Yes」の場合)、本体側CPU220は、フラッシュ光が到達していない領域は、フラッシュ光の最大到達距離よりも近いか否かを判別する(ステップS112)。尚、フラッシュ光が到達していない領域の距離は、距離分布情報から取得することができ、フラッシュ光の最大到達距離は、フラッシュ発光部270のガイドナンバーとF値とにより求めることができる。
On the other hand, when it is determined in step S104 that there is an area where the flash light has not reached (in the case of "Yes"), the
ステップS112によりフラッシュ光が到達していない領域が、フラッシュ光の最大到達距離よりも遠いと判別されると(「No」の場合)、図15に示した合成比率決定部220Cは、フラッシュ光が到達していない領域の混合率αi([数6]式に示した第2非発光画像の混合率αi)を1にする(ステップS114)。これにより、フラッシュ光が到達していない領域の第2非発光画像の混合率γiは、輝度分布情報に基づく第2非発光画像の混合率βiのみで決定されることになる。
When it is determined in step S112 that the region where the flash light has not reached is farther than the maximum reach of the flash light (in the case of "No"), the composite
一方、ステップS112によりフラッシュ光が到達していない領域が、フラッシュ光の最大到達距離よりも近いと判別されると(「Yes」の場合)、フラッシュ制御部272は、フラッシュ光が到達した領域が白飛びしない最大発光量を算出し、算出した最大発光量を、発光画像を取得するときの本発光量とする(ステップS116)。
On the other hand, when it is determined in step S112 that the area where the flash light has not reached is closer than the maximum reach of the flash light (in the case of "Yes"), the
フラッシュ制御部272は、ステップS110又はステップS116により本発光量を算出すると、算出した本発光量でフラッシュ発光部270からフラッシュ光を本発光させ、画像取得部221は、本発光下で第1非発光画像の露出条件と同じ露出条件で撮像部(交換レンズ100及びイメージセンサ201)により撮像された発光画像を取得する(ステップS118)。
When the
上記のようにして発光画像を取得すると、続いて発光画像と同じ露出条件(アンダー露出)で撮像される非発光画像(第1非発光画像)と、オーバー露出で撮像される第2非発光画像とを取得する。
When the light emitting image is acquired as described above, the non-light emitting image (first non-light emitting image) captured under the same exposure conditions (underexposure) as the light emitting image and the second non-light emitting image captured under overexposure are subsequently captured. And get.
図17に戻って、光強度分布情報算出部220Bは、非発光画像(アンダー露出の第1非発光画像)と発光画像と距離分布情報取得部220Aにより取得した距離分布情報に基づいて、[数1]式により光強度分布情報Siを算出する(ステップS14)。
Returning to FIG. 17, the light intensity distribution information calculation unit 220B is based on the non-emission image (the first non-emission image underexposed), the light emission image, and the distance distribution information acquired by the distance distribution information acquisition unit 220A. 1] The light intensity distribution information Si is calculated by the equation (step S14).
合成比率決定部220Cは、ステップS14で算出された光強度分布情報Siに基づいて複数の非発光画像(第1非発光画像、第2非発光画像)をHDR合成するための合成比率を決定する(ステップS16)。例えば、合成比率決定部220Cは、複数の非発光画像(第1非発光画像と第2非発光画像)のそれぞれ対応する画素又は領域毎に合成比率を決定する際に、光強度分布情報Siに基づいて光強度が大きい画素又は領域では、アンダー露出の第1非発光画像の混合率を、オーバー露出の第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では第2非発光画像の混合率を第1非発光画像の混合率よりも大きくする。
Synthesis
画像合成部220Dは、ステップS16で決定された合成比率に基づいて第1非発光画像と第2非発光画像とのHDR合成を行い、HDR画像を生成する(ステップS18)。
The
本実施形態の撮像装置10は、ミラーレスのデジタル一眼カメラであるが、これに限らず、一眼レフカメラ、レンズ一体型の撮像装置、デジタルビデオカメラ等でもよく、また、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器に対しても適用可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
The
<スマートフォンの構成>
図19は、本発明の撮像装置の一実施形態であるスマートフォン500の外観を示すものである。図19に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、係る筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
<Smartphone configuration>
FIG. 19 shows the appearance of the
図20は、図19に示すスマートフォン500の構成を示すブロック図である。図20に示すように、スマートフォンの主たる構成要素として、基地局と移動通信網とを介した移動無線通信を行う無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記録部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。
FIG. 20 is a block diagram showing the configuration of the
無線通信部510は、主制御部501の指示にしたがって、移動通信網に収容された基地局に対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信、Webデータ及びストリーミングデータなどの受信を行う。
The
表示入力部520は、主制御部501の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。
Under the control of the
表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。かかるデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
The
図19に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。かかる配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
As shown in FIG. 19, the
尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。また、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
The size of the display area and the size of the
通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図19に示すように、例えば、スピーカ531、マイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。
The
操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図19に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
The
記録部550は、主制御部501の制御プログラム、制御データ、アプリケーションソフトウェア(本発明に係る画像処理プログラムを含む)、通信相手の名称及び電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記録部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部562により構成される。尚、記録部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの記録媒体を用いて実現される。
The
外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、及びIEEE1394など)又はネットワーク(例えば、インターネット、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
The external input /
スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、又はオーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオビデオ機器、無線接続される外部オーディオビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、及びイヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達し、又はスマートフォン500の内部のデータを外部機器に伝送することが可能である。
Examples of external devices connected to the
GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、及び高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
The
モーションセンサ部580は、例えば、3軸の加速度センサ及びジャイロセンサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
The
電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
The
主制御部501は、マイクロプロセッサを備え、記録部550が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能及びアプリケーション処理機能を備える。
The
アプリケーション処理機能は、記録部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係るHDR合成を行う画像処理機能などがある。
The application processing function is realized by operating the
また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
Further, the
更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
Further, the
表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
By executing the display control, the
また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じてアイコンに対する操作、及びウィンドウの入力欄に対する文字列の入力を受け付け、或いはスクロールバーを通じた表示画像のスクロール要求を受け付ける。
Further, by executing the operation detection control, the
更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域及びソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
Further, by executing the operation detection control, the
また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
The
カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、図1に示した撮像装置10に相当する。また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することができる。図19に示すようにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、或いは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合、撮影に供するカメラ部541を切り替えて単独にて撮影したり、或いは、複数のカメラ部541を同時に使用して撮影することもできる。
The
また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサ(ジャイロセンサ)と併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
In addition, the
その他、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記録部550に記録したり、外部入出力部560や無線通信部510を通じて出力することもできる。
In addition, the position information acquired by the
[その他]
本実施形態では、HDR合成を行う画像処理装置(本体側CPU220)は、撮像装置に内蔵されたものであるが、本発明に係る画像処理装置は、例えば、本発明に係る画像処理プログラムを実行する撮像装置とは別体のパーソナルコンピュータ、携帯端末等であってもよい。この場合、複数の非発光画像、発光画像及び距離分布情報等を、HDR合成用の情報として入力する必要がある。
[Other]
In the present embodiment, the image processing device (main body side CPU 220) that performs HDR synthesis is built in the image pickup device, but the image processing device according to the present invention executes, for example, the image processing program according to the present invention. It may be a personal computer, a mobile terminal, or the like that is separate from the image pickup device. In this case, it is necessary to input a plurality of non-emission images, emissive images, distance distribution information, and the like as information for HDR composition.
また、複数の非発光画像は、アンダー露出の第1非発光画像、オーバー露出の第2非発光画像の2つの非発光画像に限らず、同一の被写体をそれぞれ異なる撮像条件で撮像した3以上の非発光画像でもよい。この場合、合成比率決定部は、3以上の非発光画像の合成比率を決定することになる。
Further, the plurality of non-emission images are not limited to two non-emission images, an underexposed first non-emission image and an overexposed second non-emission image, and three or more images of the same subject under different imaging conditions. It may be a non-emission image. In this case, the composition ratio determining unit determines the composition ratio of three or more non-emission images.
また、本実施形態において、例えば、本体側CPU220等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
Further, in the present embodiment, for example, the hardware structure of the processing unit that executes various processes such as the main
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which a processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
更に、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
更にまた、本発明は、撮像装置又はコンピュータにインストールされることにより、本発明に係る撮像装置又は画像処理装置として機能させる画像処理プログラム、及びこの画像処理プログラムが記録された記録媒体を含む。
Furthermore, the present invention includes an image processing program that, when installed in an image pickup apparatus or a computer, functions as the image pickup apparatus or image processing apparatus according to the present invention, and a recording medium on which the image processing program is recorded.
また、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
Further, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.
10 撮像装置
20 ファインダ窓
22 シャッタレリーズスイッチ
23 シャッタスピードダイヤル
24 露出補正ダイヤル
25 電源レバー
26 接眼部
27 MENU/OKキー
28 十字キー
29 再生ボタン
30 内蔵フラッシュ
100 交換レンズ
102 撮像光学系
104 レンズ群
108 絞り
116 フォーカスレンズ制御部
118 絞り制御部
120 レンズ側CPU
122、207 RAM
124、228 ROM
126 フラッシュROM
150 レンズ側通信部
160 レンズマウント
200 カメラ本体
201 イメージセンサ
201A マイクロレンズ
202 イメージセンサ制御部
203 アナログ信号処理部
204 A/D変換器
205 画像入力コントローラ
206 デジタル信号処理部
208 圧縮伸張処理部
210 メディア制御部
212 メモリカード
214 表示制御部
216 液晶モニタ
220 本体側CPU
220A 距離分布情報取得部
220B 光強度分布情報算出部
220C 合成比率決定部
220D 画像合成部
220E 分布情報作成部
220F 輝度分布情報算出部
220G フラッシュ光未到達画素検出部
221 画像取得部
222 操作部
223 距離分布情報取得部
224 時計部
226 フラッシュROM
230 AF制御部
232 AE制御部
234 ホワイトバランス補正部
236 無線通信部
238 GPS受信部
240 電源制御部
242 バッテリ
244 レンズ電源スイッチ
250 本体側通信部
260 本体マウント
260A 端子
270 フラッシュ発光部
272 フラッシュ制御部
296 FPS制御部
500 スマートフォン
501 主制御部
502 筐体
510 無線通信部
520 表示入力部
521 表示パネル
522 操作パネル
530 通話部
531 スピーカ
532 マイクロホン
540 操作部
541 カメラ部
550 記録部
551 内部記憶部
552 外部記憶部
560 外部入出力部
562 外部記憶部
570 受信部
570 GPS受信部
580 モーションセンサ部
590 電源部
S10〜S18、S100〜S118 ステップ
Si 光強度分布情報
YLi 輝度値
Yi 輝度値
di 距離情報
αi、βi、γi 混合率
10 Imaging device
20 Finder window
22 Shutter release switch
23 Shutter speed dial
24 Exposure compensation dial
25 Power lever
26 Eyepiece
27 MENU / OK key
28 cross key
29 Play button
30 Built-in flash
100 interchangeable lens
102 Imaging optical system
104 lens group
108 aperture
116 Focus lens control unit
118 Aperture control unit
120 Lens side CPU
122, 207 RAM
124, 228 ROM
126 flash ROM
150 Lens side communication unit
160 lens mount
200 camera body
201 image sensor
201A micro lens
202 Image sensor control unit
203 Analog signal processing unit
204 A / D converter
205 image input controller
206 Digital signal processing unit
208 Compression / decompression processing unit
210 Media control unit
212 memory card
214 Display control unit
216 LCD monitor
220 CPU on the main unit
220A Distance distribution information acquisition unit
220B Light intensity distribution information calculation unit
220C synthesis ratio determination unit
220D image compositing unit
220E Distribution information creation unit
220F Luminance distribution information calculation unit
220G flash light unreachable pixel detector
221 Image acquisition section
222 Operation unit
223 Distance distribution information acquisition unit
224 Clock section
226 flash ROM
230 AF control unit
232 AE control unit
234 White balance correction unit
236 Wireless communication unit
238 GPS receiver
240 power control unit
242 battery
244 Lens power switch
250 Main unit communication unit
260 body mount
260A terminal
270 flash light emitting part
272 Flash control unit
296 FPS control unit
500 smartphone
501 main control unit
502 chassis
510 wireless communication unit
520 Display input section
521 display panel
522 operation panel
530 Call section
531 speaker
532 microphone
540 operation unit
541 camera unit
550 recording section
551 Internal storage
552 external storage unit
560 External input / output unit
562 External storage
570 receiver
570 GPS receiver
580 motion sensor unit
590 power supply
Steps S10 to S18 and S100 to S118
Si light intensity distribution information
Y Li brightness value
Y i brightness value
d i distance information
αi, βi, γi mixing ratio
Claims (20)
同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像と、フラッシュ光の発光下において前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像とを取得する画像取得部と、
前記被写体の距離の分布を示す距離分布情報を取得する距離分布情報取得部と、
前記発光画像、前記発光画像と同じ露出条件により撮像された前記非発光画像、及び前記距離分布情報に基づいて、前記被写体に照射されている光の光強度分布情報を算出する光強度分布情報算出部と、
前記光強度分布情報に基づいて前記複数の非発光画像の合成比率を決定する合成比率決定部と、
前記合成比率にしたがって前記複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する画像合成部と、
を備えた画像処理装置。
One of a plurality of non-emission images obtained by capturing the same subject under different exposure conditions under non-flash light emission and the plurality of non-emission images under flash light emission. An image acquisition unit that acquires a light-emitting image captured under the same exposure conditions as the non-light-emitting image of
A distance distribution information acquisition unit that acquires distance distribution information indicating the distance distribution of the subject,
Light intensity distribution information calculation that calculates the light intensity distribution information of the light shining on the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information. Department and
A composite ratio determining unit that determines the composite ratio of the plurality of non-emission images based on the light intensity distribution information,
An image compositing unit that synthesizes the plurality of non-emission images according to the compositing ratio and generates a composite image having an expanded dynamic range.
Image processing device equipped with.
前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定し、
前記画像合成部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記決定した合成比率を適用して前記複数の非発光画像を合成する、請求項1に記載の画像処理装置。
The composite ratio determining unit determines the composite ratio for each corresponding pixel or region of the plurality of non-emission images.
The image processing apparatus according to claim 1, wherein the image synthesizing unit synthesizes the plurality of non-emission images by applying the determined synthesis ratio for each corresponding pixel or region of the plurality of non-emission images.
前記複数の非発光画像に対応する複数の露出条件は、適正露出の露出条件よりもアンダー露出の露出条件とオーバー露出の露出条件とを含む請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2, wherein the plurality of exposure conditions corresponding to the plurality of non-emission images include an underexposure exposure condition and an overexposure exposure condition rather than a proper exposure exposure condition.
前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて光強度が大きい画素又は領域では前記複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では前記第2非発光画像の混合率を前記第1非発光画像の混合率よりも大きくする、請求項1から3のいずれか1項に記載の画像処理装置。
When determining the composite ratio for each of the corresponding pixels or regions of the plurality of non-emission images, the composite ratio determining unit may determine the plurality of pixels or regions having high light intensity based on the light intensity distribution information. The mixing ratio of the first non-emission image captured under the exposure condition having the smallest exposure value among the non-emission images is the second non-emission image captured under the exposure condition having the largest exposure value among the plurality of non-emission images. Any of claims 1 to 3, which is larger than the mixing ratio of the luminescent image and is larger than the mixing ratio of the first non-light emitting image in the pixel or region where the light intensity is low. The image processing apparatus according to item 1.
前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて前記光強度分布情報のうちの最小光強度と最大光強度との間において、前記光強度が増加した場合、前記第2非発光画像の混合率を単調減少させる、請求項4に記載の画像処理装置。
When determining the composite ratio for each pixel or region corresponding to each of the plurality of non-emission images, the composite ratio determining unit determines the minimum light intensity of the light intensity distribution information based on the light intensity distribution information. The image processing apparatus according to claim 4, wherein when the light intensity increases between the light intensity and the maximum light intensity, the mixing ratio of the second non-emission image is monotonically decreased.
前記光強度分布情報に基づいて前記光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、
前記合成比率決定部は、前記作成された分布情報に基づいて度数又は頻度の高い第1頂点に対応する第1光強度と、度数又は頻度の高い第2頂点に対応する第2光強度であって、前記第1光強度よりも大きい第2光強度とを求め、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記第1光強度以下の光強度の場合には前記第2非発光画像の混合率を最大値にし、前記第2光強度以上の光強度の場合には前記第2非発光画像の混合率を最小値にし、前記第1光強度よりも大きく前記第2光強度よりも小さい光強度の場合には前記第2非発光画像の混合率を前記最大値と前記最小値との間において単調減少させる、請求項4に記載の画像処理装置。
It is provided with a distribution information creation unit that creates distribution information indicating the frequency distribution or frequency distribution of the light intensity based on the light intensity distribution information.
The composite ratio determining unit has a first light intensity corresponding to the first vertex having a high frequency or frequency and a second light intensity corresponding to the second peak having a high frequency or frequency based on the created distribution information. Therefore, when a second light intensity higher than the first light intensity is obtained and the synthesis ratio is determined for each corresponding pixel or region of the plurality of non-emission images, the light having the first light intensity or less is determined. In the case of intensity, the mixing ratio of the second non-emission image is maximized, and in the case of light intensity equal to or higher than the second light intensity, the mixing ratio of the second non-emission image is minimized, and the first light The image according to claim 4, wherein in the case of a light intensity larger than the intensity and lower than the second light intensity, the mixing ratio of the second non-emissive image is monotonically reduced between the maximum value and the minimum value. Processing equipment.
前記光強度分布情報に基づいて前記光強度の度数分布又は頻度分布を示す分布情報を作成する分布情報作成部を備え、
前記合成比率決定部は、前記作成された分布情報に基づいて度数又は頻度の低い底点に対応する光強度を求め、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記底点に対応する光強度を閾値にして、前記閾値以下の光強度の場合には前記第2非発光画像の混合率を最大値にし、前記閾値を超える光強度の場合には前記第2非発光画像の混合率を最小値にする、請求項5に記載の画像処理装置。
It is provided with a distribution information creation unit that creates distribution information indicating the frequency distribution or frequency distribution of the light intensity based on the light intensity distribution information.
The composite ratio determining unit obtains the light intensity corresponding to the low frequency or infrequent bottom point based on the created distribution information, and determines the composite ratio for each corresponding pixel or region of the plurality of non-emission images. When determining, the light intensity corresponding to the bottom point is set as a threshold value, the mixing ratio of the second non-emission image is maximized in the case of a light intensity below the threshold value, and the light intensity exceeds the threshold value. The image processing apparatus according to claim 5, wherein the mixing ratio of the second non-emission image is minimized.
前記複数の非発光画像のうちの少なくとも1つの非発光画像の画像内の輝度の分布を示す輝度分布情報を算出する輝度分布情報算出部を備え、
前記合成比率決定部は、前記光強度分布情報及び前記輝度分布情報に基づいて前記複数の非発光画像の合成比率を決定する、請求項1から7のいずれか1項に記載の画像処理装置。
A brightness distribution information calculation unit for calculating the luminance distribution information indicating the luminance distribution in the image of at least one non-luminance image among the plurality of non-emission images is provided.
The image processing apparatus according to any one of claims 1 to 7, wherein the composite ratio determining unit determines a composite ratio of the plurality of non-emission images based on the light intensity distribution information and the brightness distribution information.
前記発光画像における前記フラッシュ光が到達していない画素又は領域を検出する検出部を備え、
前記合成比率決定部は、前記フラッシュ光が到達していない画素又は領域に対する前記合成比率を決定する際に、前記輝度分布情報のみに基づいて前記複数の非発光画像の合成比率を決定する、請求項8に記載の画像処理装置。
A detection unit that detects pixels or regions that the flash light has not reached in the emitted image is provided.
The composite ratio determining unit determines the composite ratio of the plurality of non-emission images based only on the luminance distribution information when determining the composite ratio for pixels or regions not reached by the flash light. Item 8. The image processing apparatus according to item 8.
前記合成比率決定部は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、画素又は領域の位置を示すパラメータをi、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率をαi、前記輝度分布情報に基づく前記第2非発光画像の混合率であって、輝度が高いほど小さい値となる混合率をβiとすると、前記光強度分布情報及び前記輝度分布情報に基づく前記第2非発光画像の混合率γiを、次式、
γi=αi×βiにより算出する、請求項8又は9に記載の画像処理装置。
When determining the composite ratio for each of the corresponding pixels or regions of the plurality of non-emission images, the composite ratio determining unit sets a parameter indicating the position of the pixel or region i, and among the plurality of non-emission images. The mixing ratio of the second non-emissive image captured under the exposure condition having the largest exposure value is αi, which is the mixing ratio of the second non-emissive image based on the luminance distribution information, and the higher the luminance, the smaller the value. Assuming that the mixing ratio is βi, the mixing ratio γi of the second non-emission image based on the light intensity distribution information and the brightness distribution information is calculated by the following equation.
The image processing apparatus according to claim 8 or 9, which is calculated by γi = αi × βi.
前記発光画像の露出条件は、前記複数の非発光画像に対応する複数の露出条件のうちの最も露出値が小さい露出条件である、請求項1から10のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 10, wherein the exposure condition of the light emitting image is the exposure condition having the smallest exposure value among the plurality of exposure conditions corresponding to the plurality of non-light emitting images. ..
被写体を異なる露出条件により撮像可能な撮像部と、
フラッシュ光を発光するフラッシュ発光部と、
前記フラッシュ発光部から発光される前記フラッシュ光を制御するフラッシュ制御部と、
請求項1から11のいずれか1項に記載の画像処理装置と、を備え、
前記画像取得部は、前記フラッシュ発光部から発光されるフラッシュ光の非発光下において、前記撮像部によりそれぞれ異なる露出条件により撮像された前記複数の非発光画像と、前記フラッシュ発光部から発光されるフラッシュ光の発光下において、前記撮像部により前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された前記発光画像とを取得する、撮像装置。
An image pickup unit that can image the subject under different exposure conditions,
A flash light emitting part that emits flash light and
A flash control unit that controls the flash light emitted from the flash light emitting unit,
The image processing apparatus according to any one of claims 1 to 11 is provided.
The image acquisition unit emits light from the flash light emitting unit and the plurality of non-light emitting images captured by the imaging unit under different exposure conditions under the non-emission of the flash light emitted from the flash light emitting unit. An imaging device that acquires the luminescent image captured by the imaging unit under the same exposure conditions as the exposure condition of any one of the plurality of non-emitting images under the light emission of the flash light.
前記フラッシュ制御部は、前記フラッシュ発光部からフラッシュ光を調光発光させ、前記調光発光下において前記撮像部が撮像した調光画像と前記調光発光せずに前記撮像部が撮像した画像とに基づいて前記調光発光したフラッシュ光が到達していない領域が検出された場合、前記調光発光したフラッシュ光が到達している領域が飽和しない最大の発光量を算出し、前記発光画像を取得する際に前記算出した最大の発光量によって前記フラッシュ発光部からフラッシュ光を本発光させる、請求項12に記載の撮像装置。
The flash control unit dimmes the flash light from the flash light emitting unit, and the dimming image captured by the imaging unit under the dimming light emission and the image captured by the imaging unit without the dimming light emission. When a region not reached by the dimmed flash light is detected based on the above, the maximum amount of light emitted that the region reached by the dimmed flash light is not saturated is calculated, and the emitted image is displayed. The imaging device according to claim 12, wherein the flash light is mainly emitted from the flash light emitting unit according to the calculated maximum light emission amount at the time of acquisition.
前記フラッシュ制御部は、被写体の平均反射率と前記距離分布情報取得部が取得した前記距離分布情報とに基づいて前記最大の発光量を算出する、請求項13に記載の撮像装置。
The imaging device according to claim 13, wherein the flash control unit calculates the maximum amount of light emission based on the average reflectance of the subject and the distance distribution information acquired by the distance distribution information acquisition unit.
前記フラッシュ制御部は、前記フラッシュ発光部からフラッシュ光を調光発光させ、前記調光発光下において前記撮像部が撮像した調光画像と前記調光発光せずに前記撮像部が撮像した画像とに基づいて前記調光画像の全領域にフラッシュ光が到達していることが検出された場合、前記画像取得部は、前記調光画像を前記発光画像として取得する、請求項12に記載の撮像装置。
The flash control unit dimmes the flash light from the flash light emitting unit, and the dimming image captured by the imaging unit under the dimming light emission and the image captured by the imaging unit without the dimming light emission. The imaging according to claim 12, wherein when it is detected that the flash light has reached the entire region of the dimming image based on the above, the image acquisition unit acquires the dimming image as the light emitting image. apparatus.
前記フラッシュ制御部は、前記フラッシュ発光部からフラッシュ光を調光発光させ、前記調光発光下において前記撮像部が撮像した調光画像と前記調光発光せずに前記撮像部が撮像した画像とに基づいて前記調光画像にフラッシュ光が到達していない領域が検出され、かつ前記距離分布情報に基づいて前記フラッシュ光が到達していない領域の距離が、前記フラッシュ発光部から発光されるフラッシュ光の最大発光量の到達距離よりも遠い場合、前記画像取得部は、前記調光画像を前記発光画像として取得する、請求項12に記載の撮像装置。
The flash control unit dimmes the flash light from the flash light emitting unit, and the dimming image captured by the imaging unit under the dimming light emission and the image captured by the imaging unit without the dimming light emission. The area where the flash light does not reach the dimming image is detected based on the above, and the distance of the area where the flash light does not reach based on the distance distribution information is emitted from the flash light emitting unit. The imaging device according to claim 12, wherein when the distance is longer than the reach of the maximum amount of light emitted, the image acquisition unit acquires the dimming image as the emitted image.
同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得するステップと、
フラッシュ光の発光下において前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得するステップと、
前記被写体の距離の分布を示す距離分布情報を取得するステップと、
前記発光画像、前記発光画像と同じ露出条件により撮像された前記非発光画像、及び前記距離分布情報に基づいて、前記被写体に照射されている光の光強度分布情報を算出するステップと、
前記光強度分布情報に基づいて前記複数の非発光画像の合成比率を決定するステップと、
前記合成比率にしたがって前記複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成するステップと、
を含む画像処理方法。
A step of acquiring a plurality of non-emission images captured under different exposure conditions under non-emission of flash light, which are images of the same subject.
A step of acquiring a light emitting image captured under the same exposure conditions as the exposure condition of any of the plurality of non-light emitting images under the light emission of the flash light.
A step of acquiring distance distribution information indicating the distance distribution of the subject, and
A step of calculating the light intensity distribution information of the light irradiating the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information.
A step of determining the composition ratio of the plurality of non-emission images based on the light intensity distribution information, and
A step of synthesizing the plurality of non-emission images according to the synthesis ratio to generate a composite image having an expanded dynamic range.
Image processing method including.
前記合成比率を決定するステップは、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて光強度が大きい画素又は領域では前記複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では前記第2非発光画像の混合率を前記第1非発光画像の混合率よりも大きくする、請求項17に記載の画像処理方法。
The step of determining the composite ratio is that when the composite ratio is determined for each corresponding pixel or region of the plurality of non-emission images, the pixel or region having a large light intensity is described based on the light intensity distribution information. The mixing ratio of the first non-emission image captured under the exposure condition having the smallest exposure value among the plurality of non-emission images is the first imaged under the exposure condition having the largest exposure value among the plurality of non-emission images. 2. The 17th aspect of claim 17, wherein the mixing ratio of the second non-emission image is made larger than the mixing ratio of the first non-emissive image, and the mixing ratio of the second non-emissive image is made larger than the mixing ratio of the first non-emission image in a pixel or region where the light intensity is low. Image processing method.
同一の被写体を撮像した画像であって、フラッシュ光の非発光下においてそれぞれ異なる露出条件により撮像された複数の非発光画像を取得する機能と、
フラッシュ光の発光下において前記複数の非発光画像のうちのいずれかの非発光画像の露出条件と同じ露出条件により撮像された発光画像を取得する機能と、
前記被写体の距離の分布を示す距離分布情報を取得する機能と、
前記発光画像、前記発光画像と同じ露出条件により撮像された前記非発光画像、及び前記距離分布情報に基づいて、前記被写体に照射されている光の光強度分布情報を算出する機能と、
前記光強度分布情報に基づいて前記複数の非発光画像の合成比率を決定する機能と、
前記合成比率にしたがって前記複数の非発光画像を合成し、ダイナミックレンジが拡大された合成画像を生成する機能と、
をコンピュータに実現させる画像処理プログラム。
A function to acquire a plurality of non-emission images captured under different exposure conditions under non-emission of flash light, which are images of the same subject.
A function of acquiring a light emitting image captured under the same exposure conditions as the exposure condition of any of the plurality of non-light emitting images under the light emission of the flash light.
A function to acquire distance distribution information indicating the distance distribution of the subject, and
A function of calculating the light intensity distribution information of the light irradiating the subject based on the light emitting image, the non-light emitting image captured under the same exposure conditions as the light emitting image, and the distance distribution information.
A function of determining the composition ratio of the plurality of non-emission images based on the light intensity distribution information, and
A function of synthesizing a plurality of non-emission images according to the composition ratio to generate a composite image with an expanded dynamic range.
An image processing program that makes a computer realize.
前記合成比率を決定する機能は、前記複数の非発光画像のそれぞれ対応する画素又は領域毎に前記合成比率を決定する際に、前記光強度分布情報に基づいて光強度が大きい画素又は領域では前記複数の非発光画像のうちの最も露出値が小さい露出条件によって撮像された第1非発光画像の混合率を、前記複数の非発光画像のうちの最も露出値が大きい露出条件によって撮像された第2非発光画像の混合率よりも大きくし、光強度が小さい画素又は領域では前記第2非発光画像の混合率を前記第1非発光画像の混合率よりも大きくする、請求項19に記載の画像処理プログラム。
The function of determining the composite ratio is that when the composite ratio is determined for each corresponding pixel or region of the plurality of non-emission images, the pixel or region having a large light intensity based on the light intensity distribution information is described. The mixing ratio of the first non-emission image captured under the exposure condition having the smallest exposure value among the plurality of non-emission images is the first imaged under the exposure condition having the largest exposure value among the plurality of non-emission images. 2. The 19th aspect of claim 19, wherein the mixing ratio of the second non-light emitting image is made larger than the mixing ratio of the first non-light emitting image, and the mixing ratio of the second non-light emitting image is made larger than the mixing ratio of the first non-light emitting image in a pixel or region having a small light intensity. Image processing program.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018085582 | 2018-04-26 | ||
JP2018085582 | 2018-04-26 | ||
PCT/JP2019/015046 WO2019208155A1 (en) | 2018-04-26 | 2019-04-05 | Image processing device, method and program, and imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6810299B2 true JP6810299B2 (en) | 2021-01-06 |
JPWO2019208155A1 JPWO2019208155A1 (en) | 2021-03-25 |
Family
ID=68294051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020516173A Active JP6810299B2 (en) | 2018-04-26 | 2019-04-05 | Image processing equipment, methods, and programs as well as imaging equipment |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6810299B2 (en) |
WO (1) | WO2019208155A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111327800B (en) * | 2020-01-08 | 2022-02-01 | 深圳深知未来智能有限公司 | All-weather vehicle-mounted vision system and method suitable for complex illumination environment |
US11906895B2 (en) * | 2020-10-06 | 2024-02-20 | Mediatek Inc. | Method and system for blending images captured under different strobe conditions |
TWI757015B (en) * | 2020-12-29 | 2022-03-01 | 財團法人工業技術研究院 | Image obtaining method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003018617A (en) * | 2001-07-03 | 2003-01-17 | Olympus Optical Co Ltd | Imaging apparatus |
JP4802333B2 (en) * | 2007-02-21 | 2011-10-26 | 国立大学法人静岡大学 | Method for determining exposure ratio in image composition |
US9936151B2 (en) * | 2015-10-16 | 2018-04-03 | Capsovision Inc | Single image sensor for capturing mixed structured-light images and regular images |
-
2019
- 2019-04-05 JP JP2020516173A patent/JP6810299B2/en active Active
- 2019-04-05 WO PCT/JP2019/015046 patent/WO2019208155A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2019208155A1 (en) | 2021-03-25 |
WO2019208155A1 (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101610363B (en) | Apparatus and method of blurring background of image in digital image processing device | |
WO2019183819A1 (en) | Photographic method, photographic apparatus, and mobile terminal | |
JP6302554B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP6272486B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6810299B2 (en) | Image processing equipment, methods, and programs as well as imaging equipment | |
JP6063093B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6921972B2 (en) | Image processing equipment, imaging equipment, image processing methods, imaging methods, and programs | |
US11032483B2 (en) | Imaging apparatus, imaging method, and program | |
JP7112529B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND PROGRAM | |
WO2019111659A1 (en) | Image processing device, imaging device, image processing method, and program | |
JP6534780B2 (en) | Imaging device, imaging method, and program | |
JP6998454B2 (en) | Imaging equipment, imaging methods, programs and recording media | |
JP6810298B2 (en) | Image alignment aids, methods and programs and imaging devices | |
CN116055855B (en) | Image processing method and related device | |
JP6941744B2 (en) | Image processing device, photographing device, image processing method and image processing program | |
JP7352034B2 (en) | Imaging device, imaging instruction method, and imaging instruction program | |
KR101128518B1 (en) | Imaging method for digital image processing device | |
JP2015037254A (en) | Imaging apparatus and program | |
JP2004364163A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201106 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201106 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6810299 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |