JP2016054447A - Imaging apparatus, image processing apparatus, image processing method and image processing program - Google Patents

Imaging apparatus, image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2016054447A
JP2016054447A JP2014180195A JP2014180195A JP2016054447A JP 2016054447 A JP2016054447 A JP 2016054447A JP 2014180195 A JP2014180195 A JP 2014180195A JP 2014180195 A JP2014180195 A JP 2014180195A JP 2016054447 A JP2016054447 A JP 2016054447A
Authority
JP
Japan
Prior art keywords
image data
image
unit
bit length
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014180195A
Other languages
Japanese (ja)
Inventor
宏明 岩崎
Hiroaki Iwasaki
宏明 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014180195A priority Critical patent/JP2016054447A/en
Publication of JP2016054447A publication Critical patent/JP2016054447A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus, an image processing apparatus, an image processing method and an image processing program which allow photographic images of an astronomical body to be photographed without being saturated and clipped, and subjected to image processing with filter effect equivalent to an optical filter.SOLUTION: A subject is photographed (a graph (a)) during exposure time (Tsec) shorter than standard exposure time (Ssec), image data of a plurality of frames obtained through the photographing are composed to generate composed image data (a graph (b)), filter processing is applied to the composed image data (a graph (c)), and bit lengths of the image data subjected to the filter processing are adjusted so as to be shorter than bit lengths of the composed image data (a graph (d)).SELECTED DRAWING: Figure 8

Description

本発明は、デジタルスチルカメラ等の撮像装置において、天体撮影に頻繁に使用される光学フィルタと同等かつより高性能なフィルタ処理を画像処理によって施すことが可能な撮像装置、画像処理装置、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an imaging apparatus, an image processing apparatus, and an image processing capable of performing filter processing equivalent to and higher performance than an optical filter frequently used for astrophotography in an imaging apparatus such as a digital still camera. The present invention relates to a method and an image processing program.

近年、デジタルカメラ等の撮像装置の高性能化、多機能化によって以前よりも気軽に天体撮影を行うことができ、より多くの撮影者が天体撮影を楽しむようになってきた。星にはおおよそ人間が肉眼で視認できる明るさの範囲で−1.5〜6等星のものがあり、明るさには約1000倍の差がある。デジタルカメラの適正露出から飽和までのダイナミックレンジ(概ね3〜4段=8〜16倍)よりも大きな明暗差があり、暗い星も写るように撮影すると、星像のほとんどはデジタル飽和出力でクリップされてしまう。   In recent years, it has become possible to perform astronomical photography more easily than before due to higher performance and multifunctional imaging devices such as digital cameras, and more photographers have come to enjoy astronomical photography. Some stars have a brightness range of approximately -1.5 to 6 and so on, and the brightness is about 1000 times different. If you shoot a dark star that has a larger contrast than the digital camera's dynamic range (approx. 3 to 4 steps = 8 to 16 times) from the proper exposure to saturation, most of the stars will be clipped with digital saturation output. It will be.

デジタルカメラの光学系では星の像は非常にシャープな点像に写るため、デジタル出力が飽和した星はみな同じような点像に写り、星の明るさは写真ではよく分からない。星の色や明るさを飽和させずに写すことができると印象的で美しい写真となる。また星や星座の情報が写真から判別し易くなり、芸術用、研究用などの用途で好まれる写真となる。   In the digital camera's optical system, the star image appears as a very sharp point image, so all stars with saturated digital output appear as a similar point image, and the brightness of the star is not well understood in photographs. If you can shoot without saturating the color and brightness of the stars, it will be an impressive and beautiful photo. In addition, information on stars and constellations can be easily distinguished from photographs, and the photographs are preferred for art and research purposes.

そこで、明るい星ほど大きく写したり、明るい星の光芒の形状を変えたり、または色情報が残るように(星を写した像の出力が飽和して色情報が失われないように)、光拡散フィルタ(例えば、ソフトフィルタなど)や、クロスフィルタなどの光学フィルタが使用される。また、特許文献1に開示されているようなHDR(広ダイナミックレンジ)処理を施すことによって、従来の撮影では飽和してしまう画素出力を飽和させずに画像を合成することもできる。   Therefore, light diffusion is performed so that the brighter the stars are, the larger the size of the bright stars, the shape of the light stars, or the color information remains (so that the color information is not lost by saturating the output of the stars) An optical filter such as a filter (for example, a soft filter) or a cross filter is used. In addition, by performing HDR (wide dynamic range) processing as disclosed in Patent Document 1, it is possible to synthesize an image without saturating pixel outputs that would be saturated in conventional imaging.

特許第4973115号公報Japanese Patent No. 4973115

しかし、前述の光学フィルタを使用するのでは、コストがかかり、また撮像装置が大きくなり、取り付けが煩瑣になってしまう。そこで、光学フィルタを装着せずに、光学フィルタと同じ効果を生じさせることを狙って、光芒の形状を変化させる画像処理によって、星の像を大きくぼかすことできる。しかし、上述したように、デジタル出力が飽和し、星の明るさ情報が飽和以上でクリップしてしまった画素出力に対して画像処理を施しても、星の像がデジタル値に変換される前に拡散する光学フィルタに比べると、フィルタ処理される画素の出力が小さくなり、同等のフィルタ効果が得られない。また、飽和によって色情報が失われているため、星の像から色が失われる。   However, the use of the above-described optical filter is costly, and the image pickup apparatus becomes large, which makes installation difficult. Therefore, the image of the star can be greatly blurred by image processing that changes the shape of the light beam with the aim of producing the same effect as the optical filter without mounting the optical filter. However, as described above, even if image processing is performed on the pixel output that has been clipped because the digital output is saturated and the brightness information of the star is above saturation, the star image is not converted to a digital value. Compared with an optical filter that diffuses into the filter, the output of the pixel to be filtered is small, and an equivalent filter effect cannot be obtained. Also, because color information is lost due to saturation, color is lost from the star image.

また特許文献1のようなHDR処理では、画素出力は飽和させずに記録することはできる。しかし、HDR処理だけでは上述の光学フィルタをカメラに装着して撮影した写真と同じ効果を有する画像を撮影することはできない。   Further, in the HDR processing as in Patent Document 1, the pixel output can be recorded without being saturated. However, an image having the same effect as a photograph taken with the above-described optical filter attached to the camera cannot be taken only by the HDR process.

本発明は、このような事情を鑑みてなされたものであり、通常の撮影ではデジタル出力のフルビットに達してデータがフルビットでクリップ(以下「飽和クリップ」という)してしまう天体撮影像についても飽和クリップさせずに撮影し、光学フィルタと同等のフィルタ効果の画像処理を施すことができ、さらに光学フィルタを装着した撮影では実現できないより印象的な天体写真を撮影することが可能な撮像装置、画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and astronomical images in which data is clipped with full bits (hereinafter referred to as “saturated clips”) when full-bit digital output is reached in normal shooting. An image pickup apparatus capable of taking a picture without saturation clipping, performing image processing with a filter effect equivalent to that of an optical filter, and taking a more impressive astronomical photograph that cannot be realized by photography equipped with an optical filter An object is to provide an image processing apparatus, an image processing method, and an image processing program.

上記目的を達成するため第1の発明に係る撮像装置は、標準露光時間よりも短い露光時間で被写体を複数コマ撮影する撮像部と、上記撮像部により撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成部と、上記合成画像データを生成する前の画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理を行うフィルタ処理部と、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整部と、を備える。   In order to achieve the above object, an image pickup apparatus according to a first invention includes an image pickup unit that takes a plurality of frames of an object with an exposure time shorter than a standard exposure time, and image data of a plurality of frames obtained by shooting with the image pickup unit. An image composition unit that generates composite image data by combining the image data, a filter processing unit that performs filter processing on the image data before generating the composite image data or the composite image data synthesized by the image composition unit, The composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or the bit length of the image data subjected to the filtering process on the synthesized image data synthesized by the image synthesizing unit A bit length adjustment unit that adjusts the bit length to be shorter than the data bit length.

第2の発明に係る撮像装置は、上記第1の発明において、上記撮像部は、画素データの最大値が飽和しないような露光時間を設定して撮影する。
第3の発明に係る撮像装置は、上記第1の発明において、上記撮像部は、画像を複数の領域に分割し、該分割したすべての画像に対応した領域の画像データの平均値が飽和しないような露光時間を設定して撮影する。
In the imaging apparatus according to a second aspect of the present invention, in the first aspect, the imaging unit sets the exposure time such that the maximum value of the pixel data is not saturated and takes a picture.
In the imaging device according to a third aspect based on the first aspect, the imaging unit divides the image into a plurality of regions, and the average value of the image data of the regions corresponding to all the divided images is not saturated. Set the exposure time to take a picture.

第4の発明に係る撮像装置は、上記第1の発明において、上記ビット長調整部は、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように、上記フィルタ処理が施された画像データをクリップする。
第5の発明に係る撮像装置は、上記第1の発明において、上記ビット長調整部は、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように、上記フィルタ処理が施された画像データの諧調を圧縮する。
In the imaging device according to a fourth aspect based on the first aspect, the bit length adjusting unit is synthesized by the synthesized image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or by the image synthesizing unit. The image data subjected to the filtering process is clipped so that the bit length of the image data that has been subjected to the filtering process on the combined image data is shorter than the bit length of the combined image data.
In the imaging device according to a fifth aspect based on the first aspect, the bit length adjusting unit is synthesized by the synthesized image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or by the image synthesizing unit. The gradation of the image data subjected to the filtering process is compressed so that the bit length of the image data subjected to the filtering process on the combined image data is shorter than the bit length of the combined image data.

第6の発明に係る撮像装置は、上記第1の発明において、上記合成画像データを生成する前の画像データまたは上記画像合成部により合成された画像データのレベルを判定する画像出力判定部をさらに備え、上記合成画像データを生成する前の画像データに対して上記フィルタ処理を行う場合は該合成画像データを生成する前の画像データのレベルに応じて、また上記合成画像データに対してフィルタ処理を行う場合は該合成画像データのレベルに応じて上記フィルタ処理を変更する。
第7の発明に係る撮像装置は、上記第1の発明において、上記画像合成部は、加算合成、平均合成、比較明合成、比較暗合成、動画合成のうちの少なくとも1種類の画像合成を行う。
The image pickup apparatus according to a sixth aspect of the present invention is the image pickup apparatus according to the first aspect, further comprising: an image output determination unit that determines a level of the image data before generating the combined image data or the image data combined by the image combining unit. And when performing the filtering process on the image data before generating the synthesized image data, the filtering process is performed on the synthesized image data according to the level of the image data before generating the synthesized image data. When performing the above, the filter processing is changed according to the level of the composite image data.
In the imaging device according to a seventh aspect based on the first aspect, the image composition unit performs at least one kind of image composition among addition composition, average composition, comparative light composition, comparative dark composition, and moving image composition. .

第8の発明に係る撮像装置は、上記第1の発明において、上記画像合成部に合成された画像を表示する画像表示部をさらに備え、上記画像表示部は、上記撮像部により画像データが撮影されるごとに順次合成を行うことによって得られた合成画像を順次表示する。
第9の発明に係る撮像装置は、上記第1の発明において、上記フィルタ処理はソフトフィルタ処理又はクロスフィルタ処理である。
An image pickup apparatus according to an eighth aspect of the present invention further includes an image display unit that displays the image combined with the image combining unit in the first aspect of the invention, and the image display unit captures image data by the image pickup unit. The synthesized images obtained by sequentially synthesizing each time are sequentially displayed.
In the imaging device according to a ninth aspect based on the first aspect, the filtering process is a soft filtering process or a cross filtering process.

第10の発明に係る画像処理装置は、標準露光時間よりも短い露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成部と、上記合成画像データを生成する前の画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理を行うフィルタ処理部と、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整部と、を備える。
第11の発明に係る画像処理方法は、標準露光時間よりも短い露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成ステップと、上記合成画像データを生成する前の画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理を行うフィルタ処理ステップと、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整ステップと、を備える。
第12の発明に係る画像処理プログラムは、標準露光時間よりも短い露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成ステップと、上記合成画像データを生成する前の画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理を行うフィルタ処理ステップと、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整ステップと、をコンピュータに実行させる。
An image processing apparatus according to a tenth aspect of the invention is an image synthesizing unit that synthesizes a plurality of frames of image data obtained by photographing a subject with an exposure time shorter than a standard exposure time, and generates the synthesized image data. A filter processing unit that performs a filtering process on the image data before generating the image data or the synthesized image data synthesized by the image synthesizing unit, and a synthesis that combines the image data of the plurality of frames subjected to the filtering process A bit length adjusting unit that adjusts the bit length of the image data that has been subjected to the filtering process on the image data or the synthesized image data synthesized by the image synthesizing unit so as to be shorter than the bit length of the synthesized image data; .
An image processing method according to an eleventh aspect of the invention is an image synthesizing step for synthesizing a plurality of frames of image data obtained by photographing a subject with an exposure time shorter than a standard exposure time, and generating synthesized image data. A filter processing step for performing a filtering process on the image data before generating the image data or the synthesized image data synthesized in the image synthesizing step, and a synthesis in which the image data of the plurality of frames subjected to the filtering process are synthesized. A bit length adjusting step for adjusting the bit length of the image data or the image data that has been subjected to the filtering process on the synthesized image data synthesized in the image synthesizing step to be shorter than the bit length of the synthesized image data; .
An image processing program according to a twelfth aspect of the present invention is an image composition step for synthesizing a plurality of frames of image data obtained by photographing a subject with an exposure time shorter than a standard exposure time to generate composite image data; A filter processing step for performing a filtering process on the image data before generating the image data or the synthesized image data synthesized in the image synthesizing step, and a synthesis in which the image data of the plurality of frames subjected to the filtering process are synthesized. A bit length adjusting step for adjusting the bit length of the image data or the image data that has been subjected to the filtering process on the synthesized image data synthesized in the image synthesizing step to be shorter than the bit length of the synthesized image data; , Execute on the computer.

本発明によれば、通常の撮影では飽和クリップしてしまう天体撮影像についても飽和クリップさせずに撮影し、光学フィルタと同等のフィルタ効果の画像処理を施すことができ、さらに光学フィルタを装着した撮影では実現できないより印象的な天体写真を撮影することが可能な撮像装置、画像処理装置、画像処理方法、および画像処理プログラムを提供することができる。   According to the present invention, even an astronomical image that is saturated during normal photographing can be photographed without saturation clipping, and can be subjected to image processing with a filter effect equivalent to that of an optical filter, and further equipped with an optical filter. It is possible to provide an imaging apparatus, an image processing apparatus, an image processing method, and an image processing program capable of capturing a more impressive astronomical photograph that cannot be realized by photographing.

本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. 本発明の一実施形態に係るカメラの撮影動作を示すフローチャートである。It is a flowchart which shows the imaging | photography operation | movement of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの撮影動作を示すフローチャートである。It is a flowchart which shows the imaging | photography operation | movement of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラの撮影動作を示すフローチャートである。It is a flowchart which shows the imaging | photography operation | movement of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのソフトフィルタのフィルタ係数の一例を示す図である。It is a figure which shows an example of the filter coefficient of the soft filter of the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラのクロスフィルタのフィルタ係数の一例を示す図である。It is a figure which shows an example of the filter coefficient of the cross filter of the camera which concerns on one Embodiment of this invention. 画像処理で拡散フィルタの効果を付与する従来の例を示す。The conventional example which provides the effect of a diffusion filter by image processing is shown. 本発明の一実施形態に係るカメラにおいて、画像処理で拡散フィルタの効果を付与した場合の出力の一例を示す図である。It is a figure which shows an example of the output at the time of providing the effect of a diffusion filter by image processing in the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係るカメラにおいて、画像処理で拡散フィルタの効果を付与した場合の出力の他の一例を示す図である。It is a figure which shows another example of the output at the time of providing the effect of a diffusion filter by image processing in the camera which concerns on one Embodiment of this invention.

以下、本発明を適用したカメラを用いた好ましい実施形態について説明する。本発明の好ましい実施形態に係るカメラは、デジタルカメラであり、概略、イメージセンサから読み出される画像データに基づく画像データを表示部にライブビュー表示すると共にレリーズ釦の操作に応じて記録用に画像処理した画像データを外部メモリに記録する。   Hereinafter, a preferred embodiment using a camera to which the present invention is applied will be described. A camera according to a preferred embodiment of the present invention is a digital camera, and roughly displays image data based on image data read from an image sensor on a display unit and performs image processing for recording according to an operation of a release button. The recorded image data is recorded in the external memory.

また、本実施形態に係るカメラは、デジタルフィルタ処理が設定されている場合には、分割露光を行い(例えば、図3のS15、S17、図8(a)参照)、分割露光時間が経過する毎に画像データを読み出し、読み出された複数の画像データを合成した合成画像データを生成し(例えば、図3のS21、S27、図8(b)参照)、この合成画像データに対してフィルタ処理を施す(例えば、図4のS33、図8(c)参照)。そして、フィルタ処理が施された画像データのビット長を合成画像データのビット長よりも短くなるように調整する(例えば、図4のS37、図8(d)参照)。   In addition, when the digital filter processing is set, the camera according to the present embodiment performs divided exposure (for example, see S15 and S17 in FIG. 3 and FIG. 8A), and the divided exposure time elapses. Image data is read out every time, and synthesized image data is generated by synthesizing a plurality of read image data (see, for example, S21, S27 in FIG. 3, and FIG. 8B), and a filter is applied to this synthesized image data Processing is performed (for example, see S33 in FIG. 4 and FIG. 8C). Then, the bit length of the image data subjected to the filter processing is adjusted so as to be shorter than the bit length of the composite image data (see, for example, S37 in FIG. 4 and FIG. 8D).

図1は、本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。本実施形態におけるカメラは、撮像部1、画像処理部10、画像出力検知部19、システム制御部20、およびバス31とこれに接続された各部を有する。なお、本実施形態においては、レンズ2は、カメラ本体と一体に構成されているが、交換レンズとしても勿論かまわない。   FIG. 1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. The camera in the present embodiment includes an imaging unit 1, an image processing unit 10, an image output detection unit 19, a system control unit 20, and a bus 31 and each unit connected thereto. In the present embodiment, the lens 2 is configured integrally with the camera body, but may of course be an interchangeable lens.

撮像部1内には、レンズ2、メカシャッタ3、イメージセンサ4が設けられている。撮像部1は、標準露光時間(例えば、図2のS7参照)よりも短い分割露光時間(例えば、図2のS9参照)で被写体を複数コマ撮影する撮像部として機能する。また、詳しくは後述するように、撮像部は、画素データの最大値が飽和しないような分割露光時間を設定して撮影する(例えば、図2のS9参照)。   In the imaging unit 1, a lens 2, a mechanical shutter 3, and an image sensor 4 are provided. The imaging unit 1 functions as an imaging unit that captures a plurality of frames of a subject with a divided exposure time (for example, see S9 in FIG. 2) shorter than the standard exposure time (for example, see S7 in FIG. 2). Further, as will be described in detail later, the imaging unit sets a division exposure time so that the maximum value of the pixel data is not saturated (for example, refer to S9 in FIG. 2).

レンズ2は、イメージセンサ4に被写体の光学像を結像する。このレンズ2内には、開口径が変化し、露出量を調節するための絞り値を決定する絞りを備える。レンズ2は、現在設定されている焦点距離等の情報を検出し、システム制御部20に出力する。また、メカシャッタ3は、開閉動作によりイメージセンサ4への露出や遮光を行い、露光時間を制御する。   The lens 2 forms an optical image of the subject on the image sensor 4. The lens 2 includes an aperture that changes its aperture diameter and determines an aperture value for adjusting the exposure amount. The lens 2 detects information such as the currently set focal length and outputs the detected information to the system control unit 20. Further, the mechanical shutter 3 performs exposure and shading on the image sensor 4 by opening and closing operations, and controls the exposure time.

イメージセンサ4は、CMOSイメージセンサやCCDイメージセンサ等の撮像素子を含み、レンズ2により結像された被写体の光学像を画素毎に電気信号に変換し、画像データを、画像出力検知部19およびバス31に出力する。後述する画像処理部10は、バス31を経由して画像データを入力し、種々の画像処理を施し、バス31に出力する。バス31は、各ブロック間で信号の送受信を行うための信号線である。イメージセンサ4は、電子シャッタを有しており、後述する分割露光時間(Tsec)毎に画像データを読み出し、同時に次のコマの撮影を行うことができる。   The image sensor 4 includes an image sensor such as a CMOS image sensor or a CCD image sensor, converts an optical image of a subject formed by the lens 2 into an electrical signal for each pixel, and converts the image data into an image output detection unit 19 and Output to bus 31. The image processing unit 10 described later inputs image data via the bus 31, performs various image processing, and outputs the image data to the bus 31. The bus 31 is a signal line for transmitting and receiving signals between the blocks. The image sensor 4 has an electronic shutter, and can read out image data every divided exposure time (Tsec) to be described later, and can simultaneously photograph the next frame.

画像出力検知部19は、イメージセンサ4から出力された画像データの出力が、飽和しているか否かを検知する。また、画像出力検知部19は、AE制御を行うために、イメージセンサ4からの画像データに基づいて被写体輝度値を検出する。この検知された被写体輝度値は、システム制御部20に出力され、AE(自動露出:Auto Exposure)制御において、レンズ2の絞りや、メカシャッタ3のシャッタ速度、イメージセンサ4の電子シャッタ速度、ISO感度等の露出条件の制御に使用される。   The image output detection unit 19 detects whether the output of the image data output from the image sensor 4 is saturated. Further, the image output detection unit 19 detects the subject luminance value based on the image data from the image sensor 4 in order to perform AE control. The detected subject luminance value is output to the system control unit 20, and in AE (Auto Exposure) control, the aperture of the lens 2, the shutter speed of the mechanical shutter 3, the electronic shutter speed of the image sensor 4, and the ISO sensitivity. Used to control exposure conditions such as

画像処理部10は、イメージセンサから出力された画像データに画像処理を施す。この画像処理部10は、画像合成部11、フィルタ処理部13、クリップ処理部15、および現像処理部17を有し、画像合成部11は、加算合成部11a、比較合成部11b、加算平均合成部11c、動画生成部11dを有する。   The image processing unit 10 performs image processing on the image data output from the image sensor. The image processing unit 10 includes an image synthesis unit 11, a filter processing unit 13, a clip processing unit 15, and a development processing unit 17. The image synthesis unit 11 includes an addition synthesis unit 11a, a comparison synthesis unit 11b, and an addition average synthesis. Unit 11c and moving image generation unit 11d.

画像合成部11は、イメージセンサ4により撮影して得られた複数のコマの画像データを合成して合成画像データを生成する。後述するように、1枚分の撮影を行うにあたって、撮影時間(図2のS7の標準露光時間(Ssec)参照)が所定時間よりも長い場合には、分割露光時間(図2のS9の分割露光時間(Tsec)参照)ごとに、イメージセンサ4から画像データを読み出す(図3のS13〜S17参照)。画像合成部11は、この読み出された画像データの画像合成を行う(図3のS21参照)。画像合成部11は、標準露光時間よりも短い分割露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成部として機能する。   The image synthesizing unit 11 synthesizes image data of a plurality of frames obtained by photographing with the image sensor 4 to generate synthesized image data. As will be described later, when shooting for one sheet, if the shooting time (see the standard exposure time (Ssec) of S7 in FIG. 2) is longer than a predetermined time, the divided exposure time (S9 of FIG. 2) is divided. Image data is read from the image sensor 4 at every exposure time (see Tsec) (see S13 to S17 in FIG. 3). The image composition unit 11 performs image composition of the read image data (see S21 in FIG. 3). The image synthesizing unit 11 functions as an image synthesizing unit that generates synthesized image data by synthesizing image data of a plurality of frames obtained by photographing a subject with a divided exposure time shorter than the standard exposure time.

画像合成部11中の加算合成部11aは、イメージセンサ4から読み出された複数の画像データの内、それぞれ対応する画素毎に出力を加算して合成画像データを生成する。比較合成部11bはイメージセンサ4から読み出された複数の画像データの内、それぞれ対応する画素毎に出力を比較し出力が大きい方の画素出力を合成画像の画素データとする比較明合成、または出力が小さい方の画素出力を合成画像の画素データとする比較暗合成によって合成画像データを生成する。   The addition combining unit 11a in the image combining unit 11 adds the outputs for each corresponding pixel among the plurality of image data read from the image sensor 4, and generates combined image data. The comparison / synthesis unit 11b compares outputs for each corresponding pixel among a plurality of image data read from the image sensor 4 and uses the pixel output of the larger output as the pixel data of the synthesized image, or The composite image data is generated by comparative dark composition using the pixel output with the smaller output as the pixel data of the composite image.

加算平均合成部11cは、イメージセンサ4から読み出された複数の画像データの内、それぞれ対応する画素毎の出力を加算平均して合成画像データを生成する。動画生成部11dは連続的に読み出された複数フレームの画像データを時系列に繋ぎ合わせて動画像データを生成する。このように、画像合成部11は、加算合成、平均合成、比較明合成、比較暗合成、動画合成のうちの少なくとも1種類の画像合成を行う。本実施形態においては、これら4つの合成を行うことが可能であるが、いずれか1つ又は複数でもよく、また他の画像合成方法を実行可能としてもよい。   The addition average combining unit 11c generates the combined image data by adding and averaging the outputs of the corresponding pixels among the plurality of image data read from the image sensor 4. The moving image generation unit 11d generates moving image data by connecting image data of a plurality of frames read continuously in time series. As described above, the image composition unit 11 performs at least one kind of image composition among addition composition, average composition, comparative light composition, comparative dark composition, and moving image composition. In the present embodiment, these four combinations can be performed, but any one or a plurality of them may be performed, and other image composition methods may be executable.

フィルタ処理部13は、画像処理部10によって通常の画像処理が施された画像データや、画像合成部11によって画像処理された画像データに対して、ソフトフィルタ処理やクロスフィルタ処理などのフィルタ処理を施す(図4のS33参照)。フィルタ処理の際のフィルタ係数の例については図5および図6を用いて説明する。フィルタ処理部13は、画像合成部により合成された合成画像データに対してフィルタ処理を行うフィルタ処理部として機能する。   The filter processing unit 13 performs filter processing such as soft filter processing and cross filter processing on image data that has been subjected to normal image processing by the image processing unit 10 and image data that has been subjected to image processing by the image synthesis unit 11. (See S33 in FIG. 4). An example of the filter coefficient in the filtering process will be described with reference to FIGS. The filter processing unit 13 functions as a filter processing unit that performs filter processing on the combined image data combined by the image combining unit.

クリップ処理部15は、フィルタ処理部13によってフィルタ処理が施された画像データを所定ビットでクリップを行う(例えば、図4のS35参照)。このクリップ処理については、図8および図9を用いて後述する。クリップ処理部15は、フィルタ処理が施された画像データのビット長を、合成画像データのビット長よりも短くなるように調整するビット長調整部として機能する。   The clip processing unit 15 clips the image data filtered by the filter processing unit 13 with a predetermined bit (see, for example, S35 in FIG. 4). This clip processing will be described later with reference to FIGS. The clip processing unit 15 functions as a bit length adjustment unit that adjusts the bit length of the image data subjected to the filter processing so as to be shorter than the bit length of the composite image data.

現像処理部17は、画像合成部11で生成されたRAW画像データやクリップ処理部15でクリップ処理されたRAW画像データ等に対して、デモザイキング、ホワイトバランス調整、ガンマ補正、画像圧縮などの現像処理を行う。   The development processing unit 17 performs development such as demosaicing, white balance adjustment, gamma correction, and image compression on the RAW image data generated by the image synthesis unit 11 and the RAW image data clipped by the clip processing unit 15. Process.

バス31には、前述の撮像部1、画像処理部10、および画像出力検知部19の他に、内部メモリ33、外部メモリ36、表示部37、入力IF38、システム制御部20が接続されている。   In addition to the imaging unit 1, the image processing unit 10, and the image output detection unit 19, an internal memory 33, an external memory 36, a display unit 37, an input IF 38, and the system control unit 20 are connected to the bus 31. .

内部メモリ33は、カメラ動作に必要な各種設定情報や、画像処理時に途中経過の画像データを一時的に記憶する。内部メモリ33は、フラッシュメモリ、SDRAM等の書き換え可能な不揮発性のメモリによって構成される。   The internal memory 33 temporarily stores various setting information necessary for camera operation and image data in the middle of image processing. The internal memory 33 is configured by a rewritable nonvolatile memory such as a flash memory or SDRAM.

外部メモリ36は、カメラ本体に装填自在、または内部に固定された不揮発性の記憶媒体であり、例えば、SDカードやCFカード等である。この外部メモリ36は、現像処理部13で現像処理された画像データを記録し、また再生時には、記録された画像データが読み出され、カメラの外部に出力可能である。   The external memory 36 is a non-volatile storage medium that can be loaded into the camera body or fixed inside, and is, for example, an SD card or a CF card. The external memory 36 records the image data developed by the development processing unit 13, and at the time of reproduction, the recorded image data can be read out and output to the outside of the camera.

表示部37は、TFT(Thin Film Transistor)液晶や有機ELなどの背面表示部やEVF(電子ビューファインダ)を有し、現像処理部17によって現像された画像を表示する。表示部37には、ライブビュー表示、記録済み画像の再生表示、メニュー画面表示等の画像が表示される。   The display unit 37 includes a rear display unit such as a TFT (Thin Film Transistor) liquid crystal or an organic EL, and an EVF (electronic viewfinder), and displays an image developed by the development processing unit 17. The display unit 37 displays images such as live view display, playback display of recorded images, and menu screen display.

入力IF38は、レリーズ釦等の操作部材や、背面表示部等におけるタッチ操作を入力するためのタッチパネル等を有し、ユーザ操作に基づいて各種のモード設定やレリーズ等撮影動作の指示を行う。   The input IF 38 includes an operation member such as a release button, a touch panel for inputting a touch operation on the rear display unit, and the like, and instructs various shooting operations such as mode setting and release based on a user operation.

システム制御部20は、CPU(Central Processing Unit)等を有し、内部メモリ33内に記憶されたプログラムに従ってカメラの各部を制御することにより全体制御を行う。また、システム制御部20は、前述の撮像部1、画像処理部10、画像出力検知部19等の全体制御を行う。   The system control unit 20 includes a CPU (Central Processing Unit) and the like, and performs overall control by controlling each unit of the camera according to a program stored in the internal memory 33. In addition, the system control unit 20 performs overall control of the imaging unit 1, the image processing unit 10, the image output detection unit 19, and the like.

次に、図2ないし図4に示すフローチャートを用いて、本実施形態におけるカメラの主としてデジタルフィルタ処理が選択されている場合の動作について説明する。このフローチャートは、内部メモリ33に記憶されたプログラムに従って、システム制御部20が各部を制御することにより実行する。   Next, using the flowcharts shown in FIG. 2 to FIG. 4, the operation of the camera according to the present embodiment when digital filter processing is mainly selected will be described. This flowchart is executed by the system control unit 20 controlling each unit in accordance with a program stored in the internal memory 33.

なお、このフローチャートでは明示してないが、撮影者が入力IF38を介してカメラの露出制御モードが設定されているものとする。露出制御モードとしては、例えば、露出プログラムオートモード、シャッタ速優先モード、絞り優先モード、露出マニュアルモード、バルブ撮影モード等が設定可能である。また、本実施形態においては、画像処理部10でフィルタ処理を行うデジタルフィルタ設定が選択されている場合について説明する。   Although not explicitly shown in this flowchart, it is assumed that the photographer has set the exposure control mode of the camera via the input IF 38. As the exposure control mode, for example, an exposure program auto mode, a shutter speed priority mode, an aperture priority mode, an exposure manual mode, a bulb photographing mode, and the like can be set. In the present embodiment, a case where the digital filter setting for performing the filter processing in the image processing unit 10 is selected will be described.

図2に示すフローチャートに入ると、まず、ライブビュー表示を行う(S1)。このステップでは、イメージセンサ4から所定のフレームレートで連続的に読み出された画像データに対して、画像処理部10がライブビュー表示用の画像処理を施し、表示部37に画像処理された画像データを用いてライブビュー画像が表示される。   In the flowchart shown in FIG. 2, first, live view display is performed (S1). In this step, the image processing unit 10 performs image processing for live view display on the image data continuously read from the image sensor 4 at a predetermined frame rate, and the image processed on the display unit 37 is processed. A live view image is displayed using the data.

ライブビュー表示がなされると、撮影者はリアルタイム表示されるライブビュー画像を確認しながら本撮影用に構図・ピント位置、露出条件(露光時間、絞り値、ISO感度やEV値など)などの撮影条件を設定する。露出条件は例えば露出プログラムオートモードが選択されていた場合は、画像出力検知部19が被写体の明るさを検知し、システム制御部20が適正露出になるように、いわゆるAPEX(Additive System of Photographic Exposure)演算に基づいて露出条件を設定する。   When live view is displayed, the photographer shoots the composition, focus position, exposure conditions (exposure time, aperture value, ISO sensitivity, EV value, etc.) for the main shooting while checking the live view image displayed in real time. Set conditions. For example, when the exposure program auto mode is selected as the exposure condition, the image output detection unit 19 detects the brightness of the subject, and the system control unit 20 achieves proper exposure so-called APEX (Additive System of Photographic Exposure). ) Set the exposure conditions based on the calculation.

また、シャッタ速優先モードであれば撮影者が指定したシャッタに固定して、それ以外の絞りやISO感度を調節して適正露出になるように露出条件を自動で設定する。ここで撮影者が露出補正を設定している場合は、適正露出量に対して、撮影者が設定した分の露出補正がなされるように露出条件を自動で設定する。露出マニュアルモードでは、撮影者が表示部37に表示されているライブビュー画像の明るさを確認しながら、絞りとシャッタ速度の両方をマニュアルで調節する。以下、各種露出制御モードにおいて、上述のように設定された露出条件のうち、露出時間を標準露光時間(Ssec)と呼ぶことにする。   In the shutter speed priority mode, the exposure condition is automatically set by fixing the shutter specified by the photographer and adjusting the other apertures and ISO sensitivity so as to obtain an appropriate exposure. Here, when the photographer has set exposure correction, the exposure condition is automatically set so that the exposure correction corresponding to the photographer's setting is performed with respect to the appropriate exposure amount. In the exposure manual mode, the photographer manually adjusts both the aperture and the shutter speed while checking the brightness of the live view image displayed on the display unit 37. Hereinafter, in various exposure control modes, among the exposure conditions set as described above, the exposure time is referred to as a standard exposure time (Ssec).

また、バルブ撮影モードでは絞りは撮影者が設定した値で、レリーズ釦が押されている間は撮影を続け、レリーズが離されたら撮影を終了する。なお、これに限らず、1度目のレリーズ押下で撮影を開始し、2度目のレリーズ押下で撮影を終了するようにしてもよい。   In the bulb shooting mode, the aperture is a value set by the photographer, and shooting is continued while the release button is pressed, and shooting is terminated when the release is released. However, the present invention is not limited to this, and the shooting may be started by pressing the first release and the shooting may be ended by pressing the second release.

ステップS1においてライブビュー表示を行うと、次に、画像出力の検知を行う(S3)。ここでは、画像出力検知部19が、イメージセンサ4から読み出される画像データに基づいて被写体の輝度レベルを検出する。   Once live view display is performed in step S1, image output is detected next (S3). Here, the image output detection unit 19 detects the luminance level of the subject based on the image data read from the image sensor 4.

ステップS3において画像出力の検知を行うと、次に、バルブ撮影モードが設定されているか否かを判定する(S5)。このステップでは、入力IF38によってバルブ撮影モードが設定されたか否かを判定する。   If image output is detected in step S3, it is next determined whether or not the bulb photographing mode is set (S5). In this step, it is determined whether or not the bulb photographing mode is set by the input IF 38.

ステップS5における判定の結果、バルブ撮影モードが設定されていない場合には、標準露光時間(Ssec)を決定する(S7)。露出制御モードとして露出プログラムオートや絞り優先モードが設定されている場合には、APEX演算で算出され、露出マニュアルモードやシャッタ速優先モードが設定されている場合には、ユーザの設定によって標準露光時間(Ssec)が決定される。   If the result of determination in step S5 is that bulb shooting mode is not set, the standard exposure time (Ssec) is determined (S7). When exposure program auto or aperture priority mode is set as the exposure control mode, it is calculated by APEX calculation. When exposure manual mode or shutter speed priority mode is set, the standard exposure time is set by the user. (Ssec) is determined.

ステップS7において、標準露光時間(Ssec)を決定すると、またはステップS5における判定の結果、設定されている露出制御モードがバルブ撮影モードの場合には、次に、分割露光時間(Tsec)を決定する(S9)。ここでは、本撮影用の絞りとISO感度で撮影した場合に、被写体内の高輝度出力であっても飽和しない分割露光時間(Tsec)を決定する。   When the standard exposure time (Ssec) is determined in step S7, or when the set exposure control mode is the bulb photographing mode as a result of the determination in step S5, the divided exposure time (Tsec) is determined next. (S9). Here, a division exposure time (Tsec) is determined that does not saturate even if the high-luminance output in the subject is taken with the aperture for the main shooting and ISO sensitivity.

ここで分割露光時間Tsecは、画像の全画素を飽和させない(言い換えると、デジタル出力に変換した際にフルビット以上に達しない)露出時間を指す。具体的には本撮影用の絞り設定とISO設定で現状のライブビュー画像の全画素のうち1画素でも飽和する画素があれば、ライブビュー画像取得用の電子シャッタ速度(フレームレート)を短くしていき、画像内の高輝度の画素が飽和しない露出時間を、分割露光時間Tsecとすることにより求める。   Here, the divided exposure time Tsec indicates an exposure time that does not saturate all the pixels of the image (in other words, does not reach the full bit or more when converted to digital output). Specifically, if there is a pixel that saturates even one pixel among all the pixels of the current live view image in the aperture setting and ISO setting for actual shooting, the electronic shutter speed (frame rate) for obtaining the live view image is shortened. Then, the exposure time during which the high-luminance pixels in the image are not saturated is determined as the divided exposure time Tsec.

ステップS9において、分割露光時間(Tsec)を決定すると、レリーズ釦が押し下げられたか否かを判定する(S11)。撮影者はライブビュー表示を観察し、構図を決め、シャッタタイミングが良ければ、撮影を開始するためにレリーズ釦を押し下げる。このステップでは、入力IF38の一つであるレリーズ釦の押し下げに応じてオンするスイッチの状態に基づいて判定する。この判定の結果、レリーズ釦が押し下げられていなければ、ステップS1に戻り、前述のライブビュー表示を行い、標準露光時間(Ssec)や分割露光時間(Tsec)の決定等を繰り返す。   In step S9, when the divided exposure time (Tsec) is determined, it is determined whether or not the release button is pressed (S11). The photographer observes the live view display, determines the composition, and if the shutter timing is good, presses the release button to start photographing. In this step, the determination is made based on the state of the switch that is turned on in response to the depression of the release button that is one of the input IFs 38. If the release button is not depressed as a result of this determination, the process returns to step S1, the above-described live view display is performed, and the determination of the standard exposure time (Ssec) and the divided exposure time (Tsec) is repeated.

ステップS11における判定の結果、レリーズ釦が押し下げられると、次に、バルブ撮影モードが設定されているか、または標準露光時間(Ssec)>分割露光時間(Tsec)か否かを判定する(S13)。標準露光時間(Ssec)よりも分割露光時間(Tsec)の方が長いと、被写体内の高輝度画素が飽和してしまう。そこで、このような場合には、ステップS15〜S27において分割露光を行い、合成画像を生成するようにしている。またバルブ撮影モードには露光時間が撮影者のバルブ撮影の終了タイミングによって決定され、本撮影用シャッタ速度が不明であるため、分割露光時間Tsecが経過する毎に画像を読み出し、合成画像を生成するようにしている。   If the release button is pressed as a result of the determination in step S11, it is next determined whether or not the bulb photographing mode is set or whether the standard exposure time (Ssec)> the divided exposure time (Tsec) (S13). If the divided exposure time (Tsec) is longer than the standard exposure time (Ssec), the high-luminance pixels in the subject are saturated. Therefore, in such a case, divided exposure is performed in steps S15 to S27 to generate a composite image. In the bulb exposure mode, the exposure time is determined by the end timing of the bulb exposure of the photographer, and the shutter speed for main photography is unknown. Therefore, an image is read out every time the divided exposure time Tsec elapses to generate a composite image. I am doing so.

なお、レリーズ釦が押し下げられると、撮影を開始するが、撮影にあたっては、一旦、メカシャッタ3を閉じてから開き、この開き動作に応じて露光を開始する。分割露光時間Tsecごとに画像データの読み出しの際には、メカシャッタ3は開放したままであり、標準露光時間(Ssec)が経過すると、メカシャッタ3は一旦閉じ、その後、ライブビュー表示を行うためにメカシャッタ3を開く。   Note that when the release button is pressed down, shooting starts, but when shooting, the mechanical shutter 3 is once closed and then opened, and exposure is started according to this opening operation. When the image data is read every divided exposure time Tsec, the mechanical shutter 3 remains open. When the standard exposure time (Ssec) elapses, the mechanical shutter 3 is temporarily closed, and then the mechanical shutter 3 is used for live view display. Open 3

ステップS13における判定の結果、バルブ撮影モードでなく、またはSsec>Tsecでない場合には、標準露光時間(Ssec)後、画像読み出しを行う(S29)。ここでは、標準露光時間(Ssec)が分割露光時間(Tsec)よりも短く、高輝度画素が飽和することがないので、決定された標準露光時間で露光を行い、露光が終了すると、イメージセンサ4から画像データを読み出す。   If the result of determination in step S13 is not bulb shooting mode or if Ssec> Tsec, image readout is performed after the standard exposure time (Ssec) (S29). Here, since the standard exposure time (Ssec) is shorter than the divided exposure time (Tsec) and the high-luminance pixels do not saturate, exposure is performed with the determined standard exposure time, and when the exposure ends, the image sensor 4 Read image data from.

一方、ステップS13における判定の結果、バルブ撮影モードが設定されていた場合、またはSsec>Tsecの場合には、分割露光時間(Tsec)が経過したか否かを判定する(S15)。システム制御部20は、イメージセンサ4が露光を開始してからの時間を計測するタイマを有し、このタイマの計時動作に基づいて判定する。この判定の結果、分割露光時間(Tsec)が経過していない場合には、この時間が経過するのを待つ。   On the other hand, as a result of the determination in step S13, if the bulb photographing mode is set or if Ssec> Tsec, it is determined whether or not the divided exposure time (Tsec) has elapsed (S15). The system control unit 20 includes a timer that measures the time from when the image sensor 4 starts exposure, and makes a determination based on the timing operation of this timer. If the result of this determination is that the divided exposure time (Tsec) has not elapsed, the system waits for this time to elapse.

ステップS15における判定の結果、分割露光時間Tsecが経過すると、画像読み出しを行うと共に、次のコマの撮影を開始する(S17)。イメージセンサ4は電子シャッタを有しており、画像データの読み出しを完了すると、次のコマの撮影(画素で発生する電荷の蓄積を開始する)を行うことができる。読み出された画像データは内部メモリ33に一時記憶する。また次のコマの撮影を開始する際に、Tsec検出用のタイマをリセットし計時動作を再開する。   If the result of determination in step S15 is that the divided exposure time Tsec has elapsed, image reading is performed and shooting of the next frame is started (S17). The image sensor 4 has an electronic shutter, and when reading of image data is completed, the next frame can be photographed (accumulation of charges generated in the pixels is started). The read image data is temporarily stored in the internal memory 33. In addition, when shooting of the next frame is started, the timer for detecting Tsec is reset and the timing operation is restarted.

ステップS17において、画像読み出しと次のコマの撮影を開始すると、撮影開始後1枚目の撮影画像か否かを判定する(S19)。ステップS17において読み出した画像が1枚目の場合には、画像合成の対象とならないことから、このステップで判定している。   In step S17, when image reading and shooting of the next frame are started, it is determined whether or not it is the first shot image after the start of shooting (S19). If the image read in step S17 is the first image, it is determined in this step because it is not a target for image composition.

ステップS19における判定の結果、撮影開始後1枚目の撮影画像でない場合には、画像合成を行う(S21)。2枚目の撮影画像の場合には、画像合成部11が1枚目と2枚目の画像データを用いて画像合成し、合成画像の画像データを内部メモリ33に記憶する。そして、3枚目の撮影画像の画像データを取得すると、内部メモリ33に記憶された合成画像データと3枚目の撮影画像の画像データを用いて画像合成し、この画像データを内部メモリ33に記憶する。従って、N(2以上の整数)枚目の撮影画像の画像データを読み出した場合には、画像合成部11は、1〜N−1枚目までの合成画像データと、N枚目の撮影画像の画像データを用いて合成画像を生成する。画像合成としては、加算合成、比較明合成または比較暗合成、加算平均合成等があり、これらの画像合成の中から撮影者が設定してもよく、またカメラが自動設定してもよい。   If the result of determination in step S19 is not the first captured image after the start of imaging, image composition is performed (S21). In the case of the second photographed image, the image composition unit 11 composes an image using the first and second image data, and stores the image data of the composite image in the internal memory 33. When the image data of the third photographed image is acquired, the composite image data stored in the internal memory 33 and the image data of the third photographed image are combined, and this image data is stored in the internal memory 33. Remember. Accordingly, when the image data of the N (an integer equal to or greater than 2) captured image is read, the image composition unit 11 combines the 1st to (N-1) th composite image data and the Nth captured image. A composite image is generated using the image data. Examples of image synthesis include addition synthesis, comparative bright synthesis or comparative dark synthesis, and addition average synthesis. The image synthesis may be set by the photographer or may be automatically set by the camera.

ステップS21において画像合成を行うと、またはステップS19における判定の結果、撮影開始後1枚目の撮影画像の場合には、画像記録を行う(S23)。ここでは、画像合成部11によって合成された合成画像データ、または1枚目の撮影画像の画像データを、内部メモリ33に記憶する。この記憶の際には、1枚の読み出し画像のデジタル値のビット精度が例えば8bitであった場合は、8bit同士の画像2枚を合成した画像の画素出力のデジタル値がフルビットでクリップされないように、ビット長に余裕を持って記録する。   If image synthesis is performed in step S21 or if the result of determination in step S19 is the first captured image after the start of imaging, image recording is performed (S23). Here, the combined image data combined by the image combining unit 11 or the image data of the first photographed image is stored in the internal memory 33. In this storage, if the bit accuracy of the digital value of one read image is, for example, 8 bits, the digital value of the pixel output of the image obtained by combining two images of 8 bits is not clipped with full bits. In addition, the bit length is recorded with a margin.

具体的には、加算合成の場合、加算合成枚数がM(整数)であった場合には、1画素のデータを格納するデータ容量を8+log2(M)bit以上にすることでフルビット以上となってクリップすることがないようにする(後述する図8(b)参照)。なお、バルブ撮影モード以外の場合には、撮影開始時点で加算合成枚数Mについて既知であるので、データ容量(合成画像のビット数)を予め決めることができる。一方、バルブ撮影モードの場合には、撮影開始時点では加算合成枚数Mがバルブ撮影時間と共に増加するので、撮影時間と共にデータ容量(合成画像のビット数)を増加させていけばよい。   Specifically, in the case of addition synthesis, if the number of addition synthesis is M (integer), the data capacity for storing the data of one pixel becomes 8 + log2 (M) bits or more, so that it becomes more than full bits. To prevent clipping (see FIG. 8B described later). In the case other than the bulb photographing mode, since the added composite number M is known at the time of photographing start, the data capacity (the number of bits of the composite image) can be determined in advance. On the other hand, in the bulb photographing mode, the added composite number M increases with the bulb photographing time at the start of photographing, so the data capacity (the number of bits of the composite image) may be increased with the photographing time.

ステップS23において画像記録を行うと、次に、撮影終了か否かの判定を行う(S25)。バルブ撮影の場合には撮影者がレリーズ釦の押し下げを解除し(または、1度目のレリーズ押下で撮影開始、2度目のレリーズ押下で撮影終了する撮影モードの場合は2度目のレリーズ押下された時点)でバルブ撮影が終了となる。また、バルブ撮影以外のモードでは、撮影者が設定した露光時間または自動的に設定された露光時間に対応した標準露光時間(Ssec)が経過した時点で撮影が終了する。この判定の結果、撮影が終了していない場合には、ステップS15に戻り、分割露光時間(Tsec)が経過するたびに上述したように画像データを読み出し、画像合成を行い、合成画像データの記録を行う。   Once image recording has been performed in step S23, it is next determined whether or not shooting has ended (S25). In the case of bulb shooting, the photographer releases the release button (or starts shooting when the first release is pressed, and in the shooting mode where shooting ends when the second release is pressed, when the second release is pressed. ) Ends bulb shooting. In modes other than bulb shooting, shooting ends when the exposure time set by the photographer or the standard exposure time (Ssec) corresponding to the exposure time set automatically has elapsed. If the result of this determination is that photography has not been completed, processing returns to step S15, and image data is read out as described above every time the divided exposure time (Tsec) elapses, image synthesis is performed, and composite image data is recorded. I do.

ステップS25における判定の結果、撮影が終了すると、画像読み出しと画像合成を行う(S27)。ここでは、イメージセンサ4から最後の画像読み出しを行い、それまでの合成画像データと合成する。ここで、バルブ撮影の場合に、撮影者がTsec経過前にレリーズ釦の押し下げを解除した場合は、ステップS19〜S23の処理を行わずに画像の読出しのみを行う(1枚目の読出しとなるため画像合成も行わない)。   As a result of the determination in step S25, when shooting is completed, image reading and image composition are performed (S27). Here, the last image is read out from the image sensor 4 and combined with the previous combined image data. Here, in the case of bulb shooting, if the photographer releases the press of the release button before Tsec elapses, only the image reading is performed without performing the processing of steps S19 to S23 (the first reading is performed). Therefore, image composition is not performed).

ステップS27において画像読み出しと画像合成を行うと、またはステップS29において画像読み出しを行うと、次に、画像記録を行う(S31)。ここでは、ステップS27において画像合成された合成画像データまたはステップS29において読み出された画像データを、内部メモリ33に記録する。   If image reading and image composition are performed in step S27, or if image reading is performed in step S29, image recording is then performed (S31). Here, the synthesized image data synthesized in step S27 or the image data read in step S29 is recorded in the internal memory 33.

ステップS31において、画像記録を行うと、次に、フィルタ処理を行う(S33)。ここでは、内部メモリ33に保存した画像に対してフィルタ処理を行う。フィルタ効果は例えばソフトフィルタ効果やクロスフィルタ効果、色温度変換フィルタなどさまざまなフィルタ効果を画像処理によって実現できるので、撮影者が選択できるようにしても良い。   Once image recording has been performed in step S31, filter processing is next performed (S33). Here, filter processing is performed on the image stored in the internal memory 33. Since various filter effects such as a soft filter effect, a cross filter effect, and a color temperature conversion filter can be realized by image processing, the filter effect may be selected by the photographer.

例えば、ソフトフィルタ効果が選択されている場合について説明する。画像処理でソフトフィルタ効果を実現するには各画素の出力に対して、例えば図5に示すように(x、y)の2次元の座標系で該当画素の座標(0,0)をフィルタ係数の最大値とし、周囲に行くほどフィルタ係数が小さくなるようなフィルタで画像データに、コンボリューション演算を施すことで、画素の出力が周囲に拡散するようにフィルタ処理がなされる。これにより光学ソフトフィルタで撮影したものとほぼ同等の画像が生成される。なお、図5では、フィルタ係数が、11×11画素、10bitのガウシアンフィルタ係数で表されており、各画素にフィルタ係数を乗算し、210で除算することによりフィルタ処理が行われる。 For example, a case where the soft filter effect is selected will be described. In order to realize the soft filter effect in the image processing, for example, as shown in FIG. 5, for the output of each pixel, the coordinates (0, 0) of the corresponding pixel in the (x, y) two-dimensional coordinate system are used as filter coefficients. By applying a convolution operation to the image data with a filter such that the filter coefficient decreases toward the periphery, filter processing is performed so that the pixel output diffuses to the periphery. As a result, an image that is almost the same as that captured by the optical soft filter is generated. In FIG. 5, the filter coefficients are represented by 11 × 11 pixels and 10-bit Gaussian filter coefficients. Filter processing is performed by multiplying each pixel by the filter coefficient and dividing by 2 10 .

光学フィルタにはぼかし効果の異なるさまざまなフィルタが市販されているが、それぞれのフィルタと同等の効果を得るために、図5に示したフィルタパターンだけでなく係数を変えたり、11×11の画素範囲を広げたり、狭めたり、フィルタを印加する回数を増やしたりすることでフィルタの強さ(ぼかす効果)を変えることができる。   Various filters having different blurring effects are commercially available as optical filters, but in order to obtain the same effect as each filter, not only the filter pattern shown in FIG. The strength (blurring effect) of the filter can be changed by expanding or narrowing the range or increasing the number of times the filter is applied.

また、ソフトフィルタだけでなく、例えばクロスフィルタについては、図6に示すような十字方向に出力が拡散するようなフィルタを印加することも可能である。フィルタパターンを変えることで十字方向以外にもさまざまな方向に強さの異なるクロスフィルタ効果を実現することができる。なお、図6においても、フィルタ係数が、11×11画素、10bitのガウシアンフィルタ係数で表されており、各画素にフィルタ係数を乗算し、210で除算することによりフィルタ処理が行われる。 Further, not only the soft filter but also a cross filter, for example, a filter that diffuses the output in the cross direction as shown in FIG. 6 can be applied. By changing the filter pattern, it is possible to realize cross filter effects having different strengths in various directions other than the cross direction. In FIG. 6, the filter coefficients are represented by 11 × 11 pixels and 10-bit Gaussian filter coefficients, and the filter processing is performed by multiplying each pixel by the filter coefficient and dividing by 2 10 .

ステップS33において、フィルタ処理を行うと、次に、飽和レベルクリップ処理を行う(S35)。ステップS23において説明したように、本実施形態においては、内部メモリ33に保存する合成画像データのビット数を読み出し画像の画像データのビット数よりも大きくしている。従って、このステップでは、クリップ処理部15が、読み出し画像のビット数よりも大きい合成画像データのビット数を、読み出し画像の画像データのビット数となるように飽和レベルのクリップ処理を行う。   If filter processing is performed in step S33, saturation level clipping processing is then performed (S35). As described in step S23, in this embodiment, the number of bits of the composite image data stored in the internal memory 33 is set larger than the number of bits of the image data of the read image. Therefore, in this step, the clip processing unit 15 performs a saturation level clipping process so that the number of bits of the composite image data larger than the number of bits of the read image becomes the number of bits of the image data of the read image.

合成画像データを内部メモリ33に保存する際にフルビットでクリップしないようにすることのメリットについて説明する。デジタルカメラで撮影した星の像の画像出力はイメージセンサ4の飽和レベルに達し、飽和出力でクリップしている。星の像は、非常に急峻な出力分布をしており、星の光は撮像素子の飽和出力の何倍もの出力に達しているものと考えられる。ここで簡単化のためにX軸方向のみについて星の撮像画像の出力を示して考える。   The merit of not clipping with full bits when the composite image data is stored in the internal memory 33 will be described. The image output of the star image taken by the digital camera reaches the saturation level of the image sensor 4 and is clipped at the saturation output. The star image has a very steep output distribution, and it is considered that the star light has reached an output many times the saturation output of the image sensor. Here, for simplification, the output of the captured image of the star is shown and considered only in the X-axis direction.

図7(a)に示すような出力分布の星の像を撮影するとする。従来のカメラではイメージセンサから読み出された星の中心部分は飽和出力に達し、例えばビット精度8bitのシステムでは、フルビットまで達し、クリップする(図7(b)参照)。この出力に対して、例えば、図7(c)に示すようなフィルタ係数を有するソフトフィルタを用いてフィルタ処理を行うと、出力を周囲に拡散させてぼかすことができる(図7(d)参照)。しかし、図7(b)に示される飽和以上の出力成分にはフィルタ係数が印加されないため、イメージセンサで出力が飽和クリップする前に光を拡散させる光学フィルタに比べると大きく拡散しない。さらに、飽和クリップすると被写体の色の情報が失われるため、図7(d)のようにフィルタ印加後に飽和以下の出力になるが、星の色は再現できない。   Assume that a star image having an output distribution as shown in FIG. In the conventional camera, the central portion of the star read from the image sensor reaches a saturated output. For example, in a system with a bit accuracy of 8 bits, it reaches a full bit and clips (see FIG. 7B). For example, if the output is filtered using a soft filter having a filter coefficient as shown in FIG. 7C, the output can be diffused and blurred (see FIG. 7D). ). However, since a filter coefficient is not applied to the output component above saturation shown in FIG. 7B, it does not diffuse much compared to an optical filter that diffuses light before the output sensor performs saturation clipping. In addition, if saturation clipping is performed, information on the color of the subject is lost, so that the output is below saturation after applying the filter as shown in FIG. 7D, but the star color cannot be reproduced.

そこで、本実施形態においては、前述したように、読み出し画像の画像データのビット数よりも大きなビット数で保存し、フィルタ処理後に飽和レベルのクリップ処理を行うようにしている。   Therefore, in the present embodiment, as described above, the number of bits of the image data of the read image is stored with a larger number of bits, and the saturation level clip process is performed after the filter process.

図8を用いて、星の撮影像が飽和クリップしないように撮影した場合の処理について説明する。図8(a)は、例えば分割露光時間Tsecで撮影した画像の星の出力を示す。図3のS15、S17において説明したように、星の像はフルビットに達しないように分割露光時間Tsecで読みだされる。図8(b)は、標準露光時間(Ssec)分だけ分割露光し、この分割露光によって取得した複数の画像データを合成した星の出力を示す。この図8(b)に示す例では、従来のビット長が8bit処理では飽和クリップするものを、例えばビット長を12bitに拡張することで、クリップさせないようにして記録している。   With reference to FIG. 8, a description will be given of processing when shooting is performed so that a stared image is not saturated and clipped. FIG. 8A shows the output of stars of an image taken with, for example, a divided exposure time Tsec. As described in S15 and S17 of FIG. 3, the star image is read at the divided exposure time Tsec so as not to reach the full bit. FIG. 8B shows the output of a star obtained by performing the divided exposure for the standard exposure time (Ssec) and combining a plurality of image data acquired by the divided exposure. In the example shown in FIG. 8B, what is saturated when the conventional bit length is 8 bit processing is recorded so as not to be clipped, for example, by extending the bit length to 12 bits.

この図8(b)に示す合成画像データに対して、図7(c)と同様のフィルタを印加する(図8(c)参照)。このフィルタ処理後にクリップ処理部15において本来の8bitで飽和レベルをクリップさせる(図8(d))。このように処理することで、光学フィルタと同様に、従来は飽和クリップしてしまう星の像の出力に対しても、飽和することなくフィルタ処理することができる。従来のフィルタ印加画像(図7(d))に対してより大きく、星の像がぼけ、合成画像の画像データが飽和に達することがないので(図8(b)参照)、星の色も光学フィルタ使用時と同様に正確に再現することができる。なお、クリップ処理部15は、フィルタ処理が施された画像データのビット長を、合成画像データのビット長よりも小さくなるようにビット長を調整するビット長調整部ということもできる。   A filter similar to that shown in FIG. 7C is applied to the composite image data shown in FIG. 8B (see FIG. 8C). After this filtering process, the clip processing unit 15 clips the saturation level with the original 8 bits (FIG. 8D). By processing in this way, similarly to the optical filter, it is possible to perform the filtering process without saturation even with respect to the output of a star image that has conventionally been saturated and clipped. Since it is larger than the conventional filtered image (FIG. 7 (d)), the star image is blurred and the image data of the composite image does not reach saturation (see FIG. 8 (b)). It can be accurately reproduced as when using an optical filter. Note that the clip processing unit 15 can also be referred to as a bit length adjustment unit that adjusts the bit length of the image data subjected to the filter processing so as to be smaller than the bit length of the composite image data.

ステップS35において、飽和レベルクリップ処理を行うと、次に現像処理を行う(S37)。ここでは、現像処理部17が、ステップS35において飽和レベルクリップ処理が施された画像データに対して、デモザイキング、ホワイトバランス調整、ガンマ補正、画像圧縮などの現像処理を行う。   If saturation level clipping processing is performed in step S35, then development processing is performed (S37). Here, the development processing unit 17 performs development processing such as demosaicing, white balance adjustment, gamma correction, and image compression on the image data on which the saturation level clipping processing has been performed in step S35.

ステップS37において、現像処理を行うと、外部メモリへ記録を行う(S39)。ここでは、ステップS37において現像処理された画像データを、外部メモリ36に記録する。外部メモリ36に画像データを記録すると、このフローを終了する。   If development processing is performed in step S37, recording is performed in an external memory (S39). Here, the image data developed in step S37 is recorded in the external memory 36. When image data is recorded in the external memory 36, this flow ends.

このように、本実施形態におけるデジタルフィルタ処理が選択されている場合のフローでは、標準露光時間(Ssec)よりも短い分割露光時間(Tsec)で被写体を撮影し(図2のS15、S17、図8(a)参照)、この撮影によって得られた複数コマの画像データを合成して合成画像データを生成し(図3のS21、図8(b)参照)、合成画像データに対してフィルタ処理を行い(図4のS33、図8(c)参照)、このフィルタ処理が施された画像データのビット長を、合成画像データのビット長よりも短くなるように調整している(図4のS35、図8(d)参照)。このため、通常の撮影では飽和クリップしてしまう撮影画像についても飽和クリップさせずに撮影画像を得ることができ、光学フィルタと同等のフィルタ効果の画像処理を施すことができる。   As described above, in the flow when the digital filter processing in the present embodiment is selected, the subject is photographed with a divided exposure time (Tsec) shorter than the standard exposure time (Ssec) (S15, S17 in FIG. 2, FIG. 8 (a)), and composite image data is generated by synthesizing the image data of a plurality of frames obtained by this shooting (see S21 in FIG. 3, FIG. 8 (b)), and the composite image data is subjected to a filtering process. (See S33 in FIG. 4 and FIG. 8C), and the bit length of the image data subjected to the filter processing is adjusted to be shorter than the bit length of the composite image data (FIG. 4). S35, see FIG. 8 (d)). For this reason, a captured image that is saturated with normal imaging can be obtained without saturation clipping, and image processing with a filter effect equivalent to that of an optical filter can be performed.

なお、本発明の一実施形態においては、図8(d)を用いて説明したように、本来の1枚の読み出し画像のビット数(この例では8ビット)で飽和レベルをクリップさせていた。しかし、例えば、フィルタ処理後の画像の一番輝度の高い画素をフルビットになるように、諧調を圧縮するようにしても構わない。この場合、諧調圧縮処理は現像処理部17で行う。この処理を行うことにより、図8(d)に示すようなフィルタ処理を施した後も最高輝度部が8ビット以上となる明るい天体像も飽和させずに画像処理することができ、すべての星の色情報を記録することができるようになる。この場合、諧調を圧縮する処理部(現像処理部17)は、フィルタ処理が施された画像データのビット長を、合成画像データのビット長よりも小さくなるようにビット長を調整するビット長調整部として機能する。   In one embodiment of the present invention, as described with reference to FIG. 8D, the saturation level is clipped by the number of bits of one original read image (in this example, 8 bits). However, for example, the gradation may be compressed so that the pixel with the highest luminance of the image after the filter processing becomes a full bit. In this case, tone compression processing is performed by the development processing unit 17. By performing this processing, it is possible to perform image processing without saturating a bright celestial image having a maximum luminance portion of 8 bits or more even after the filtering processing as shown in FIG. Color information can be recorded. In this case, the processing unit (development processing unit 17) that compresses the gradation adjusts the bit length so that the bit length of the image data subjected to the filter processing is smaller than the bit length of the composite image data. It functions as a part.

また、図8(d)では本来の1枚の読み出し画像のビット長(この例では8ビット)で飽和レベルにクリップさせる方法について説明した。しかし、例えば、撮影者が好みの出力レベルをフルビットにするように諧調を圧縮して、現像しても構わない。撮影者によって、どの程度の諧調の写真を撮影したいかは好みがあるため、この方法では様々な撮影者の嗜好にあう写真を撮影することができる。この場合、RAW画像データは、すべての画素出力が飽和クリップしないように、ビット精度を拡張して保存することが好ましい。撮影後のRAW画像データに対して、フィルタ処理を施して現像することで、光学フィルタと同等のフィルタ処理や、フィルタの効果を強めたり、弱めたり調整して現像することができるようになり、撮影者の好みに応じた画像を現像することができるようになる。この場合、現像処理部17が、フィルタ処理が施された画像データのビット長を、合成画像データのビット長よりも短くなるように、フィルタ処理が施された画像データの諧調を圧縮するビット長調整部として機能する。   Further, in FIG. 8D, the method of clipping to the saturation level with the original bit length of one read image (in this example, 8 bits) has been described. However, for example, the gradation may be compressed and developed so that the photographer can set the desired output level to full bits. Depending on the photographer, there is a preference for how much gradation the photographer wants to take, so this method can take photographs that meet the tastes of various photographers. In this case, the RAW image data is preferably stored with the bit accuracy extended so that all pixel outputs do not undergo saturation clipping. RAW image data after shooting is subjected to filter processing and developed, so that it is possible to develop with the same filter processing as the optical filter, and the effect of the filter can be strengthened or weakened. It becomes possible to develop an image according to the photographer's preference. In this case, the development processing unit 17 compresses the gradation of the image data subjected to the filter processing so that the bit length of the image data subjected to the filter processing is shorter than the bit length of the composite image data. Functions as an adjustment unit.

また、図2〜図4に示すフローチャートには示していないが、分割露光時間が経過する毎に読み出された画像データを合成し、この画像データを現像処理し、この現像処理された画像データに基づいて表示部37に画像を表示しても良い。すなわち、表示部37に撮像部1より画像データが撮影されるごとに順次合成を行うことによって得られた合成画像を順次表示するようにしてもよい。これにより撮影者は合成画像を撮影経過画像として確認することができ、バルブ撮影モードなどの場合は撮影を終了するタイミングを判断することができる。   Although not shown in the flowcharts shown in FIGS. 2 to 4, the read image data is synthesized every time the divided exposure time elapses, the image data is developed, and the developed image data is processed. An image may be displayed on the display unit 37 based on the above. That is, the synthesized image obtained by sequentially synthesizing each time image data is captured from the imaging unit 1 may be displayed on the display unit 37 sequentially. As a result, the photographer can confirm the composite image as a shooting progress image, and can determine the timing for ending the shooting in the bulb shooting mode or the like.

また、ステップS39における外部メモリへの保存は、ステップS37における現像処理でJPEG化など圧縮処理を行わず、この生の画像データ(RAW画像データ)も保存するようにしてもかまわない。撮影者によっては撮影後にRAW画像データの現像処理の設定を変えて再現像することがあり、この要望に応えることができる。   Further, in the storage in the external memory in step S39, the raw image data (RAW image data) may be stored without performing compression processing such as JPEG conversion in the development processing in step S37. Some photographers may re-develop the RAW image data by changing the development processing settings after photographing, and this demand can be met.

また、本発明の一実施形態においては、画像出力検知部19で画像データが飽和しない分割露光時間Tsecを設定して撮影する方法について説明した。しかし、これに限らず、分割露光時間Tsecは撮影者が設定するようにしても良い。この場合、設定された分割露光時間Tsecで天体の画像が飽和クリップしてしまうことも有りうるが、分割露光をせずに読み出した一枚の画像データにフィルタ処理を施す場合よりは、分割露光した画像データを合成して、合成によってフルビット以上となる画素データを飽和クリップしないように記録し、フィルタ処理を施すことで、光学フィルタに近いフィルタ処理を施すことができるため好ましい。   In the embodiment of the present invention, the image output detection unit 19 has been described with respect to the method of shooting by setting the divided exposure time Tsec at which the image data is not saturated. However, the present invention is not limited to this, and the photographer may set the divided exposure time Tsec. In this case, the celestial image may be saturated and clipped at the set divided exposure time Tsec. However, the divided exposure is more effective than the case where the filter processing is performed on one piece of image data read without performing the divided exposure. It is preferable that the combined image data is recorded so that the pixel data that is greater than or equal to the full bit by the combination is recorded so as not to be saturated and clipped, and the filtering process is performed, so that the filtering process close to the optical filter can be performed.

また、本発明の一実施形態においては、画像合成を施した合成画像データに対してフィルタ処理を施すシーケンスについて説明した。しかしこれに限らずフィルタ処理を施した複数の画像データに画像合成を施す処理行っても構わない。すなわち、図4のステップS33の処理を図3のステップS19の前後のいずれかで行うようにしても構わない。このようにすると、合成画像データに対して1度降りた処理を施す場合と比較して処理回数が増えるが、同等のフィルタ効果を施すことができる。   In the embodiment of the present invention, the sequence for performing the filtering process on the combined image data subjected to the image combining has been described. However, the present invention is not limited to this, and image processing may be performed on a plurality of image data that has been subjected to filter processing. That is, the process in step S33 in FIG. 4 may be performed before or after step S19 in FIG. In this way, the number of times of processing is increased as compared with the case where the processing once applied to the composite image data is performed, but an equivalent filter effect can be applied.

また、フィルタ処理についてはソフトフィルタ、クロスフィルタについて説明したが、本発明の一実施形態においては、これに限らず、その他の画像処理で実現可能なすべてのフィルタ処理について適用可能である。   Moreover, although the soft filter and the cross filter have been described for the filter process, the present invention is not limited to this, and can be applied to all filter processes that can be realized by other image processes.

また、本発明の一実施形態においては、画像合成として加算合成を用いて場合について説明した。しかし、その他の合成でもフルビット以上でクリップしないようにすることで同様の効果を得ることができる。例えば、加算平均合成や比較明合成であっても、合成するどちらか一方または両方の画像データに対してゲインを乗算して合成する場合があり、フルビット以上の出力に達する場合が考えられるからである。   In the embodiment of the present invention, the case has been described in which additive synthesis is used as image synthesis. However, the same effect can be obtained by not clipping at full bits or more even in other synthesis. For example, even in the case of addition-average synthesis or comparatively bright synthesis, there is a case where one or both of the image data to be synthesized is multiplied by a gain and synthesized, and it may be possible to reach an output of full bits or more. It is.

また、合成画像データの出力に対して、所定のスレッシュレベルを設けて判定し、スレッシュレベル以上と以下で処理を変えるようにしても良い。すなわち、画像合成部11により合成された合成画像データのレベルを判定する画像出力判定部をさらに備え、合成画像データのレベルに応じてフィルタ処理を変更するようにしてもよい。例えば、フィルタ処理を行う前に合成画像の各画素出力に対して、画像出力判定部にて、その画素の出力がスレッシュレベル(TH)以上か否かを判定して、スレッシュレベル以上であれば、ソフトフィルタを印加し、スレッシュレベル未満である場合にはソフトフィルタを印加しない処理を施す。図9に、スレッシュレベルTHを255LSB(8bitフルビット)にした場合の星の像のフィルタ処理による像の変化を示す。なお、合成画像データを生成する前の画像データに対してフィルタ処理を行う場合は、合成画像データを生成する前の画像データのレベルに応じてフィルタ処理を変更する。   Further, it may be determined by providing a predetermined threshold level for the output of the composite image data, and the processing may be changed depending on the threshold level or higher. That is, an image output determination unit that determines the level of the combined image data combined by the image combining unit 11 may be further provided, and the filter processing may be changed according to the level of the combined image data. For example, before performing filter processing, for each pixel output of the composite image, the image output determination unit determines whether the output of the pixel is equal to or higher than the threshold level (TH). When a soft filter is applied and the level is lower than the threshold level, a process not applying the soft filter is performed. FIG. 9 shows changes in the image due to the star image filtering when the threshold level TH is 255 LSB (8-bit full bit). In addition, when performing a filter process with respect to the image data before producing | generating synthetic image data, a filter process is changed according to the level of the image data before producing | generating synthetic image data.

暗い星も明るい星も従来のフィルタであれば同様にぼかし効果がかかる(図9(b)(e))。しかし、スレッシュレベル以上か未満かに応じてフィルタ処理を異ならせると、星の明るさに応じてぼかし効果を異ならせることができる。例えば、暗い星はフィルタ処理を行わず(図9(c))、一方、明るい星だけフィルタ処理を行うようにすると(図9(e))、暗い星がフィルタ処理により拡散して暗くなり、はっきりと写らなくなってしまうことを防ぐことができる。暗い星も解像感良くはっきりと、また明るい星は大きく映り、色情報も残る。これにより、従来の光学フィルタでは撮影できない印象的な写真を撮影することができる。   Dark and bright stars are similarly blurred by conventional filters (FIGS. 9B and 9E). However, if the filtering process is made different depending on whether it is above or below the threshold level, the blurring effect can be made different depending on the brightness of the star. For example, if dark stars are not filtered (FIG. 9 (c)), but only bright stars are filtered (FIG. 9 (e)), the dark stars are diffused and darkened by the filtering, It is possible to prevent the image from being clearly visible. Dark stars are clear and clear, bright stars appear large, and color information remains. This makes it possible to take impressive photographs that cannot be taken with conventional optical filters.

図9に、スレッシュレベルが1つでフィルタ処理を行うか行わないかを変える処理を示したが、例えば、スレッシュレベルを複数設けて、画素のレベルが大きくなるほどフィルタの拡散効果を強めるようなフィルタ処理を行うことで、より自然に明るい星ほど大きく写すようなフィルタ処理を行うことができる。逆に暗い星ほど拡散効果を強く、明るいほど弱く拡散効果を弱めるように処理することで、暗い星は見えにくくなり、明るい星は明るく残すことで、より明るい星が目立つような写真が撮れる。このように、様々な印象の写真を撮影することができる。   FIG. 9 shows processing for changing whether or not to perform filter processing with one threshold level. For example, a filter that provides a plurality of threshold levels and increases the diffusion effect of the filter as the pixel level increases. By performing the processing, it is possible to perform a filtering process such that a brighter star appears more naturally. On the contrary, by processing the darker star so that the diffusion effect is stronger, and the brighter the light is weaker and weakening the diffusion effect, the darker star becomes harder to see, and the brighter star remains brighter. In this way, photographs with various impressions can be taken.

また、クロスフィルタについても、出力が大きな画素ほどフィルタ効果を強めると、目立たせたい明るい星にだけクロスフィルタによる光芒が強く発生させることができ、メリハリのある印象的な画像を生成することができる。   As for the cross filter, if the filter effect is strengthened for pixels with a larger output, the bright light caused by the cross filter can be strongly generated only in bright stars to be conspicuous, and a sharp and impressive image can be generated. .

また、天体撮影の被写体として星だけでなく地上の景色も一緒に撮影する場合も考えられる。その場合、被写体の明るさや形状、撮影者の入力IF部38での指示等で、画像中のどの部分が地上の景色でどの部分が空なのかを識別し、空の部分のみに対して画像出力検知をして、飽和しないように分割露光、合成しても良い。地上の景色に天体よりも明るいものが写っていると、分割露光時間Tsecが短くなりすぎて、画像合成枚数が多くなる。加算合成は合成するほど画像データに含まれるノイズも加算され画質が劣化するので合成枚数が少ないほうが好ましい。この場合、撮像部1は、画像を複数の領域に分割し、この分割した分割画像に対応した領域の画像データの平均値が飽和しないような分割露光時間を設定して撮影する撮像部として機能する。   In addition, not only stars but also ground scenes can be taken as subjects for astronomical photography. In that case, the brightness and shape of the subject, the instruction from the photographer's input IF unit 38, etc. identify which part of the image is the ground scenery and which part is empty, and the image is applied only to the empty part. The output may be detected, and divided exposure and synthesis may be performed so as not to saturate. If a scene brighter than the celestial body is reflected in the ground scene, the divided exposure time Tsec becomes too short and the number of images to be combined increases. In addition synthesis, the noise included in the image data is added and the image quality deteriorates as the synthesis is performed. In this case, the imaging unit 1 functions as an imaging unit that divides an image into a plurality of areas and sets and shoots a divided exposure time that does not saturate the average value of image data in the area corresponding to the divided divided image. To do.

また、空の部分にだけフィルタ処理を行っても良い。地上の景色に天体よりも明るいものが写っていると、フィルタ処理で天体よりもおおきくぼけてしまうため、主要被写体が天体で天体のみを大きくぼかしたい場合にはこのような処理が好ましい。   Further, the filtering process may be performed only on empty portions. If an object brighter than the celestial object is reflected in the scenery on the ground, the filter process will cause the image to be more blurred than the celestial object. Therefore, such a process is preferable when the main object is a celestial object and only the celestial object is to be greatly blurred.

また、本発明の一実施形態においては、デジタルカメラで、イメージセンサ4から読み出された画像データについて順次合成し、フィルタ処理を行う構成について説明を行った。しかし、これに限らず、例えば、カメラで撮影済みの画像やそれ以外でも例えばCG(Computer Graphics)で描画した複数のデジタル画像データを合成するようにしてもよい。デジタルカメラ内部やパソコンなどで画像合成処理を行う際の処理機能についてそれぞれの画像の画素データのビット精度に対して、合成後にフルビットでクリップすることがないように合成、記録して、その合成画像にフィルタ処理を施すことで本実施形態と同等の効果を得ることができる。この場合には、撮影した後に撮影した複数の画像のうち、撮影者が合成させたい画像のみを選択して合成ができて便利であり。またカメラで撮影した画像以外にも同様の効果が得られる。   In the embodiment of the present invention, the configuration has been described in which the digital camera sequentially synthesizes the image data read from the image sensor 4 and performs the filter processing. However, the present invention is not limited to this, and for example, a plurality of digital image data drawn by CG (Computer Graphics) may be synthesized, for example, an image that has already been shot by a camera. Processing functions when performing image composition processing inside a digital camera or on a personal computer etc. For the bit accuracy of the pixel data of each image, composition and recording are performed so as not to clip with full bits after composition, and the composition An effect equivalent to that of the present embodiment can be obtained by filtering the image. In this case, it is convenient to select and combine only the images that the photographer wants to synthesize from among a plurality of images taken after shooting. The same effect can be obtained in addition to images taken with a camera.

また、本発明の一実施形態ではフィルタ処理を印加した画像1枚を記録するシーケンスを示した。しかし、これに限らず、例えば、本実施形態の加算合成・フィルタ処理により撮影した合成画像を複数枚生成し、これら複数の合成画像に対して更に比較合成や加算平均合成、動画生成などを行っても良い。本実施形態の方法で光学フィルタと同等または光学フィルタでは実現できないフィルタ処理を施した画像データ同士を合成することでさらに印象的で美しい写真、動画が撮影できる。   In the embodiment of the present invention, the sequence for recording one image to which the filter process is applied is shown. However, the present invention is not limited to this. For example, a plurality of composite images photographed by the addition synthesis / filter processing of the present embodiment are generated, and comparison synthesis, addition average synthesis, video generation, and the like are further performed on the plurality of composite images May be. More impressive and beautiful photographs and moving images can be taken by synthesizing image data that have been subjected to filter processing equivalent to or not realized by the optical filter by the method of the present embodiment.

また、本発明の一実施形態においては、画像処理部10、画像出力検知部19等を、システム制御部20とは別体の構成としたが、各部の全部または一部をソフトウエアで構成し、システム制御部20内またはシステム制御部20と別体のマイクロコンピュータによって実行するようにしても勿論かまわない。   In the embodiment of the present invention, the image processing unit 10, the image output detection unit 19, and the like are configured separately from the system control unit 20, but all or a part of each unit is configured by software. Of course, the program may be executed in the system control unit 20 or by a microcomputer separate from the system control unit 20.

また、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末(PDA:Personal Digital Assist)、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、分割露光が可能な撮影機器、またはこれらの撮影機器で撮影された画像データを処理できる画像処理のための機器等であれば、本発明を適用することができる。   In the present embodiment, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and may be used for moving images such as video cameras and movie cameras. It may be a camera, and may be a camera built in a mobile phone, a smart phone, a personal digital assistant (PDA), a personal computer (PC), a tablet computer, a game machine, or the like. In any case, the present invention can be applied to any imaging device that can perform divided exposure, or an image processing device that can process image data captured by these imaging devices.

また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。   Of the techniques described in this specification, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.

また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。   In addition, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using words expressing the order such as “first”, “next”, etc. It does not mean that it is essential to implement in this order.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・撮像部、2・・・レンズ(絞り)、3・・・メカシャッタ、4・・・イメージセンサ、10・・・画像処理部、11・・・画像合成部、11a・・・加算合成部、11b・・・比較合成部、11c・・・加算平均合成部、11d・・・動画生成部、13・・・フィルタ処理部、15・・・クリップ処理部、17・・・現像処理部、20・・・システム制御部、31・・・バス、33・・・内部メモリ、36・・・外部メモリ、37・・・表示部、38・・・入力IF DESCRIPTION OF SYMBOLS 1 ... Imaging part, 2 ... Lens (aperture), 3 ... Mechanical shutter, 4 ... Image sensor, 10 ... Image processing part, 11 ... Image composition part, 11a ... Addition Synthesis unit, 11b ... Comparison / synthesis unit, 11c ... Addition / average synthesis unit, 11d ... Movie generation unit, 13 ... Filter processing unit, 15 ... Clip processing unit, 17 ... Development processing , 20 ... System control unit, 31 ... Bus, 33 ... Internal memory, 36 ... External memory, 37 ... Display unit, 38 ... Input IF

Claims (12)

標準露光時間よりも短い露光時間で被写体を複数コマ撮影する撮像部と、
上記撮像部により撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成部と、
上記複数コマの画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理を行うフィルタ処理部と、
上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整部と、
を備えたことを特徴とする撮像装置。
An imaging unit that captures multiple frames of an object with an exposure time shorter than the standard exposure time;
An image composition unit that synthesizes image data of a plurality of frames obtained by photographing by the imaging unit to generate composite image data;
A filter processing unit that performs a filtering process on the image data of the plurality of frames or the synthesized image data synthesized by the image synthesizing unit;
The composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or the bit length of the image data subjected to the filtering process on the synthesized image data synthesized by the image synthesizing unit A bit length adjusting unit that adjusts the bit length to be shorter than the data bit length;
An imaging apparatus comprising:
上記撮像部は、画素データの最大値が飽和しないような露光時間を設定して撮影することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the imaging unit sets an exposure time so that a maximum value of pixel data is not saturated. 上記撮像部は、画像を複数の領域に分割し、該分割したすべての画像に対応した領域の画像データの平均値が飽和しないような露光時間を設定して撮影することを特徴とする請求項1に記載の撮像装置。   The image capturing unit divides an image into a plurality of regions, and sets the exposure time so that an average value of image data of regions corresponding to all the divided images is not saturated. The imaging apparatus according to 1. 上記ビット長調整部は、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように、上記フィルタ処理が施された画像データをクリップすることを特徴とする請求項1に記載の撮像装置。   The bit length adjustment unit is configured to combine composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filter processing or image data obtained by performing filter processing on the composite image data synthesized by the image synthesis unit. 2. The imaging apparatus according to claim 1, wherein the image data subjected to the filtering process is clipped so that a bit length is shorter than a bit length of the composite image data. 上記ビット長調整部は、上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように、上記フィルタ処理が施された画像データの諧調を圧縮することを特徴とする請求項1に記載の撮像装置。   The bit length adjustment unit is configured to combine composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filter processing or image data obtained by performing filter processing on the composite image data synthesized by the image synthesis unit. The imaging apparatus according to claim 1, wherein the gradation of the image data subjected to the filtering process is compressed so that a bit length is shorter than a bit length of the composite image data. 上記合成画像データを生成する前の画像データまたは上記画像合成部により合成された合成画像データのレベルを判定する画像出力判定部をさらに備え、
上記合成画像データを生成する前の画像データに対して上記フィルタ処理を行う場合は該合成画像データを生成する前の画像データのレベルに応じて、または上記合成画像データに対してフィルタ処理を行う場合は該合成画像データのレベルに応じて上記フィルタ処理を変更する、
ことを特徴とする請求項1に記載の撮像装置。
An image output determination unit for determining the level of the image data before generating the combined image data or the combined image data combined by the image combining unit;
When the filtering process is performed on the image data before generating the synthesized image data, the filtering process is performed on the synthesized image data according to the level of the image data before generating the synthesized image data. In this case, the filter processing is changed according to the level of the composite image data.
The imaging apparatus according to claim 1.
上記画像合成部は、加算合成、平均合成、比較明合成、比較暗合成、動画合成のうちの少なくとも1種類の画像合成を行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image composition unit performs at least one kind of image composition among addition composition, average composition, comparatively bright composition, comparative dark composition, and moving image composition. 上記画像合成部に合成された画像を表示する画像表示部をさらに備え、
上記画像表示部は、上記撮像部により画像データが撮影されるごとに順次合成を行うことによって得られた合成画像を順次表示する、
ことを特徴とする請求項1に記載の撮像装置。
An image display unit that displays the combined image in the image combining unit;
The image display unit sequentially displays a composite image obtained by sequentially combining each time image data is captured by the imaging unit.
The imaging apparatus according to claim 1.
上記フィルタ処理はソフトフィルタ処理又はクロスフィルタ処理であることを特徴とする請求項1に記載の撮像措置。   The imaging measure according to claim 1, wherein the filtering process is a soft filtering process or a cross filtering process. 標準露光時間よりも短い露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成部と、
上記合成画像データを生成する前の画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理を行うフィルタ処理部と、
上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成部により合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整部と、
を備えたことを特徴とする画像処理装置。
An image composition unit that synthesizes image data of a plurality of frames obtained by photographing a subject with an exposure time shorter than the standard exposure time, and generates composite image data;
A filter processing unit that performs a filtering process on the image data before generating the combined image data or the combined image data combined by the image combining unit;
The composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or the bit length of the image data subjected to the filtering process on the synthesized image data synthesized by the image synthesizing unit A bit length adjusting unit that adjusts the bit length to be shorter than the data bit length;
An image processing apparatus comprising:
標準露光時間よりも短い露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成ステップと、
上記合成画像データを生成する前の画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理を行うフィルタ処理ステップと、
上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整ステップと、
を備えたことを特徴とする画像処理方法。
An image compositing step for compositing a plurality of frames of image data obtained by photographing a subject with an exposure time shorter than the standard exposure time to generate composite image data;
A filter processing step for performing filter processing on the image data before generating the combined image data or the combined image data combined in the image combining step;
The composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or the bit length of the image data subjected to the filtering process for the synthesized image data synthesized in the image synthesizing step is used as the synthesized image. A bit length adjustment step for adjusting to be shorter than the bit length of the data;
An image processing method comprising:
標準露光時間よりも分割露光時間で被写体を撮影して得られた複数コマの画像データを合成して合成画像データを生成する画像合成ステップと、
上記合成画像データを生成する前の画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理を行うフィルタ処理ステップと、
上記フィルタ処理が行われた上記複数コマの画像データを合成した合成画像データまたは上記画像合成ステップにおいて合成された合成画像データに対してフィルタ処理が行われた画像データのビット長を、上記合成画像データのビット長よりも短くなるように調整するビット長調整ステップと、
をコンピュータに実行させるための画像処理プログラム。
An image compositing step for generating composite image data by compositing a plurality of frames of image data obtained by photographing a subject with a divided exposure time rather than a standard exposure time;
A filter processing step for performing filter processing on the image data before generating the combined image data or the combined image data combined in the image combining step;
The composite image data obtained by synthesizing the image data of the plurality of frames subjected to the filtering process or the bit length of the image data subjected to the filtering process for the synthesized image data synthesized in the image synthesizing step is used as the synthesized image. A bit length adjustment step for adjusting to be shorter than the bit length of the data;
An image processing program for causing a computer to execute.
JP2014180195A 2014-09-04 2014-09-04 Imaging apparatus, image processing apparatus, image processing method and image processing program Pending JP2016054447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014180195A JP2016054447A (en) 2014-09-04 2014-09-04 Imaging apparatus, image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014180195A JP2016054447A (en) 2014-09-04 2014-09-04 Imaging apparatus, image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2016054447A true JP2016054447A (en) 2016-04-14

Family

ID=55744309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014180195A Pending JP2016054447A (en) 2014-09-04 2014-09-04 Imaging apparatus, image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2016054447A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077935A (en) * 2019-11-05 2021-05-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging apparatus, control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077935A (en) * 2019-11-05 2021-05-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging apparatus, control method, and program

Similar Documents

Publication Publication Date Title
US9912875B2 (en) Imaging device and imaging method capable of generating a bulb exposure image derived from relatively bright image combination#data and relatively dark image combination data
KR101427660B1 (en) Apparatus and method for blurring an image background in digital image processing device
JP6278713B2 (en) Imaging apparatus and imaging method
JP6570918B2 (en) Imaging apparatus and imaging method
JP2017220892A (en) Image processing device and image processing method
JP6370207B2 (en) Imaging apparatus, image processing apparatus, imaging method, and program
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP2017108309A (en) Imaging apparatus and imaging method
JP6250098B2 (en) Imaging apparatus and imaging method
JP5984975B2 (en) Imaging apparatus, imaging method, and program
JP2013090095A (en) Imaging device, imaging method, and program
JP2016149631A (en) Imaging apparatus and imaging method
JP4385383B2 (en) Programmable anti-aliasing system and method for a camera
JP6096041B2 (en) Imaging apparatus and imaging method
CN111095912A (en) Imaging device, imaging method, and program
JP7148428B2 (en) Imaging device and imaging method
JP2019029954A (en) Image processing system and image processing method
JP6351452B2 (en) Imaging apparatus, imaging method, and program
JP6231814B2 (en) EXPOSURE DETERMINING DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM
WO2015129479A1 (en) Imaging device and method, and program
JP2016054447A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2016225757A (en) Imaging apparatus and imaging method
JP6418715B2 (en) Image processing apparatus and image processing method
JP6284604B2 (en) Image processing apparatus, image processing method, and program