JP2020129753A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2020129753A JP2020129753A JP2019021736A JP2019021736A JP2020129753A JP 2020129753 A JP2020129753 A JP 2020129753A JP 2019021736 A JP2019021736 A JP 2019021736A JP 2019021736 A JP2019021736 A JP 2019021736A JP 2020129753 A JP2020129753 A JP 2020129753A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- subtraction
- basic
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像素子から画像データを繰り返し読み出し、各画像データの対応する位置にある画素の画素値を比較し、明るい方の画素値に置き換えて画像合成を行う、所謂比較明合成を行うことのできる撮像装置および撮像方法に関する。 The present invention performs so-called comparative bright combining, in which image data is repeatedly read from an image sensor, pixel values of pixels at corresponding positions in each image data are compared, and the image values are replaced by the brighter pixel value to perform image combining. The present invention relates to an image pickup apparatus and an image pickup method capable of performing the above.
従来より、比較明合成処理が知られている。この比較明合成処理は、繰り返し出力される画像データのうち、対応する位置の画素値を比較し、輝度値の大きい画素値を選択して、合成画像を生成する画像処理である。この比較明合成処理を行うことにより、例えば、地球の日周運動に起因して星の光跡が延び、しかも背景の風景が真っ白にならずに共存し、あたかも長時間露出を行ったような画像を得ることができる。 Conventionally, a comparative bright combination process has been known. This comparative bright combination process is an image process that compares pixel values at corresponding positions in image data that are repeatedly output, selects a pixel value having a large luminance value, and generates a combined image. By performing this comparative light synthesis process, for example, the light trails of the stars are extended due to the diurnal motion of the earth, and the background scenery coexists without becoming white, and it seems as if exposure was performed for a long time. Images can be obtained.
比較明合成処理用に撮影を行っている際に、例えば、突発光により極度に明るい輝度を有する被写体が写り込むことがある。比較明合成処理では、輝度の明るい画素値が選択されると、この明るさが保持されるため、以後、被写体が元の明るさに戻っても、この極端に明るかった時の被写体の影響を受け、意図した合成画像とはならなくなってしまう。そこで、繰り返し撮像した合成用画像データの平均輝度値が、所定値より大きい場合には、比較明合成処理を実行しないようにすることが提案されている(特許文献1参照)。 During shooting for the comparative bright combination processing, for example, a subject having extremely bright brightness may be captured due to sudden light emission. In the comparative bright combination process, when a pixel value with a high brightness is selected, this brightness is maintained, so even if the subject returns to the original brightness thereafter, the influence of the subject when it is extremely bright is affected. However, it will not be the intended composite image. Therefore, it has been proposed that the comparative bright combination processing is not executed when the average luminance value of the image data for combination captured repeatedly is larger than a predetermined value (see Patent Document 1).
特許文献1に開示の比較明合成処理では、合成用画像データの平均輝度値が所定値より大きい場合に、比較明合成処理を実行しないことから、突発的に極端に明るい被写体があった場合(例えば、手前の被写体が自動車のヘッドライトで照射された場合)に、星の光跡が途切れた画像となってしまう(例えば、図4Aの画像52参照)。この場合には、ユーザは、長時間を掛けて撮影した画像を破棄し、再度撮影をやり直すことになり、使い勝手がよくない。 In the comparative bright combination process disclosed in Patent Document 1, when the average luminance value of the image data for combination is larger than a predetermined value, the comparative bright combination process is not executed, so that there is a suddenly bright subject ( For example, when the subject in the foreground is illuminated by the headlights of the automobile), an image in which the light trails of stars are interrupted (for example, refer to the image 52 in FIG. 4A). In this case, the user discards the image taken for a long time and redoes the shooting again, which is not convenient.
本発明は、このような事情を鑑みてなされたものであり、突発的な不要光がある場合であっても、ユーザの意図する画像を比較明合成によって取得できる撮像装置および撮像方法を提供する。 The present invention has been made in view of such circumstances, and provides an image pickup apparatus and an image pickup method that can obtain an image intended by a user by comparative bright combination even when there is a sudden unnecessary light. ..
上記目的を達成するため第1の発明に係る撮像装置は、被写体像を撮像して画像データを生成し出力する撮像素子と、上記撮像素子により所定の露光時間で露光され出力される画像データを繰り返し比較明合成する画像データ合成部と、上記撮像素子から出力され、露光量が適切な画像データを基本画像データとして記憶する基本画像データ記憶部と、上記撮像素子から出力され、露光量が過大な画像データを減算用画像データとして記憶する減算用画像データ記憶部と、上記減算用画像データをフィルタ処理して補正用画像データとし、上記画像データ合成部の出力する合成画像データから、上記補正用画像データを減算して第2の合成画像データを生成し、上記第2の合成画像データと上記基本画像データ記憶部に記憶された基本画像データとを比較明合成する制御部と、を有する。 In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention includes an image pickup device that picks up a subject image, generates image data, and outputs the image data; and image data that is exposed and output by the image pickup device at a predetermined exposure time. An image data composition unit that repeatedly and repeatedly performs bright composition, a basic image data storage unit that stores image data that is output from the image sensor and has an appropriate exposure amount as basic image data, and an output amount that is output from the image sensor and has an excessive exposure amount. Image data storage unit that stores such image data as subtraction image data, and the subtraction image data is filtered to obtain correction image data, and the correction is performed based on the combined image data output from the image data combining unit. And a control unit for generating the second combined image data by subtracting the use image data and comparing and combining the second combined image data with the basic image data stored in the basic image data storage unit. ..
第2の発明に係る撮像装置は、上記第1の発明において、上記基本画像データ記憶部は、上記繰り返し露光され出力される画像データのうちで最初に露光され出力される画像データを上記基本画像データとして記憶する。
第3の発明に係る撮像装置は、上記第1の発明において、上記制御部は、上記減算用画像データを平滑化フィルタによりフィルタ処理し、上記補正用画像データとする。
第4の発明に係る撮像装置は、上記第3の発明において、上記平滑化フィルタによる処理は、フィルタ処理を施す注目画素の周囲に位置する画素の画素データにより注目画素の画素データを補間する処理である。
In the image pickup apparatus according to a second aspect of the present invention, in the first aspect of the present invention, the basic image data storage unit sets the image data that is first exposed and output among the image data that is repeatedly exposed and output as the basic image. Store as data.
In the image pickup apparatus according to a third aspect of the present invention, in the first aspect of the present invention, the control unit filters the subtraction image data with a smoothing filter to obtain the correction image data.
In the imaging device according to a fourth aspect of the present invention, in the third aspect of the present invention, the smoothing filter process is a process of interpolating pixel data of a target pixel with pixel data of pixels located around a target pixel to be filtered. Is.
第5の発明に係る撮像装置は、上記第1の発明において、上記制御部は、上記フィルタ処理として、上記減算用画像データをユーザ操作により、指定画素や指定範囲の画素を他のレベルに置き換えて、上記補正画像データを生成させる。
第6の発明に係る撮像装置は、上記第1の発明において、上記制御部は、上記フィルタ処理として、撮影画像に距離情報がある場合に、距離情報に応じた被写体の画素を他のレベルに置き換えて、上記補正画像データを生成させる。
In the image pickup device according to a fifth aspect of the present invention, in the first aspect of the invention, the control unit performs, as the filtering process, user operation of the subtraction image data to replace a designated pixel or a designated range of pixels with another level. Then, the corrected image data is generated.
In the image pickup apparatus according to a sixth aspect of the present invention, in the first aspect of the present invention, when the captured image has distance information, the control unit sets the pixel of the subject according to the distance information to another level when the captured image has distance information. The replacement is performed to generate the corrected image data.
第7の発明に係る撮像装置は、上記第1の発明において、上記減算用画像データ記憶部は、第1の減算用画像データと第2の減算用画像データを記憶することが可能であって、上記制御部は、上記合成画像データから上記第1の減算用画像データに対応する第1の補正用画像データを減算して上記第2の合成画像データを生成し、上記第2の合成画像データと上記基本画像データとを比較明合成し、上記比較明合成した画像データから上記第2の減算用画像データに対応する第2の補正用画像データを減算して第3の合成画像データを生成し、上記第3の合成画像データと上記基本画像データを比較明合成する。 According to a seventh aspect of the present invention, in the image pickup apparatus according to the first aspect, the subtraction image data storage section can store the first subtraction image data and the second subtraction image data. The control unit subtracts the first correction image data corresponding to the first subtraction image data from the synthesis image data to generate the second synthesis image data, and the second synthesis image The data and the basic image data are comparatively light-combined, and the second correction image data corresponding to the second subtraction image data is subtracted from the comparatively-light-combined image data to obtain the third combined image data. It is generated, and the third combined image data and the basic image data are subjected to comparative light combination.
第8の発明に係る撮像装置は、上記第1の発明において、上記減算用画像データ記憶部は、第1の減算用画像データと第2の減算用画像データを記憶することが可能であって、上記制御部は、上記第1の減算用画像データと第2の減算用画像データを比較明合成し、合成した画像データを上記減算用画像データとする。
第9の発明に係る撮像装置は、上記第1の発明において、減算用画像データを複数記録し、記録した減算用画像データ同士を比較明合成し、補正用の減算用画像データとする事を可能とする。
第10の発明に係る撮像装置は、上記第1の発明において、上記基本画像データ記憶部と上記減算用画像データ記憶部は、同一のメモリ内に配置される。
According to an eighth aspect of the present invention, in the image pickup apparatus according to the first aspect, the subtraction image data storage section can store the first subtraction image data and the second subtraction image data. The control unit compares the first subtraction image data and the second subtraction image data with each other, and makes the combined image data the subtraction image data.
According to a ninth aspect of the present invention, in the image pickup apparatus according to the first aspect of the present invention, a plurality of pieces of subtraction image data are recorded, the recorded pieces of subtraction image data are compared and brightly combined, and used as correction subtraction image data. It is possible.
In the image pickup apparatus according to a tenth invention, in the first invention, the basic image data storage unit and the subtraction image data storage unit are arranged in the same memory.
第11の発明に係る撮像方法は、被写体像を撮像素子によって撮像して画像データを生成し出力し、上記撮像素子により所定の露光時間で露光され出力される画像データを、画像データ合成部によって繰り返し比較明合成し、 上記撮像素子から出力され、露光量が適切な画像データを基本画像データとして基本画像データ記憶部に記憶し、上記撮像素子から出力され、露光量が過大な画像データを減算用画像データとして減算用画像データ記憶部に記憶し、上記減算用画像データをフィルタ処理して補正用画像データとし、上記画像データ合成部の出力する合成画像データから、上記補正用画像データを減算して第2の合成画像データを生成し、上記第2の合成画像データと上記基本画像データ記憶部に記憶された基本画像データとを比較明合成する。 An image pickup method according to an eleventh aspect of the present invention is configured such that a subject image is picked up by an image pickup device to generate and output image data, and image data exposed by the image pickup device at a predetermined exposure time is output by an image data synthesizing unit. Image data with appropriate exposure amount is stored as basic image data in the basic image data storage section after repeated comparison and light composition, and image data with excessive exposure amount is output from the image sensor and subtracted. Image data for subtraction stored in the subtraction image data storage unit, the subtraction image data is filtered to obtain correction image data, and the correction image data is subtracted from the combined image data output from the image data combining unit. Then, the second combined image data is generated, and the second combined image data and the basic image data stored in the basic image data storage section are compared and brightly combined.
本発明によれば、突発的な不要光がある場合であっても、ユーザの意図する画像を比較明合成によって取得できる撮像装置および撮像方法を提供することができる。 According to the present invention, it is possible to provide an image pickup apparatus and an image pickup method that can obtain an image intended by a user by comparative bright combination even when there is sudden unnecessary light.
以下、本発明の一実施形態としてカメラに適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にライブビュー表示する。撮影者はライブビュー表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。 An example applied to a camera as one embodiment of the present invention will be described below. This camera has an imaging unit, converts the subject image into image data by the imaging unit, and performs live view display of the subject image on a display unit arranged on the back surface of the main body based on the converted image data. The photographer determines the composition and shutter timing by observing the live view display. During the release operation, the image data is recorded on the recording medium. The image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.
また、このカメラは、比較明合成処理によって合成画像を生成する比較明合成モードを設定することができる。比較明合成モードが設定されると、撮像素子から画像データが読み出される毎に、撮像した画像データと記憶されている画像データのそれぞれ対応する画素位置の画素データを比較し、明るい方の画素データに置き換えた画素データを合成して画像を生成する。この比較明合成モードによって星空を長時間撮影すると、星の光跡が写しこまれた画像を得ることができる。 Further, this camera can set a comparative bright combination mode in which a combined image is generated by the comparative bright combination processing. When the comparative bright combination mode is set, each time the image data is read from the image sensor, the pixel data at the corresponding pixel positions of the captured image data and the stored image data are compared, and the brighter pixel data An image is generated by combining the pixel data replaced with. When the starry sky is photographed for a long time in this comparative bright combination mode, an image in which the light traces of stars are reflected can be obtained.
また、比較明合成モードが設定された際に、自動車のヘッドライトのような突発的な不要光が照射された場合には、このときの画像を記憶しておき(例えば、図2AのS15、図4Bの画像55)、この画像に基づいて突発的な不要光によって露出オーバーとなった補正用画像を生成する(例えば、図2BのS31、図4Cの画像56)。そして、補正用画像を用いて、露出オーバーとなった部分を消去した減算画像を生成する(例えば、図2BのS33、図4Dの画像57)。この減算画像と、突発的な不要光の影響を受けていないベース画像(例えば、図2AのS11、図4Bおよび図4Eの画像53)を用いて比較明合成する。この合成処理によって、光跡が途切れることなく、かつ突発的な不要光の影響を除去した比較明合成画像を得ることができる。 Further, when the comparatively bright combination mode is set and sudden unnecessary light such as a headlight of an automobile is emitted, the image at this time is stored (for example, S15 in FIG. 2A, The image 55 in FIG. 4B) is generated based on this image for correction, which is overexposed by sudden unnecessary light (for example, S31 in FIG. 2B, image 56 in FIG. 4C). Then, a subtraction image in which the overexposed portion is erased is generated using the correction image (for example, S33 in FIG. 2B, image 57 in FIG. 4D). A comparative bright combination is performed using this subtracted image and a base image (for example, S11 in FIG. 2A, image 53 in FIGS. 4B and 4E) that is not affected by sudden unnecessary light. By this synthesizing process, it is possible to obtain a comparatively bright synthetic image in which light traces are not interrupted and the influence of sudden unnecessary light is removed.
図1は、本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。本実施形態におけるカメラは、撮像部1、画像処理部10、システム制御部20、バス31とこれに接続された各部を有する。 FIG. 1 is a block diagram mainly showing the electrical configuration of a camera according to an embodiment of the present invention. The camera according to the present embodiment has an imaging unit 1, an image processing unit 10, a system control unit 20, a bus 31, and each unit connected to the bus 31.
撮像部1は、レンズ2と、メカニカルシャッタ3と、イメージセンサ4を有している。なお、本実施形態においては、レンズがカメラ本体と一体に構成されていることを想定して説明する。しかし、レンズが交換レンズとしてカメラ本体に対して着脱自在に構成されていても勿論構わない。この場合には、撮像素子はカメラ本体側に配置され、交換レンズとカメラ本体の間で、データや制御命令等の通信用の通信回路を設ければよい。 The image pickup unit 1 includes a lens 2, a mechanical shutter 3, and an image sensor 4. In addition, in the present embodiment, description will be made assuming that the lens is integrally formed with the camera body. However, it goes without saying that the lens may be detachably attached to the camera body as an interchangeable lens. In this case, the image sensor is arranged on the camera body side, and a communication circuit for communication of data, control commands, etc. may be provided between the interchangeable lens and the camera body.
レンズ2は、イメージセンサ4上に被写体光像(被写体の光学像)を結像する光学系である。レンズ2の内のフォーカスレンズは、システム制御部20からの制御信号に基づいて、レンズ2の光軸方向に移動し、焦点調節が行われる。レンズ2は、内部に光学絞りを備えている。光学絞りは、絞り値に応じて開口の大きさが変化し、イメージセンサ4上への光量を調節する。絞り値は、露出量を調節するための制御パラメータである。 The lens 2 is an optical system that forms a subject light image (optical image of the subject) on the image sensor 4. The focus lens in the lens 2 moves in the optical axis direction of the lens 2 based on a control signal from the system control unit 20 to perform focus adjustment. The lens 2 has an optical diaphragm inside. The size of the aperture of the optical aperture changes according to the aperture value, and the amount of light on the image sensor 4 is adjusted. The aperture value is a control parameter for adjusting the exposure amount.
メカニカルシャッタ3は、レンズ2の光軸上であって、イメージセンサ4の前側に配置される。メカニカルシャッタ3は、レンズ2からの撮影光束をイメージセンサ4上に導く露出時間(シャッタ速度)を制御する。メカニカルシャッタ3として、例えばフォーカルプレーンシャッタを採用すると、シャッタ先幕及び後幕を開閉することにより、レンズ2からの撮影光束をイメージセンサ4へ到達させることができ、あるいは撮影光束がイメージセンサ4に到達しないように遮光することができる。このとき、シャッタ先幕が走行開始してからシャッタ後幕が走行開始するまでの時間がシャッタ速度である。メカニカルシャッタ3は、システム制御部20によって算出されたシャッタ速度に基づいて、シャッタの開口時間が制御される。なお、メカニカルシャッタ3としては、フォーカルプレーンシャッタに限られず、例えば、レンズシャッタでもよく、またメカニカルシャッタを廃止し、電子シャッタのみでもよい。 The mechanical shutter 3 is arranged on the optical axis of the lens 2 and in front of the image sensor 4. The mechanical shutter 3 controls the exposure time (shutter speed) for guiding the photographing light flux from the lens 2 onto the image sensor 4. If, for example, a focal plane shutter is adopted as the mechanical shutter 3, the photographing light flux from the lens 2 can reach the image sensor 4 by opening and closing the shutter front curtain and the rear curtain, or the photographing light flux can reach the image sensor 4. It is possible to block light so that it does not reach. At this time, the shutter speed is the time from the start of the shutter front curtain to the start of the rear shutter curtain. In the mechanical shutter 3, the opening time of the shutter is controlled based on the shutter speed calculated by the system control unit 20. The mechanical shutter 3 is not limited to the focal plane shutter, and may be, for example, a lens shutter, or the mechanical shutter may be eliminated and only the electronic shutter may be used.
イメージセンサ4は、CMOSイメージセンサやCCDイメージセンサ等の撮像素子である。撮像素子は、2次元上に複数の画素が配列されており、画素毎に電気信号に変換する。レンズ2により結像された被写体光像は、撮像素子の各画素によって電気信号に変換され、画像データが生成される。生成された画像データは画像処理部10およびバス31に出力される。イメージセンサ4は、複数の画素を有し、入射光を光電変換し、画像信号を生成する撮像素子として機能する。また、イメージセンサ4は、被写体像を撮像して画像データを生成し出力する撮像素子として機能する。 The image sensor 4 is an image sensor such as a CMOS image sensor or a CCD image sensor. The image sensor has a plurality of pixels arranged two-dimensionally and converts each pixel into an electric signal. The subject light image formed by the lens 2 is converted into an electric signal by each pixel of the image pickup element to generate image data. The generated image data is output to the image processing unit 10 and the bus 31. The image sensor 4 has a plurality of pixels and functions as an image sensor that photoelectrically converts incident light and generates an image signal. The image sensor 4 also functions as an image sensor that captures a subject image, generates image data, and outputs the image data.
バス31は、カメラ内の各部の間で信号の送受信を行うための信号線である。図1に示す例においては、バス31には、撮像部1、画像処理部10、距離情報判定部15、露出判定部16、システム制御部20、内部メモリ33、外部メモリ36、表示部37、入力IF(Interface)38、条件設定部39、およびタッチパネル40が接続されている。なお、図1には外部メモリ36はカメラの内部に配置するように記載されているが、この外部メモリ31は、例えばカメラに着脱自在のメモリカード等により構成するようにしてもよく、カメラに固有の構成でなくても構わない。 The bus 31 is a signal line for transmitting/receiving a signal between each unit in the camera. In the example shown in FIG. 1, the bus 31, the image pickup unit 1, the image processing unit 10, the distance information determination unit 15, the exposure determination unit 16, the system control unit 20, the internal memory 33, the external memory 36, the display unit 37, An input IF (Interface) 38, a condition setting unit 39, and a touch panel 40 are connected. Although the external memory 36 is illustrated as being arranged inside the camera in FIG. 1, the external memory 31 may be configured by a memory card or the like that can be attached to and detached from the camera. The configuration does not have to be unique.
画像処理部10は、画像処理回路を有し、イメージセンサ4から出力された画像データに種々の画像処理を施す。画像処理部10は、画像データ合成部11、および現像処理部14を有する。 The image processing unit 10 has an image processing circuit and performs various image processes on the image data output from the image sensor 4. The image processing unit 10 has an image data synthesis unit 11 and a development processing unit 14.
画像データ合成部11は、画像合成回路を有し、複数枚の画像データを合成して少なくとも1枚の合成画像データを生成する。この画像データ合成部11は、比較明合成部12とフィルタ処理部13を有する。 The image data composition unit 11 has an image composition circuit and composes a plurality of pieces of image data to generate at least one piece of composite image data. The image data synthesizing unit 11 includes a comparative bright synthesizing unit 12 and a filter processing unit 13.
比較明合成部12は、比較明合成回路を有し、比較明合成処理を行う。比較明合成処理は、概略、2つの画像の対応する画素の画素データを比較し、明るい方の画素データに置き換えて比較明合成画像を生成する処理である。具体的には、以下のような処理を行う。比較明合成部12は、イメージセンサ4から読み出した画像データや、内部メモリ33に記憶されている複数枚の画像データについて、イメージセンサ4の同位置に配置される画素の画素データ同士を比較する。そして、比較明合成部12は、画素データを比較した結果の何れか大きい方、すなわち明るい方の画素データを用いて比較明合成画像を生成する。このような処理を、全ての画素位置について行うことによって、比較明合成画像の各画素データが、最も明るい画素データのみで構成される。比較明合成部12は、撮像素子により所定の露光時間で露光され出力される画像データを繰り返し比較明合成する画像データ合成部として機能する(例えば、図2Aおよび図3AのS17参照)。 The comparative bright synthesizing unit 12 has a comparative bright synthesizing circuit and performs a comparative bright synthesizing process. The comparative bright combination process is a process of roughly comparing the pixel data of the corresponding pixels of the two images and replacing the pixel data with the brighter pixel data to generate a comparative bright composite image. Specifically, the following processing is performed. The comparative light composition unit 12 compares the pixel data of the pixels arranged at the same position of the image sensor 4 with respect to the image data read from the image sensor 4 and the plurality of pieces of image data stored in the internal memory 33. .. Then, the comparative bright combination unit 12 generates a comparative bright combined image using the larger one of the results of comparing the pixel data, that is, the brighter pixel data. By performing such processing for all the pixel positions, each pixel data of the comparative bright composite image is composed of only the brightest pixel data. The comparative bright combination unit 12 functions as an image data combining unit that repeatedly performs comparative bright combination of image data that is exposed and output by the image sensor for a predetermined exposure time (see, for example, S17 in FIGS. 2A and 3A).
フィルタ処理部13は、フィルタ処理回路を有し、イメージセンサ4から出力された画素データに対してフィルタ処理を施す。フィルタ処理部13によって行うフィルタ処理としては、注目画素の周りの画素値の中央値を算出するメディアンフィルタ、注目画素の近傍の画素値の平均値を算出する平均化フィルタ等がある。 The filter processing unit 13 has a filter processing circuit and performs a filter process on the pixel data output from the image sensor 4. Examples of filter processing performed by the filter processing unit 13 include a median filter that calculates a median value of pixel values around a target pixel, an averaging filter that calculates an average value of pixel values in the vicinity of the target pixel, and the like.
現像処理部14は、現像処理回路を有し、生成されたRAW画像データに対して種々の現像処理を施す。現像処理としては、デモザイキング処理、ホワイトバランス調整処理、ノイズリダクション処理、YC信号生成処理、ガンマ補正処理、リサイズ処理、画像圧縮処理などがある。リサイズ処理は、イメージセンサ4から読み出された画像データの画素数を他の画素数に変換する処理であり、この処理によって、例えば、表示部37の表示画素数に合わせることができる。 The development processing unit 14 has a development processing circuit and performs various development processes on the generated RAW image data. The development processing includes demosaicing processing, white balance adjustment processing, noise reduction processing, YC signal generation processing, gamma correction processing, resizing processing, and image compression processing. The resizing process is a process of converting the number of pixels of the image data read out from the image sensor 4 into another number of pixels, and by this process, for example, the number of display pixels of the display unit 37 can be matched.
距離情報判定部15は、測距回路またはAF(Auto focus)回路を有し、被写体の距離を判定する。距離情報は、コントラストAFや位相差AF等によって、取得する。コントラストAFは、イメージセンサ4からの画像データの高周波成分のピーク位置から焦点調節する方法であり、合焦位置におけるフォーカスレンズ位置に基づいて距離情報を得ることができる。また位相差AFは、イメージセンサ4の撮像面に、フォーカスレンズからの光束を瞳分割して受光する位相差検出用画素を配置し、この位相差検出用画素の出力から位相差を算出する。この位相差から距離情報が得られる。また、位相差AFとしては、イメージセンサ4の撮像面に位相差検出用画素を配置する以外にも、専用の位相差検出用のセンサを配置し、このセンサからの出力に基づいて算出するようにしてもよい。さらに、発光した光が物体に反射して受信するまでの時間を測定して、被写体までの距離を算出するTOF(Time of Flight)を利用して、距離情報を取得してもよい。 The distance information determination unit 15 has a distance measuring circuit or an AF (Auto focus) circuit and determines the distance to the subject. The distance information is acquired by contrast AF, phase difference AF, or the like. The contrast AF is a method of adjusting the focus from the peak position of the high frequency component of the image data from the image sensor 4, and the distance information can be obtained based on the focus lens position at the focus position. Further, in the phase difference AF, a phase difference detecting pixel that receives the light beam from the focus lens by dividing the pupil is arranged on the image pickup surface of the image sensor 4, and the phase difference is calculated from the output of the phase difference detecting pixel. Distance information can be obtained from this phase difference. Further, as the phase difference AF, in addition to arranging the phase difference detecting pixels on the image pickup surface of the image sensor 4, a dedicated phase difference detecting sensor is arranged and the calculation is performed based on the output from this sensor. You can Further, the distance information may be acquired by using a TOF (Time of Flight) that calculates the distance to the subject by measuring the time until the emitted light is reflected by the object and received.
露出判定部16は、露出判定回路を有し、イメージセンサ4からの画像データを用いて、露出オーバー、適正露出、または露出アンダーであるか否かを判定する。この露出判定部16は、タッチパネル40等によって設定された露出対象範囲における画像データが露出オーバーであるか否かを判定することができる(例えば、図2AのS11参照)。 The exposure determination unit 16 has an exposure determination circuit and uses image data from the image sensor 4 to determine whether overexposure, proper exposure, or underexposure. The exposure determination unit 16 can determine whether the image data in the exposure target range set by the touch panel 40 or the like is overexposed (for example, see S11 in FIG. 2A).
ストロボ17は、カメラ本体に内蔵されたキセノン管やLED等の照明用の発光素子を有し、本撮影時にシステム制御部20からの発光命令に応じて被写体に向けて照明光を照射することができる。外部ストロボ18は、カメラ本体に装着可能なストロボである。外部ストロボ18は、外部ストロボ本体内にキセノン管やLED等の照明用の発光素子を有し、本撮影時にシステム制御部20からの発光命令に応じて被写体に向けて照明光を照射することができる。 The strobe 17 has a light-emitting element for illumination such as a xenon tube or an LED built in the camera body, and can illuminate a subject in response to a light-emission command from the system control unit 20 during main photographing. it can. The external strobe 18 is a strobe that can be attached to the camera body. The external strobe 18 has a light emitting element for illumination, such as a xenon tube or an LED, inside the external strobe body, and can illuminate a subject in response to a light emitting command from the system control unit 20 during main photographing. it can.
表示部37は、TFT(Thin Film Transistor)液晶や有機EL(Electro Luminescence)などの表示パネルを有する。表示部37は、カメラ本体の背面に設けられた背面表示部、あるいは接眼部を通して表示を観察するEVF(電子ビューファインダ:Electronic View Finder)等として配置される。表示部37は、画像処理部10によって画像処理された画像を表示する。 The display unit 37 has a display panel such as a TFT (Thin Film Transistor) liquid crystal or an organic EL (Electro Luminescence). The display unit 37 is arranged as a rear display unit provided on the rear surface of the camera body, or an EVF (Electronic View Finder) for observing the display through the eyepiece. The display unit 37 displays the image subjected to the image processing by the image processing unit 10.
入力IF38は、撮影者の操作を受けてカメラに対する各種の設定や指示を行うための操作部である。入力IF38は、例えば、カメラの電源をオン/オフするための電源釦、あるいは撮影開始および終了を操作するためのレリーズ釦等の操作部材を備え、さらに、背面表示部等の前面に設けられたタッチパネル40等を備えている。タッチパネル40は、ユーザがタッチした位置等を検出し、バス31に出力する。タッチパネル40が備えられると、タッチ操作によって設定や指示を入力することができる。 The input IF 38 is an operation unit for receiving various operations from the photographer and performing various settings and instructions for the camera. The input IF 38 includes, for example, an operation member such as a power button for turning on/off the power of the camera, a release button for operating the start and end of photographing, and is provided on the front surface of the rear display unit or the like. The touch panel 40 etc. are provided. The touch panel 40 detects the position touched by the user and outputs the detected position to the bus 31. When the touch panel 40 is provided, settings and instructions can be input by touch operation.
条件設定部39は、表示部37に表示されるメニュー画面において、カメラの撮影条件や撮影した画像の処理に関する条件を設定する。 The condition setting unit 39 sets, on the menu screen displayed on the display unit 37, shooting conditions of the camera and conditions relating to processing of the shot image.
内部メモリ33は、電気的書き換え可能な揮発性メモリである。内部メモリ33は、イメージセンサ4から読み出された画像データ、あるいは画像処理部10が画像処理を行っている途中の画像データを記憶する(後述する基本画像データ記録部33a、減算用画像データ記録部33b参照)。また、内部メモリ33は、カメラの動作に必要な各種の処理プログラムや設定値なども記憶する記憶部である。システム制御部20内のCPUは、内部メモリ33に記憶された処理プログラムに従って、カメラ内の各部の制御を行う。内部メモリ3は、例えば、フラッシュメモリ、SDRAM等の不揮発性メモリあるいは揮発性メモリによって、あるいはこれらを組合せることによって構成されている。 The internal memory 33 is an electrically rewritable volatile memory. The internal memory 33 stores the image data read from the image sensor 4 or the image data during the image processing by the image processing unit 10 (a basic image data recording unit 33a, a subtraction image data recording described later). See section 33b). The internal memory 33 is a storage unit that also stores various processing programs and setting values necessary for the operation of the camera. The CPU in the system control unit 20 controls each unit in the camera according to the processing program stored in the internal memory 33. The internal memory 3 is composed of, for example, a nonvolatile memory such as a flash memory or an SDRAM, a volatile memory, or a combination thereof.
内部メモリ33は、基本画像データ記録部33aと減算用画像データ記録部33bを有する。基本画像データ記録部33aは、比較明合成処理を行うために、繰り返し撮影を行う際の最初に撮影された画像データを記録するための領域である(例えば、図2Aおよび図3AのS11参照)。基本画像データ記録部33aは、撮像素子から出力され、露光量が適切な画像データを基本画像データとして記憶する基本画像データ記憶部として機能する(例えば、図2Aおよび図3AのS11参照)。基本画像データ記憶部は、繰り返し露光され出力される画像データのうちで最初に露光され出力される画像データを上記基本画像データとして記憶する(例えば、図2Aおよび図3AのS9参照)。 The internal memory 33 has a basic image data recording unit 33a and a subtraction image data recording unit 33b. The basic image data recording unit 33a is an area for recording the image data of the first image captured when performing repeated image capture in order to perform the comparative bright combination processing (see, for example, S11 in FIGS. 2A and 3A). .. The basic image data recording unit 33a functions as a basic image data storage unit that stores image data output from the image sensor and having an appropriate exposure amount as basic image data (see, for example, S11 in FIGS. 2A and 3A). The basic image data storage unit stores, as the basic image data, the image data that is first exposed and output among the image data that is repeatedly exposed and output (for example, see S9 in FIGS. 2A and 3A).
また、減算用画像データ記録部33bは、露出対象範囲が露出オーバーとなった場合に、その時の画像データを記録するための領域である(例えば、図2Aおよび図3AのS13参照)。減算用画像データ記録部33bは、撮像素子から出力され、露光量が過大な画像データを減算用画像データとして記憶する減算用画像データ記憶部として機能する(例えば、図2Aおよび図3AのS15参照)。基本画像データ記憶部と減算用画像データ記憶部は、同一のメモリ内の配置されている。もちろん、基本画像データ記憶部と、減算用画像データ記憶部を、別々のメモリに配置してもよい。 The subtraction image data recording unit 33b is an area for recording the image data at that time when the exposure target range is overexposed (for example, see S13 in FIGS. 2A and 3A). The subtraction image data recording unit 33b functions as a subtraction image data storage unit that stores the image data that is output from the image sensor and has an excessive exposure amount as subtraction image data (see, for example, S15 in FIGS. 2A and 3A). ). The basic image data storage unit and the subtraction image data storage unit are arranged in the same memory. Of course, the basic image data storage unit and the subtraction image data storage unit may be arranged in different memories.
外部メモリ36は、電気的に書き換え可能な不揮発性メモリであり、カメラ本体に装填自在のメモリカード等、あるいはカメラ本体の内部に固定された不揮発性の記憶媒体である。外部メモリ36は、画像処理部10において記録用に画像処理された画像データを記録し、また再生時には、記録された画像データが読み出される。外部メモリ36から読み出された画像データは、カメラの外部に出力可能である。 The external memory 36 is an electrically rewritable nonvolatile memory, such as a memory card that can be loaded into the camera body, or a nonvolatile storage medium fixed inside the camera body. The external memory 36 records the image data that has been image-processed for recording by the image processing unit 10, and the recorded image data is read during reproduction. The image data read from the external memory 36 can be output to the outside of the camera.
システム制御部20は、コントローラであり、またCPU(Central Processing Unit)と、周辺回路等を有するプロセッサである。システム制御部20は、内部メモリ33に記憶されている処理プログラムに従って、カメラ内の各部を制御する。 The system control unit 20 is a controller and is a processor having a CPU (Central Processing Unit), peripheral circuits, and the like. The system control unit 20 controls each unit in the camera according to the processing program stored in the internal memory 33.
システム制御部20は、減算用画像データをフィルタ処理して補正用画像データとし(例えば、図2BのS31、図3AのS16参照)、画像データ合成部の出力する合成画像データから、補正用画像データを減算して第2の合成画像データを生成し(例えば、図2BのS33、図3BのS21参照)、第2の合成画像データと基本画像データ記憶部に記憶された基本画像データとを比較明合成する(例えば、図2BのS33、図3BのS21参照)制御部として機能する。 The system control unit 20 filters the subtraction image data into correction image data (see, for example, S31 in FIG. 2B and S16 in FIG. 3A), and corrects the correction image from the combined image data output from the image data combining unit. The second synthetic image data is generated by subtracting the data (see, for example, S33 in FIG. 2B and S21 in FIG. 3B), and the second synthetic image data and the basic image data stored in the basic image data storage unit are combined. It functions as a control unit for performing comparative light synthesis (see, for example, S33 in FIG. 2B and S21 in FIG. 3B).
制御部は、フィルタ処理部に、減算用画像データを平滑化フィルタによりフィルタ処理させ、補正用画像データとる(例えば、図2BのS31、図3AのS16参照)。上述の平滑化フィルタによる処理は、フィルタ処理を施す注目画素の周囲に位置する画素の画素データにより注目画素の画素データを補間する処理である。制御部は、フィルタ処理として、減算用画像データをユーザ操作により、指定画素や指定範囲の画素を他のレベルに置き換えて、補正画像データを生成させる。制御部は、フィルタ処理として、撮影画像に距離情報がある場合に、距離情報に応じた被写体の画素を他のレベルに置き換えて、上記補正画像データを生成させる。 The control unit causes the filter processing unit to filter the subtraction image data by the smoothing filter to obtain the correction image data (see, for example, S31 in FIG. 2B and S16 in FIG. 3A). The above-described processing by the smoothing filter is processing of interpolating the pixel data of the target pixel with the pixel data of the pixels located around the target pixel to be filtered. As a filtering process, the control unit replaces the designated pixel or the designated range of pixels with another level by the user operation of the subtraction image data to generate corrected image data. As a filtering process, when the captured image has distance information, the control unit replaces the pixel of the subject according to the distance information with another level to generate the corrected image data.
次に、図2Aおよび図2Bに示すフローチャートを用いて、本実施形態に係る比較明合成処理について説明する。このフローは、システム制御部20内のCPUが内部メモリ33に記憶されたプログラムに従って、カメラ内の各部を制御することにより実現する。このフロー(後述する図3A、図3Bも同様)では、比較明合成に必要な処理について記載し、他の機能を実現するための処理については省略してある。 Next, the comparative bright combination processing according to the present embodiment will be described using the flowcharts shown in FIGS. 2A and 2B. This flow is realized by the CPU in the system control unit 20 controlling each unit in the camera according to the program stored in the internal memory 33. In this flow (the same applies to FIGS. 3A and 3B described later), the processing required for the comparative bright combination is described, and the processing for realizing other functions is omitted.
図2Aに示すフローが開始すると、まず、撮影条件を設定する(S1)。このステップでは、条件設定部39において、絞り値、シャッタ速度値、ISO感度等の撮影条件を設定する。この設定は、ユーザが入力IF38によって、手動で設定してもよく、またシステム制御部20が、イメージセンサ4によって取得した画像データに基づいて被写体輝度値を検出し、この輝度値に基づいて、自動的に撮影条件を設定してもよい。 When the flow shown in FIG. 2A starts, first, shooting conditions are set (S1). In this step, the condition setting unit 39 sets shooting conditions such as an aperture value, a shutter speed value, and ISO sensitivity. This setting may be manually set by the user through the input IF 38, and the system control unit 20 detects the subject brightness value based on the image data acquired by the image sensor 4, and based on this brightness value, The shooting conditions may be set automatically.
撮影条件を設定すると、次に、「露出対象範囲」を指定する(S3)。露出対象範囲は、突発光等の不要光が発生した場合であっても、画像の中で適正露出に保持したい被写体の範囲である。この指定は、ユーザがタッチパネル40等を用いて、範囲を指定してもよく、またシステム制御部20が、自動的に設定してもよい。例えば、距離情報判定部15によって検出された距離情報に基づいて、至近側の被写体の位置する範囲を設定してもよい。また、システム制御部20が、イメージセンサによって取得した画像データを解析することにより、至近側の被写体の位置する範囲を設定してもよい。また、このステップでは、システム制御部20は、露出オーバーとして検出する際に使用する閾値も設定する。閾値は、設計値として予め設定しておいてもよく、またユーザが手動で設定してもよい。 After setting the shooting conditions, the "exposure target range" is then designated (S3). The exposure target range is the range of the subject that is desired to be kept at proper exposure in the image even when unnecessary light such as sudden light emission occurs. This designation may be made by the user using the touch panel 40 or the like, or may be automatically set by the system control unit 20. For example, the range in which the subject on the near side is located may be set based on the distance information detected by the distance information determination unit 15. Further, the system control unit 20 may set the range in which the subject on the near side is located by analyzing the image data acquired by the image sensor. Further, in this step, the system control unit 20 also sets a threshold value used when detecting as overexposure. The threshold value may be preset as a design value, or may be manually set by the user.
露出対象範囲を設定すると、次に、撮影開始の操作をする(S5)。ユーザは表示部37に表示されたライブビュー画像を観察し、シャッタタイミングと判断すると、入力IF38の内のレリーズ釦を操作するか、または表示部37の画面(タッチパネル)に対してタッチ操作する。このステップでは、レリーズ釦が操作されたか否か、またはタッチ操作がなされたか否かを判定する。この判定の結果、レリーズ釦が操作されたか、タッチ操作がなされた場合には、撮影を開始する。撮影が開始すると、画像処理部10は、イメージセンサ4からの画像データに対して画像処理を施す。 When the exposure target range is set, next, an operation for starting shooting is performed (S5). When the user observes the live view image displayed on the display unit 37 and determines that the shutter timing is reached, the user operates the release button in the input IF 38 or touches the screen (touch panel) of the display unit 37. In this step, it is determined whether or not the release button has been operated or the touch operation has been performed. If the result of this determination is that the release button has been operated or the touch operation has been performed, shooting is started. When shooting is started, the image processing unit 10 performs image processing on the image data from the image sensor 4.
続いて、1枚目の撮影か否かを判定する(S9)。比較明合成処理する場合には、撮影が開始すると、システム制御部20は、イメージセンサ4から所定のフレームレートに従って、繰り返し画像データの読み出しを行う。そして、読み出された画像データに対して、画像処理を施した後に、内部メモリ33に一時記憶する。このステップでは、1枚目の撮影に基づく画像データであるか否かを判定する。 Then, it is determined whether or not it is the first shot (S9). In the case of performing the comparative bright combination processing, when shooting is started, the system control unit 20 repeatedly reads image data from the image sensor 4 at a predetermined frame rate. Then, the read image data is subjected to image processing and then temporarily stored in the internal memory 33. In this step, it is determined whether or not the image data is based on the first shot.
ステップS9における判定の結果、1枚目の撮影であった場合には、ベース画像として保存する(S11)。ここでは、システム制御部20は、1枚目の撮影で取得された画像データを、「ベース画像」として、内部メモリ33内の基本画像データ記録部33aに記録する。 If the result of determination in step S9 is the first shot, it is saved as a base image (S11). Here, the system control unit 20 records the image data acquired by the first shooting as a “base image” in the basic image data recording unit 33a in the internal memory 33.
一方、ステップS9における判定の結果、1枚目の撮影でなかった場合、すなわち2枚目以降の撮影の場合には、露出対象範囲の露出がオーバーしているか否かを判定する(S13)。ここでは、露出判定部16が、ステップS3において指定された露出対象範囲の画像データの明るさが閾値を超えているか否かを判定する。後述する図4Bの画像55は、画像データの明るさがオーバーしている例であり、至近側にある被写体が、所謂、白飛びとなっている。 On the other hand, as a result of the determination in step S9, if it is not the first shot, that is, if the second and subsequent shots are taken, it is determined whether the exposure target range is overexposed (S13). Here, the exposure determination unit 16 determines whether or not the brightness of the image data in the exposure target range designated in step S3 exceeds the threshold value. An image 55 in FIG. 4B, which will be described later, is an example in which the brightness of the image data is over, and the subject on the near side is so-called whiteout.
ステップS13における判定の結果、露出対象範囲の露出がオーバーしていた場合には、減算用画像として保存する(S15)。このステップでは、システム制御部20は、露出がオーバーと判定された画像データを、「減算用画像」として、内部メモリ33内の減算用画像データ記録部33bに記録する。 If the result of determination in step S13 is that the exposure target range is overexposed, it is saved as a subtraction image (S15). In this step, the system control unit 20 records the image data determined to be overexposed in the subtraction image data recording unit 33b in the internal memory 33 as the “subtraction image”.
ステップS13における判定の結果、露出対象範囲の露出がオーバーしていない場合、またはステップS15において、減算用画像として記録すると、次に、比較明合成し、合成画像として保存する(S17)。このステップでは、比較明合成部12が比較明合成処理を行う。このように、1枚目の撮影画像データは、比較明合成処理を行わない状態で、内部メモリ33に一時記憶する。2枚目の撮影画像データを取得すると、1枚目の撮影画像データと2枚目の撮影画像データの対応する画素位置における画素データを比較し、明るい方の画素データを合成することにより比較明画像データとして記憶する。全画素について、比較し明るい方の画素データを合成して、1回目の合成画像が生成され、この合成画像データは内部メモリ33に一時記憶される。以後、N枚目の撮影画像データを取得するたびに、一時記憶された合成画像データ((N−1)枚目までの合成画像)とN枚目の撮影画像データについて、画素毎に比較し、明るい方の画素データに置き換えて合成画像を生成し、保存する。 If the result of determination in step S13 is that the exposure range has not been overexposed, or if it has been recorded as a subtraction image in step S15, then comparative bright combination is performed and this is saved as a combined image (S17). In this step, the comparative light composition unit 12 performs the comparative light composition processing. In this way, the first photographed image data is temporarily stored in the internal memory 33 in a state where the comparative bright combination processing is not performed. When the second captured image data is acquired, the pixel data at the corresponding pixel positions of the first captured image data and the second captured image data are compared, and the brighter pixel data is combined to make the comparison clear. It is stored as image data. For all pixels, the brighter pixel data are compared and combined to generate a first combined image, and the combined image data is temporarily stored in the internal memory 33. After that, every time the Nth captured image data is acquired, the temporarily stored composite image data (the (N-1)th composite image) and the Nth captured image data are compared for each pixel. , Generates a composite image by replacing it with the brighter pixel data and saves it.
ステップS17において合成画像を保存すると、またはステップS11においてベース画像を保存すると、次に、画像をモニタ(表示部37)に表示する(S19)。ここでは、システム制御部20が、途中経過として、ステップ17において生成した合成画像を表示部37に表示させる。なお、1枚目の撮影の場合には、ステップS11において保存されたベース画像を表示する。また、ステップS17において生成される合成画像は、露出オーバーしている範囲について、露出オーバーしたままで合成処理されているので、突発光の影響を受けた画像がモニタに表示される。 When the composite image is saved in step S17 or the base image is saved in step S11, the image is then displayed on the monitor (display unit 37) (S19). Here, the system control unit 20 causes the display unit 37 to display the composite image generated in step 17 as an intermediate process. In the case of the first image capturing, the base image stored in step S11 is displayed. Further, since the combined image generated in step S17 is subjected to the combining process in the overexposed range while being overexposed, the image affected by the sudden light emission is displayed on the monitor.
次に、撮影終了動作か否かを判定する(S23)。ユーザは、比較明合成処理用の撮影を終了する場合には、再度レリーズ釦を操作するか、または表示部37の画面に対してタッチ操作を行う。このステップでは、システム制御部20が、これらの終了動作が行われたか否かを判定する。この判定の結果、終了動作が行われていない場合には、ステップS7に戻り、比較明合成処理用の撮影を続行する。 Next, it is determined whether or not it is a shooting end operation (S23). The user operates the release button again or performs a touch operation on the screen of the display unit 37 to end the shooting for the comparative bright combination processing. In this step, the system control unit 20 determines whether or not these ending operations have been performed. If the result of this determination is that the ending operation has not been performed, processing returns to step S7, and shooting for comparative bright combination processing continues.
ステップS23における判定の結果、撮影終了動作が行われた場合には、撮影を終了する(S25)。このステップでは、システム制御部20は、イメージセンサ4による撮影処理を停止させる。 If the result of determination in step S23 is that a shooting end operation has been performed, shooting is ended (S25). In this step, the system control unit 20 stops the image capturing process by the image sensor 4.
撮影終了動作を行うと、次に、露出オーバーの画像が含まれているか否かを判定する(S27)。前述したように、撮影の最中に、ステップS13において、露出対象範囲の露出がオーバーしているか否かを判定した。このステップでは、撮影動作の終了後に、システム制御部20が、撮影画像の中に露出オーバーの画像があったか否かを判定する。 When the shooting end operation is performed, it is next determined whether or not an overexposed image is included (S27). As described above, during shooting, it is determined in step S13 whether or not the exposure target range is overexposed. In this step, after the shooting operation is completed, the system control unit 20 determines whether or not there is an overexposed image in the shot image.
ステップS27における判定の結果、露出オーバーの画像が含まれていなかった場合には、合成画像を最終画像として外部メモリに保存する(S29)。この場合には、露出オーバーの画像が含まれていなかったことから、白飛び部分を補正しなくてもよい。そこで、システム制御部20は、ステップS17において、記憶した比較明合成画像を最終画像として、外部メモリ36に記録する。 If the result of determination in step S27 is that an overexposed image is not included, the composite image is saved in the external memory as the final image (S29). In this case, since the overexposed image is not included, it is not necessary to correct the whiteout portion. Therefore, in step S17, the system control unit 20 records the stored comparative bright composite image as the final image in the external memory 36.
一方、ステップ27における判定の結果、露出オーバーの画像が含まれていた場合には、ステップS31以下において、突発的な不要光を除去した比較明合成画像を生成する。まず、減算用画像にフィルタ処理し、「補正用画像」として保存する(S31)。ここでは、フィルタ処理部13が、ステップS15において保存した減算用画像に対して、フィルタ処理を施す。言い換えると、撮影画像に露出オーバーの画像が含まれる場合、すなわち、「減算用画像」が内部メモリに保存される場合は、「減算用画像」にフィルタ処理を実施し、露出オーバーとなった部分以外を補正し、フィルタ処理後の画像を「補正用画像」として内部メモリ33に保存する。例えば、図4Bを用いて後述するように、露出オーバーとなった画像55(減算用画像)にフィルタ処理を施すと、星の映像が消え、突発光によって露出オーバーとなった被写体の部分が残る画像56(補正用画像)となる。 On the other hand, if the result of determination in step 27 is that an overexposed image is included, in step S31 and subsequent steps, a comparative bright combined image from which sudden unnecessary light has been removed is generated. First, the subtraction image is filtered and saved as a “correction image” (S31). Here, the filter processing unit 13 performs the filter processing on the subtraction image stored in step S15. In other words, if the captured image includes an overexposed image, that is, if the “subtraction image” is stored in the internal memory, the “subtraction image” is filtered and the overexposed portion is processed. Other than the above are corrected, and the image after the filter processing is stored in the internal memory 33 as a “correction image”. For example, as will be described later with reference to FIG. 4B, when the overexposed image 55 (subtraction image) is filtered, the star image disappears, and a part of the subject that is overexposed due to sudden light emission remains. The image 56 (correction image) is obtained.
ステップS31(後述する図3AのステップS16も同様)において、フィルタ処理部13が行うフィルタ処理としては、例えば、以下のような処理がある。
(1)メディアンフィルタにより星の輝点を削除する。
(2)平均化フィルタにより星の輝点を削除する。
(3)輪郭検出によって、露出対象範囲に指定した対象物を検出し、それ以外のレベルを黒レベルに置き換える。
(4)ユーザ操作によって範囲を指定し、この範囲内の画素データを0LSBに置き換える。LSBは、least significant bitの略であり、二進数において最小値ビットである。ユーザ操作による範囲の指定としては、タッチパネル40によって領域を指定してもよく、被写体を選択して、それ以外を置き換えるようにしてもよい。
(5)距離情報判定部15によって対象物の距離情報が得られる場合には、露出対象範囲に指定した対象物と異なる距離の対象物に対応する画素を黒レベルに置き換えるようにしてもよい。
In step S31 (similarly to step S16 in FIG. 3A described later), the filter processing performed by the filter processing unit 13 includes, for example, the following processing.
(1) The bright spots of stars are deleted by the median filter.
(2) The bright spots of stars are deleted by the averaging filter.
(3) The object specified in the exposure target range is detected by contour detection, and the other levels are replaced with black levels.
(4) A range is specified by a user operation, and pixel data within this range is replaced with 0LSB. LSB is an abbreviation for least significant bit and is a minimum value bit in a binary number. As the range specification by the user operation, the area may be specified by the touch panel 40, or the subject may be selected and the other part may be replaced.
(5) When the distance information determination unit 15 obtains the distance information of the target object, the pixels corresponding to the target object having a different distance from the target object specified in the exposure target range may be replaced with the black level.
本実施形態におけるフィルタ処理部13は、メディアンフィルタや平均フィルタのような狭義の意味のフィルタ処理に限られない。すなわち、指定された露出対象範囲(減算用画像として必要な被写体)以外の画素データは、全て黒レベルや0LSBにしても、問題ない。また、補正については周囲の画素情報を元にした補正も含めるようにしてもよいことから、他のレベルに置き換えるようにしてもよい。 The filter processing unit 13 in the present embodiment is not limited to a filter process in a narrow sense such as a median filter or an average filter. That is, there is no problem if all the pixel data other than the specified exposure target range (subject necessary for the subtraction image) is set to the black level or 0LSB. Further, the correction may include a correction based on the surrounding pixel information, and may be replaced with another level.
ステップS31において、補正用画像を保存すると、次に、比較明合成処理を行う(S33)。ここでは、まず、画像処理部10またはシステム制御部20が、「合成画像」の画像データから、「補正用画像」の画像データを減算する。すなわち、ステップ17において生成され保存されている合成画像データから、ステップS31において保存された補正用画像データを減算する。この減算は、対応する画素位置の画素データ毎に行う。すなわち、この処理では、露出オーバーの画像を用いて比較明合成された合成画像から、露出オーバーしている部分以外の画像を消去した画像(補正用画像)を減算している。この減算処理によって得られる画像(減算画像)は、不要光で露出オーバーとなった被写体が消去され、一方、星の光跡はそのまま残っている。 After the correction image is stored in step S31, a comparative bright combination process is performed (S33). Here, first, the image processing unit 10 or the system control unit 20 subtracts the image data of the “correction image” from the image data of the “composite image”. That is, the correction image data stored in step S31 is subtracted from the combined image data generated and stored in step 17. This subtraction is performed for each pixel data at the corresponding pixel position. That is, in this process, the image (correction image) in which the image other than the overexposed portion is erased is subtracted from the composite image that has been subjected to the comparative bright combination using the overexposed image. In the image obtained by this subtraction processing (subtracted image), the overexposed subject due to unnecessary light is erased, while the light trace of the star remains as it is.
減算処理(「合成画像」−「補正用画像」)によって露出オーバーとなった部分(被写体)を消去すると、次に、減算処理した画像(減算画像)とベース画像を用いて比較明合成処理を行う。ベース画像は、ステップS11において保存された1枚目の撮影画像である。撮影開始時には、適正露出となるように撮影条件が設定されることから、ベース画像は適正露出で撮影された画像である。減算処理した画像(減算画像)は、前述したように、星の光跡は残しつつ露出オーバーしている部分(被写体)が消去されている。またベース画像は適正露出で撮影された画像である。この2つの画像を用いて、比較明合成処理を行うことにより、星の光跡はそのまま残っているが、突発的な不要光は除去された画像を合成することができる。 If the overexposed part (subject) is deleted by the subtraction process (“composite image”-“correction image”), then the comparative bright combination process is performed using the subtracted image (subtracted image) and the base image. To do. The base image is the first captured image stored in step S11. At the start of shooting, the shooting conditions are set so that the proper exposure is obtained, so the base image is an image shot with proper exposure. As described above, in the image subjected to the subtraction processing (subtraction image), the overexposed portion (subject) is erased while leaving the star trail. The base image is an image taken with proper exposure. By performing the comparative light combination processing using these two images, it is possible to combine the images in which the light trace of the star remains as it is but the spurious unnecessary light is removed.
ステップS33において、比較明合成を行うと、比較明合成画像を外部メモリに保存する(S35)。ここでは、システム制御部20は、ステップS33において生成した比較明合成画像を、外部メモリ36に記録する。ステップS29またはステップS35において画像を外部メモリに保存すると、本フローを終了する。 When the comparative bright combination is performed in step S33, the comparative bright combined image is stored in the external memory (S35). Here, the system control unit 20 records the comparative bright composite image generated in step S33 in the external memory 36. When the image is stored in the external memory in step S29 or step S35, this flow ends.
このように、本フローにおいては、最初の撮影画像をベース画像として保存し(S11)、また、2回目以降の撮影画像が、露出がオーバーしていた場合には、その画像を減算用画像として保存している(S15)。そして、イメージセンサ4から画像データが出力される毎に、比較明合成を行って合成画像を保存している(S17)。撮影が終了すると、露出オーバー画像がある場合には、減算用画像に対してフィルタ処理を施した補正用画像を保存し(S31)、合成画像から補正用画像を減算した減算画像を生成し、この減算画像とベース画像を用いて比較明合成処理を行って、最終的な比較明合成画像を生成している(S33)。このため、露出オーバーとなった部分を消去し、適正露出に置き換えた画像を得ることができる。 As described above, in this flow, the first captured image is stored as the base image (S11), and when the second and subsequent captured images are overexposed, the image is used as the subtraction image. It is saved (S15). Then, each time image data is output from the image sensor 4, comparative bright combination is performed and the combined image is stored (S17). After shooting, if there is an overexposed image, a correction image obtained by filtering the subtraction image is saved (S31), and a subtraction image is generated by subtracting the correction image from the composite image, Comparative bright combination processing is performed using the subtracted image and the base image to generate a final comparative bright combined image (S33). Therefore, it is possible to obtain an image in which the overexposed portion is erased and replaced with proper exposure.
なお、本実施形態においては、ベース画像は、1枚目の撮影画像を用いている。しかし、ベース画像は、指定された露出対象範囲が適正露出で撮影された画像であれば良いので、2枚目以降であってもよい。すなわち、露出対象範囲の露出が適正であれば、1枚目に限られない。 In addition, in the present embodiment, the first captured image is used as the base image. However, the base image may be the second and subsequent images, as long as the specified exposure target range is an image captured with proper exposure. That is, as long as the exposure of the exposure target range is proper, it is not limited to the first sheet.
また、本実施形態においては、ステップS13において、露出対象範囲の露出がオーバーしていると判定されることが、複数回ありうる。この場合には、減算用画像データ記憶部33bは、少なくとも第1の減算用画像データと第2の減算用画像データを記憶することを可能にしておく。そして、合成画像データから第1の減算用画像データに対応する第1の補正用画像データを減算して第2の合成画像データを生成し、この第2の合成画像データと基本画像データ(ベース画像)とを比較明合成し、この比較明合成した画像データから第2の減算用画像データに対応する第2の補正用画像データを減算して第3の合成画像データを生成し、第3の合成画像データと基本画像データを比較明合成すればよい。 In addition, in the present embodiment, it may be determined that the exposure target range is overexposed a plurality of times in step S13. In this case, the subtraction image data storage unit 33b is capable of storing at least the first subtraction image data and the second subtraction image data. Then, the first correction image data corresponding to the first subtraction image data is subtracted from the composite image data to generate the second composite image data, and the second composite image data and the basic image data (base Image) and subtractively subtracts the second correction image data corresponding to the second subtraction image data from the comparatively bright combined image data to generate third combined image data. The composite image data and the basic image data may be compared and lightly combined.
また、第1の減算用画像データと第2の減算用画像データを比較明合成し、合成した画像データを減算用画像データとする。この減算用画像データが作成できれば、ステップS31において、減算用画像データをフィルタ処理して、補正用画像データを作成できる。さらに、別の方法として、減算用画像データを複数記録し、記録した減算用画像データ同士を比較明合成し、補正用の減算用画像データを作成してもよい。この場合も減算用画像データが作成できれば、ステップ31において、補正用画像データを作成することができる。 Further, the first subtraction image data and the second subtraction image data are compared and brightly combined, and the combined image data is used as the subtraction image data. If this subtraction image data can be created, in step S31, the subtraction image data can be filtered to create correction image data. Further, as another method, a plurality of image data for subtraction may be recorded, and the recorded image data for subtraction may be compared and brightly combined to create the image data for subtraction for correction. Also in this case, if the subtraction image data can be created, the correction image data can be created in step 31.
次に、図3Aおよび図3Bに示すフローチャートを用いて、本実施形態に係る比較明合成処理の変形例について説明する。このフローも、システム制御部20内のCPUが内部メモリ33に記憶されたプログラムに従って、カメラ内の各部を制御することにより実現する。 Next, a modified example of the comparative bright combination processing according to the present embodiment will be described using the flowcharts shown in FIGS. 3A and 3B. This flow is also realized by the CPU in the system control unit 20 controlling each unit in the camera according to the program stored in the internal memory 33.
前述の本発明の一実施形態における比較明合成処理は、撮影動作が終了した後に、露出オーバーとなった被写体(部分)を消去し、この部分が適正露出となるような比較明合成処理を行っていた。これに対して、本変形例は、比較明合成用に撮影を行っている最中に、露出オーバーとなった被写体(部分)を消去し、適正露出となるような比較明合成処理を行っている。図3Aおよび図3Bに示すフローチャートにおいて、図2Aおよび図2Bと同じ処理を行うステップについては、同一のステップ番号を付し、詳しい説明を省略する。 In the comparative bright combination processing according to the embodiment of the present invention described above, after the shooting operation is completed, the overexposed subject (portion) is erased, and the comparative bright combination processing is performed so that this portion is properly exposed. Was there. On the other hand, in this modified example, the subject (portion) that is overexposed is erased during the shooting for the comparative bright combination, and the comparative bright combination processing is performed to obtain the proper exposure. There is. In the flowcharts shown in FIGS. 3A and 3B, steps for performing the same processes as those in FIGS. 2A and 2B are designated by the same step numbers, and detailed description thereof will be omitted.
図3Aに示す比較明合成処理のフローが開始すると、まず、撮影条件を設定し(S1)、露出対象範囲を指定し(S3)、撮影開始操作がなされると(S5)、撮影を行う(S7)。撮影が1枚目か否かを判定し(S9)、1枚目であった場合には、ベース画像として保存する(S11)。ステップS11においてベース画像として保存すると、または撮影が1枚目でない場合には、次に、露出対象範囲の露出がオーバーしているか否かを判定する(S13)。 When the flow of the comparative bright combination processing shown in FIG. 3A starts, first, the shooting conditions are set (S1), the exposure target range is designated (S3), and when the shooting start operation is performed (S5), shooting is performed ( S7). It is determined whether or not the first shot was taken (S9), and if the first shot was taken, the image is saved as a base image (S11). If the image is saved as the base image in step S11, or if the first image is not captured, it is next determined whether the exposure target range is overexposed (S13).
ステップS13における判定の結果、露出対象範囲の露出がオーバーの場合には、減算用画像として保存する(S15)。続いて、減算用画像にフィルタ処理し、補正用画像として保存する(S16)。ここでは、ステップS15において保存した減算用画像に対して、ステップS31と同様のフィルタ処理を施す。図2A、図2Bに示したフローにおいては、撮影動作終了後にフィルタ処理を施していたが、本変形例においては、撮影中に減算用画像にフィルタ処理を施すようにしている。 If the result of determination in step S13 is overexposure in the exposure target range, it is saved as a subtraction image (S15). Then, the subtraction image is filtered and stored as a correction image (S16). Here, the same filtering process as in step S31 is performed on the subtraction image stored in step S15. In the flow shown in FIGS. 2A and 2B, the filtering process is performed after the shooting operation is completed, but in the present modification, the subtraction image is subjected to the filtering process during shooting.
ステップS13における判定の結果、露出がオーバーしている場合、またはステップS16において、フィルタ処理し、補正用画像として保存すると、次に、比較明合成処理を行い合成画像として保存する(S17)。 If the result of determination in step S13 is overexposure, or if in step S16 filter processing has been carried out and the image has been saved as a correction image, then comparative bright combining processing is carried out and the image is saved as a combined image (S17).
次に、露出対象範囲の露出がオーバーしているか否かを判定する(S20)。ここでは、露出判定部16が、ステップS13と同様に、露出対象範囲の露出がオーバーしているか否かを判定する。この判定の結果、露出がオーバーしていた場合には、比較明合成を行う(S21)。ここでは、まず、画像処理部10またはシステム制御部20が、「合成画像」の画像データから、「補正用画像」の画像データを減算する。すなわち、ステップ17において生成され保存されている合成画像データから、ステップS16において保存された補正用画像データを減算する。この減算処理は、ステップS33と同様であることから、詳しい説明を省略する。 Next, it is determined whether the exposure target range is overexposed (S20). Here, the exposure determination unit 16 determines whether the exposure target range is overexposed as in step S13. If the result of this determination is overexposure, then comparative bright combination is carried out (S21). Here, first, the image processing unit 10 or the system control unit 20 subtracts the image data of the “correction image” from the image data of the “composite image”. That is, the correction image data stored in step S16 is subtracted from the composite image data generated and stored in step S17. This subtraction process is the same as step S33, so detailed description thereof will be omitted.
ステップS21において、減算処理(「合成画像」−「補正用画像」)によって露出オーバーとなった部分の画像を消去すると、次に、比較明合成部12は、ステップS33と同様に、減算処理した画像(減算画像)とベース画像を用いて比較明合成処理を行う。この比較明合成処理もステップS33と同様であることから、詳しい説明を省略する。図2A、図2Bに示したフローにおいては、撮影動作終了後に減算画像とベース画像を用いて、比較明合成処理を施していたが、本変形例においては、撮影中にこの比較明合成処理を施すようにしている。ステップS21において生成された比較明合成による合成画像の画像データは内部メモリ33に一時記憶される。 In step S21, when the image of the portion that is overexposed by the subtraction process (“composite image”-“correction image”) is erased, the comparative light combination unit 12 then performs the subtraction process, as in step S33. The comparative bright combination process is performed using the image (subtraction image) and the base image. Since this comparative bright combination processing is also the same as step S33, detailed description thereof will be omitted. In the flow shown in FIGS. 2A and 2B, the comparative bright combination processing is performed using the subtraction image and the base image after the shooting operation is completed, but in the present modification, the comparative bright combination processing is performed during shooting. I am trying to give it. The image data of the composite image by the comparative bright composition generated in step S21 is temporarily stored in the internal memory 33.
ステップS20における判定の結果、露出対象範囲の露出がオーバーしていない場合、またはステップS21において比較明合成を行うと、次に、合成画像をモニタに表示する(S22)。ステップS21において減算処理(「合成画像」−「補正用画像」)によって露出オーバーとなった部分を消去し、この減算処理された画像(減算画像)とベース画像を用いて、比較明合成処理を行っていることから、この合成画像は突発的な不要光は除去された画像となっている。すなわち、ステップS22において表示される合成画像は、突発的な不要光は除去されている。 If the result of determination in step S20 is that the exposure target range has not been overexposed, or if comparative bright combination has been carried out in step S21, then a combined image is displayed on the monitor (S22). In step S21, the portion that is overexposed by the subtraction process (“composite image”-“correction image”) is erased, and the comparative bright combination process is performed using the subtracted image (subtracted image) and the base image. Since this is performed, the synthetic image is an image from which the unnecessary unnecessary light is removed. That is, the spurious unnecessary light is removed from the composite image displayed in step S22.
次に、撮影終了動作か否かを判定する(S23)。この判定の結果、撮影動作が終了していない場合には、ステップS7に戻り、比較明合成用の撮影を行う。一方、ステップS23における判定の結果、撮影動作が終了した場合には、撮影を終了する(S25)。 Next, it is determined whether or not it is a shooting end operation (S23). If the result of this determination is that the shooting operation has not ended, processing returns to step S7 and shooting for comparative bright combination is performed. On the other hand, if the result of determination in step S23 is that the shooting operation has ended, shooting ends (S25).
撮影を終了すると、次に、合成画像を最終画像として外部メモリに保存する(S29)。ここでは、システム制御部20は、ステップS17またはS21において保存された合成画像を、外部メモリ36に記録する。ステップS21において保存された合成画像は、前述したように、撮影中に突発的な不要光は除去されている。このため、図2A、図2Bのフローの場合と異なり、撮影動作終了後に、突発的な不要光を除去する必要がない。合成画像を外部メモリ29に保存すると、本フローを終了する。 Upon completion of shooting, the composite image is then stored in the external memory as the final image (S29). Here, the system control unit 20 records the combined image stored in step S17 or S21 in the external memory 36. As described above, in the composite image stored in step S21, the unnecessary light that has suddenly been removed during shooting is removed. Therefore, unlike the case of the flow of FIGS. 2A and 2B, it is not necessary to remove sudden unnecessary light after the shooting operation is completed. When the composite image is stored in the external memory 29, this flow ends.
このように、本フローにおいては、最初の撮影画像をベース画像として保存し(S11)、また、最初以外の2番目以降の撮影画像の露出対象範囲の露出がオーバーしていた場合(S13:Yes)には、その画像を減算用画像として保存し(S15)、この減算用画像にフィルタ処理を施して補正用画像として保存している(S16)。そして、露出対象範囲の露出がオーバーしている場合(S20:Yes)には、合成画像から補正用画像を減算し、この減算画像とベース画像を用いて比較明合成を行っている(S21)。このように、本変形例においては、撮影中に、フィルタ処理および減算処理を行って、突発的な不要光を除去した合成画像を生成し(S21参照)、この合成画像を表示している(S22参照)。このため、不要光が含まれる画像を表示することはなく、ユーザは撮影中であっても、不要光を意識しないで撮影に集中することができる。 As described above, in this flow, when the first captured image is stored as the base image (S11), and the exposure target range of the second and subsequent captured images other than the first is overexposed (S13: Yes). ), the image is stored as a subtraction image (S15), and the subtraction image is filtered and stored as a correction image (S16). If the exposure target range is overexposed (S20: Yes), the correction image is subtracted from the composite image, and the comparative bright combination is performed using the subtracted image and the base image (S21). .. As described above, in the present modification, a filtering process and a subtracting process are performed during shooting to generate a combined image from which sudden unnecessary light is removed (see S21), and this combined image is displayed ( (See S22). Therefore, an image including unnecessary light is not displayed, and the user can concentrate on shooting without being aware of unnecessary light even during shooting.
次に、図4Aないし図4Eを用いて、本発明の一実施形態および変形例における画像処理について、説明する。図4Aに示す画像51は、ユーザが意図する最終画像である。この画像51は、空に星の光跡MLTが複数写っており、また至近側に撮影対象範囲として指定された被写体Ob(図4Aでは、被写体は木)が写っている。画像52は、突発的な不要光の影響を受けた画像を判別しこの画像を比較明合成しない場合に、比較明合成処理によって生成された合成画像である(特許文献1参照)。この場合には、光跡MLTの各軌跡は、箇所MLTbにおいて途切れてしまう。本発明の実施形態やその変形例は、この軌跡の途切れを防止する。 Next, image processing in the embodiment and the modification of the present invention will be described with reference to FIGS. 4A to 4E. The image 51 shown in FIG. 4A is the final image intended by the user. In this image 51, a plurality of star light traces MLT are shown in the sky, and a subject Ob (the subject is a tree in FIG. 4A) designated as a shooting target range is shown on the closest side. The image 52 is a composite image generated by the comparative bright compositing process when an image affected by sudden unnecessary light is discriminated and the comparative bright compositing is not performed on the image (see Patent Document 1). In this case, each locus of the light trace MLT is interrupted at the location MLTb. The embodiment of the present invention and the modification thereof prevent the discontinuity of the locus.
図4Bに示す画像53は、1枚目の撮影で取得したベース画像である(図2Aおよび図3AのS11参照)。この画像53には、至近側に被写体Obが写っており、また空に複数の星STが点状に写っており適切な露出で撮影されている。画像54は、複数回の撮影を行い、画像データを比較明合成している状態で、突発的な不要光により撮影対象範囲の被写体Obが露出オーバーとなった場合において、比較明合成処理を行った後の画像である。すなわち、星STは突発的な不要光の影響を受けないが、被写体Obは突発的な不要光の影響によって露出オーバーとなっている。このような露出オーバーが生じた画像は、ユーザの意図する画像と異なるので、露出オーバーを補正する。この露出オーバーとなった被写体Obを補正するために、まず、露出オーバーとなったフレームの画像55を、減算用画像として保存する(図2Aおよび図3AのS15参照)。この画像55は、複数の星STと露出オーバーとなった近距離側の被写体Obが写っている。 The image 53 shown in FIG. 4B is a base image acquired in the first shooting (see S11 in FIGS. 2A and 3A). In this image 53, the subject Ob is photographed on the near side, and a plurality of stars ST are photographed in the sky in the shape of dots, which are photographed with an appropriate exposure. The image 54 is photographed a plurality of times and is subjected to comparative bright combination processing when the object Ob in the photographing target range is overexposed due to sudden unnecessary light in a state where comparative bright combination of image data is performed. It is an image after it. That is, the star ST is not affected by sudden unnecessary light, but the subject Ob is overexposed due to the effect of sudden unnecessary light. Since the image in which such overexposure has occurred is different from the image intended by the user, overexposure is corrected. In order to correct this overexposed subject Ob, first, the image 55 of the overexposed frame is saved as a subtraction image (see S15 in FIGS. 2A and 3A). This image 55 shows a plurality of stars ST and a subject Ob on the short-distance side that is overexposed.
続いて、図4Cに示すように、露出オーバーとなった画像55(減算用画像)に対してフィルタ処理を行い(図2BのS31、図3AのS16参照)、画像56(補正用画像)を生成する。フィルタ処理は、注目画素(この場合は星)の画素値を、注目画素の周囲の画素の中央値や平均値に置き換える等の処理である。星の周囲の画素値は小さいことから、フィルタ処理部13が画像55にフィルタ処理を施すと、星の位置の画素値は小さくなる。この結果、星STが消えた画像56となる。しかし、被写体Obは、面積が広く複数の露出オーバーの画素データが隣接することから、フィルタ処理を施しても、露出オーバーのままで消去されず残っている。 Subsequently, as shown in FIG. 4C, filter processing is performed on the overexposed image 55 (subtraction image) (see S31 of FIG. 2B and S16 of FIG. 3A), and an image 56 (correction image) is obtained. To generate. The filtering process is a process of replacing the pixel value of the pixel of interest (in this case, a star) with the median value or average value of the pixels around the pixel of interest. Since the pixel value around the star is small, when the filter processing unit 13 filters the image 55, the pixel value at the position of the star becomes small. As a result, the image 56 in which the star ST disappears is obtained. However, since the object Ob has a large area and a plurality of overexposed pixel data are adjacent to each other, the object Ob remains overexposed and remains unerased even after the filtering process.
次に、図4Dに示すように、画像54(合成画像)から画像56(補正用画像)を減算することにより、画像57(減算画像)を生成する(図2BのS33、図3BのS21参照)。すなわち、画像54(合成画像)は、撮影対象範囲の被写体Obが露出オーバーとなった場合の比較明合成後の画像である。また、画像56(補正用画像)は、前述のようにフィルタ処理を施し、星STを除去し、露出オーバーとなっている被写体Obのみが写っている画像である。画像54から画像56を減算することにより、不要光で露出オーバーとなった被写体Obが消えた画像57を得ることができる。この画像57には光跡MFTは写っている。 Next, as shown in FIG. 4D, the image 57 (subtraction image) is generated by subtracting the image 56 (correction image) from the image 54 (composite image) (see S33 in FIG. 2B and S21 in FIG. 3B). ). That is, the image 54 (composite image) is an image after comparative bright combination when the object Ob in the shooting target range is overexposed. Further, the image 56 (correction image) is an image in which only the object Ob that is overexposed by performing the filter processing as described above, removing the star ST, is captured. By subtracting the image 56 from the image 54, it is possible to obtain an image 57 in which the subject Ob that has been overexposed by unnecessary light disappears. The light trace MFT is reflected in this image 57.
画像57(減算画像)を生成すると、次に、図4Eに示すように、画像57(減算画像)と画像53(ベース画像)を用いて比較明合成処理、または画像54と画像53の加算処理を行う(図2BのS33、図3BのS21参照)。画像57の光跡MLTは、突発的な不要光の影響を受けておらず、また突発的な不要光の影響を受けた被写体Obは除去されている。また、画像53(ベース画像)の被写体Obは、前述のように適正露出で撮影されている。星STは写っているが、比較明合成処理または加算処理を行う際には、光跡MLTに重なる。このため、画像57と画像53を用いて比較明合成処理、または加算処理を行った画像58は、被写体Obが適正露出となると共に、光跡MLTが途切れることがない。すなわち、画像58は、ユーザが意図した画像51と同じになる。 When the image 57 (subtracted image) is generated, next, as shown in FIG. 4E, the comparative bright combination process using the image 57 (subtracted image) and the image 53 (base image) or the addition process of the image 54 and the image 53. (See S33 of FIG. 2B and S21 of FIG. 3B). The light trace MLT of the image 57 is not affected by the sudden unnecessary light, and the subject Ob affected by the sudden unnecessary light is removed. Further, the subject Ob of the image 53 (base image) is photographed with proper exposure as described above. Although the star ST is shown, it overlaps with the light trace MLT when performing the comparative light combination process or the addition process. Therefore, in the image 58 subjected to the comparative bright combination process or the addition process using the image 57 and the image 53, the subject Ob is properly exposed and the light trace MLT is not interrupted. That is, the image 58 becomes the same as the image 51 intended by the user.
以上説明したように、本発明の一実施形態や変形例においては、被写体像を撮像素子によって撮像して画像データを生成し出力し(例えば、図2AのS5)、撮像素子により所定の露光時間で露光され出力される画像データを、画像データ合成部によって繰り返し比較明合成している(例えば、図2AのS17)。また、撮像素子から出力され、露光量が適切な画像データを基本画像データとして基本画像データ記憶部に記憶し(例えば、図2AのS11)、撮像素子から出力され、露光量が過大な画像データを減算用画像データとして減算用画像データ記憶部に記憶している(例えば、図2AのS15)。そして、減算用画像データをフィルタ処理して補正用画像データとし(例えば、図2BのS31)、画像データ合成部の出力する合成画像データから、補正用画像データを減算して第2の合成画像データを生成し、第2の合成画像データと基本画像データ記憶部に記憶された基本画像データとを比較明合成している(例えば、図2BのS33)。このため、突発的な不要光がある場合であっても、ユーザの意図する画像を比較明合成によって取得できる。 As described above, in the embodiment and the modified example of the present invention, a subject image is picked up by an image pickup device to generate and output image data (for example, S5 in FIG. 2A), and a predetermined exposure time is set by the image pickup device. The image data that is exposed and output in (1) is repeatedly subjected to comparative bright combination by the image data combining section (for example, S17 in FIG. 2A). In addition, image data output from the image sensor and having an appropriate exposure amount is stored in the basic image data storage unit as basic image data (for example, S11 in FIG. 2A), and image data output from the image sensor and having an excessive exposure amount is stored. Is stored in the subtraction image data storage unit as subtraction image data (for example, S15 in FIG. 2A). Then, the subtraction image data is filtered to be the correction image data (for example, S31 in FIG. 2B), and the correction image data is subtracted from the composite image data output from the image data composition unit to obtain the second composite image. Data is generated, and the second combined image data and the basic image data stored in the basic image data storage unit are comparatively combined (for example, S33 in FIG. 2B). Therefore, even when there is a sudden unnecessary light, the image intended by the user can be acquired by the comparative bright combination.
なお、本発明の一実施形態や変形例においては、適正な露出で撮影された画像として、1枚目の画像を基本画像データ記憶部に記憶している。しかし、1枚目の画像でなくても、適正露出で撮影されれば、2枚目以降の画像であってもよい。また、減算用画像から補正用画像を作成する際にフィルタ処理を施しているが、狭義のフィルタ処理に限らず、周囲の画素データを補間演算することによって、補正してもよく、また指定範囲の画素データのレベルを他のレベルに置き換える等、種々の演算処理や画像処理を行ってもよい(フィルタ処理として上述した(1)〜(5)を参照)。 It should be noted that in the embodiment and the modification of the present invention, the first image is stored in the basic image data storage unit as an image captured with proper exposure. However, the second and subsequent images may be used as long as they are captured with proper exposure, instead of the first image. Further, although the filter process is performed when the correction image is created from the subtraction image, the correction process is not limited to the narrow sense filter process, and may be performed by performing interpolation calculation on the surrounding pixel data, and the specified range Various arithmetic processing or image processing may be performed, such as replacing the level of the pixel data of (3) with another level (see (1) to (5) described above as the filter processing).
また、本発明の一実施形態や変形例においては、距離情報判定部15、露出判定部14等を、システム制御部20とは別体の構成とした。しかし、各部の全部または一部をソフトウエアで構成し、システム制御部20内のCPUによって実行するようにしても勿論かまわない。また、画像処理部10内の各部は、ハードウエア回路で構成する以外にも、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。さらに、FPGA(Field Programmable Gate Array)等の集積回路で構成されたプロセッサにおける各回路部であってもよい。または、1つ以上のCPUで構成されるプロセッサが、記録媒体に記録されたコンピュータプログラムを読み込んで実行することにより、各部としての機能を実行するようにしても構わない。これらは適宜組み合わせてもよいことは勿論である。 In addition, in the embodiment and the modification of the present invention, the distance information determination unit 15, the exposure determination unit 14, and the like are configured separately from the system control unit 20. However, of course, all or part of each unit may be configured by software and executed by the CPU in the system control unit 20. Further, each unit in the image processing unit 10 may be configured by a hardware circuit, or may be a hardware configuration such as a gate circuit generated based on a programming language described by Verilog, and a DSP ( A hardware configuration using software such as Digital Signal Processor) may be used. Further, each circuit unit in a processor configured by an integrated circuit such as FPGA (Field Programmable Gate Array) may be used. Alternatively, a processor including one or more CPUs may execute the functions of each unit by reading and executing a computer program recorded in a recording medium. Of course, these may be combined appropriately.
また、本発明の一実施形態や変形例においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、複数の画像データを合成することが可能な撮影機器であれば、本発明を適用することができる。 Further, in the embodiment and the modified example of the present invention, a digital camera is used as a device for photographing, but the camera may be a digital single lens reflex camera, a mirrorless camera, a compact digital camera, or a video camera. It may be a video camera such as a camera or a movie camera, and may be a mobile phone, a smartphone, a personal digital assistant (PC), a tablet computer, a camera built in a game machine, a medical camera, a microscope, or the like. It can be a camera for scientific equipment, a car-mounted camera, or a surveillance camera. In any case, the present invention can be applied to any photographing device capable of synthesizing a plurality of image data.
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。 Further, among the techniques described in the present specification, the control mainly described in the flowchart is often settable by a program and may be stored in a recording medium or a recording unit. The recording medium and the recording unit may be recorded at the time of product shipment, may be used as a distributed recording medium, or may be downloaded via the Internet.
また、本発明の一実施形態においては、フローチャートを用いて、本実施形態における動作を説明したが、処理手順は、順番を変えてもよく、また、いずれかのステップを省略してもよく、ステップを追加してもよく、さらに各ステップ内における具体的な処理内容を変更してもよい。 Further, in the embodiment of the present invention, the operation in the present embodiment is described using the flowchart, but the processing procedure may be changed in order, or any step may be omitted. Steps may be added, and the specific processing content in each step may be changed.
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。 Further, with respect to the operation flow in the claims, the description, and the drawings, for convenience, even if description is made using words that express the order of “first”, “next”, etc. It does not mean that implementation in this order is essential.
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements within a range not departing from the gist of the invention in an implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some of all the constituent elements shown in the embodiment may be deleted. Furthermore, the constituent elements of different embodiments may be combined appropriately.
1・・・撮像部、2・・・レンズ(絞り)、3・・・メカシャッタ、4・・・イメージセンサ、10・・・画像処理部、11・・・画像合成部、12・・・比較明合成部、13・・・フィルタ処理部、14・・・現像処理部、15・・・距離情報判定部、16・・・露出判定部、17・・・ストロボ、18・・・外部ストロボ、20・・・システム制御部、31・・・バス、33・・・内部メモリ、33a・・・基本画像データ記録部、33b・・・基本画像データ記録部、36・・・外部メモリ、37・・・表示部、38・・・入力IF、39・・・条件設定部、40・・・タッチパネル 1... Image pickup unit, 2... Lens (aperture), 3... Mechanical shutter, 4... Image sensor, 10... Image processing unit, 11... Image combining unit, 12... Comparison Light combining unit, 13... Filter processing unit, 14... Development processing unit, 15... Distance information determination unit, 16... Exposure determination unit, 17... Strobe, 18... External strobe, 20... System control unit, 31... Bus, 33... Internal memory, 33a... Basic image data recording unit, 33b... Basic image data recording unit, 36... External memory, 37. ..Display unit, 38... Input IF, 39... Condition setting unit, 40... Touch panel
Claims (11)
上記撮像素子により所定の露光時間で露光され出力される画像データを繰り返し比較明合成する画像データ合成部と、
上記撮像素子から出力され、露光量が適切な画像データを基本画像データとして記憶する基本画像データ記憶部と、
上記撮像素子から出力され、露光量が過大な画像データを減算用画像データとして記憶する減算用画像データ記憶部と、
上記減算用画像データをフィルタ処理して補正用画像データとし、上記画像データ合成部の出力する合成画像データから、上記補正用画像データを減算して第2の合成画像データを生成し、上記第2の合成画像データと上記基本画像データ記憶部に記憶された基本画像データとを比較明合成する制御部と、
を有することを特徴とする撮像装置。 An image sensor that captures a subject image, generates image data, and outputs the image data;
An image data synthesizing unit for repeatedly comparing and brightly synthesizing image data that is exposed by the image sensor for a predetermined exposure time and is output,
A basic image data storage unit that stores image data output from the image sensor and having an appropriate exposure amount as basic image data,
A subtraction image data storage unit that stores the image data output from the image pickup device and having an excessive exposure amount as subtraction image data;
The subtraction image data is filtered to be correction image data, and the correction image data is subtracted from the composite image data output from the image data composition unit to generate second composite image data, A control unit for comparing and combining the composite image data of No. 2 and the basic image data stored in the basic image data storage unit;
An image pickup apparatus comprising:
上記制御部は、上記合成画像データから上記第1の減算用画像データに対応する第1の補正用画像データを減算して上記第2の合成画像データを生成し、上記第2の合成画像データと上記基本画像データとを比較明合成し、上記比較明合成した画像データから上記第2の減算用画像データに対応する第2の補正用画像データを減算して第3の合成画像データを生成し、上記第3の合成画像データと上記基本画像データを比較明合成することを特徴とする請求項1に記載の撮像装置。 The subtraction image data storage unit is capable of storing first subtraction image data and second subtraction image data,
The control unit subtracts the first correction image data corresponding to the first subtraction image data from the synthesis image data to generate the second synthesis image data, and the second synthesis image data. And the basic image data are subjected to comparative bright combination, and the second correction image data corresponding to the second subtraction image data is subtracted from the comparatively bright combined image data to generate third combined image data. The image pickup apparatus according to claim 1, wherein the third combined image data and the basic image data are subjected to comparative bright combination.
上記制御部は、上記第1の減算用画像データと第2の減算用画像データを比較明合成し、合成した画像データを上記減算用画像データとすることを特徴とする請求項1に記載の撮像装置。 The subtraction image data storage unit is capable of storing first subtraction image data and second subtraction image data,
2. The control unit according to claim 1, wherein the first subtraction image data and the second subtraction image data are compared and brightly combined, and the combined image data is used as the subtraction image data. Imaging device.
上記撮像素子により所定の露光時間で露光され出力される画像データを、画像データ合成部によって繰り返し比較明合成し、
上記撮像素子から出力され、露光量が適切な画像データを基本画像データとして基本画像データ記憶部に記憶し、
上記撮像素子から出力され、露光量が過大な画像データを減算用画像データとして減算用画像データ記憶部に記憶し、
上記減算用画像データをフィルタ処理して補正用画像データとし、上記画像データ合成部の出力する合成画像データから、上記補正用画像データを減算して第2の合成画像データを生成し、上記第2の合成画像データと上記基本画像データ記憶部に記憶された基本画像データとを比較明合成する、
ことを特徴とする撮像方法。 The subject image is captured by the image sensor to generate and output image data,
Image data that is exposed and output at a predetermined exposure time by the image pickup device is repeatedly compared and brightly combined by an image data combining unit,
The image data output from the image pickup device and having an appropriate exposure amount is stored in the basic image data storage unit as basic image data,
The image data output from the image sensor and having an excessive exposure amount is stored in the subtraction image data storage unit as subtraction image data,
The subtraction image data is filtered to be correction image data, and the correction image data is subtracted from the composite image data output from the image data composition unit to generate second composite image data, The comparative image composition of the composite image data of No. 2 and the basic image data stored in the basic image data storage unit is performed.
An imaging method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019021736A JP7148428B2 (en) | 2019-02-08 | 2019-02-08 | Imaging device and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019021736A JP7148428B2 (en) | 2019-02-08 | 2019-02-08 | Imaging device and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020129753A true JP2020129753A (en) | 2020-08-27 |
JP7148428B2 JP7148428B2 (en) | 2022-10-05 |
Family
ID=72174904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019021736A Active JP7148428B2 (en) | 2019-02-08 | 2019-02-08 | Imaging device and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7148428B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020202452A (en) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | Image processing device, image processing method, and program |
WO2021215514A1 (en) | 2020-04-24 | 2021-10-28 | 富士フイルム株式会社 | Compound and labeled biomaterial in which same is used |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014212414A (en) * | 2013-04-18 | 2014-11-13 | オリンパス株式会社 | Imaging device and imaging method |
JP2015216604A (en) * | 2014-05-13 | 2015-12-03 | キヤノン株式会社 | Image processing system, method of the same, and program |
JP2016076869A (en) * | 2014-10-08 | 2016-05-12 | オリンパス株式会社 | Imaging apparatus, imaging method and program |
JP2016149631A (en) * | 2015-02-12 | 2016-08-18 | オリンパス株式会社 | Imaging apparatus and imaging method |
JP2017092839A (en) * | 2015-11-16 | 2017-05-25 | オリンパス株式会社 | Image processor and image processing method |
JP2018152630A (en) * | 2017-03-09 | 2018-09-27 | キヤノン株式会社 | Image processing apparatus and method, and imaging apparatus |
-
2019
- 2019-02-08 JP JP2019021736A patent/JP7148428B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014212414A (en) * | 2013-04-18 | 2014-11-13 | オリンパス株式会社 | Imaging device and imaging method |
JP2015216604A (en) * | 2014-05-13 | 2015-12-03 | キヤノン株式会社 | Image processing system, method of the same, and program |
JP2016076869A (en) * | 2014-10-08 | 2016-05-12 | オリンパス株式会社 | Imaging apparatus, imaging method and program |
JP2016149631A (en) * | 2015-02-12 | 2016-08-18 | オリンパス株式会社 | Imaging apparatus and imaging method |
JP2017092839A (en) * | 2015-11-16 | 2017-05-25 | オリンパス株式会社 | Image processor and image processing method |
JP2018152630A (en) * | 2017-03-09 | 2018-09-27 | キヤノン株式会社 | Image processing apparatus and method, and imaging apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020202452A (en) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | Image processing device, image processing method, and program |
WO2021215514A1 (en) | 2020-04-24 | 2021-10-28 | 富士フイルム株式会社 | Compound and labeled biomaterial in which same is used |
Also Published As
Publication number | Publication date |
---|---|
JP7148428B2 (en) | 2022-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101427660B1 (en) | Apparatus and method for blurring an image background in digital image processing device | |
JP6034740B2 (en) | Imaging apparatus and imaging method | |
US8937677B2 (en) | Digital photographing apparatus, method of controlling the same, and computer-readable medium | |
JP6570918B2 (en) | Imaging apparatus and imaging method | |
JP6370207B2 (en) | Imaging apparatus, image processing apparatus, imaging method, and program | |
JP2009044313A (en) | Imaging device and control method | |
JP2017108309A (en) | Imaging apparatus and imaging method | |
JP6284408B2 (en) | Image processing apparatus, imaging apparatus, determination method, driving method, imaging method, and program | |
JP6351271B2 (en) | Image composition apparatus, image composition method, and program | |
JP5759190B2 (en) | Imaging apparatus and control method thereof | |
US10136087B2 (en) | Imaging apparatus and imaging method | |
JP7148428B2 (en) | Imaging device and imaging method | |
JP5246590B2 (en) | Imaging apparatus, image generation method, and program | |
JP2013141105A (en) | Image processing device, electronic camera, and image processing program | |
JP6231814B2 (en) | EXPOSURE DETERMINING DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM | |
KR101378333B1 (en) | Apparatus and method for blurring an image background in digital image processing device | |
JP6300514B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
KR20100112788A (en) | Method of controlling activation between shaking correction and electronical strobo, method of photographing, and digital camera module | |
JP2016225757A (en) | Imaging apparatus and imaging method | |
JP5355124B2 (en) | Imaging apparatus and scene discrimination method thereof | |
JP7297506B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD AND PROGRAM | |
JP2006246014A (en) | Digital camera and image processing method thereof | |
JP2014220749A (en) | Imaging apparatus and image correction method | |
JP2012204952A (en) | Exposure control apparatus, and camera | |
JP2012239078A (en) | Photographing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220922 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7148428 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |