JP2006332934A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2006332934A
JP2006332934A JP2005152071A JP2005152071A JP2006332934A JP 2006332934 A JP2006332934 A JP 2006332934A JP 2005152071 A JP2005152071 A JP 2005152071A JP 2005152071 A JP2005152071 A JP 2005152071A JP 2006332934 A JP2006332934 A JP 2006332934A
Authority
JP
Japan
Prior art keywords
imaging
unit
image
electronic camera
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005152071A
Other languages
Japanese (ja)
Inventor
Hidehisa Dobashi
秀久 土橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005152071A priority Critical patent/JP2006332934A/en
Publication of JP2006332934A publication Critical patent/JP2006332934A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera which can stop photographing in an appropriate timing when images formed by multiple photographing are synthesized and a synthesized image is formed, and can form the synthesized image even when multiple photographing are stopped on the way. <P>SOLUTION: The electronic camera comprises a determinator for determining image pick-up conditions, an image pick-up for photographing repeatedly an object image to form images of a plurality of frames according to the image pick-up conditions determined by the determinator, a judgment for judging stoppage of photographing by the image pick-up based on user's direction or an image information on the images of the plurality of frames formed by the image pick-up, a control unit for stopping photographing by the image pick-up based on either judgment by the judgment, and a synthesizer for synthesizing the images of the plurality of frames formed by the image pick-up to form a synthesized image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数回の撮像により生成した画像を合成して合成画像を生成する電子カメラに関する。   The present invention relates to an electronic camera that generates a composite image by combining images generated by a plurality of imaging operations.

従来より、カメラによる撮像時には、ユーザの手ぶれや被写体が移動することによる被写体ぶれなどに起因して、撮像面上における被写体の像がぶれることがあった。被写体の像がぶれた場合、被写体の像のぶれが軌跡として記録されてしまう。このような問題は、露光時間が長くなるほど発生しやすい。そこで、複数回の撮像により生成した複数の画像において主要被写体を検出して位置合わせを行い、合成して合成画像を生成することで上述した像のぶれを補正する技術が考えられている(例えば、特許文献1参照)。このような技術は、ランダムノイズの低減にも効果が期待できる。
特開2004−208024号公報
Conventionally, when an image is captured by a camera, an image of the subject on the imaging surface may be blurred due to camera shake of the user or subject blur caused by movement of the subject. When the subject image is blurred, the blur of the subject image is recorded as a locus. Such a problem is more likely to occur as the exposure time becomes longer. Thus, a technique for correcting the above-described image blur by detecting a main subject in a plurality of images generated by a plurality of times of imaging, performing alignment, and generating a combined image (for example, is considered) , See Patent Document 1). Such a technique can be expected to reduce random noise.
Japanese Patent Laid-Open No. 2004-208024

しかし、上述した技術では、合成に適した画像が規定フレーム数に達するまで、繰り返し撮像を行うため、撮影終了までの時間がユーザに分かりにくく、また、途中で被写体が大きく動いてしまい、以後のフレームでの合成が不可能だとユーザが判断した場合でも、対応ができない。
本発明の電子カメラは、複数回の撮像により生成した画像を合成して合成画像を生成する際に、適切なタイミングで撮像の中止を可能にするとともに、複数回の撮像を途中で中止した場合でも合成画像を生成可能とすることを目的とする。
However, in the above-described technique, since the image suitable for composition reaches the specified number of frames repeatedly, it is difficult for the user to understand the time until the end of the image capture, and the subject moves greatly on the way. Even if the user determines that it is impossible to combine frames, it cannot be handled.
When the electronic camera of the present invention generates a composite image by synthesizing images generated by multiple times of imaging, the imaging can be stopped at an appropriate timing, and when multiple times of imaging are stopped in the middle However, it is intended to make it possible to generate a composite image.

本発明の電子カメラは、撮像条件を決定する決定部と、前記決定部により決定した前記撮像条件にしたがって、被写体像を繰り返し撮像して複数フレームの画像を生成する撮像部と、ユーザ指示に基づいて前記撮像部による撮像の中止を判断し、かつ、前記撮像部により生成した前記複数フレームの画像の画像情報に基づいて前記撮像部による撮像の中止を判断する判断部と、前記判断部による何れかの判断に基づいて、前記撮像部による撮像を中止させる制御部と、前記撮像部により生成した前記複数フレームの画像を合成して合成画像を生成する合成部とを備える。   An electronic camera according to the present invention is based on a determination unit that determines an imaging condition, an imaging unit that repeatedly captures a subject image and generates a plurality of frames according to the imaging condition determined by the determination unit, and a user instruction Determining whether to stop imaging by the imaging unit, and determining whether to stop imaging by the imaging unit based on image information of the images of the plurality of frames generated by the imaging unit, A control unit that stops the imaging by the imaging unit, and a synthesis unit that synthesizes the images of the plurality of frames generated by the imaging unit to generate a synthesized image.

なお、好ましくは、前記制御部は、前記判断部により前記撮像部による撮像の中止を判断すると、任意のフレームの撮像の途中であっても前記撮像部による撮像を中止させるか、または、現在撮像中のフレームの撮像が終了した後に前記撮像部による撮像を中止させるようにしても良い。
また、好ましくは、前記合成部は、前記撮像部により生成した前記複数フレームの画像のうちフレームの撮像の途中で撮像を中止した際の画像を除く複数フレームの画像を合成するか、または、前記撮像部により生成した全てのフレームの画像を合成するようにしても良い。
Preferably, when the determination unit determines to stop imaging by the imaging unit, the control unit stops imaging by the imaging unit even during imaging of an arbitrary frame, or the current imaging You may make it stop imaging by the said imaging part, after the imaging of the inside flame | frame is complete | finished.
Preferably, the synthesizing unit synthesizes images of a plurality of frames excluding an image obtained when the imaging is stopped during the imaging of the frame among the images of the plurality of frames generated by the imaging unit, or You may make it synthesize | combine the image of all the frames produced | generated by the imaging part.

また、好ましくは、前記決定部は、前記撮像部により被写体像を繰り返し撮像する際の複数フレームのそれぞれについて、独立に露光時間を決定し、前記合成部は、前記複数フレームの画像を合成する前に、前記複数フレームごとに独立に決定した前記露光時間に基づく目標露光量と、各フレームの画像の露光量との比に基づいて、前記複数フレームの画像のそれぞれを補正するようにしても良い。   Preferably, the determining unit independently determines an exposure time for each of a plurality of frames when the subject image is repeatedly captured by the imaging unit, and the combining unit is configured to combine the images of the plurality of frames. In addition, each of the images of the plurality of frames may be corrected based on a ratio between a target exposure amount based on the exposure time determined independently for each of the plurality of frames and an exposure amount of the image of each frame. .

また、好ましくは、前記決定部は、前記撮像部により被写体像を繰り返し撮像する際の露光時間を決定し、前記合成部は、前記複数フレームの画像を合成した後に、前記露光時間に基づく目標露光量と、各フレームの画像の露光量の総和との比に基づいて、前記合成画像を補正するようにしても良い。
また、好ましくは、ユーザ指示を受け付ける操作部を備え、前記判断部は、前記操作部による前記ユーザ指示に基づいて、前記撮像部による撮像の中止を判断するようにしても良い。
Preferably, the determining unit determines an exposure time when the imaging unit repeatedly captures a subject image, and the combining unit combines the images of the plurality of frames and then performs target exposure based on the exposure time. The composite image may be corrected based on the ratio between the amount and the sum of the exposure amounts of the images in each frame.
Preferably, an operation unit that receives a user instruction is provided, and the determination unit may determine whether to stop imaging by the imaging unit based on the user instruction from the operation unit.

また、好ましくは、前記制御部は、前記判断部により前記撮像部による撮像の中止を判断すると、前記撮像部による撮像を中止させるとともに、撮像の中止までに生成したフレームの画像を破棄するようにしても良い。   Preferably, when the determination unit determines to stop imaging by the imaging unit, the control unit stops imaging by the imaging unit and discards an image of a frame generated until the imaging is stopped. May be.

本発明の電子カメラによれば、複数回の撮像により生成した画像を合成して合成画像を生成する際に、適切なタイミングで撮像の中止を可能にするとともに、複数回の撮像を途中で中止した場合でも合成画像を生成可能とすることができる。   According to the electronic camera of the present invention, when a composite image is generated by synthesizing images generated by a plurality of times of imaging, the imaging can be stopped at an appropriate timing, and a plurality of times of imaging is stopped halfway. Even in this case, a composite image can be generated.

以下、図面を用いて本発明の実施形態について説明する。本実施形態では、本発明の電子カメラの一例として、コンパクトカメラを用いて説明を行う。なお、本発明の技術を一眼レフデジタルカメラ、動画撮影機能を備えた電子カメラなどに適用するようにしても良い。
図1は、本実施形態の電子カメラ100の機能ブロック図である。図1に示すように、電子カメラ100は、被写体像を電気的な信号に変換する撮像素子であるCCD1、被写体像をCCD1の撮像素子面に結像する撮影レンズ2、CCD1から出力されるアナログ信号をA/D変換するのに適した信号にするため、信号の振幅、オフセットを調整する信号処理回路A3、信号処理回路A3から出力されるアナログ信号をデジタル信号に変換するA/D変換部4、A/D変換部4でデジタル化された画像データに対して、ホワイトバランス調整、階調特性の処理、フィルタ処理、色調整処理、解像度変換処理、リサイズ等の処理を行う信号処理回路B5、デバイスの動作や信号処理のタイミングを制御する信号を生成するTG6を備える。また、電子カメラ100は、画像データの一時保持のためのメモリであるバッファ/SDRAM7、バッファ/SDRAM7を制御するSDRAM制御部8、撮影情報や撮影した画像、各種設定をする際のメニュー等を表示するモニタ9、モニタ9ヘの表示情報を制御する表示制御回路10、バッファ/SDRAM7内に保持した複数フレームの画像を比較してずれを検出し、検出したずれを相殺するようにずらして合成する処理を行う動き検出/動き補償回路11、バスの制御を行うバス切替回路12を備える。また、電子カメラ100は、電子カメラ100の動きを検出するジャイロセンサ13、各部の制御やデータの参照を行うCPU14、後述する各フレームの撮像が実際に行われた時間を計測するタイマ15、撮影のトリガとなるレリーズを制御するスイッチであるシャッタボタン16、通常の撮影か複数フレームの撮像および合成を行う撮影かを切り替えたり、カメラの各種設定を行うためのモードに移行するための操作部材であるモード切替ボタン17を備える。また、電子カメラ100は、CPU14の処理手順を格納するプログラムメモリ18、メモリカード等の記録媒体との仲介を行うI/F部19、マイクロドライブ、メモリカード等からなる記録媒体20を備える。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a description will be given using a compact camera as an example of the electronic camera of the present invention. The technique of the present invention may be applied to a single-lens reflex digital camera, an electronic camera equipped with a moving image shooting function, and the like.
FIG. 1 is a functional block diagram of the electronic camera 100 of the present embodiment. As shown in FIG. 1, an electronic camera 100 includes an CCD 1 that is an image sensor that converts a subject image into an electrical signal, a photographing lens 2 that forms the subject image on the image sensor surface of the CCD 1, and an analog output from the CCD 1. In order to make a signal suitable for A / D conversion, a signal processing circuit A3 that adjusts the amplitude and offset of the signal, and an A / D conversion unit that converts an analog signal output from the signal processing circuit A3 into a digital signal 4. A signal processing circuit B5 that performs white balance adjustment, gradation characteristic processing, filter processing, color adjustment processing, resolution conversion processing, resizing, and the like on the image data digitized by the A / D conversion unit 4. TG6 for generating a signal for controlling the operation of the device and the timing of signal processing. The electronic camera 100 also displays a buffer / SDRAM 7 that is a memory for temporarily storing image data, an SDRAM control unit 8 that controls the buffer / SDRAM 7, shooting information, captured images, menus for various settings, and the like. The monitor 9, the display control circuit 10 for controlling the display information on the monitor 9, and the images of a plurality of frames held in the buffer / SDRAM 7 are compared to detect a shift, and the shift is combined to cancel the detected shift. A motion detection / motion compensation circuit 11 that performs processing and a bus switching circuit 12 that controls the bus are provided. The electronic camera 100 includes a gyro sensor 13 that detects the movement of the electronic camera 100, a CPU 14 that controls each unit and references data, a timer 15 that measures the time when each frame to be described later is actually captured, A shutter button 16 that is a switch for controlling a release that is a trigger for the camera, and an operation member for switching between normal shooting and shooting for shooting and combining a plurality of frames, and for shifting to a mode for performing various camera settings. A mode switching button 17 is provided. The electronic camera 100 also includes a program memory 18 that stores processing procedures of the CPU 14, an I / F unit 19 that mediates with a recording medium such as a memory card, a recording medium 20 that includes a micro drive, a memory card, and the like.

CCD1の出力は信号処理回路A3に接続され、信号処理回路A3の出力はA/D変換部4に接続される。また、A/D変換部4の出力は信号処理回路B5に接続され、信号処理回路B5の出力はバスに接続される。また、TG6の出力は、CCD1、信号処理回路A3、A/D変換部4に接続され、これらの各部はTG6からの信号に同期して動作を行う。また、バッファ/SDRAM7、SDRAM制御部8、動き検出/動き補償回路11、CPU14、プログラムメモリ18、I/F部19の各部はバスと相互に接続され、バスは、バス切替回路12により適宜切り替えられる。また、バッファ/SDRAM7とSDRAM制御部8とは相互に接続される。また、表示制御回路10にはバスの出力が接続され、表示制御回路10の出力はモニタ9に接続される。また、I/F部19は、記録媒体20と相互に接続される。また、CPU14は、ジャイロセンサ13、シャッタボタン16、モード切替ボタン17の状態を検知するとともに、タイマ15と相互に接続される。CPU14は、プログラムメモリ16に格納された処理手順にしたがって、各部を制御する。   The output of the CCD 1 is connected to the signal processing circuit A3, and the output of the signal processing circuit A3 is connected to the A / D conversion unit 4. The output of the A / D converter 4 is connected to the signal processing circuit B5, and the output of the signal processing circuit B5 is connected to the bus. The output of the TG 6 is connected to the CCD 1, the signal processing circuit A3, and the A / D conversion unit 4, and these units operate in synchronization with the signal from the TG 6. The buffer / SDRAM 7, SDRAM control unit 8, motion detection / motion compensation circuit 11, CPU 14, program memory 18, and I / F unit 19 are interconnected with the bus, and the bus is switched appropriately by the bus switching circuit 12. It is done. The buffer / SDRAM 7 and the SDRAM control unit 8 are connected to each other. Further, the output of the bus is connected to the display control circuit 10, and the output of the display control circuit 10 is connected to the monitor 9. The I / F unit 19 is connected to the recording medium 20. The CPU 14 detects the states of the gyro sensor 13, the shutter button 16, and the mode switching button 17 and is connected to the timer 15. The CPU 14 controls each unit according to the processing procedure stored in the program memory 16.

ユーザによりシャッタボタン16が押圧されると、CPU14は、これを検知し、撮影回数、露光時間、シャッタ速度などの撮像条件を決定し、CCD1による電荷の蓄積を開始させる。CCD1により蓄積された電荷は、TG6により出力される信号に同期して読み出され、信号処理回路A3、A/D変換部4、信号処理回路B5において上述した処理が施された後に、バッファ/SDRAM7に保持される。   When the shutter button 16 is pressed by the user, the CPU 14 detects this, determines the imaging conditions such as the number of imaging, the exposure time, the shutter speed, and starts the accumulation of electric charges by the CCD 1. The charge accumulated by the CCD 1 is read out in synchronization with the signal output by the TG 6 and is subjected to the above processing in the signal processing circuit A 3, A / D conversion unit 4, and signal processing circuit B 5, and then the buffer / It is held in the SDRAM 7.

以下、本発明の特徴である合成モード実行時の電子カメラ100の動作について、図2のフローチャートを参照して説明する。なお、合成モードとは、複数回の撮像により生成した画像を合成して合成画像を生成する撮影モードであり、合成モードの選択はモード切替ボタン17を介したユーザ操作により行われるものとする。また、モードの選択は他の方法(カメラによる撮影モードの自動選択など)で実行するようにしても良い。   Hereinafter, the operation of the electronic camera 100 during execution of the synthesis mode, which is a feature of the present invention, will be described with reference to the flowchart of FIG. The synthesis mode is a shooting mode in which images generated by multiple times of imaging are combined to generate a combined image, and the selection of the combining mode is performed by a user operation via the mode switching button 17. The mode may be selected by another method (such as automatic selection of a shooting mode by a camera).

ステップS1において、CPU14は、シャッタボタン16を介したユーザ操作により撮像開始が指示されたか否かを判定する。
撮像開始が指示されると、ステップS2において、CPU14は、撮影回数N、撮像条件を決定する。CPU14は、測光データや、CCD1により得られる画像情報などに基づいてシャッタ速度等の撮像条件を決定する。そして、シャッタ速度に基づいて、手ぶれを起こしにくく、かつ、ノイズが目立ちにくい撮影回数Nを決定する。なお、撮像条件および撮影回数Nの決定は、公知技術と同様に行われるため、詳細な説明を省略する。さらに、CPU14は、N回の撮像のそれぞれについて、独立に露光時間を決定する。ここでは、図3に示すように、N=6、6回の撮像のそれぞれの露光時間がtB1,tB2,・・・tB6と決定されたものとして、以下の説明を行う。なお、図3に示すように、それぞれの露光時間tB1,tB2,・・・tB6は、均一とは限らない。これは、経験的に判断される手ぶれ特性などに応じて、それぞれの露光時間を決定するためである。また、撮像開始後に、ジャイロセンサ13の出力に応じて、それぞれの露光時間を微調整する構成にしても良い。
In step S <b> 1, the CPU 14 determines whether the start of imaging has been instructed by a user operation via the shutter button 16.
When the start of imaging is instructed, in step S2, the CPU 14 determines the number N of imaging times and imaging conditions. The CPU 14 determines imaging conditions such as a shutter speed based on photometric data, image information obtained by the CCD 1, and the like. Then, based on the shutter speed, the number N of times of photographing that hardly causes camera shake and that makes noise less noticeable is determined. Note that the determination of the imaging condition and the number N of imaging is performed in the same manner as in the known technique, and thus detailed description thereof is omitted. Furthermore, the CPU 14 determines the exposure time independently for each of N times of imaging. Here, as shown in FIG. 3, the following description will be given assuming that the exposure times of N = 6 and six imaging operations are determined as tB1, tB2,... TB6. As shown in FIG. 3, the exposure times tB1, tB2,... TB6 are not always uniform. This is because the respective exposure times are determined according to the camera shake characteristics determined empirically. Further, after the start of imaging, the respective exposure times may be finely adjusted according to the output of the gyro sensor 13.

ステップS3において、CPU14は、CPU14内の不図示のカウンタを初期化し、カウント値nをn=1とする。
ステップS4において、CPU14は、ステップS2で決定した撮像条件にしたがって各部を制御し、n回目の撮像を行う。なお、ホワイトバランス等、撮像を開始する時点で決まる調整値は1回目の撮像時にのみ行うようにしても良い。
In step S3, the CPU 14 initializes a counter (not shown) in the CPU 14, and sets the count value n to n = 1.
In step S4, the CPU 14 controls each unit according to the imaging conditions determined in step S2, and performs n-th imaging. It should be noted that adjustment values determined at the time of starting imaging, such as white balance, may be performed only during the first imaging.

ステップS5において、CPU14は、生成した画像をバッファ/SDRAM7に保持する。このとき、タイマ15により計測されたn回目の撮像時の露光時間の実測値(tAn)も記録する。
ステップS6において、CPU14は、(現在のカウンタ数n)=(ステップS2で決定した撮影回数N)であるか否かを判定する。(現在のカウンタ数n)=(ステップS2で決定した撮影回数N)である場合には、ステップS8に進み、(現在のカウンタ数n)が(ステップS2で決定した撮影回数N)に達しない場合には、ステップS7に進む。
In step S <b> 5, the CPU 14 holds the generated image in the buffer / SDRAM 7. At this time, the actually measured value (tAn) of the exposure time at the n-th imaging measured by the timer 15 is also recorded.
In step S <b> 6, the CPU 14 determines whether or not (current counter number n) = (shooting number N determined in step S <b> 2). If (current counter number n) = (number of photographing times N determined in step S2), the process proceeds to step S8, and (current counter number n) does not reach (number of photographing number N determined in step S2). If so, the process proceeds to step S7.

ステップS7において、CPU14は、n=n+1として、ステップS4に戻り、n=Nとなるまで、ステップS4からステップS6の処理を繰り返す。
そして、(現在のカウンタ数n)=(ステップS2で決定した撮影回数N)となると、ステップS8において、CPU14は、バッファ/SDRAM7に保持したNフレームの画像を読み出し、動き検出/動き補償回路11を制御し、動き検出を行った後に、Nフレームの画像を合成して合成画像を生成する。
In step S7, the CPU 14 sets n = n + 1, returns to step S4, and repeats the processing from step S4 to step S6 until n = N.
When (current counter number n) = (the number of photographing times N determined in step S 2), in step S 8, the CPU 14 reads the N frame image held in the buffer / SDRAM 7, and the motion detection / motion compensation circuit 11. And performing motion detection, the N frame images are combined to generate a combined image.

CPU14は、まず、バッファ/SDRAM7に保持したNフレームの画像を読み出し、ステップS2で各フレームごとに独立に決定した露光時間と、各フレームの画像撮像時の露光時間の実測値との比に基づいて、各フレームの画像のそれぞれの画像データを補正する。すなわち、フレームnの画像については、tBn/tAnを乗じることにより補正を行う。例えば、フレーム2の画像については、tB2/tA2を乗じることにより補正を行う。このような補正により、ステップS2で各フレームごとに独立に決定した露光時間と画像撮像時の露光時間との間に誤差が発生した場合でも、適切な補正を行うことができる。そして、補正後のNフレームの画像のうち、例えば、1回目の撮像により生成されたフレームの画像を基準画像として位置合わせを行う。位置合わせは、ブロックマッチング法や相関勾配法などの公知技術と同様に行われるため、詳細な説明を省略する。そして、位置合わせを行った後に、Nフレームの画像を加算することにより合成して合成画像を生成する。   First, the CPU 14 reads an image of N frames held in the buffer / SDRAM 7, and based on the ratio between the exposure time determined independently for each frame in step S2 and the actual value of the exposure time at the time of image capturing of each frame. Thus, the image data of each frame image is corrected. That is, the image of frame n is corrected by multiplying by tBn / tAn. For example, the image of frame 2 is corrected by multiplying by tB2 / tA2. By such correction, even when an error occurs between the exposure time independently determined for each frame in step S2 and the exposure time at the time of image capturing, appropriate correction can be performed. Then, among the corrected N frame images, for example, alignment is performed using the frame image generated by the first imaging as a reference image. Since the alignment is performed in the same manner as a known technique such as a block matching method or a correlation gradient method, detailed description is omitted. Then, after alignment, N frames of images are added and combined to generate a combined image.

ステップS9において、CPU14は、ステップS8において生成した合成画像をI/F部19を介して記録媒体20に記録し、一連の処理を終了する。
次に、本発明の特徴である合成モード実行時に撮像の中止が指示された場合の電子カメラ100の動作について、図4のフローチャートを参照して説明する。なお、本実施形態では、ユーザは、合成モードの撮像の開始後に、再びシャッタボタン16を押圧することにより撮像を中止する。なお、撮像の中止の指示は、シャッタボタン16の解除により行うようにしても良いし、電子カメラ100の他の操作部材を介して行うようにしても良い。また、ジャイロセンサ13の出力に応じて、撮像の中止の判断を自動で行うようにしても良いし、画像に対して被写体認識を行い、その結果に応じて、撮像の中止の判断を自動で行うようにしても良い。例えば、ジャイロセンサ13の出力に応じて、撮像の中止の判断を自動で行うように構成すれば、ユーザは、意図的にフレーミングを大きくずらすことにより、撮像の中止を指示することができる。また、電子カメラ100が落下した場合にも、撮像を中止させることができる。撮像の中止指示が行われると、CPU14は、割り込み処理として、以下の処理を行う。以下では、フレーム4の途中で撮像の中止指示が行われる場合を例に挙げて説明を行う。
In step S9, the CPU 14 records the composite image generated in step S8 on the recording medium 20 via the I / F unit 19, and ends the series of processes.
Next, the operation of the electronic camera 100 when an instruction to stop imaging is given during execution of the synthesis mode, which is a feature of the present invention, will be described with reference to the flowchart of FIG. In the present embodiment, the user stops the imaging by pressing the shutter button 16 again after starting the imaging in the synthesis mode. The instruction to stop the imaging may be performed by releasing the shutter button 16 or may be performed via another operation member of the electronic camera 100. Further, it may be possible to automatically determine whether to stop imaging according to the output of the gyro sensor 13, or to perform subject recognition on the image, and automatically determine whether to stop imaging according to the result. You may make it do. For example, if it is configured to automatically determine whether to stop imaging according to the output of the gyro sensor 13, the user can instruct to stop imaging by intentionally shifting the framing. Further, even when the electronic camera 100 falls, imaging can be stopped. When an instruction to stop imaging is given, the CPU 14 performs the following process as an interrupt process. Hereinafter, a case where an instruction to stop imaging is performed in the middle of the frame 4 will be described as an example.

図2のフローチャートで説明した合成モード実行時に、撮像の中止が指示されると、CPU14はこれを検知し、ステップS21において、タイマの値、現在撮像中のフレーム番号を記録する。フレーム番号は、どのフレームの画像撮像時に中止が指示されたかを示し、タイマの値は、フレームのどの位置(タイミング)で中止が指示されたかを示す。
ステップS22において、CPU14は、撮像を中止するか否かをユーザに確認する。CPU14は、表示制御回路10を介してモニタ9にメッセージを表示したり、不図示の音声出力部を介して、撮像を中止して良いか否かをユーザに問いかける。このような問いかけを行うことにより、ユーザによる誤操作や電子カメラ100による誤判断によって、不用意に撮像を中止してしてしまうのを回避することができる。そして、ユーザが、撮像を中止しないと指示した場合には、CPU14は、割り込み処理を終了し、図2のフローチャートの動作を継続する。
When the stop of imaging is instructed during the execution of the synthesis mode described in the flowchart of FIG. 2, the CPU 14 detects this and records the timer value and the frame number currently being captured in step S21. The frame number indicates which frame the image capturing is instructed to stop, and the timer value indicates at which position (timing) in the frame the cancellation is instructed.
In step S22, the CPU 14 confirms with the user whether or not to stop imaging. The CPU 14 displays a message on the monitor 9 via the display control circuit 10 and asks the user whether or not to stop imaging via an audio output unit (not shown). By making such an inquiry, it is possible to avoid inadvertently stopping imaging due to an erroneous operation by the user or an erroneous determination by the electronic camera 100. Then, when the user instructs not to stop imaging, the CPU 14 ends the interrupt process and continues the operation of the flowchart of FIG.

一方、ユーザが、撮像を中止して良いと指示した場合には、ステップS23において、CPU14は、現在までに生成したフレームの画像をバッファ/SDRAM7に保持して撮像を中止する。
ここで、中止のタイミングの第1の例と第2の例とについて図5および図6を参照して説明する。図5および図6に示すように、フレーム4の途中(4回目の撮像中)で撮像中止指示が行われた場合、第1の例では、図5に示すように、現在撮像中のフレーム(フレーム4)の撮像が終了した後に撮像を中止させる。この結果、フレーム1からフレーム4までの画像を生成することができる。一方、第2の例では、図6に示すように、撮像の途中であっても、撮像中止指示の直後に撮像を中止させる。この結果、フレーム4の画像は完全に生成することができないが、撮像中止指示に即して速やかに撮像を中止することができる。
On the other hand, when the user instructs to stop the imaging, in step S23, the CPU 14 holds the image of the frame generated so far in the buffer / SDRAM 7 and stops the imaging.
Here, a first example and a second example of the stop timing will be described with reference to FIGS. 5 and 6. As shown in FIGS. 5 and 6, when an imaging stop instruction is issued in the middle of the frame 4 (during the fourth imaging), in the first example, as shown in FIG. The imaging is stopped after the imaging of the frame 4) is completed. As a result, images from frame 1 to frame 4 can be generated. On the other hand, in the second example, as shown in FIG. 6, the imaging is stopped immediately after the imaging stop instruction even during the imaging. As a result, the image of the frame 4 cannot be completely generated, but the imaging can be quickly stopped in accordance with the imaging stop instruction.

ステップS24において、CPU14は、バッファ/SDRAM7に保持した画像を破棄するか否かをユーザに確認する。CPU14は、表示制御回路10を介してモニタ9にメッセージを表示して、バッファ/SDRAM7に保持した画像を破棄するか否かをユーザに問いかける。このような問いかけを行うことにより、迅速に次の撮影に備えるか、または、撮像を中止するまでに生成した画像を用いて合成画像を生成するかをユーザに確認することができる。   In step S24, the CPU 14 confirms with the user whether or not to discard the image held in the buffer / SDRAM 7. The CPU 14 displays a message on the monitor 9 via the display control circuit 10 and asks the user whether or not to discard the image held in the buffer / SDRAM 7. By asking such a question, it is possible to prompt the user to quickly prepare for the next shooting or to generate a composite image using an image generated until the shooting is stopped.

そして、ユーザが、画像を破棄すると指示した場合には、ステップS25において、CPU14は、バッファ/SDRAM7に保持した画像を破棄して割り込み処理を終了するとともに、割り込みにより中止した図2のフローチャートの動作も終了する。
一方、ユーザが、画像を破棄しないと指示した場合には、ステップS26において、CPU14は、タイマの値、フレーム番号に応じて画像を合成する。
If the user instructs to discard the image, in step S25, the CPU 14 discards the image held in the buffer / SDRAM 7 to end the interrupt process, and the operation of the flowchart of FIG. Also ends.
On the other hand, if the user instructs not to discard the image, in step S26, the CPU 14 synthesizes the image according to the timer value and the frame number.

画像の合成は、図2のフローチャートのステップS8と同様に行われる。ただし、ここでは、図2のステップS2で決定した撮影回数Nに達しない状態で撮像が中止されているため、不足分を補償する必要がある。そこで、CPU14は、まず、図2のフローチャートのステップS8と同様に、バッファ/SDRAM7に保持した4フレームの画像を読み出し、ステップS2で各フレームごとに独立に決定した露光時間と、各フレームの画像撮像時の露光時間の実測値との比に基づいて、各フレームの画像のそれぞれの画像データを補正する。この処理により、例えば、図6の例で示したように、撮像の途中であっても、撮像中止指示の直後に撮像を中止させた場合の画像を補償することができる。例えば、図6の例では、フレーム4の画像については、tB4/tA4を乗じることにより補正を行う。露光時間の実測値tA4は、図2のフローチャートのステップS2で決定した露光時間tB4よりも短いが、この比を乗じることにより、画像を補償することができる。そして、補正後の4フレームの画像について、図2のフローチャートのステップS8と同様に、位置合わせを行い、4フレームの画像を加算することにより合成して合成画像を生成する。   The image composition is performed in the same manner as step S8 in the flowchart of FIG. However, here, since the imaging is stopped in a state where the number N of times of imaging determined in step S2 in FIG. 2 has not been reached, it is necessary to compensate for the shortage. Therefore, the CPU 14 first reads out the four-frame images held in the buffer / SDRAM 7 in the same manner as step S8 in the flowchart of FIG. 2, and sets the exposure time independently determined for each frame in step S2 and the image of each frame. Each image data of the image of each frame is corrected based on the ratio of the exposure time at the time of imaging with the actual measurement value. By this processing, for example, as shown in the example of FIG. 6, even when imaging is in progress, it is possible to compensate for an image when imaging is stopped immediately after an imaging cancellation instruction. For example, in the example of FIG. 6, the image of frame 4 is corrected by multiplying by tB4 / tA4. The actual measurement value tA4 of the exposure time is shorter than the exposure time tB4 determined in step S2 of the flowchart of FIG. 2, but the image can be compensated by multiplying this ratio. Then, the corrected four-frame image is aligned as in step S8 in the flowchart of FIG. 2, and is synthesized by adding the four-frame images to generate a composite image.

この時点で、合成画像は4フレームの画像を合成したものである。したがって、図2のフローチャートおよび図3を用いて説明したように、6フレームの画像を合成したものと同程度の画像を得るためには、不足分を補償する必要がある。そこで、CPU14は、図2のフローチャートのステップS2で決定した露光時間と、各フレームの画像撮像時の露光時間の実測値との比に基づいて、合成画像を補正する。すなわち、(tB1+tB2+tB3+tB4+tB5+tB6)/(tA1+tA2+tA3+tA4)を乗じることにより補正を行う。露光時間の実測値の総和(tA1+tA2+tA3+tA4)は、図2のフローチャートのステップS2で決定した露光時間の総和(tB1+tB2+tB3+tB4+tB5+tB6)よりも短いが、この比を乗じることにより、画像を補償することができる。補償後の画像を以下では最終画像と称する。   At this point, the composite image is a composite of four frame images. Therefore, as described with reference to the flowchart of FIG. 2 and FIG. 3, in order to obtain an image of the same level as that obtained by synthesizing images of 6 frames, it is necessary to compensate for the shortage. Therefore, the CPU 14 corrects the composite image based on the ratio between the exposure time determined in step S2 in the flowchart of FIG. 2 and the actual measurement value of the exposure time at the time of capturing an image of each frame. That is, correction is performed by multiplying by (tB1 + tB2 + tB3 + tB4 + tB5 + tB6) / (tA1 + tA2 + tA3 + tA4). The total of the actually measured exposure times (tA1 + tA2 + tA3 + tA4) is shorter than the total exposure time (tB1 + tB2 + tB3 + tB4 + tB5 + tB6) determined in step S2 in the flowchart of FIG. 2, but the image can be compensated by multiplying this ratio. Hereinafter, the compensated image is referred to as a final image.

なお、(tB1+tB2+tB3+tB4+tB5+tB6)/(tA1+tA2+tA3+tA4)の代わりに(tB1+tB2+tB3+tB4+tB5+tB6)/(tB1+tB2+tB3+tB4)を乗じることにより補正を行うようにしても良い。
また、図6の例で示したように、撮像の途中であっても、撮像中止指示の直後に撮像を中止させた場合の画像は、信用度の点などに問題がある場合には、その画像を除き、図6の例ではフレーム1からフレーム3の画像を合成の対象としても良い。また、合成の対象となる画像をユーザに選択させるようにしても良い。
Note that (tB1 + tB2 + tB3 + tB4 + tB5 + tB6) / (tB1 + tB2 + tB3 + tB4) may be used instead of (tB1 + tB2 + tB3 + tB4 + tB5 + tB6) / (tA1 + tA2 + tA3 + tA4).
Further, as shown in the example of FIG. 6, even in the middle of imaging, if there is a problem in terms of reliability or the like when the imaging is stopped immediately after the imaging cancellation instruction, the image In the example of FIG. 6, the images from frame 1 to frame 3 may be combined. Further, the user may select an image to be synthesized.

このように、撮像中止指示のタイミングに応じた合成を行うと、ステップS27において、CPU14は、ステップS26において生成した最終画像をI/F部19を介して記録媒体20に記録し、一連の処理を終了する。
以上説明したように、本実施形態によれば、決定した撮像条件にしたがって、被写体像を繰り返し撮像して複数フレームの画像を生成し、ユーザ指示に基づいて撮像の中止を判断し、かつ、撮像により生成した複数フレームの画像の画像情報に基づいて撮像の中止を判断する。そして、何れかの判断に基づいて、撮像を中止させるとともに、撮像により生成した複数フレームの画像を合成して合成画像を生成する。したがって、複数回の撮像により生成した画像を合成して合成画像を生成する際に、適切なタイミングで撮像の中止を可能にすることができる。
As described above, when composition is performed in accordance with the timing of the imaging stop instruction, in step S27, the CPU 14 records the final image generated in step S26 on the recording medium 20 via the I / F unit 19, and a series of processes. Exit.
As described above, according to the present embodiment, in accordance with the determined imaging conditions, the subject image is repeatedly captured to generate a plurality of frames, the stop of the imaging is determined based on the user instruction, and the imaging is performed. Based on the image information of the plurality of frames of images generated by the above, it is determined whether to stop imaging. Based on one of the determinations, the imaging is stopped and a composite image is generated by synthesizing a plurality of frames of images generated by the imaging. Therefore, when a composite image is generated by combining images generated by a plurality of imaging operations, it is possible to stop imaging at an appropriate timing.

また、本実施形態によれば、撮像の中止を判断すると、任意のフレームの撮像の途中であっても撮像を中止させるか、または、現在撮像中のフレームの撮像が終了した後に撮像を中止させる。したがって、撮像の中止を判断した後に、速やかに撮像を中止することができる。そのため、迅速に次の撮影に備えることが可能になる。
また、本実施形態によれば、撮像により生成した複数フレームの画像のうちフレームの撮像の途中で撮像を中止した際の画像を除く複数フレームの画像を合成するか、または、撮像により生成した全てのフレームの画像を合成する。したがって、複数回の撮像を途中で中止した場合でも合成画像を生成可能である。
Further, according to the present embodiment, when it is determined that the imaging is to be stopped, the imaging is stopped even during the imaging of an arbitrary frame, or the imaging is stopped after the imaging of the frame currently being captured is completed. . Therefore, it is possible to immediately stop imaging after determining to stop imaging. Therefore, it is possible to quickly prepare for the next shooting.
Further, according to the present embodiment, among the multiple frame images generated by the imaging, the multiple frame images except for the image when the imaging is stopped in the middle of the imaging of the frame are synthesized, or all the generated by the imaging are performed. Synthesize the frame image. Therefore, it is possible to generate a composite image even when a plurality of times of imaging are stopped in the middle.

また、本実施形態によれば、撮像により被写体像を繰り返し撮像する際の複数フレームのそれぞれについて、独立に露光時間を決定し、複数フレームの画像を合成する前に、複数フレームごとに独立に決定した露光時間に基づく目標露光量と、各フレームの画像の露光量との比に基づいて、複数フレームの画像のそれぞれを補正する。したがって、合成の対象となる画像を適切な露光量に補正してから合成を行うことができるので、合成画像の質を向上させることができる。   In addition, according to the present embodiment, the exposure time is determined independently for each of a plurality of frames when the subject image is repeatedly captured by imaging, and is determined independently for each of the plurality of frames before combining the images of the plurality of frames. Each of the images of the plurality of frames is corrected based on the ratio between the target exposure amount based on the exposure time and the exposure amount of the image of each frame. Therefore, since the composition can be performed after correcting the image to be synthesized to an appropriate exposure amount, the quality of the synthesized image can be improved.

また、本実施形態によれば、撮像により被写体像を繰り返し撮像する際の露光時間を決定し、複数フレームの画像を合成した後に、露光時間に基づく目標露光量と、各フレームの画像の露光量の総和との比に基づいて、合成画像を補正する。したがって、合成画像を適切な露光量に補正することができるので、合成画像の質を向上させることができる。
また、本実施形態によれば、ユーザ指示を受け付ける操作部を備え、操作部によるユーザ指示に基づいて、撮像の中止を判断する。したがって、ユーザの所望のタイミングで撮像を中止させることができる。
In addition, according to the present embodiment, after determining the exposure time when the subject image is repeatedly captured by imaging and combining the images of a plurality of frames, the target exposure amount based on the exposure time and the exposure amount of the image of each frame The composite image is corrected based on the ratio to the sum of the two. Therefore, since the composite image can be corrected to an appropriate exposure amount, the quality of the composite image can be improved.
In addition, according to the present embodiment, an operation unit that receives a user instruction is provided, and it is determined to stop imaging based on the user instruction by the operation unit. Therefore, imaging can be stopped at a timing desired by the user.

また、本実施形態によれば、撮像の中止を判断し、撮像を中止させるとともに、撮像の中止までに生成したフレームの画像を破棄する。したがって、記録領域を節約するとともに、迅速に次の撮影に備えることが可能になる。
なお、本実施形態では、画像の合成の前と後とに補正を行う例を示したが、どちらか一方のみ行うようにしても良い。また、画像の合成の前に、図2のフローチャートのステップS2で決定した露光時間の総和を加味した補正を行うようにしても良い。また、比を乗じる補正に代えて、輝度情報に基づく補正を行うようにしても良いし、比を乗じる際に輝度情報を加味するようにしても良い。また、補正の際にシャッタ精度の誤差分を上乗せして補正を行うようにしても良い。
Further, according to the present embodiment, it is determined to stop imaging, the imaging is stopped, and the images of the frames generated until the imaging is stopped are discarded. Therefore, it is possible to save the recording area and quickly prepare for the next shooting.
In the present embodiment, an example is shown in which correction is performed before and after image synthesis, but only one of them may be performed. Further, before image synthesis, correction may be performed in consideration of the total exposure time determined in step S2 in the flowchart of FIG. Moreover, it may replace with the correction | amendment which multiplies ratio, and you may make it correct | amend based on luminance information, and may consider luminance information when multiplying a ratio. In addition, correction may be performed by adding an error of shutter accuracy at the time of correction.

また、本発明を、合成に適した画像が規定フレーム数に達するまで、繰り返し撮像を行う電子カメラに適用しても良い。本発明では、適切なタイミングで撮像の中止を可能であるため、撮影終了までの時間が分かりにくい場合や、途中で被写体が大きく動いてしまい、以後のフレームでの合成が不可能だとユーザが判断した場合にも、速やかに対応することができる。   Further, the present invention may be applied to an electronic camera that repeatedly captures images until an image suitable for synthesis reaches a specified number of frames. In the present invention, since it is possible to stop imaging at an appropriate timing, when the time until the end of imaging is difficult to understand or the subject moves greatly in the middle, it is impossible to combine in subsequent frames. Even if it is judged, it is possible to respond promptly.

本実施形態の電子カメラ100の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the electronic camera 100 of this embodiment. 本実施形態の電子カメラ100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the electronic camera 100 of this embodiment. 画像の合成について説明する図である。It is a figure explaining composition of an image. 本実施形態の電子カメラ100の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the electronic camera 100 of this embodiment. 画像の合成について説明する図である。It is a figure explaining composition of an image. 画像の合成について説明する図である。It is a figure explaining composition of an image.

符号の説明Explanation of symbols

1,CCD 11,動き検出/動き補償回路 14,CPU 15,タイマ 16,シャッタボタン
1, CCD 11, motion detection / compensation circuit 14, CPU 15, timer 16, shutter button

Claims (7)

撮像条件を決定する決定部と、
前記決定部により決定した前記撮像条件にしたがって、被写体像を繰り返し撮像して複数フレームの画像を生成する撮像部と、
ユーザ指示に基づいて前記撮像部による撮像の中止を判断し、かつ、前記撮像部により生成した前記複数フレームの画像の画像情報に基づいて前記撮像部による撮像の中止を判断する判断部と、
前記判断部による何れかの判断に基づいて、前記撮像部による撮像を中止させる制御部と、
前記撮像部により生成した前記複数フレームの画像を合成して合成画像を生成する合成部と
を備えたことを特徴とする電子カメラ。
A determination unit for determining imaging conditions;
In accordance with the imaging conditions determined by the determination unit, an imaging unit that repeatedly captures a subject image and generates a plurality of frames of images,
A determination unit that determines whether to stop imaging by the imaging unit based on a user instruction, and determines whether to stop imaging by the imaging unit based on image information of the images of the plurality of frames generated by the imaging unit;
A control unit that stops imaging by the imaging unit based on any determination by the determination unit;
An electronic camera comprising: a combining unit that combines the plurality of frames of images generated by the imaging unit to generate a combined image.
請求項1に記載の電子カメラにおいて、
前記制御部は、前記判断部により前記撮像部による撮像の中止を判断すると、任意のフレームの撮像の途中であっても前記撮像部による撮像を中止させるか、または、現在撮像中のフレームの撮像が終了した後に前記撮像部による撮像を中止させる
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the determination unit determines that the imaging unit stops the imaging, the control unit stops the imaging by the imaging unit even during the imaging of an arbitrary frame, or the imaging of the frame currently being captured An electronic camera characterized in that imaging by the imaging unit is stopped after the operation is completed.
請求項1に記載の電子カメラにおいて、
前記合成部は、前記撮像部により生成した前記複数フレームの画像のうちフレームの撮像の途中で撮像を中止した際の画像を除く複数フレームの画像を合成するか、または、前記撮像部により生成した全てのフレームの画像を合成する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The synthesizing unit synthesizes a plurality of frame images excluding an image obtained when the imaging is stopped during the imaging of the frame among the plurality of frame images generated by the imaging unit, or is generated by the imaging unit. An electronic camera that combines images of all frames.
請求項1に記載の電子カメラにおいて、
前記決定部は、前記撮像部により被写体像を繰り返し撮像する際の複数フレームのそれぞれについて、独立に露光時間を決定し、
前記合成部は、前記複数フレームの画像を合成する前に、前記複数フレームごとに独立に決定した前記露光時間に基づく目標露光量と、各フレームの画像の露光量との比に基づいて、前記複数フレームの画像のそれぞれを補正する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The determining unit independently determines an exposure time for each of a plurality of frames when the subject image is repeatedly captured by the imaging unit,
The combining unit, based on the ratio of the target exposure amount based on the exposure time determined independently for each of the plurality of frames and the exposure amount of the image of each frame before combining the images of the plurality of frames, An electronic camera characterized by correcting each of multiple frame images.
請求項1に記載の電子カメラにおいて、
前記決定部は、前記撮像部により被写体像を繰り返し撮像する際の露光時間を決定し、
前記合成部は、前記複数フレームの画像を合成した後に、前記露光時間に基づく目標露光量と、各フレームの画像の露光量の総和との比に基づいて、前記合成画像を補正する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The determining unit determines an exposure time when the imaging unit repeatedly captures a subject image;
The synthesizing unit, after synthesizing the images of the plurality of frames, corrects the synthesized image based on a ratio between a target exposure amount based on the exposure time and a sum of exposure amounts of the images of the respective frames. And an electronic camera.
請求項1に記載の電子カメラにおいて、
ユーザ指示を受け付ける操作部を備え、
前記判断部は、前記操作部による前記ユーザ指示に基づいて、前記撮像部による撮像の中止を判断する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
It has an operation unit that accepts user instructions,
The electronic camera according to claim 1, wherein the determination unit determines whether to stop imaging by the imaging unit based on the user instruction from the operation unit.
請求項1に記載の電子カメラにおいて、
前記制御部は、前記判断部により前記撮像部による撮像の中止を判断すると、前記撮像部による撮像を中止させるとともに、撮像の中止までに生成したフレームの画像を破棄する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
When the determination unit determines to stop imaging by the imaging unit, the control unit stops imaging by the imaging unit and discards an image of a frame generated until the imaging is stopped. .
JP2005152071A 2005-05-25 2005-05-25 Electronic camera Withdrawn JP2006332934A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005152071A JP2006332934A (en) 2005-05-25 2005-05-25 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005152071A JP2006332934A (en) 2005-05-25 2005-05-25 Electronic camera

Publications (1)

Publication Number Publication Date
JP2006332934A true JP2006332934A (en) 2006-12-07

Family

ID=37554166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005152071A Withdrawn JP2006332934A (en) 2005-05-25 2005-05-25 Electronic camera

Country Status (1)

Country Link
JP (1) JP2006332934A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007311869A (en) * 2006-05-16 2007-11-29 Nikon Corp Electronic camera
JP2019213115A (en) * 2018-06-07 2019-12-12 キヤノン株式会社 Imaging apparatus, image processing apparatus, image processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007311869A (en) * 2006-05-16 2007-11-29 Nikon Corp Electronic camera
JP4687560B2 (en) * 2006-05-16 2011-05-25 株式会社ニコン Electronic camera
JP2019213115A (en) * 2018-06-07 2019-12-12 キヤノン株式会社 Imaging apparatus, image processing apparatus, image processing method, and program
JP7134721B2 (en) 2018-06-07 2022-09-12 キヤノン株式会社 IMAGING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
US6900831B2 (en) Image-sensing apparatus for selecting optical blur correction or electronic blur correction
KR100871639B1 (en) Camera and image processing method for camera
JP5144481B2 (en) Imaging apparatus and imaging method
JP4837406B2 (en) Electronic blur correction apparatus and electronic blur correction method
JP5132497B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2007243774A (en) Electronic blur correction apparatus
JP2007243775A5 (en)
US8514323B2 (en) Imaging apparatus and imaging method
JP2000341577A (en) Device and method for correcting camera shake
JP2009284394A (en) Imaging apparatus and imaging method
JP2008276017A (en) Imaging apparatus and method, and program
JP2007264049A (en) Imaging method and apparatus
JP2008278444A (en) Imaging apparatus
JP2006262220A (en) Imaging apparatus
JP2011103631A (en) Digital camera
JP2010093679A (en) Imaging apparatus, and imaging control method
JP2006243372A (en) Camera
JP2009044231A (en) Imaging apparatus and control method thereof
JP5618765B2 (en) Imaging apparatus and control method thereof
JP2006332934A (en) Electronic camera
JP2009049926A (en) Electronic camera
US11153516B2 (en) Image capture apparatus and control method therefor
JP2007127959A (en) Photographing apparatus
JP2006262221A (en) Imaging apparatus and image processing method
JP2006165725A (en) Imaging apparatus and its exposure determination method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805