JP2008124827A - Photographing control device, photographing control method, and program - Google Patents

Photographing control device, photographing control method, and program Download PDF

Info

Publication number
JP2008124827A
JP2008124827A JP2006306904A JP2006306904A JP2008124827A JP 2008124827 A JP2008124827 A JP 2008124827A JP 2006306904 A JP2006306904 A JP 2006306904A JP 2006306904 A JP2006306904 A JP 2006306904A JP 2008124827 A JP2008124827 A JP 2008124827A
Authority
JP
Japan
Prior art keywords
shooting
image
conditions
photographing
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006306904A
Other languages
Japanese (ja)
Other versions
JP4867595B2 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006306904A priority Critical patent/JP4867595B2/en
Publication of JP2008124827A publication Critical patent/JP2008124827A/en
Application granted granted Critical
Publication of JP4867595B2 publication Critical patent/JP4867595B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing control method capable of efficiently photographing an image close to the desired condition even in continuous photographing, without performing a large number of useless photographing. <P>SOLUTION: An imager 73 photographs an object image formed by an optical system and outputs an imaging signal. A DSP (digital signal processor) portion 75 memorizes the imaging signal successively at a buffer memory (A) 75c and processes the signal. A plurality of sets of combination of setting values are established for predetermined photographing conditions, while the number of photographed sheets is distributed and established for each combination according to distribution ratio for each photographing condition. A desired sequential set value is selected among the combination of setting values according to operation, and the selected combination is set to the photographing condition. The imager 73 and the DSP 75 are controlled to repeat photographing operation for the established number of photographed sheets for each combination. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ブラケット撮影可能な撮影制御装置、撮影制御方法およびプログラム撮影制御装置に関する。   The present invention relates to a shooting control device capable of shooting with a bracket, a shooting control method, and a program shooting control device.

従来、電子カメラにおいて、撮影条件のパラメータ、例えば露出条件を段階的に変化させて、ブラケット撮影を行うことが知られている。ブラケット撮影では一連の撮影動作において、連続的に被写体を撮影するので、同じ構図でありつつ撮影条件が異なる画像を複数得ることができる。   2. Description of the Related Art Conventionally, in an electronic camera, it is known to perform bracket shooting by changing shooting condition parameters, for example, exposure conditions in stages. In bracket shooting, since a subject is continuously shot in a series of shooting operations, a plurality of images having the same composition but different shooting conditions can be obtained.

したがって、ブラケット撮影によれば、例えば撮影時に適正な露出条件を判断できないような場合でも、撮影後に得られた複数の画像の中から適正な露出の画像を選択できるので、撮影時における露出の設定の失敗を防止することができる。また、ブラケット撮影を行うと例えば動きがある被写体でも、シャッターチャンスを逃さずに同じ構図で違うニュアンスの画像を複数得ることができるので、撮影者の意図する画像を得やすくなる。   Therefore, according to bracket shooting, for example, even when it is not possible to determine an appropriate exposure condition at the time of shooting, it is possible to select an image with an appropriate exposure from a plurality of images obtained after shooting. Can prevent failure. Further, when bracket shooting is performed, for example, even a moving subject can obtain a plurality of images with different nuances with the same composition without missing a photo opportunity, so that an image intended by the photographer can be easily obtained.

このような電子カメラの一例として、特許文献1に記載された「デジタルカメラ」にあっては、ホワイトバランス、露出、彩度、シャープネス等の複数のパラメータから第1および第2の選択パラメータを選択して、第1および第2の選択パラメータを、それぞれ複数段階に設定する。次いで、第1の選択パラメータの各段階に、第2の選択パラメータの各段階を組み合わせた複数の複合パラメータを形成する。次いで、この複数の複合パラメータに基づき、略同一の被写体像を複数の撮影画像に変換し、これらの複数の撮影画像をブラケット画像として取得する。次いで、これら複数の撮影画像はLCDモニタに同時に表示する。   As an example of such an electronic camera, the “digital camera” described in Patent Document 1 selects the first and second selection parameters from a plurality of parameters such as white balance, exposure, saturation, and sharpness. Then, the first and second selection parameters are set in a plurality of stages, respectively. Next, a plurality of composite parameters are formed by combining each stage of the second selection parameter with each stage of the first selection parameter. Next, substantially the same subject image is converted into a plurality of captured images based on the plurality of composite parameters, and the plurality of captured images are acquired as bracket images. Next, the plurality of captured images are simultaneously displayed on the LCD monitor.

被写体像を複数のパラメータに基づき、撮像画像に変換するデジタルカメラにおいて、その複数のパラメータをそれぞれ段階的に変化させて生成された複数の撮像画像を一連の撮影動作によって得ることができるという利点を有している。
特開2006−67464号公報
In a digital camera that converts a subject image into a captured image based on a plurality of parameters, there is an advantage that a plurality of captured images generated by changing the plurality of parameters stepwise can be obtained by a series of shooting operations. Have.
JP 2006-67464 A

しかしながら、特許文献1にあっては、複数の複合パラメータに基づいて複数の撮影画像に変換していたので、不必要な複合パラメータの組み合わせに対応した無駄な画像まで多数取得され、所望の条件に近い画像を得るのに効率が悪化するといった問題があった。   However, in Patent Document 1, since a plurality of captured images are converted based on a plurality of composite parameters, a large number of useless images corresponding to combinations of unnecessary composite parameters are acquired, and desired conditions are satisfied. There was a problem that the efficiency deteriorated to obtain a close image.

本発明は、上記に鑑みてなされたもので、その目的としては、連続撮影時でも無駄な多数の撮影を行わずに、所望の条件に近い画像を効率良く撮影することができる撮影制御装置、撮影制御方法およびプログラムを提供することにある。   The present invention has been made in view of the above, and as its purpose, a shooting control apparatus capable of efficiently shooting images close to desired conditions without performing many unnecessary shots even during continuous shooting, To provide a photographing control method and program.

(1)本発明は、光学系により結像された被写体像を撮像して撮像信号を出力する撮像手段と、所定の条件に従って撮影条件の組合せを複数組設定する撮影条件設定手段と、前記撮影条件設定手段により設定された複数の撮影条件の組合せに基づいて、撮影動作を繰り返し実行するように前記撮像手段を制御する連続撮影制御手段と、を備えることを特徴とする。   (1) The present invention provides an imaging unit that captures a subject image formed by an optical system and outputs an imaging signal, an imaging condition setting unit that sets a plurality of combinations of imaging conditions according to a predetermined condition, and the imaging Continuous imaging control means for controlling the imaging means so as to repeatedly execute the imaging operation based on a combination of a plurality of imaging conditions set by the condition setting means.

(2)本発明は、前記撮影条件設定手段は、所定の条件に従って撮影条件の組合せ数を変更することを特徴とする。   (2) The present invention is characterized in that the photographing condition setting means changes the number of combinations of photographing conditions according to a predetermined condition.

(3)本発明は、複数の撮影モードの中から所望の撮影モードを選択する撮影モード選択手段を備え、前記撮影条件設定手段は、前記撮影モード選択手段により選択された撮影モードに応じた、複数の撮像シーン別に撮影条件の組合せを設定するための設定データに従って、撮影条件の組合せを複数組設定することを特徴とする。   (3) The present invention includes a shooting mode selection unit that selects a desired shooting mode from a plurality of shooting modes, and the shooting condition setting unit corresponds to the shooting mode selected by the shooting mode selection unit. A plurality of combinations of shooting conditions are set according to setting data for setting a combination of shooting conditions for each of a plurality of shooting scenes.

(4)本発明は、外部光または被写体光の輝度または照度を計測する測光手段を備え、前記撮影条件設定手段は、前記測光手段からの計測信号に応じた撮影条件の設定データに従って、撮影条件の組合せを複数組設定することを特徴とする。   (4) The present invention includes photometric means for measuring the luminance or illuminance of external light or subject light, and the photographing condition setting means is adapted to take photographing conditions according to photographing condition setting data corresponding to a measurement signal from the photometric means. A plurality of combinations are set.

(5)本発明は、被写体までの距離を計測する測距手段を備え、前記撮影条件設定手段は、前記測距手段からの計測信号に応じた設定データに従って、撮影条件の組合せを複数組設定することを特徴とする。   (5) The present invention includes distance measuring means for measuring a distance to a subject, and the photographing condition setting means sets a plurality of combinations of photographing conditions according to setting data corresponding to a measurement signal from the distance measuring means. It is characterized by doing.

(6)本発明は、前記撮影条件設定手段は、組合せ対象となる前記撮影条件毎の配分割合の設定データに従って、前記撮影条件の組合せ毎の撮影枚数を配分設定することを特徴とする。   (6) The present invention is characterized in that the shooting condition setting means distributes and sets the number of shots for each combination of shooting conditions according to setting data of a distribution ratio for each of the shooting conditions to be combined.

(7)本発明は、操作入力部からの操作情報に基づいて、連続撮影の合計枚数を設定する連続撮影枚数設定手段を備え、前記撮影条件設定手段は、前記連続撮影枚数設定手段により設定された連続撮影の合計枚数に応じて前記撮影条件の組合せを複数組設定することを特徴とする。   (7) The present invention includes continuous shooting number setting means for setting the total number of continuous shooting based on operation information from the operation input unit, and the shooting condition setting means is set by the continuous shooting number setting means. A plurality of combinations of the photographing conditions are set according to the total number of continuous photographing.

(8)本発明は、操作入力部からの操作情報に基づいて、連続撮影の合計枚数を設定する連続撮影枚数設定手段と、前記設定された連続撮影の合計枚数に応じて、撮影条件の分散度を設定する分散度設定手段とを備え、前記撮影条件設定手段は、前記分散度設定手段により設定された分散度に応じて、撮影条件の分散範囲を増減し、増減された分散範囲において、撮影条件の組合せを複数組設定するとともに、組合せ毎の撮影枚数を自動的に配分設定することを特徴とする。   (8) The present invention provides continuous shooting number setting means for setting the total number of continuous shooting based on operation information from the operation input unit, and dispersion of shooting conditions according to the set total number of continuous shooting. Dispersion degree setting means for setting the degree, the shooting condition setting means increases or decreases the dispersion range of the shooting conditions according to the dispersion degree set by the dispersion degree setting means, and in the increased and decreased dispersion range, A plurality of combinations of shooting conditions are set, and the number of shots for each combination is automatically distributed and set.

(9)本発明は、画像表示手段と、前記撮像手段により連続撮影された複数の画像、または、前記画像の縮小画像を、当該画像の撮影時の複数の撮影条件の組合せ別、または、所定の撮影条件別に配列して前記画像表示手段に再生表示するように制御する表示制御手段と、操作入力部からの操作情報に基づいて、前記画像表示手段に表示された画像の中から選択された画像の画像データを符号化してメモリ媒体に保存記録するように制御する記録制御手段とを備えることを特徴とする。   (9) The present invention provides an image display unit and a plurality of images continuously captured by the imaging unit or a reduced image of the image according to a combination of a plurality of imaging conditions at the time of capturing the image, or a predetermined number. Selected from among the images displayed on the image display means based on the operation information from the operation input unit, and the display control means for controlling to reproduce and display on the image display means arranged according to the shooting conditions And recording control means for controlling to encode and store the image data of the image in a memory medium.

(10)本発明は、前記撮影条件設定手段は、予め記憶された撮影条件の頻度データまたは統計データに基づいた撮影条件の組合せを設定するための設定データに基づく撮影条件設定データに従って、撮影条件の組合せを複数組設定することを特徴とする。   (10) In the present invention, the shooting condition setting means is configured to set shooting conditions according to shooting condition setting data based on setting data for setting a combination of shooting conditions based on pre-stored shooting condition frequency data or statistical data. A plurality of combinations are set.

(11)本発明は、前記撮影条件設定手段は、前記設定データに従って、露出補正条件、ホワイトバランス設定条件、ストロボ発光条件、自動合焦条件、被写界深度条件のうちいずれかの撮影条件の組合せを複数組設定することを特徴とする。   (11) According to the present invention, the shooting condition setting means is configured to select one of shooting conditions among an exposure correction condition, a white balance setting condition, a flash emission condition, an automatic focusing condition, and a depth of field condition according to the setting data. A plurality of combinations are set.

(12)本発明は、所定の条件に従って撮影条件の組合せを複数組設定する撮影条件設定ステップと、前記撮影条件設定ステップにより設定された複数の撮影条件の組合せに基づいて、撮影動作を繰り返し実行するように、光学系により結像された被写体像を撮像して撮像信号を出力する撮像素子を制御する連続撮影制御ステップと、を有することを特徴とする。   (12) The present invention repeatedly executes a shooting operation based on a shooting condition setting step for setting a plurality of combinations of shooting conditions according to a predetermined condition and a combination of the plurality of shooting conditions set in the shooting condition setting step. As described above, a continuous shooting control step of controlling an image pickup device that picks up a subject image formed by an optical system and outputs an image pickup signal is provided.

(13)本発明は、所定の条件に従って撮影条件の組合せを複数組設定する撮影条件設定ステップと、前記撮影条件設定ステップにより設定された複数の撮影条件の組合せに基づいて、撮影動作を繰り返し実行するように、光学系により結像された被写体像を撮像して撮像信号を出力する撮像素子を制御する連続撮影制御ステップと、をコンピュータに実行させることを特徴とする。   (13) The present invention repeatedly executes a shooting operation based on a shooting condition setting step for setting a plurality of combinations of shooting conditions according to a predetermined condition and a combination of the plurality of shooting conditions set in the shooting condition setting step. As described above, the computer is caused to execute a continuous shooting control step of controlling an image pickup element that picks up a subject image formed by an optical system and outputs an image pickup signal.

本発明によれば、連続撮影時でも無駄な多数の撮影を行わずに、所望の条件に近い画像を効率良く撮影することができる。   According to the present invention, it is possible to efficiently shoot an image close to a desired condition without performing many unnecessary shoots even during continuous shooting.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[本発明の概要] (撮影条件の組合せを変えて高速連写) 図1は、本発明の実施の形態に係る撮影制御装置を電子カメラに適用した場合の概要を示すシステム構成図である。   [Outline of the Present Invention] (High-speed Continuous Shooting by Changing Combination of Shooting Conditions) FIG. 1 is a system configuration diagram showing an outline when the shooting control apparatus according to the embodiment of the present invention is applied to an electronic camera.

図1に示すように、電子カメラは、操作入力部11、制御部13、ズームレンズ/フォーカスレンズ駆動部15、絞り/シャッタ駆動部16、ストロボ駆動部17、ストロボ18、角速度センサ/加速度センサ19、手ブレ/振動検出部20、受光センサ/AFセンサ21、測光/測距/AF検出部22、光学系23、イメージセンサ25、バッファメモリ部29、画像符号化/復号化部31、画像記録/入出力部33、画像メモリ媒体35、表示部37、表示制御部39から構成されている。   As shown in FIG. 1, the electronic camera includes an operation input unit 11, a control unit 13, a zoom lens / focus lens driving unit 15, an aperture / shutter driving unit 16, a strobe driving unit 17, a strobe 18, an angular velocity sensor / acceleration sensor 19. , Camera shake / vibration detection unit 20, light receiving sensor / AF sensor 21, photometry / ranging / AF detection unit 22, optical system 23, image sensor 25, buffer memory unit 29, image encoding / decoding unit 31, image recording / I / O unit 33, image memory medium 35, display unit 37, and display control unit 39.

詳しくは、制御部13は、撮影モード/撮影シーンの選択部13a、シーン別撮影プログラム13b、撮影条件113c1、撮影条件n13cn、複数撮影条件の組合せ/連写枚数の設定部13d、撮影条件の組合せ設定データ13e、撮影条件の頻度統計データ13f、撮影条件13g、撮影制御部13h、通常の撮影制御部13h1、高速連写撮影制御部13h2、マルチ条件による連写撮影部13h3、画像評価制御部13i、画像記録/入出力制御部13jから構成されている。   Specifically, the control unit 13 includes a shooting mode / shooting scene selection unit 13a, a scene-specific shooting program 13b, a shooting condition 113c1, a shooting condition n13cn, a combination of a plurality of shooting conditions / a set number of consecutive shots 13d, and a combination of shooting conditions. Setting data 13e, shooting condition frequency statistical data 13f, shooting condition 13g, shooting control unit 13h, normal shooting control unit 13h1, high-speed continuous shooting control unit 13h2, multi-shot continuous shooting unit 13h3, image evaluation control unit 13i The image recording / input / output control unit 13j.

詳しくは、撮影モード/撮影シーンの選択部13aは、操作入力部の操作に従って、表示された複数のシーンの名称および見本画像の中から、撮影しようとする撮影シーンを選択する。   Specifically, the shooting mode / shooting scene selection unit 13a selects a shooting scene to be shot from a plurality of displayed scene names and sample images according to the operation of the operation input unit.

複数撮影条件の組合せ/連写枚数の設定部13d、撮影条件の組合せ設定データ13eから読み出した設定データに従って、撮影条件の設定値の組合せを複数組設定するとともに、組合せ毎の撮影枚数を自動的に配分設定する。複数撮影条件の組合せ/連写枚数の設定部13dは、測光/測距/AF検出部22からの計測信号に応じて、撮影条件の撮影条件の組合せ設定データ13eから撮影条件設定データを読出し、読み出された設定データに従って、撮影条件の設定値の組合せを複数組設定するとともに、組合せ毎の撮影枚数を配分設定する。   In accordance with the setting data read from the combination setting data 13e of the combination / multiple shooting condition combination setting data 13e and the shooting condition combination setting data 13e, a plurality of shooting condition setting value combinations are set and the number of shots for each combination is automatically set. Set distribution to. The combination setting unit 13d for the combination of multiple shooting conditions / the number of continuous shots reads shooting condition setting data from the shooting condition combination setting data 13e of the shooting conditions in accordance with the measurement signal from the photometry / ranging / AF detection unit 22. In accordance with the read setting data, a plurality of combinations of set values of shooting conditions are set, and the number of shots for each combination is set to be distributed.

また、複数撮影条件の組合せ/連写枚数の設定部13dは、連続撮影の合計枚数を設定する。さらに、複数撮影条件の組合せ/連写枚数の設定部13dは、撮影条件の設定データ記憶手段から読み出された撮影条件の設定値の組合せ毎の配分割合の設定データに従って、設定された連続撮影の合計枚数に応じて、撮影条件の設定値の組合せ毎の撮影枚数を配分設定する。   In addition, the combination / multiple shooting number setting unit 13d of multiple shooting conditions sets the total number of continuous shooting. Furthermore, the combination / multiple shooting number setting unit 13d of the plurality of shooting conditions sets the continuous shooting set according to the setting data of the distribution ratio for each combination of the shooting condition setting values read from the shooting condition setting data storage means. The number of shots for each combination of set values of shooting conditions is distributed and set according to the total number of shots.

複数撮影条件の組合せ/連写枚数の設定部13dは、設定された連続撮影の合計枚数に応じて、撮影条件の設定値の分散度を設定する。複数撮影条件の組合せ/連写枚数の設定部13dは、設定された分散度に応じて、撮影条件の設定値の分散範囲を増減し、増減された分散範囲において、撮影条件の設定値の組合せを複数組設定するとともに、組合せ毎の撮影枚数を自動的に配分設定する。   The combination / multiple shooting number setting unit 13d for multiple shooting conditions sets the degree of dispersion of the set values of shooting conditions according to the set total number of continuous shootings. The combination of multiple shooting conditions / number of consecutive shots setting unit 13d increases or decreases the dispersion range of the setting values of the shooting conditions according to the set degree of dispersion, and the combination of the setting values of the shooting conditions within the increased or decreased dispersion range. A plurality of sets are set, and the number of shots for each combination is automatically distributed and set.

複数撮影条件の組合せ/連写枚数の設定部13dは、撮影条件の頻度統計データ13fから、頻度データに基づく撮影条件設定データを読出し、読み出された設定データに従って、撮影条件の設定値の組合せを複数組設定するとともに、組合せ毎の撮影枚数を配分設定する。   The combination of multiple shooting conditions / number of consecutive shots setting unit 13d reads shooting condition setting data based on the frequency data from the shooting condition frequency statistical data 13f, and sets the shooting condition setting values according to the read setting data. A plurality of sets are set, and the number of shots for each combination is set to be distributed.

複数撮影条件の組合せ/連写枚数の設定部13dは、設定データに従って、露出補正条件、または、ホワイトバランス設定条件、ストロボ発光条件、AF(自動合焦)条件、被写界深度条件などの撮影条件のうち、いずれかの撮影条件の設定値の組合せを複数組設定するとともに、組合せ毎の撮影枚数を配分設定する。   In accordance with the setting data, the setting unit 13d for combinations of multiple shooting conditions / number of continuous shots shoots exposure correction conditions, white balance setting conditions, flash emission conditions, AF (autofocus) conditions, depth of field conditions, and the like. Among the conditions, a plurality of combinations of set values of any shooting condition are set, and the number of shots for each combination is set to be distributed.

撮影条件の組合せ設定データ13eは、高速度撮影モードまたは連続撮影モードに関連して、撮影条件の設定値の組合せを設定するための設定データを予め複数組記憶する。撮影条件の組合せ設定データ13eには、複数のシーン別に撮影条件の設定値の組合せを設定するための設定データを記憶する。また、撮影条件の組合せ設定データ13eには、撮影モード/撮影シーンの選択部13aにより選択された撮影シーンに応じて、撮影条件の組合せ設定データ13eから対応するシーンの撮影条件設定データを読出し、読み出された設定データに従って、撮影条件の設定値の組合せを複数組設定するとともに、組合せ毎の撮影枚数を配分設定する。   The shooting condition combination setting data 13e stores in advance a plurality of sets of setting data for setting a combination of setting values of shooting conditions in association with the high-speed shooting mode or the continuous shooting mode. The shooting condition combination setting data 13e stores setting data for setting a combination of setting values of shooting conditions for each of a plurality of scenes. Further, in the shooting condition combination setting data 13e, the shooting condition setting data of the corresponding scene is read from the shooting condition combination setting data 13e in accordance with the shooting scene selected by the shooting mode / shooting scene selection unit 13a. In accordance with the read setting data, a plurality of combinations of set values of shooting conditions are set, and the number of shots for each combination is set to be distributed.

撮影条件の頻度統計データ13fは、撮影条件の頻度データまたは統計データを予め記憶し、撮影条件の頻度データに基づいて撮影条件の設定値の組合せを設定するための設定データを記憶する。   The imaging condition frequency statistical data 13f stores imaging condition frequency data or statistical data in advance, and stores setting data for setting a combination of imaging condition setting values based on the imaging condition frequency data.

高速連写撮影制御部13h2は、高速度撮影モードまたは連続撮影モードに関連して、複数撮影条件の組合せ/連写枚数の設定部13dにより設定された複数の設定値の組合せの中から、操作に応じて順次設定値の組合せを選択して当該組合せを撮影条件とし、設定された組合せ毎の撮影枚数ずつ撮影動作を繰り返し実行するよう制御する。   The high-speed continuous shooting control unit 13h2 performs an operation from among a plurality of setting value combinations set by the combination of a plurality of shooting conditions / continuous shooting number setting unit 13d in association with the high-speed shooting mode or the continuous shooting mode. The combination of the set values is sequentially selected according to the above, and the combination is set as a shooting condition, and control is performed to repeatedly execute the shooting operation for each set number of shots.

測光/測距/AF検出部22は、受光センサ/AFセンサ21からの検出信号に基づいて、外部光や被写体光の輝度または照度を計測するとともに被写体までの距離を計測する。表示部37は、撮影シーンの名称および見本画像を表示する。   The photometry / ranging / AF detection unit 22 measures the brightness or illuminance of the external light or subject light and the distance to the subject based on the detection signal from the light receiving sensor / AF sensor 21. The display unit 37 displays the name of the shooting scene and a sample image.

イメージセンサ25は、光学系により結像された被写体像を撮像して撮像信号を出力する。イメージセンサ25は、入力された制御信号に応じて、有効撮像領域中の全領域の画素の撮像信号を読出す全画素読出しモードと、制御信号に応じて、有効撮像領域中の選択された部分領域の画素の撮像信号を選択して読出す選択読出しモードと、制御信号に応じて、全領域または選択された部分領域の水平および/または垂直方向の複数の画素の撮像信号を加算して読出す加算読出しモードと、制御信号に応じて、全領域または選択された部分領域の画素の撮像信号を加算せずに読み出す加算なし読出しモードとを備え、撮像信号の出力回路に設けられた並列/直列変換回路を備え、読み出された撮像信号を、並列/直列変換回路により直列信号に変換された直列デジタル信号として信号処理部27へ高速出力する。   The image sensor 25 captures a subject image formed by the optical system and outputs an imaging signal. The image sensor 25 reads an image pickup signal of pixels in all areas in the effective image pickup area in accordance with the input control signal, and a selected portion in the effective image pickup area in accordance with the control signal. Selective readout mode for selecting and reading out image signals of pixels in the area, and adding and reading image signals of a plurality of pixels in the horizontal and / or vertical direction of the entire area or selected partial area according to the control signal. An addition readout mode to be output, and a non-addition readout mode to read out the imaging signals of the pixels in the entire region or the selected partial region in accordance with the control signal without adding them, and provided in the imaging signal output circuit A serial conversion circuit is provided, and the read imaging signal is output to the signal processing unit 27 at high speed as a serial digital signal converted into a serial signal by the parallel / serial conversion circuit.

表示制御部39は、連続撮影された複数の画像、または、その縮小画像(サムネイル画像)を、当該画像の撮影時の複数の撮影条件の組合せ別に、または、所定の撮影条件の設定値別に、配列して表示部37に再生表示するよう制御する。表示制御部39は、連続撮影された複数の画像の画質を、画像評価処理部27hにより順次評価するとともに、連続撮影された複数の画像、または、その縮小画像(サムネイル画像)を、当該画像の所定の画質の評価値の優劣または大小に基づいて選択し、選択された複数の画像を配列して画像表示手段に再生表示するよう制御する。   The display control unit 39 displays a plurality of continuously shot images or reduced images (thumbnail images) for each combination of a plurality of shooting conditions at the time of shooting the image or for each set value of a predetermined shooting condition. The display unit 37 is controlled to reproduce and display on the display unit 37. The display control unit 39 sequentially evaluates the image quality of a plurality of continuously photographed images by the image evaluation processing unit 27h, and displays the plurality of continuously photographed images or reduced images (thumbnail images) of the images. A selection is made based on the superiority, inferiority, or magnitude of the evaluation value of a predetermined image quality, and control is performed so that a plurality of selected images are arranged and reproduced and displayed on the image display means.

画像記録/入出力部33は、操作入力部11の操作に従って、表示部37に表示された画像の中から選択された画像の画像データを符号化して、画像メモリ媒体35に保存記録するように制御する。画像記録/入出力部33は、画質の評価値の優劣または大小に基づいて選択された所定数の画像、または、操作入力部の操作に従って選択された画像のうち、いずれかの画像データを符号化してメモリ媒体に保存記録するように制御する。   The image recording / input / output unit 33 encodes the image data of the image selected from the images displayed on the display unit 37 according to the operation of the operation input unit 11, and saves and records the image data in the image memory medium 35. Control. The image recording / input / output unit 33 encodes any image data of a predetermined number of images selected based on the superiority or inferiority of the image quality evaluation value, or an image selected according to the operation of the operation input unit. And control to save and record in the memory medium.

信号処理部27は、イメージセンサ25から高速読み出しした画像データを内部に設けられた画像メモリ部に高速書込みし、高速符号化処理を行うため、撮影タイミングを制御する撮像素子コントローラ、S/P変換部、複数のフレームメモリからなる画像メモリ部、画像信号処理部、画像補正処理部、画像特徴の抽出部、画像認識処理部、撮影された画像の所定の画質特性を評価して画質の評価値を出力する画像評価処理部から構成されている。   The signal processing unit 27 writes image data read from the image sensor 25 at high speed to an image memory unit provided therein, and performs high-speed encoding processing. Image memory unit composed of a plurality of frame memories, an image signal processing unit, an image correction processing unit, an image feature extraction unit, an image recognition processing unit, an evaluation value of image quality by evaluating a predetermined image quality characteristic of a captured image It is comprised from the image evaluation process part which outputs.

図1において、並列読出しして高速読出しが可能なCMOSからなるイメージセンサ25と、イメージセンサ25から高速読み出しした画像データを高速書込み可能な画像メモリ部27cを含み、高速符号化処理が可能なDSPからなる信号処理部27とを用いて、高速度で連写撮影または動画撮影などを行う。   In FIG. 1, a DSP capable of high-speed encoding processing includes an image sensor 25 made of CMOS capable of high-speed reading by parallel reading and an image memory unit 27c capable of high-speed writing of image data read at high speed from the image sensor 25. Using the signal processing unit 27, the continuous shooting or moving image shooting is performed at a high speed.

1回のレリーズ操作による撮影において、複数の撮影条件の組合せを少しずつ変えながら複数枚の画像を高速度で連写して、略同じタイミングの被写体を異なる撮影条件の組合せで多数枚撮影して、写りや画質のよい画像や所望の画像を容易に記録できるようにするものである。   In shooting by one release operation, a plurality of images are continuously shot at high speed while changing a combination of a plurality of shooting conditions little by little, and a large number of subjects having substantially the same timing are shot with a combination of different shooting conditions. This makes it possible to easily record an image with a good image quality and a desired image.

また、複数の中から所望シーンまたはその見本画像を選択すると、選択されたシーン毎に設定された設定値に応じて、撮影時の撮影速度(連写撮影間隔)や、連写撮影コマ数、撮影画像サイズ(画素数)などを、選択されたシーンの高速連写に最適となるように自動的に設定して、高速撮影動作を制御するようにしてもよい。   When a desired scene or sample image is selected from a plurality of images, the shooting speed (continuous shooting interval), the number of continuous shooting frames, The high-speed shooting operation may be controlled by automatically setting the captured image size (number of pixels) and the like so as to be optimal for high-speed continuous shooting of the selected scene.

また、20枚〜300枚/秒など高速で連写されるので、1回の撮影でも撮影枚数も多くなるので、膨大なメモリを一度に消耗することになり、不要な画像を多数保存してメモリが一杯になり削除するのも手間がかかる。   In addition, since continuous shooting is performed at a high speed, such as 20 to 300 images / second, the number of images to be shot increases even if one image is taken. Therefore, a large amount of memory is consumed at one time, and many unnecessary images are saved. It takes time and effort to delete memory.

そのため、撮影された画像の画質を評価する画像評価処理部27hやシーン別撮影プログラムを設けて、撮影条件をそれぞれ変えながら連写された複数枚の画像の中から、「ベスト3」や「ベスト10」、「撮影条件別や画質項目別のベスト3」など、評価値の大小に従って選択された画像を、記録候補として表示部37に表示して、選択された画像、または、その中からユーザ操作により選択された画像を画像メモリ媒体35に保存記録するように構成する。   Therefore, an image evaluation processing unit 27h that evaluates the image quality of the captured image and a scene-specific shooting program are provided, and “best 3” or “best” is selected from a plurality of images continuously shot while changing the shooting conditions. Images selected according to the magnitude of the evaluation value, such as “10” and “Best 3 by shooting condition and image quality item”, are displayed on the display unit 37 as recording candidates, and the selected image or a user among them is displayed. An image selected by the operation is stored and recorded in the image memory medium 35.

[発明の要点1] 図1に示すように、高速動作が可能なCMOSイメージセンサなど、多数枚の超高速連写機能を利用して、1度のレリーズ操作によるスチル撮影においても、複数の撮影条件の組合せを少しずつ変えながら、(項目Aの複数Lの撮影条件)×(項目Bの複数mの撮影条件)×(項目Cの複数nの撮影条件)・・・、即ち、L×m×n×・・・・枚の画像を高速度で連続撮影して記録できるようにする。   [Summary 1 of the invention] As shown in FIG. 1, a plurality of shootings are performed even in a still shooting by a single release operation using a large number of ultra high-speed continuous shooting functions such as a CMOS image sensor capable of high-speed operation. While changing the combination of conditions little by little, (multiple L photographing conditions of item A) × (multiple m photographing conditions of item B) × (multiple n photographing conditions of item C)..., L × m × n × ············· Enables continuous recording of images at a high speed.

また、連続撮影した画像の中から、所望の画像を選択して、選択された画像のみを画像メモリ媒体35に保存記録できるようにする。さらに、同じ条件でそれぞれ複数枚pずつ繰り返し撮影して、L×m×n×・・・・×p枚の画像を連続撮影できるようにしてもよい。   In addition, a desired image is selected from the continuously shot images so that only the selected image can be stored and recorded in the image memory medium 35. Further, a plurality of p images may be repeatedly captured under the same conditions so that L × m × n ×... × p images can be continuously captured.

その際、選択された撮影モードや撮影シーンに応じて、また、撮影条件毎の割合や分布の設定データ、または、被写体輝度値などの計測値や被写体の状況に基づいて、撮影条件の組合せや分散させる範囲、組合せ毎の配分割合や撮影枚(コマ)数を自動的に設定して、組合せ毎にそれぞれ設定された枚数ずつ高速連写できるようにしたことで、従来例との違いを明かにする。   At that time, depending on the selected shooting mode and shooting scene, the ratio and distribution setting data for each shooting condition, or the measurement value such as the subject brightness value and the situation of the subject, By automatically setting the range to be distributed, the distribution ratio for each combination, and the number of shots (frames), the number of shots set for each combination can be set to high-speed continuous shooting, revealing the difference from the conventional example. To.

[発明の要点2] また、実際の撮影条件の頻度データなどの統計データに基づいて、撮影条件の組合せや組合せ毎の配分割合や撮影枚数を変えるようにする。   [Summary 2 of the invention] Further, based on statistical data such as frequency data of actual shooting conditions, combinations of shooting conditions, a distribution ratio for each combination, and the number of shots are changed.

[発明の要点3] 上記撮影条件の組合せ毎の撮影割合や撮影枚数の配分を、連写撮影する合計枚数(N)や、選択された撮影シーンや所定の撮影条件に応じて、自動的に増減したり、撮影条件の分散度などを変えたりするように制御する。   [Key point of the invention 3] The ratio of shooting and the number of shots for each combination of the above shooting conditions are automatically set according to the total number (N) of continuous shooting, the selected shooting scene, and the predetermined shooting conditions. Control to increase / decrease or change the degree of dispersion of shooting conditions.

[発明の要点4] 上記マルチ条件で連写する際、撮影された複数枚、L×m×n・・・枚の画像を、L×m枚、m×n枚、・・・など、撮影条件の組合せ別に並べて表示して、撮影条件が異なる画像同士を比較して、ユーザが気に入った画像や、写りのよい画像を操作により選択して記録できるようにする。   [Guide 4 of the Invention] When continuous shooting is performed under the above-described multi-conditions, a plurality of photographed images, L × m × n,..., L × m, m × n,. The images are arranged side by side according to the combination of the conditions, and the images having different shooting conditions are compared with each other so that the user's favorite image or a good image can be selected and recorded by the operation.

[発明の要点5] 撮影された画像の画質を評価する画像評価処理部27hやプログラムを設けて、撮影条件を変えながら連写された画像の中から、自動的に「ベスト3」や「ベスト10」、「撮影条件別や画質項目別のベスト3」など、画質の評価値の大小に従って選択された画像を、記録候補画像として表示して、選択された画像を保存記録する。   [Summary 5 of the Invention] An image evaluation processing unit 27h for evaluating the image quality of a photographed image and a program are provided, and “best 3” and “best” are automatically selected from images continuously taken while changing photographing conditions. Images selected according to the magnitude of the image quality evaluation value, such as “10” and “Best 3 by shooting condition and image quality item”, are displayed as recording candidate images, and the selected images are stored and recorded.

写りや画質の良い画像の評価方法、自動選択方法としては、例えば、(a)適正露出条件に近い画像、(b)輝度ヒストグラム分布やRGB別ヒストグラムの分布範囲が広い画像、白飛びや黒つぶれ領域の少ない輝度分布特性の画像、(c)画像の周波数成分、フーリエ変換の変換係数など、空間周波数特性の特徴量から、解像度やコントラストが高い画像、ブレやボケの少ない画像などの画質を評価する。あるいは、(d)赤眼や、眼がつぶった人物像、ハレーションや反射が多い画像、逆光で撮影された画像、ブレ、ボケが目立つ画像などを検出や評価して、失敗画像や劣化画像と判断される画像を優先的に候補から落として、残りの画像からユーザ操作に応じて選択する、…等の方法を用いればよい。また、評価方法を複数の中からユーザが選択できるようにしても良い。   For example, (a) an image close to the appropriate exposure condition, (b) an image with a wide distribution range of luminance histogram distribution or histogram for each RGB, whiteout or blackout, etc. Evaluate the image quality of images with high resolution and contrast, images with little blurring and blurring, etc., based on features of spatial frequency characteristics, such as images with low luminance distribution characteristics, (c) image frequency components, and Fourier transform transform coefficients. To do. Alternatively, (d) detecting and evaluating red eyes, a human image with a closed eye, an image with a lot of halation and reflection, an image taken with backlight, an image with noticeable blurring and blurring, etc. A method may be used in which the image to be judged is preferentially dropped from the candidates and selected from the remaining images according to a user operation. Further, the user may be able to select from a plurality of evaluation methods.

[第1の実施形態] 図2は、本発明の第1の実施形態に係る高速度カメラの全体構成を示すブロック図である。   First Embodiment FIG. 2 is a block diagram showing the overall configuration of a high-speed camera according to the first embodiment of the present invention.

図2に示すように、高速度カメラは、操作入力部51、制御回路53、シャッタ駆動部55、絞り駆動部56、ズームレンズ駆動部57、焦点レンズ駆動部58、撮影光学系(ズームレンズ)59、ストロボ駆動回路60、ストロボ61、測光/測距センサ62、検出回路63、角速度センサ(Y/Pitch)64、検出回路65、角速度センサ(X/Yaw)66、検出回路67、HDD記憶装置68、プログラム・メモリ69、データ・メモリ70、画像メモリ媒体71、撮像素子73、DSP部75、バッファメモリ(B)77、画像CODEC(符号器/復号器)79、動画像CODEC(符号器/復号器)81、表示駆動回路83、画像表示部85から構成されている。   As shown in FIG. 2, the high-speed camera includes an operation input unit 51, a control circuit 53, a shutter drive unit 55, an aperture drive unit 56, a zoom lens drive unit 57, a focus lens drive unit 58, and a photographing optical system (zoom lens). 59, strobe drive circuit 60, strobe 61, photometry / ranging sensor 62, detection circuit 63, angular velocity sensor (Y / Pitch) 64, detection circuit 65, angular velocity sensor (X / Yaw) 66, detection circuit 67, HDD storage device 68, program memory 69, data memory 70, image memory medium 71, image sensor 73, DSP unit 75, buffer memory (B) 77, image CODEC (encoder / decoder) 79, moving image CODEC (encoder / decoder) Decoder) 81, display drive circuit 83, and image display unit 85.

制御回路53は、入出力ポート53a、入出力ポート53b、HDD・IF53c、インタフェース53d、入力回路53e、メモリカード・IF53f、CPU53gから構成されている。   The control circuit 53 includes an input / output port 53a, an input / output port 53b, an HDD / IF 53c, an interface 53d, an input circuit 53e, a memory card / IF 53f, and a CPU 53g.

DSP部75は、コントローラ75a、S/P変換回路75b、バッファメモリ(A)75c、WB補正回路75d、画素補間/リサイズ回路75e、カラー補間回路75f、輪郭補正回路75g、ガンマ補正回路75h、マトリクス回路75i、画像特徴処理部75j、画像認識処理部75k、画像評価処理部75mから構成されている。   The DSP unit 75 includes a controller 75a, an S / P conversion circuit 75b, a buffer memory (A) 75c, a WB correction circuit 75d, a pixel interpolation / resizing circuit 75e, a color interpolation circuit 75f, a contour correction circuit 75g, a gamma correction circuit 75h, and a matrix. A circuit 75i, an image feature processing unit 75j, an image recognition processing unit 75k, and an image evaluation processing unit 75m are included.

以下、図2を参照して、高速度カメラの動作を簡単に説明する。   Hereinafter, the operation of the high-speed camera will be briefly described with reference to FIG.

撮影光学系59により撮像面に結像された被写体像は、CCDやCMOSイメージセンサなどからなる撮像素子73により光電変換されて、スルー画像や撮影画像の撮像信号としてDSP(デジタル信号処理回路)部75へ出力され、DSP部75に設けられた複数のフレームメモリ等を備えたバッファメモリ(A)75c等に入力されて信号処理された後に、撮像画像の画素毎の輝度値、色差値のデジタル信号として出力され、バッファメモリ(B)77等に一時記憶される。   A subject image formed on the imaging surface by the imaging optical system 59 is photoelectrically converted by an imaging element 73 such as a CCD or a CMOS image sensor, and a DSP (digital signal processing circuit) unit as an imaging signal of a through image or a captured image. 75, and is input to a buffer memory (A) 75c provided with a plurality of frame memories and the like provided in the DSP unit 75, and is subjected to signal processing. It is output as a signal and temporarily stored in the buffer memory (B) 77 or the like.

操作入力部51に設けられたレリーズボタン(図示しない)が押されて静止画の撮影指示が制御回路53に入力されると、設定撮影条件に基づいて露出動作および撮影動作を行い、スルー画像とは異なるスチル記録用の高解像度の被写体像の撮像信号を撮像素子73で撮像して、DSP部75で信号処理された画像データを画像CODEC(Coder&Decoder、符号器/復号器)79により、JPEG規格等に準じた圧縮符号化画像データ、または、RAWデータなど非圧縮の符号化画像データに符号化され、内蔵メモリまたはフラッシュメモリカードなどのメモリ媒体からなるデータ・メモリ70、または、小型のHDD記憶装置(Hard Disk Drive:ハードディスク記録装置)68等に、EXIF JPEGなどのファイル形式で記録される。   When a release button (not shown) provided in the operation input unit 51 is pressed and a still image shooting instruction is input to the control circuit 53, an exposure operation and a shooting operation are performed based on the set shooting conditions, The image sensor 73 picks up an image pickup signal of a high-resolution subject image for different still recording, and the image data signal-processed by the DSP unit 75 is output by an image CODEC (Coder & Decoder, encoder / decoder) 79 to the JPEG standard. Compressed encoded image data conforming to the above, or non-compressed encoded image data such as RAW data, and a data memory 70 comprising a memory medium such as a built-in memory or a flash memory card, or a small HDD storage Device (Hard Disk Drive: hard disk recording device) 68 etc., EXIF JPEG etc. It is recorded in a file format.

連写撮影の場合も、上記スチル撮影を高速で繰り返し行い、撮像素子73から高速度で読出した撮像信号をDSP部75などに高速で出力する。このときも同様に、データ・メモリ70、または、HDD記憶装置68に符号化画像データを記憶する。   Also in the case of continuous shooting, the still shooting is repeatedly performed at high speed, and the image signal read out from the image sensor 73 at high speed is output to the DSP unit 75 or the like at high speed. At this time, similarly, the encoded image data is stored in the data memory 70 or the HDD storage device 68.

動画撮影の場合も同様に、被写体像の撮像信号を撮像素子73で撮像して、DSP部75で信号処理された画像データを動画像CODEC符号器/復号器)81により、MPEG4やH.264/AVCなどの圧縮符号化方式に対応したて圧縮符号化され、AVIやMP4などのファイル形式で、データ・メモリ70やHDD記憶装置68などに記録される。   Similarly, in the case of moving image shooting, an image pickup signal of a subject image is picked up by the image pickup device 73, and image data subjected to signal processing by the DSP unit 75 is converted by a moving image CODEC encoder / decoder 81 to MPEG4 or H.264. The data is compressed and encoded in accordance with a compression encoding method such as H.264 / AVC, and is recorded in the data memory 70 or the HDD storage device 68 in a file format such as AVI or MP4.

なお、データ・メモリ70やHDD記憶装置68などに記録された画像データファイルは、画像メモリ媒体、または、USBインターフェース(図示しない)など外部入出力インタフェースを介して、パーソナルコンピュータやプリンタに転送することができ、パーソナルコンピュータ内の大容量のHDD装置に画像データファイルを蓄積記録したり、さらに、CD−RやDVDなどのディスク媒体に保存記録したり、あるいは、撮影画像をモニタに再生表示したり、パーソナルコンピュータ内の画像編集ソフトなどを用いて撮影画像や録画済の映像を編集したり、プリンタで印刷したりすることができる。   The image data file recorded in the data memory 70 or the HDD storage device 68 is transferred to a personal computer or printer via an image memory medium or an external input / output interface such as a USB interface (not shown). Image data files can be stored and recorded in a large-capacity HDD device in a personal computer, stored and recorded on a disk medium such as a CD-R or DVD, or a captured image can be reproduced and displayed on a monitor. The photographed image and recorded video can be edited using an image editing software in a personal computer or printed by a printer.

[イメージセンサ] 撮像素子73を、従来のようにCCD(Charge Coupled Device:電荷結合素子)イメージセンサで構成する場合には、入射光によってフォトダイオードに発生した信号電荷を増幅せずにそのまま、垂直と水平のCCD転送路によって順繰りに転送され、出力回路で初めてFD(Floating Diffusion)アンプにより信号電圧に増幅されて出力される。CCDから出力された撮像信号は、CDS回路(Correlated Double Sampling:相関二重サンプル回路)でノイズ除去およびサンプル&ホールド処理され、AGC(自動利得制御)アンプで増幅され、ADC(Analog−Digital Converter、A/D変換器)でデジタル撮像信号に変換されて、DSP部75に出力される。   [Image Sensor] When the imaging device 73 is configured by a CCD (Charge Coupled Device) image sensor as in the past, the signal charge generated in the photodiode by the incident light is not amplified and is directly vertical. Are sequentially transferred by a horizontal CCD transfer path, and are first amplified and output to a signal voltage by an FD (Floating Diffusion) amplifier in the output circuit. The image pickup signal output from the CCD is subjected to noise removal and sample-and-hold processing by a CDS circuit (Correlated Double Sampling), amplified by an AGC (automatic gain control) amplifier, and ADC (Analog-Digital Converter), A digital image signal is converted by an A / D converter and output to the DSP unit 75.

一方、撮像素子73をCMOS(Complementary Metal Oxide Semicomductor:相補型金属‐酸化膜半導体)イメージセンサで構成する場合には、一般的なAPS(Active Pixcel Sensor:増幅型画素センサ)型のCMOSセンサでは、フォトダイオードを含む単位画素回路毎に増幅素子が内蔵されており、フォトダイオードで光電変換された信号電荷は画素回路内のアンプで一旦増幅され、垂直走査回路からの行アドレス選択信号と水平走査回路からの列選択信号によりXYアドレス方式で選択された画素毎の撮像信号が、出力から順次電圧または電流として取り出すことができる。   On the other hand, when the imaging device 73 is configured by a CMOS (Complementary Metal Oxide Semiconductor) image sensor, in a general APS (Active Pixel Sensor) type CMOS sensor, An amplification element is built in each unit pixel circuit including a photodiode, and signal charges photoelectrically converted by the photodiode are once amplified by an amplifier in the pixel circuit, and a row address selection signal from a vertical scanning circuit and a horizontal scanning circuit The image pickup signal for each pixel selected by the column selection signal from the XY address method can be sequentially extracted from the output as voltage or current.

CCDのように順番に取り出さなくとも、CMOSセンサでは、任意の画素や領域の撮像信号だけを、任意の順序で取り出しできるので、デジタルズーム処理で所定領域のみを切出して読出す場合には高速で読み出せる。また、CCDでは、信号電荷をそのまま転送するのでスミアやノイズに弱いが、CMOSセンサでは、画素毎にランダムアクセスで読出せ、各画素回路は電気的に分離しているので伝送ノイズに強く、またCMOS LSI等と同様に、同じ製造プロセスにてイメージセンサ部の周辺に、加算演算回路などデジタル論理回路や信号処理回路などを高集積化して比較的容易に一緒に作りこめる利点がある。   Even if it is not taken out sequentially like a CCD, the CMOS sensor can take out only the image signals of any pixel or area in any order, so when reading out only a predetermined area by digital zoom processing, it reads at high speed. I can put it out. In CCD, signal charges are transferred as they are, so they are vulnerable to smear and noise. However, in CMOS sensors, each pixel is read out by random access, and each pixel circuit is electrically separated, so it is resistant to transmission noise. Similar to a CMOS LSI or the like, there is an advantage that a digital logic circuit such as an addition operation circuit, a signal processing circuit, etc. can be highly integrated around the image sensor portion in the same manufacturing process and can be relatively easily formed together.

反面、上記CMOSセンサでは、画素毎のアンプの閾値など個々の素子バラツキによる固定パターンノイズ(FPN)や暗電流、kTC雑音が大きい難点があったが、最近では、(CCDと同様に)埋め込みフォトダイオードとFDアンプを用いる構造にして、暗電流流とkTC雑音を低減できるようになった。また、列信号線毎に並列に並んだ列回路に設けたColumn型のCDS/A/D変換回路等により、フォトダイオードをリセットする前と後の信号を減算して固定パターンノイズ(FPN)を除去できるようになり、列回路毎に積分型や巡回型、逐次型などのAD変換器を組み込んで、デジタル信号での撮像信号出力も容易になった。   On the other hand, in the above CMOS sensor, fixed pattern noise (FPN), dark current, and kTC noise due to variations in individual elements such as the threshold value of the amplifier for each pixel have been difficult, but recently, embedded photo (similar to CCD) A structure using a diode and an FD amplifier can reduce the dark current flow and the kTC noise. Also, fixed pattern noise (FPN) is obtained by subtracting the signal before and after resetting the photodiode by a column type CDS / A / D conversion circuit provided in a column circuit arranged in parallel for each column signal line. It has become possible to remove the signal, and an integration type, a cyclic type, or a sequential type AD converter is incorporated in each column circuit, so that it is easy to output an imaging signal as a digital signal.

[高速度イメージセンサ、選択読出しと画素加算、撮像信号の高速出力] 図3は、本発明の第1の実施形態に係る高速度カメラの撮像素子の構成を示すブロック図である。   [High-Speed Image Sensor, Selective Reading and Pixel Addition, High-Speed Output of Imaging Signal] FIG. 3 is a block diagram showing the configuration of the imaging device of the high-speed camera according to the first embodiment of the present invention.

図3に示すように、撮像素子73は、複数の単位画素回路73a1をから構成されるイメージセンサ部73a、CDS回路73b、A/D変換回路73c、画素加算回路73d、符号器73e、並列/直列変換回路73f、タイミング発生回路73g、垂直走査回路73h、水平走査回路73i、トランスミッタ73jから構成されている。   As shown in FIG. 3, the image sensor 73 includes an image sensor unit 73a including a plurality of unit pixel circuits 73a1, a CDS circuit 73b, an A / D conversion circuit 73c, a pixel addition circuit 73d, an encoder 73e, a parallel / It is composed of a serial conversion circuit 73f, a timing generation circuit 73g, a vertical scanning circuit 73h, a horizontal scanning circuit 73i, and a transmitter 73j.

高速度カメラに採用される撮影素子においては、各カラム回路(列回路)部にCDS/A/D変換回路/画素加算回路を設け、また、デジタル撮像信号をP/S変換回路により並列/直列変換して出力するという構成のCMOSイメージセンサが有効である。   In an imaging element employed in a high-speed camera, a CDS / A / D conversion circuit / pixel addition circuit is provided in each column circuit (column circuit) unit, and digital imaging signals are parallel / serialized by a P / S conversion circuit. A CMOS image sensor configured to convert and output is effective.

[CDS/A/D変換回路、画素加算回路] 図4は、本発明の第1の実施形態に係る高速度カメラの撮像素子の詳細な構成を示す回路図であり、撮像素子内に設ける画素加算回路の例として、CMOSイメージセンサ内のCDS回路73b、A/D回路73cなど列回路部に画素加算回路を設けた例を示す。   [CDS / A / D Conversion Circuit, Pixel Adder Circuit] FIG. 4 is a circuit diagram showing a detailed configuration of the image sensor of the high-speed camera according to the first embodiment of the present invention. Pixels provided in the image sensor As an example of the addition circuit, an example in which a pixel addition circuit is provided in a column circuit unit such as the CDS circuit 73b and the A / D circuit 73c in the CMOS image sensor will be described.

図4に示すように、撮像素子73は、単位画素回路73a1、ADC基準信号(Ramp波形)73n、10ビットカウンタ73p、ラッチ73c1、演算回路73k、ラッチ73k1、ラッチ73k2、ALU73k3、ラッチ73k4、水平走査回路73i、演算回路73m、ラッチ73m1、ラッチ73m2、ALU73m3、ラッチ73m4、符号器73e、並列/直列変換回路73f、トランスミッタ73j、DSP75、P/S変換回路75b、レシーバ75b1を有している。   As shown in FIG. 4, the image sensor 73 includes a unit pixel circuit 73a1, an ADC reference signal (Ramp waveform) 73n, a 10-bit counter 73p, a latch 73c1, an arithmetic circuit 73k, a latch 73k1, a latch 73k2, an ALU 73k3, a latch 73k4, and a horizontal. The scanning circuit 73i, the arithmetic circuit 73m, the latch 73m1, the latch 73m2, the ALU 73m3, the latch 73m4, the encoder 73e, the parallel / serial conversion circuit 73f, the transmitter 73j, the DSP 75, the P / S conversion circuit 75b, and the receiver 75b1.

図4に示すように、高速のCMOSイメージセンサを構成するために、ColumnADC方式の列回路に加算回路と高速転送回路を設けており、本実施形態の高速度カメラに用いる撮像素子73では、任意サイズの画像領域を選択して、領域内の画素の撮像信号を読み出す選択読出しができるように構成している。   As shown in FIG. 4, in order to construct a high-speed CMOS image sensor, an adder circuit and a high-speed transfer circuit are provided in the column circuit of the Column ADC system. It is configured to be able to perform selective reading by selecting an image area of a size and reading out an imaging signal of a pixel in the area.

図3、図4に示すように、列回路部に設けられたCDS回路73b、A/D変換回路73cや水平走査回路73iの後段部分に、各画素に隣接する同色フィルタの複数の画素の撮像信号同士をデジタル信号で加算するALU73k3,ALU73m3を演算回路73k,73mを設けて、デジタルズーム時や高感度撮影時には、選択領域内の画素データを任意の行列毎に複数画素分加算された撮像信号を読出しできるように構成して、画素あたりの撮影感度を実質的に加算数分だけ上げることができ、短い露出時間や速いシャッタ速度でも露出が良好な撮影ができ、高速レートの動画撮影や連続撮影でも、画像データ量の小さい撮像信号に変換して出力できるようにした。   As shown in FIG. 3 and FIG. 4, imaging of a plurality of pixels of the same color filter adjacent to each pixel is performed in a subsequent stage portion of the CDS circuit 73 b, the A / D conversion circuit 73 c and the horizontal scanning circuit 73 i provided in the column circuit unit. ALU 73k3 and ALU 73m3 for adding signals as digital signals are provided with arithmetic circuits 73k and 73m, and at the time of digital zooming or high-sensitivity shooting, an imaging signal obtained by adding pixel data in a selected region for a plurality of pixels for each arbitrary matrix is provided. It is configured so that it can be read out, and the shooting sensitivity per pixel can be increased substantially by the number of additions, shooting with good exposure can be achieved even with a short exposure time and fast shutter speed, and high-speed movie shooting and continuous shooting. However, it can be converted into an imaging signal with a small amount of image data and output.

なお、選択読出された選択領域の撮像信号、さらに画素加算された撮像信号は、列回路部に設けられたCDS回路73b、A/D変換回路73cから水平走査回路73iの列選択信号により選択された列信号が順次出力されるが、このとき、高速クロックに同期させて並列デジタル信号として出力するか、または、並列のデジタル信号を符号化し、並列/直列変換回路73fにより並列/直列変換してトランスミッタ73jから、直列のデジタル撮像信号としてDSP部75に出力することで、高解像度の撮像信号を高速フレームレートでDSP部75に転送出力することができる。   The picked-up image signal of the selected area and the image signal obtained by adding the pixels are selected from the CDS circuit 73b and the A / D conversion circuit 73c provided in the column circuit section by the column selection signal of the horizontal scanning circuit 73i. The column signals are sequentially output. At this time, they are output as parallel digital signals in synchronization with the high-speed clock, or the parallel digital signals are encoded and parallel / serial converted by the parallel / serial conversion circuit 73f. By outputting to the DSP unit 75 as a serial digital imaging signal from the transmitter 73j, it is possible to transfer and output a high-resolution imaging signal to the DSP unit 75 at a high frame rate.

[CDS回路、A/D変換回路の動作] 図4に示すように、並列に並んだ列回路に設けるCDS回路、A/D変換回路の具体的構成には、各種方式が開発されているが、本実施形態では、いわゆる「Column ADC方式」のCDS回路73b、A/D変換回路73cを用いて、列毎に並列処理するA/D変換器により、画素の固定パターンノイズ(FPN)を抑圧しながらデジタル信号に変換する。Column ADC方式のCDS回路73bでは、固定パターンノイズを抑圧するために、粗精度と高精度の2段階のクランプ(Clamp)回路を用いる。一般に、クランプは、信号のあるレベルを基準電圧に置き換える動作で、クランプ回路は例えば、キャパシタとスイッチで構成され、キャパシタの出力側がスイッチにより基準電圧にセットされる。   [Operations of CDS Circuit and A / D Conversion Circuit] As shown in FIG. 4, various methods have been developed for specific configurations of the CDS circuit and the A / D conversion circuit provided in the column circuits arranged in parallel. In this embodiment, a fixed pattern noise (FPN) of a pixel is suppressed by an A / D converter that performs parallel processing for each column using a so-called “Column ADC method” CDS circuit 73b and an A / D conversion circuit 73c. While converting to a digital signal. The Column ADC type CDS circuit 73b uses a two-stage clamp circuit of coarse accuracy and high accuracy in order to suppress fixed pattern noise. Generally, clamping is an operation of replacing a certain level of a signal with a reference voltage, and the clamp circuit is composed of, for example, a capacitor and a switch, and the output side of the capacitor is set to the reference voltage by the switch.

図5は、CDS回路、A/D変換回路の動作を説明するためのタイミングチャートである。図5に示すタイミングチャートにおいて、まず、列回路部の反転バッファA1、A2に並列接続されたクランプスイッチS1、S2を第1クランプ期間において同時に閉じてから、クランプスイッチS1を先に開くと、点Vinの電位が、A1の閾値電圧にS1スイッチングのバラツキが加算された電圧に粗い精度でクランプされるが、S2は閉じたままなので、その電圧がA2入力の閾値電圧になる。その後、S2を開くと、A2にもスイッチングのバラツキを含む電圧がクランプされ、クランプ動作が完了する。S2スイッチングのバラツキ成分はA2の利得で割った分がVin側のバラツキに還元されるので、Vin側から見るとクランプ精度が向上して、クランプ回路で発生する縦筋状の固定パターンノイズ(FPN)の発生が抑えられる。   FIG. 5 is a timing chart for explaining operations of the CDS circuit and the A / D conversion circuit. In the timing chart shown in FIG. 5, first, when the clamp switches S1 and S2 connected in parallel to the inverting buffers A1 and A2 of the column circuit portion are simultaneously closed in the first clamp period, the clamp switch S1 is opened first. The potential of Vin is clamped with a rough accuracy to the voltage obtained by adding the variation of S1 switching to the threshold voltage of A1, but since S2 remains closed, the voltage becomes the threshold voltage of the A2 input. Thereafter, when S2 is opened, a voltage including the variation in switching is clamped in A2, and the clamping operation is completed. The variation component of S2 switching divided by the gain of A2 is reduced to the variation on the Vin side, so that when viewed from the Vin side, the clamp accuracy is improved, and the vertical streak fixed pattern noise (FPN) generated in the clamp circuit ) Is suppressed.

次に、行読出し線(転送ゲート線TG)にパルスが立ち上がると、画素信号が列信号線に現れるので、スイッチS4を閉じてサンプリングする。サンプリング完了後、スイッチS3を開いて、A/D変換用のランプ波形(RAMP波形、順次電圧が上昇する傾斜状、階段状の波形)の基準信号をスイッチS4から加えると、ランプ波形に応じてVinの電圧がやがてクランプ回路の閾値を越えてA2の出力が反転し、反転する電圧までの10ビットカウンタ73pの値がデジタルの画素信号値としてラッチ73c1に記憶され、A/D変換処理が終了する。   Next, when a pulse rises on the row readout line (transfer gate line TG), a pixel signal appears on the column signal line. Therefore, the switch S4 is closed and sampling is performed. When the sampling is completed, the switch S3 is opened, and a reference signal having a ramp waveform for A / D conversion (a RAMP waveform, a ramp-like waveform in which the voltage rises sequentially, a stepped waveform) is applied from the switch S4. The voltage of Vin eventually exceeds the threshold value of the clamp circuit and the output of A2 is inverted. The value of the 10-bit counter 73p until the voltage to be inverted is stored in the latch 73c1 as a digital pixel signal value, and the A / D conversion process is completed. To do.

[画素加算動作] このようなCDS回路73b、A/D変換回路73cを含む列回路の後に、列加算回路(垂直加算回路)などの演算回路73kを設け、行アドレス選択された画素の信号を列信号線から読出し、CDS回路73b、A/D変換回路73cでノイズ除去されデジタル変換されたデジタル並列信号を、ラッチクロック信号でラッチ73k1にラッチし、同じく選択された同じ列で異なる行の画素のデジタル並列信号を、同様に別のタイミングのラッチクロック信号で別のラッチ73k2にラッチして、両方のラッチ回路の出力同士を列加算回路を構成するALU73k3でデジタル加算する。   [Pixel Addition Operation] An arithmetic circuit 73k such as a column adder circuit (vertical adder circuit) is provided after such a column circuit including the CDS circuit 73b and the A / D converter circuit 73c, and a signal of a pixel whose row address is selected is provided. The digital parallel signal read from the column signal line, noise-removed and digitally converted by the CDS circuit 73b and the A / D conversion circuit 73c is latched in the latch 73k1 by the latch clock signal, and pixels in different rows in the same selected column Similarly, the digital parallel signal is latched in another latch 73k2 by a latch clock signal of another timing, and the outputs of both latch circuits are digitally added by the ALU 73k3 constituting the column addition circuit.

また、水平信号線からの信号出力部に、行加算回路(水平加算回路)などの演算回路73mを設け、列加算された信号同士をラッチクロック信号で選択して水平信号線に読出し、ラッチ73m1,73m2にラッチして、両方のラッチ回路の出力同士を行加算回路を構成するALU73k4でデジタル加算する。   Further, an arithmetic circuit 73m such as a row addition circuit (horizontal addition circuit) is provided in the signal output section from the horizontal signal line, and the column-added signals are selected by the latch clock signal and read out to the horizontal signal line and latch 73m1. , 73m2, and the outputs of both latch circuits are digitally added by the ALU 73k4 constituting the row adder circuit.

カラー撮像の場合には、例えば、「Bayer配列」等の千鳥状に2画素周期で交互に並んだRGB各色カラーフィルタに対応する各画素から、列方向に(一つ飛ばしで)隣接する同色フィルタの画素同士を、R画素はR画素同士で、G画素はG画素同士で、B画素はB画素同士で、列方向に複数加算し、また、行方向に(一つ飛ばしで)隣接する同色フィルタの複数の画素を行方向に加算して読み出すことで同色の画素の信号同士が複数画素分加算できる。   In the case of color imaging, for example, the same color filter adjacent in the column direction (by skipping one) from each pixel corresponding to each RGB color filter arranged alternately in a two-pixel cycle in a staggered pattern such as “Bayer array” The R pixels are R pixels, the G pixels are G pixels, the B pixels are B pixels, and a plurality of pixels are added in the column direction, and adjacent in the row direction (one skipped) By adding and reading a plurality of pixels of the filter in the row direction, signals of pixels of the same color can be added for a plurality of pixels.

また、加算された撮像信号のデジタル信号は符号器73eにより所定の符号化を行うとともに、並列/直列変換回路73fにより並列/直列変換して順次シリアル(直列)のデジタル信号に変換されてトランスミッタ73jから出力され、DSP部75のレシーバ75b1に転送される。   The added digital signal of the imaging signal is subjected to predetermined encoding by the encoder 73e, and parallel / serial converted by the parallel / serial conversion circuit 73f to be sequentially converted into a serial (serial) digital signal to be transmitted to the transmitter 73j. Is transferred to the receiver 75b1 of the DSP unit 75.

[その他のCDS回路、A/D変換回路、加算回路] なお、本実施形態においては、CDS回路、A/D変換回路をColumn ADC方式で構成したが、たとえば、単純なColumn CDS方式や、DDS方式(Double Data Sampling)、電荷領域差分方式など、他のCDS回路、A/D変換回路や加算回路で構成しても良い。   [Other CDS circuit, A / D conversion circuit, addition circuit] In this embodiment, the CDS circuit and the A / D conversion circuit are configured by the Column ADC system. However, for example, a simple Column CDS system, a DDS, or the like is used. Other CDS circuits, A / D conversion circuits, and addition circuits, such as a method (Double Data Sampling) and a charge region difference method, may be used.

例えば、特開2005−278135号公報「固体撮像装置および団体撮像装置の駆動方法」(図示しない)には、積分型ADCを列並列ADC比較器およびアップ/ダウン・カウンタを用いて、CDS回路、A/D変換回路を構成して、デジタル画素値をメモリ部に書込み、例えば、カウンタをリセットせずに次の画素値を続けてカウントさせ、加算器なしで加算演算を行えるようにしたCMOSイメージセンサの構成例が開示されている。本実施形態においても、このような加算回路を用いて画素加算処理を行ってもよい。   For example, Japanese Patent Laid-Open No. 2005-278135 “Driving Method of Solid-State Imaging Device and Group Imaging Device” (not shown) uses an integrating ADC using a column parallel ADC comparator and an up / down counter, a CDS circuit, A CMOS image in which an A / D conversion circuit is configured and a digital pixel value is written in a memory unit, for example, the next pixel value is continuously counted without resetting the counter, and an addition operation can be performed without an adder. A configuration example of the sensor is disclosed. Also in the present embodiment, pixel addition processing may be performed using such an addition circuit.

[CML、LVDSなどの高速シリアル転送回路] 上述のように、加算された撮像信号のデジタル信号は、並列/直列変換回路73fで順次シリアル(直列)のデジタル信号に変換され、トランスミッタ73jからDSP部75に設けられたレシーバ75b1に転送される。なお、高解像度で高速フレームで撮像するためには、撮像信号を高速でDSP部75に転送する必要がある。   [High-Speed Serial Transfer Circuit such as CML, LVDS] As described above, the digital signal of the added imaging signal is sequentially converted into a serial (serial) digital signal by the parallel / serial conversion circuit 73f. The data is transferred to a receiver 75 b 1 provided in 75. In order to capture an image with a high resolution and a high-speed frame, it is necessary to transfer an imaging signal to the DSP unit 75 at a high speed.

一般のCMOSからなる入出力回路では、入出力信号の振幅は、電源電圧の範囲において一杯の範囲で振らせるので、消費電力が大きくなるばかりでなく、転送できる速度も遅くなってしまう。   In an input / output circuit made of a general CMOS, the amplitude of the input / output signal is swung within the full range of the power supply voltage, so that not only the power consumption increases, but also the transfer speed becomes slow.

例えば、CML系(Current Mode Logic、電流モードロジック)の入出力回路では、トランジスタを不飽和領域で使用して、インピーダンスを低くし、(電圧を振らせるというよりは)電流をon/offさせる方法で、(Vdd−0.4V)の電位を中心に低振幅で動作させる。浮遊容量を充・放電する量が少なくなるので高速動作できる。   For example, in a CML (Current Mode Logic) input / output circuit, a transistor is used in an unsaturated region to reduce impedance and turn on / off current (rather than swinging voltage). Thus, it is operated with a low amplitude centered on the potential of (Vdd−0.4V). High speed operation is possible because the amount of charge / discharge of stray capacitance is reduced.

また、LVDS系(Low−Voltage Differential Signaling、小振幅差動信号方式)は、2本の信号線を使って情報を運ぶ差動信号方式で、単一チャネルあたり数百〜数千Mbps(メガビット/秒)の高速度でデータ伝送でき、かつ、mWレベルの低消費電力の差動データ伝送方式として、内部バスの信号線の本数等を減らせるため、通信機器や表示装置や、映像信号のデジタル入出力インタフェースとして普及している。   The LVDS system (Low-Voltage Differential Signaling) is a differential signal system that carries information using two signal lines, and is several hundred to several thousand Mbps (megabit / bit). In order to reduce the number of signal lines of the internal bus as a differential data transmission method with a low power consumption of mW level, it is possible to transmit data at a high speed (seconds), so communication equipment, display devices, and digital video signals Widely used as an input / output interface.

LVDS系では、2本の配線を必要とするが、電流モード・ドライバの採用と、+1.2V電位を中心に0.3Vの上下振幅内で振らせる小振幅によって、コモンモードノイズを除去でき、広い周波数範囲に対して高いノイズ耐性が得られる。   The LVDS system requires two wires, but common mode noise can be removed by adopting a current mode driver and a small amplitude that swings within a vertical amplitude of 0.3 V around the +1.2 V potential, High noise resistance can be obtained over a wide frequency range.

このように、CMOS回路でも、高速でシリアル伝送できるCML系やLVDS系などによる低振幅の入出力インタフェースを用いて、直列信号に変換されたデジタル撮像信号を撮像素子の出力回路(送信トランスミッタ)から出力して、後段のDSP部75へ高速で伝送し、DSP部75に設けられた入力回路(受信レシーバ)で受信した直列デジタル信号をS/P変換回路75bで並列デジタル信号に変換してから、デジタル撮像信号として映像信号処理に用いることができる。   As described above, even in a CMOS circuit, a digital imaging signal converted into a serial signal is transmitted from an output circuit (transmission transmitter) of an imaging device using a low-amplitude input / output interface such as a CML system or an LVDS system capable of serial transmission at high speed. After the serial digital signal is output and transmitted to the DSP section 75 at a high speed and received by the input circuit (reception receiver) provided in the DSP section 75, it is converted into a parallel digital signal by the S / P conversion circuit 75b. It can be used for video signal processing as a digital imaging signal.

[DSP部(デジタル信号処理部)] 撮像素子73がCMOSからなるイメージセンサの場合には、CMOSセンサ内蔵のCDS回路、A/D変換回路でノイズ除去およびデジタル変換され、同じく内蔵の高速出力回路から直列のデジタル信号で転送されたデジタル撮像信号がDSP部75に入力される。   [DSP Unit (Digital Signal Processing Unit)] When the image sensor 73 is an image sensor made of CMOS, noise is removed and digitally converted by a CDS circuit and an A / D conversion circuit with a built-in CMOS sensor, and also a built-in high-speed output circuit. The digital imaging signal transferred as a serial digital signal is input to the DSP unit 75.

DSP部75は、撮像素子73から直列のデジタル信号で転送されたデジタル撮像信号をS/P変換回路75bで並列デジタル信号に変換し、並列デジタル信号をバッファメモリ(A)75cに順次に記憶するとともに、バッファメモリ(A)75cから読み出した並列デジタル信号をWB補正回路75dに出力する。次いで、WB補正回路75dでホワイトバランス調整やカラーバランス調整を行った後に、撮像素子73の前面に設けられたモザイク状の「Bayer配列」や、千鳥配列されたRGBなどのカラーフィルタ配列に従って、画素毎には一つの色成分しか持たないが、他の色差成分の画素値も、近隣周辺の画素値から画素補間(Pixel Signal Interpolation)して求めて(カラー補間処理)、画素毎にRGB色差成分毎の階調値を持つデジタル画像データに変換される。   The DSP unit 75 converts the digital imaging signal transferred as a serial digital signal from the imaging device 73 into a parallel digital signal by the S / P conversion circuit 75b, and sequentially stores the parallel digital signal in the buffer memory (A) 75c. At the same time, the parallel digital signal read from the buffer memory (A) 75c is output to the WB correction circuit 75d. Next, after white balance adjustment and color balance adjustment are performed by the WB correction circuit 75d, pixels are arranged in accordance with a mosaic “Bayer array” provided on the front surface of the image sensor 73 or a color filter array such as staggered RGB. Each pixel has only one color component, but the pixel values of the other color difference components are also obtained by pixel interpolation (pixel interpolation) from neighboring pixel values (color interpolation processing), and the RGB color difference components for each pixel It is converted into digital image data having each gradation value.

また、カラー補間の前に、必要に応じて、画素補間/リサイズ回路75eにより、撮像画像サイズを異なる画像サイズに変換する解像度変換処理(Resolution Conversion)を行う場合もある。   Also, before color interpolation, resolution conversion processing (Resolution Conversion) for converting the captured image size to a different image size may be performed by the pixel interpolation / resizing circuit 75e as necessary.

画素補間/リサイズ回路75eでは、例えば、スルー画像や再生画像をファインダや画像モニタに表示する為にVideo RAMや表示ドライバ内の表示RAM領域に書込むために、(VGAサイズなどの)所定の画像サイズ(画素数)に変換するリサイズ(Resize)、または補間処理(Interpolation)を行う。あるいは、撮影記録時に、所望の記録画像サイズで記録する為に、設定記録画像サイズに縮小/拡大する処理や、リサイズ/補間処理または解像度変換処理を行う。   In the pixel interpolation / resizing circuit 75e, for example, a predetermined image (such as a VGA size) is written in order to write a through image or a reproduced image in a video RAM or a display RAM area in a display driver in order to display on a finder or an image monitor. Resizing (Resize) for conversion into size (number of pixels) or interpolation processing (Interpolation) is performed. Alternatively, at the time of shooting and recording, processing for reducing / enlarging to a set recording image size, resizing / interpolation processing, or resolution conversion processing is performed in order to record at a desired recording image size.

さらに、DSP部75では、ガンマ補正回路75hにより階調補正されたRGB系のデジタル画像信号はバッファメモリ(B)77に一時記憶された後、LCDモニタなど電子ファインダに再生表示されるか、マトリクス回路75iでRGB系からYUV系/YCbCr系など所定の色空間の画像信号に変換され、画像CODEC79により、JPEG静止画像データやMPEG4やH.264動画像データなどに圧縮/符号化処理される。なお、コントローラ75aは、CPU53gにより設定されたデータや撮影条件に応じて、DSP部75内部に設けられたS/P変換回路75b、バッファメモリ(A)75c、WB補正回路75d、画素補間/リサイズ回路75e、カラー補間回路75f、輪郭補正回路75g、ガンマ補正回路75h、マトリクス回路75i、画像特徴処理部75j、画像認識処理部75k、画像評価処理部75mなどの各回路を制御する。   Further, in the DSP unit 75, the RGB digital image signal whose gradation has been corrected by the gamma correction circuit 75h is temporarily stored in the buffer memory (B) 77 and then reproduced and displayed on an electronic viewfinder such as an LCD monitor, or a matrix. The circuit 75i converts the RGB system to an image signal of a predetermined color space such as a YUV system / YCbCr system, and the image CODEC 79 converts the JPEG still image data, MPEG4, H.264, etc. H.264 moving image data or the like is compressed / encoded. It should be noted that the controller 75a has an S / P conversion circuit 75b, a buffer memory (A) 75c, a WB correction circuit 75d, a pixel interpolation / resize provided in the DSP unit 75 in accordance with the data and shooting conditions set by the CPU 53g. Each circuit such as a circuit 75e, a color interpolation circuit 75f, a contour correction circuit 75g, a gamma correction circuit 75h, a matrix circuit 75i, an image feature processing unit 75j, an image recognition processing unit 75k, and an image evaluation processing unit 75m is controlled.

[高速度撮影の撮影速度] 従来の業務用の高速度カメラなどでは、銀塩フィルム時代のフィルム送り機構の制約などから、コマ毎に必要な露出時間の約5倍程度の時間間隔を設けて連続撮影速度やフレーム速度を設定して撮影する場合が多かった。これを基準に、シャッタ係数をα=5程度に設定する場合が多かったが、これは、必ずしも所要の撮影速度から決められたものではなく、フィルム送り機構の制約などから、あるいは、習慣的に決められている場合が多かった。   [Shooting speed for high-speed shooting] In conventional high-speed cameras for business use, etc., a time interval of about 5 times the exposure time required for each frame is provided due to restrictions of the film feeding mechanism in the silver halide film era. In many cases, continuous shooting speed and frame speed were set. On the basis of this, the shutter coefficient is often set to about α = 5, but this is not always determined from the required shooting speed, but is restricted due to limitations of the film feed mechanism or customarily. It was often decided.

また、従来のデジタルカメラでは、露出時間は1/1000秒から1/8000秒など微少時間で撮影できるものでも、連写撮影の速度は、CCDなど使用する撮像素子の制約、例えば、撮像電荷を垂直および水平転送路で順に伝送して読み出す原理上、撮像信号の読出しに要する時間や、読出し後の信号処理時間などの制約から、せいぜい3〜8枚/秒程度の連写しかできなかった。   Further, even with a conventional digital camera, the exposure time can be taken in a minute time such as 1/1000 second to 1/8000 second. However, the speed of continuous shooting is limited by an image sensor used such as a CCD, for example, an imaging charge. Due to the principle of transmitting and reading sequentially on the vertical and horizontal transfer paths, continuous shooting of only about 3 to 8 frames / second could be performed due to restrictions such as the time required for reading the imaging signal and the signal processing time after reading.

本実施形態のように、撮像信号を高速度で読出し可能な高速度CMOSからなる撮像素子73、および、高速度で信号処理や符号化処理できるDSP部75などを用いた場合にも、撮像信号の読出し時間や信号処理時間による制約は免れないが、従来のCCDなどによるデジタルカメラに比べると数十倍の高速度で読出しや信号処理が可能となるので、所望の動く被写体や微少時間に起こる現象などを、適切な露出条件で、かつ、ブレなく撮影できるような条件を満たしさえすれば、上記のシャッタ係数αのような制約は、任意に設定することも可能となる。   As in the present embodiment, the image pickup signal can be obtained even when the image pickup element 73 made of a high speed CMOS capable of reading the image pickup signal at a high speed and the DSP unit 75 capable of performing a signal processing or an encoding process at a high speed are used. However, it can be read and processed at a speed several tens of times faster than conventional digital cameras such as CCDs. The restriction such as the shutter coefficient α described above can be arbitrarily set as long as the phenomenon and the like satisfy the conditions such that the image can be taken under appropriate exposure conditions and without blurring.

例えば、撮影速度(フレーム速度)R(fps)は、シーン毎に設定された撮影倍率Mや被写体の移動速度Vなどの設定情報に従って、
R=(M×X)/(d×α) (1)
For example, the shooting speed (frame speed) R (fps) is set according to setting information such as the shooting magnification M and the moving speed V of the subject set for each scene.
R = (M × X) / (d × α) (1)

ただし、R:撮影速度(コマ/秒)、M:撮影倍率=イメージサイズ(Y´)/被写体サイズ(Y)、V:被写体の移動速度(mm/秒)、d:許容錯乱円径、α:シャツタ係数(α=1〜5など)、などの計算式から、撮影速度の目安を算出し、それに基づいて撮影速度Rを設定する。   However, R: shooting speed (frame / second), M: shooting magnification = image size (Y ′) / subject size (Y), V: moving speed of subject (mm / second), d: allowable circle of confusion, α : Estimated shooting speed is calculated from a calculation formula such as a Schottky coefficient (α = 1-5, etc.), and the shooting speed R is set based on it.

同一シーンでも、操作に応じて、または、所望の作画表現に応じて、ユーザ所望の撮影速度や、撮影時間、画像サイズ、撮影感度、画素加算による感度UPなどの条件を選択できるようにして、その条件を満たした中で、上記の自動設定をしてもよい。   Even in the same scene, the user can select conditions such as shooting speed, shooting time, image size, shooting sensitivity, and sensitivity increase by pixel addition according to the operation or according to the desired drawing expression. The automatic setting may be performed while satisfying the condition.

[高速度撮影の必要な露出時間] 例えば、必要な露出時間(T)は、シーン毎に設定された撮影倍率(M)や被写体の移動速度(V)などの設定情報に従って、
T=β×d/(M×V) (2)
ただし、T:露出時間(秒)、d:許容錯乱円径、M:撮影倍率=イメージサイズ(Y´)/被写体サイズ(Y)、V:被写体の移動速度(mm/秒)、β:係数(β=0.2〜1.0)、または、
T=β×Y´/(m×M×V) (3)
[Necessary exposure time for high-speed shooting] For example, the required exposure time (T) is determined according to setting information such as the shooting magnification (M) and the moving speed (V) of the subject set for each scene.
T = β × d / (M × V) (2)
Where T: exposure time (seconds), d: permissible circle of confusion, M: shooting magnification = image size (Y ′) / subject size (Y), V: subject moving speed (mm / second), β: coefficient (Β = 0.2-1.0), or
T = β × Y ′ / (m × M × V) (3)

ただし、T:露出時間(秒)、Y´:撮像素子のイメージサイズ(mm)、m:撮像素子の画素数、M:撮影倍率、V:被写体の移動速度(mm/秒)、β:係数(β=0.2〜1.0など)、などの計算式で必要露出時間の目安を算出し、それを満たす範囲で、測光値や照明条件に応じて、露出時間Tを設定する。   Where T: exposure time (seconds), Y ′: image size of the image sensor (mm), m: number of pixels of the image sensor, M: photographing magnification, V: moving speed of the subject (mm / sec), β: coefficient A guideline for the required exposure time is calculated by a calculation formula such as (β = 0.2 to 1.0), and the exposure time T is set in accordance with the photometric value and illumination conditions within a range satisfying the required exposure time.

[マルチ条件連写の動作] 図6Aは、本発明の実施形態に係る高速度カメラが、複数の撮影条件の組合せを少しずつ変えながら連写するマルチ条件連写を行う場合の概略的な動作を説明するためのフローチャートであり、図6Bは、図6Aに示す各ステップに対応する動作を説明するための画面例である。   [Multi-Continuous Continuous Shooting Operation] FIG. 6A is a schematic operation when the high-speed camera according to the embodiment of the present invention performs multi-condition continuous shooting in which continuous shooting is performed while gradually changing the combination of a plurality of shooting conditions. 6B is an example of a screen for explaining the operation corresponding to each step shown in FIG. 6A.

図2に示す高速度カメラの全体構成図を参照して、図6Aに示すフローチャートを説明する。   The flowchart shown in FIG. 6A will be described with reference to the overall configuration diagram of the high-speed camera shown in FIG.

まず、ステップS10では、CPU53gは、操作入力部51から入力回路53eを介して入力される操作情報に応じて所望の撮影モードや撮影シーンを選択する。この様子は6B(a)に示すように画像表示部85に表示される。   First, in step S10, the CPU 53g selects a desired shooting mode or shooting scene according to operation information input from the operation input unit 51 via the input circuit 53e. This state is displayed on the image display unit 85 as shown in 6B (a).

次いで、ステップS20では、CPU53gは、撮影モードや撮影シーンに応じて、複数の撮影条件の組合せを自動的に選択し、その撮影条件の組合せ毎の撮影枚数を、適宜自動的に配分してコントローラ75aに設定する。ここで、操作入力部51から入力される1回のレリーズ操作に応じて、撮影動作に入ると、コントローラ75aに設定された複数の撮影条件の組合せの条件に従って、それぞれ設定された枚数の画像を高速で続けて連続撮影するように撮像素子73とDSP部75が制御される。このとき、撮影された画像は順次バッファメモリ(A)75c内のフレームメモリに一時記録され、信号処理される。この撮影条件(1),(2),(3)の組合せに対応した撮影枚数を図6B(b)に示す。   Next, in step S20, the CPU 53g automatically selects a combination of a plurality of shooting conditions in accordance with the shooting mode and shooting scene, and automatically assigns the number of shots for each combination of shooting conditions as appropriate. Set to 75a. Here, when a shooting operation is started in response to a single release operation input from the operation input unit 51, a set number of images are respectively set according to a combination of a plurality of shooting conditions set in the controller 75a. The image sensor 73 and the DSP unit 75 are controlled so as to continuously shoot at a high speed. At this time, the captured images are sequentially recorded in the frame memory in the buffer memory (A) 75c, and are subjected to signal processing. FIG. 6B (b) shows the number of shots corresponding to the combination of the shooting conditions (1), (2), and (3).

次いで、ステップS30では、CPU53gは、複数の撮影条件を組合せ設定して、それぞれ設定された複数毎の画像を高速連写撮影する。ここで、撮影された画像は、撮影条件の組合せ毎の行×列に整列して画像表示部85に一覧表示される。この様子は図6B(c)に示すように、撮影条件(1)と撮影条件(2)との組み合わせに応じた枚数の画像が表示される。   Next, in step S30, the CPU 53g sets a plurality of shooting conditions in combination and performs high-speed continuous shooting for each set of images. Here, the captured images are displayed in a list on the image display unit 85 in a row × column arrangement for each combination of shooting conditions. In this state, as shown in FIG. 6B (c), the number of images corresponding to the combination of the shooting condition (1) and the shooting condition (2) is displayed.

次いで、ステップS40では、CPU53gは、高速連写された画像の画質を画像評価処理部75mに評価させる。ここで、コントローラ75aでの設定に応じて、複数枚撮影された画像データの画質を評価する。   Next, in step S40, the CPU 53g causes the image evaluation processing unit 75m to evaluate the image quality of the high-speed continuous shot image. Here, the image quality of a plurality of image data shot is evaluated according to the setting in the controller 75a.

次いで、ステップS50では、CPU53gは、画質評価値の優劣に従って画像を選択し、保存記録する候補として画像表示部85に画像表示する。ここで、CPU53gは評価された評価値の優劣に従って画像を自動的に選択し、例えば、解像度やコントラスト(中間階調表現)、鮮鋭度、ブレやボケの少なさなど、所定の画質特性毎に、画質の良い画像から順にベスト3やベスト10を表示するなど、保存記録する候補の画像を同時に比較できるように、例えば、複数枚ずつ同時に画像を表示するか順に切り替え画像表示部85に表示する。この様子は図6B(d)に示すように、中間調Best3、鮮明度Best3、解像度Best3が画像表示部85に表示される。   Next, in step S50, the CPU 53g selects an image according to the superiority or inferiority of the image quality evaluation value, and displays the image on the image display unit 85 as a candidate to be stored and recorded. Here, the CPU 53g automatically selects an image according to the evaluation value, and for each predetermined image quality characteristic such as resolution, contrast (intermediate gradation expression), sharpness, and less blur and blurring. In order to be able to simultaneously compare the candidate images to be stored and recorded, such as displaying the best 3 and the best 10 in order from the image with the highest image quality, for example, the images are displayed on the switching image display unit 85 in order of whether images are displayed simultaneously. . As shown in FIG. 6B (d), the halftone Best3, the sharpness Best3, and the resolution Best3 are displayed on the image display unit 85.

最後に、ステップS60では、CPU53gは、評価値に従って選択された画像、又はユーザにより選択された画像を画像CODEC79により符号化して画像メモリ媒体71に保存記録する。なお、ステップS60では、ステップS50において選択された画質が優れた画像、または、ステップS30やステップS50において画像表示部85に表示された画像を見てユーザが選択した所望の画像を、優先して画像メモリ媒体71に保存記録し、それ以外の画像は一括で削除できるようにする。この様子は図6B(e)に示すように、選択された画像が画像表示部85に表示される。
[第1実施例](選択シーンに応じて、複数撮影条件の組合せと枚数を設定)
Finally, in step S60, the CPU 53g encodes the image selected according to the evaluation value or the image selected by the user with the image CODEC 79, and saves and records it in the image memory medium 71. In step S60, the image selected in step S50 with excellent image quality or the desired image selected by the user by viewing the image displayed on the image display unit 85 in step S30 or step S50 is given priority. It is stored and recorded in the image memory medium 71, and other images can be deleted at once. As shown in FIG. 6B (e), the selected image is displayed on the image display unit 85.
[First Embodiment] (Combination of multiple shooting conditions and number of sheets are set according to the selected scene)

図7に、本発明の第1実施例として、選択されたシーンに応じて、マルチ条件連写の複数撮影条件の組合せをコントローラ75aに設定する場合での、撮影シーン毎に予め記憶されている撮影条件の設定データの例を示す。   In FIG. 7, as a first embodiment of the present invention, a combination of a plurality of shooting conditions for multi-condition continuous shooting is set in advance in the controller 75a according to a selected scene, and stored in advance for each shooting scene. An example of shooting condition setting data is shown.

各撮影シーンが選択されると、各撮影条件は、シーン毎に予め記憶された設定データの条件に設定されるが、シーン毎の各撮影条件の設定データにおいて、「オート」、または、「マルチ条件連写」と設定されている撮影条件がある場合に、撮影時にマルチ条件連写撮影が選択されているときには、これらの撮影条件は、複数の撮影条件の組合せ(マルチ条件)として選択され、それら撮影条件を少しずつ変えて分散された条件の組合せと、組合せ毎の枚数が自動的に設定されて順次撮影条件と枚数を変えながら連写撮影(マルチ条件連写)が行われる。その他の撮影条件は、シーン毎にデータ・メモリ70に予め記憶された設定データの条件もコントローラ75aに設定して撮影される。   When each shooting scene is selected, each shooting condition is set to a setting data condition stored in advance for each scene. In each shooting condition setting data for each scene, “auto” or “multiple” is set. If there are shooting conditions that are set to “Continuous Shooting” and multi-condition continuous shooting is selected during shooting, these shooting conditions are selected as a combination of multiple shooting conditions (multi-conditions) A combination of the conditions dispersed by changing the shooting conditions little by little, and the number of sheets for each combination are automatically set, and continuous shooting (multi-condition continuous shooting) is performed while sequentially changing the shooting conditions and the number of sheets. For other shooting conditions, the setting data condition stored in advance in the data memory 70 for each scene is also set in the controller 75a.

図7において、「人物(ポートレート)」と、「雪景色、スキー」の撮影シーンで、露出補正とホワイトバランスの撮影条件が、「マルチ条件連写」に設定されている場合を例に説明する。図8に示すように、選択されたシーン別の露出補正条件の配分設定データに従って、露出補正条件の配分割合が設定され、また、図9に示すように、シーン別のホワイトバランスの配分割合の設定データに従って、ホワイトバランスの条件がWB補正回路75dに配分設定され、これら撮影条件の組合せ毎の配分割合の撮影枚数で、マルチ条件連写を行うように制御される。   In FIG. 7, the case where the shooting conditions of exposure correction and white balance are set to “multi-condition continuous shooting” in the shooting scenes of “person (portrait)” and “snow scene, skiing” will be described as an example. To do. As shown in FIG. 8, the distribution ratio of the exposure correction condition is set according to the selected exposure correction condition distribution setting data for each scene, and as shown in FIG. 9, the distribution ratio of the white balance for each scene is set. In accordance with the setting data, the white balance condition is set to be distributed to the WB correction circuit 75d, and the multi-condition continuous shooting is controlled with the number of shots at the distribution ratio for each combination of these shooting conditions.

[撮影条件の組合せ毎の枚数配分の具体例] すなわち、「人物」シーンでは、人物の顔の明るさなどが状況によりばらつく場合が多いので、顔や肌色などが比較的明るく撮影されるように、露出補正は±0EVが19%、+0.3EV補正が37%、+0.7EV補正が33%、+1EV補正が11%、・・・のように撮影割合が設定され、「雪景色、スキー」シーンでは、「雪の白」が「白く」写るように、また、「雪景色のキラキラした明るさ」が強調された明るい画像となるよう、露出補正は+0.3EV補正が6%、+0.7EVが21%、+1EVが21%、+1.3EVが18%、+1.7EVが15%、+2EVが9%、・・・・など、比較的露出補正(+)側に広い範囲で露出補正値を分散して配分している。   [Specific Example of Distribution of Numbers for Each Combination of Shooting Conditions] That is, in the “person” scene, the brightness of the face of a person often varies depending on the situation, so that the face and skin color are shot relatively brightly. The exposure ratio is set to 19% for ± 0EV, 37% for + 0.3EV correction, 33% for + 0.7EV correction, 11% for + 1EV correction, and so on. In the scene, the exposure correction is +0.3 EV correction, 6%, and +0 .0 so that “snow white” appears “white” and the “sparkling brightness of the snow scene” is emphasized. 7EV is 21%, + 1EV is 21%, + 1.3EV is 18%, + 1.7EV is 15%, + 2EV is 9%, and so on. Are distributed and distributed.

また、「雪景色、スキー」シーンのホワイトバランス条件では、本来は色温度が比較的高いが、雪景色の色調が「青っぽく」、「雪らしく」写るように、色温度が3500K、4000K、・・・と白熱電球並みに低い色温度で撮影する場合と、ゲレンデでのスキーシーンや人物撮影など、「青かぶりさせず」に「自然な色」に撮影したいシーンも想定して、本来の色温度に近い4500K〜6000K近辺の色温度での撮影する場合にも配分している。一方、人物を「屋内照明」で撮影するシーンでは、白熱電球や蛍光灯など各種の照明下の被写体を撮影する可能性が高いので、主な照明光源の色温度に合せて広範囲な色温度に配分している。   In addition, under the white balance conditions of the “snow scene, ski” scene, the color temperature is originally relatively high, but the color temperature is 3500K, 4000K, so that the color of the snow scene is “blueish” and “snow-like”.・ ・ In case of shooting at a low color temperature like an incandescent bulb, and a scene that you want to shoot in a `` natural color '' without `` blue fogging '', such as skiing on a slope or shooting a person, the original color The distribution is also made when photographing at a color temperature in the vicinity of 4500K to 6000K close to the temperature. On the other hand, in scenes where people are photographed with “indoor lighting”, it is highly possible to shoot subjects under various types of lighting, such as incandescent bulbs and fluorescent lamps. Allocation.

図10A、図10Bに、選択シーンに応じて撮影条件の組合せ毎の撮影枚数を配分した例を示す。上述のような、撮影シーン別に設定された複数の撮影条件の組合せ毎の割合がそれぞれの配分設定データの割合になるように、例えば、「人物」シーンを「屋内」で撮影する場合には、露出補正条件が、前述の「人物」シーンの露出補正条件の分散配分の割合になるように、マルチ条件連写による撮影枚数Nが計60枚と設定されている場合には、図10A(a),(c)に示すように、±0EVが11枚(19%)、+0.3EVが22枚(37%)、+0.7EVが20枚(33%)、+1EVが7枚(11%)、・・・で、計60枚(100%)となるように、それぞれ、撮影枚数が設定される。   10A and 10B show examples in which the number of shots for each combination of shooting conditions is allocated according to the selected scene. For example, when shooting a "person" scene "indoor" so that the ratio for each combination of a plurality of shooting conditions set for each shooting scene becomes the ratio of the respective distribution setting data, In the case where the total number of shots N by multi-condition continuous shooting is set to 60 so that the exposure correction condition is the ratio of the distributed distribution of the exposure correction conditions of the above-mentioned “person” scene, FIG. ), (C), ± 0EV is 11 (19%), + 0.3EV is 22 (37%), + 0.7EV is 20 (33%), + 1EV is 7 (11%) ,..., The number of shots is set to be 60 (100%) in total.

かつ、その際のホワイトバランス条件も、「屋内、照明」のホワイトバランスの分散配分の割合になるように、例えば、上記で配分された±0EV補正の11枚(19%)の中で、色温度が2000Kで1枚(19%×12%)、2500Kで1枚(19%×10%)、3000Kで2枚(19%×19%)、3500Kで2枚(19%×15%)、4000Kで1枚(19%×7%)、・・・・の各枚数で計11枚となるよう、それぞれの撮影枚数がコントローラ75aに設定される。   In addition, the white balance condition at that time is, for example, among the 11 sheets (19%) of ± 0 EV correction distributed as described above so that the white balance distribution ratio of “indoor, lighting” is the same. 1 sheet (19% x 12%) at 2000K, 1 sheet (19% x 10%) at 2500K, 2 sheets (19% x 19%) at 3000K, 2 sheets (19% x 15%) at 3500K, The number of shots is set in the controller 75a so that the total number of shots is 1 (19% × 7%) at 4000K, and so on.

このように、合計枚数が60枚で、かつ、シーン毎の露出補正条件の配分割合、及び、ホワイトバランス条件の配分割合が共に満足するように、組合せ毎の撮影枚数が自動的に算出されてコントローラ75aに設定され、1回のレリーズ操作に応じて、撮影条件の組合せを変えながら、組合せ毎にコントローラ75aに設定された枚数ずつ、計60枚の画像が高速で連続撮影される。他の枚数の場合も同様である。   In this way, the total number of shots is 60, and the number of shots for each combination is automatically calculated so that both the exposure correction condition distribution ratio and the white balance condition distribution ratio for each scene are satisfied. A total of 60 images are continuously photographed at a high speed by the number set in the controller 75a for each combination while changing the combination of photographing conditions in accordance with one release operation. The same applies to other numbers.

マルチ条件運写の合計撮影枚数をN、第1の撮影条件である「露出補正条件」の第(i)番目の露出補正設定値をΔEV(i)とすると、露出補正設定値ΔEV(i)毎の撮影枚数n(i)は、当該シーンにおけるΔEV(i)の配分設定割合REV(i)を、合計撮影枚数(N)に乗算して計算し、例えば、小数点以下を四捨五入などで整数化して、
(i)=INT(N×REV(i)+0.5) (4)
等の計算式で略算して設定すればよい。
Exposure correction setting value ΔEV (i) where N is the total number of shots in multi-condition shooting, and ΔEV (i) is the (i) th exposure correction setting value of the first exposure condition “exposure correction condition”. number of images n (i) is each, the distribution setting percentage R EV of ΔEV in the scene (i) (i), calculated by multiplying the total number of shots (n), for example, integer such rounding off decimals Turn into
n (i) = INT (N × R EV (i) +0.5) (4)
What is necessary is just to calculate and set by calculation formulas, such as.

第1の撮影条件の「露出補正条件」の設定値をΔEV(i)、かつ、第2の撮影条件の「WB(ホワイトバランス)条件」の設定値をWB(j)に設定して撮影する枚数m(i,j)も、上で求めたΔEV(i)の撮影枚数n(i)を、各WB設定値WB(j)の設定割合RWB(j)に乗算して、
(i,j)=INT(n(i)×RWB(j)+0.5) (5)
等の計算式で略算してWB補正回路75dに設定すればよい。
Shooting is performed by setting the setting value of the “exposure correction condition” of the first shooting condition to ΔEV (i) and the setting value of the “WB (white balance) condition” of the second shooting condition to WB (j). The number m (i, j) is also multiplied by the set number R WB (j) of each WB set value WB (j) by the number of shots n (i) of ΔEV (i) obtained above.
m (i, j) = INT (n (i) * RWB (j) +0.5) (5)
The WB correction circuit 75d may be set by roughly calculating with the above calculation formula.

小数点以下の四捨五入による配分では、偏ることも多く、合計すると、設定合計枚数に対して増減(減数または増数)する場合も生じるので、適宜、割合の少ない条件から順次減数したり、割合の多い条件から順に増数したりして合計枚数と調整したり、あるいは、小数で計算した後、合計枚数に一致するまで、割合の大きい条件の組合せから順に配分するなどの調整をおこなってもよい。   In the distribution by rounding off after the decimal point, there are many deviations, and when the total is added, it may increase or decrease (decrease or increase) with respect to the set total number of sheets. Adjustments may be made such that the number is increased in order from the condition and adjusted to the total number of sheets, or the calculation is performed with a decimal number and then the combinations are combined in order from the condition with the largest proportion until the total number is reached.

図11A、図11Bは、第1実施例の電子カメラの撮影制御の一例として、撮影シーンに応じて撮影条件の組合せ毎の撮影枚数を制御することを説明するためのフローチャートである。   11A and 11B are flowcharts for explaining the control of the number of shots for each combination of shooting conditions according to the shooting scene as an example of shooting control of the electronic camera of the first embodiment.

まず、ステップS110では、CPU53gは、操作入力部51での設定が撮影モードか否かを判断する。ここで、撮影モードにない場合には、ステップS115に進み、CPU53gは、その他のモード処理へ進む。   First, in step S110, the CPU 53g determines whether or not the setting in the operation input unit 51 is the shooting mode. If the shooting mode is not set, the process proceeds to step S115, and the CPU 53g proceeds to other mode processing.

次いで、撮影モードにある場合、ステップS120に進み、CPU53gは、操作入力部51の設定に応じて、撮影シーンをコントローラ75aに設定する。次いで、ステップS130では、CPU53gは、マルチ条件による連写撮影モードか否かを判断する。ここで、マルチ条件による連写撮影モードにない場合には、ステップS135に進み、CPU53gは、その他の撮影モード処理へ進む。マルチ条件による連写撮影モードにある場合、ステップS140に進み、CPU53gは、操作入力部51から入力された操作情報に基づいて、マルチ条件連写の撮影枚数Nをコントローラ75aに設定する。   Next, in the shooting mode, the process proceeds to step S120, and the CPU 53g sets the shooting scene in the controller 75a according to the setting of the operation input unit 51. Next, in step S130, the CPU 53g determines whether or not the continuous shooting mode based on the multi-condition. If the continuous shooting mode based on the multi-condition is not set, the process proceeds to step S135, and the CPU 53g proceeds to other shooting mode processing. If the multi-condition continuous shooting mode is selected, the process proceeds to step S140, and the CPU 53g sets the number N of multi-condition continuous shooting to the controller 75a based on the operation information input from the operation input unit 51.

次いで、ステップS150では、CPU53gは、選択されたシーン毎の露出補正の分布設定データに基づいて、複数の露出補正設定値と各撮影枚数とをコントローラ75aに設定する。
例えば、撮影枚数Nを、当該シーンにおける各露出補正設定値ΔEV(i)の設定割合REV(i)に応じて配分し、露出補正設定値ΔEV(i)毎の撮影枚数n(i)を上記(4)式に当てはめて決定する。
Next, in step S150, the CPU 53g sets a plurality of exposure correction setting values and the number of shots to the controller 75a based on the exposure correction distribution setting data for each selected scene.
For example, the number of shots N is distributed according to the set ratio R EV (i) of each exposure correction setting value ΔEV (i) in the scene, and the number of shots n (i) for each exposure correction setting value ΔEV (i) is assigned. This is determined by applying the above equation (4).

次いで、ステップS160では、CPU53gは、選択されたシーン毎のWB分布設定データと露出補正毎の撮影枚数に応じて、WB設定値と各撮影枚数とをコントローラ75aに設定する。
例えば、露出補正値毎の撮影枚数n(i)を、各WB設定値WB(j)の設定割合RWB(j)に応じて配分し、ΔEV(i)、かつ、WB(j)の条件で撮影する枚数m(i,j)を上記(5)式に当てはめて決定する。
Next, in step S160, the CPU 53g sets the WB setting value and the number of shots in the controller 75a according to the selected WB distribution setting data for each scene and the number of shots for each exposure correction.
For example, the number of shots n (i) for each exposure correction value is distributed according to the set ratio R WB (j) of each WB set value WB (j), and the condition of ΔEV (i) and WB (j) The number m (i, j) to be photographed is determined by applying the above equation (5).

次いで、ステップS170では、CPU53gは、操作入力部51からレリーズ又は撮影操作があるか否かを判断する。ここで、レリーズ又は撮影操作がない場合には、CPU53gは、復帰する。   Next, in step S170, the CPU 53g determines whether there is a release or photographing operation from the operation input unit 51. Here, when there is no release or shooting operation, the CPU 53g returns.

操作入力部51からレリーズ又は撮影操作がある場合には、ステップS175に進み、CPU53gは、測光/測距センサ62、検出回路63からの検出信号に基づいて測光処理を行い、測光値に応じて適正露出条件EVをコントローラ75aに設定する。   If there is a release or shooting operation from the operation input unit 51, the process proceeds to step S175, and the CPU 53g performs photometry processing based on detection signals from the photometry / ranging sensor 62 and the detection circuit 63, and according to the photometry value. An appropriate exposure condition EV is set in the controller 75a.

次いで、ステップS180では、CPU53gは、I=1、SS=0にする。次いで、ステップS185では、CPU53gは、(i)番目の露出補正の設定値ΔEV(i)に従って、露出条件をEV+ΔEV(i)に補正してコントローラ75aに設定する。   Next, in step S180, the CPU 53g sets I = 1 and SS = 0. Next, in step S185, the CPU 53g corrects the exposure condition to EV + ΔEV (i) according to the setting value ΔEV (i) of the (i) th exposure correction, and sets it in the controller 75a.

次いで、ステップS190では、CPU53gは、J=1、S=0にする。次いで、ステップS195では、CPU53gは、(j)番目のWB設定値をWB(j)に設定し、K=0とする。   Next, in step S190, the CPU 53g sets J = 1 and S = 0. Next, in step S195, the CPU 53g sets the (j) th WB setting value to WB (j), and sets K = 0.

次いで、ステップS200では、CPU53gは、設定露出補正条件、並びにWB設定条件にて、コントローラ75aが撮像素子73を制御して露出及び撮影処理を行い、バッファメモリ(A)75cに撮影画像を一時記憶する。次いで、ステップS205では、CPU53gは、K=K+1、S=S+1、SS=SS+1にする。   Next, in step S200, the CPU 53g performs exposure and shooting processing by the controller 75a controlling the image sensor 73 under the set exposure correction condition and the WB setting condition, and temporarily stores the shot image in the buffer memory (A) 75c. To do. Next, in step S205, the CPU 53g sets K = K + 1, S = S + 1, and SS = SS + 1.

次いで、ステップS210では、CPU53gは、設定枚数m(i,j)だけ撮影したか否か、即ちK≧m(i,j)か否かを判断する。ここで、K≧m(i,j)でない場合には、ステップS200に戻り、CPU53gは、上述した処理を繰り返す。K≧m(i,j)である場合には、ステップS215に進み、CPU53gは、J=J+1にする。   Next, in step S210, the CPU 53g determines whether or not the set number m (i, j) has been shot, that is, whether K ≧ m (i, j). If K ≧ m (i, j) is not satisfied, the process returns to step S200, and the CPU 53g repeats the above-described processing. If K ≧ m (i, j), the process proceeds to step S215, and the CPU 53g sets J = J + 1.

次いで、ステップS220では、CPU53gは、最後のWB条件での撮影を終了するか否か、即ちJ≧Jmax又はS≧n(i)か否かを判断する。ここで、J≧Jmax又はS≧n(i)でない場合には、ステップS195に戻り、CPU53gは、上述した処理を繰り返す。   Next, in step S220, the CPU 53g determines whether or not to finish photographing under the last WB condition, that is, whether J ≧ Jmax or S ≧ n (i). If J ≧ Jmax or S ≧ n (i) is not satisfied, the process returns to step S195, and the CPU 53g repeats the above-described processing.

J≧Jmax又はS≧n(i)である場合には、ステップS225に進み、CPU53gは、I=I+1にする。   When J ≧ Jmax or S ≧ n (i), the process proceeds to step S225, and the CPU 53g sets I = I + 1.

次いで、ステップS230では、CPU53gは、最後の露出補正条件での撮影を終了するか否か、即ちI≧Imax又はSS≧Nか否かを判断する。ここで、I≧Imax又はSS≧Nでない場合には、ステップS185に戻り、CPU53gは、上述した処理を繰り返す。I≧Imax又はSS≧Nである場合には、ステップS235に進み、CPU53gは、バッファメモリ(A)75cに記憶した撮影画像を画像CODEC79に出力して符号化処理を行い、画像メモリ媒体71へのメモリ記録処理を行い、CPU53gは、復帰する。   Next, in step S230, the CPU 53g determines whether or not to finish photographing under the final exposure correction condition, that is, whether I ≧ Imax or SS ≧ N. Here, when I ≧ Imax or SS ≧ N is not satisfied, the process returns to step S185, and the CPU 53g repeats the above-described processing. If I ≧ Imax or SS ≧ N, the process proceeds to step S235, and the CPU 53g outputs the captured image stored in the buffer memory (A) 75c to the image CODEC 79 to perform an encoding process, and outputs it to the image memory medium 71. The CPU 53g returns to the memory recording process.

[第1実施例の効果] (1)複数の撮影条件を組み合わせて撮影するので、シーン選択をしないでも、所望の画像が得られる確率が高くなる。シーン選択すると、選択されたシーンに応じて、複数の撮影条件を組合せて連写撮影するので、さらに、写りの良い所望の画像が撮影できる。この結果、連続撮影時でも無駄な多数の撮影を行わずに、所望の条件に近い画像を効率良く撮影することにある。   [Effects of First Embodiment] (1) Since shooting is performed by combining a plurality of shooting conditions, the probability of obtaining a desired image is increased without selecting a scene. When a scene is selected, continuous shooting is performed by combining a plurality of shooting conditions in accordance with the selected scene, so that a desired image with good reflection can be shot. As a result, an image close to a desired condition can be efficiently shot without performing many unnecessary shots even during continuous shooting.

(2)従来のブラケティング撮影と違って、超高速連写なので、撮影タイミングが殆ど変わらず、ほぼ同一シーンの画像で撮影条件や撮影条件の組合せを少しずつ変えた複数枚の画像が撮影でき、一度のレリーズ操作による撮影だけで、所望の写りの良い画像が得られる。   (2) Unlike conventional bracketing shooting, it is super high-speed continuous shooting, so the shooting timing is almost unchanged, and you can shoot multiple images with slightly different shooting conditions and combinations of shooting conditions in the same scene image. Thus, a desired image with good image quality can be obtained only by shooting with a single release operation.

(3)また、単なる複数の撮影条件の組合せによるブラケテイング撮影と違って、選択シーンや輝度値などの計測値、あるいは、撮影頻度データなどに基づいて、選択シーンに適した撮影条件、計測値に該当する撮影条件、撮影頻度の多い撮影条件を中心に、撮影条件の組合せ毎に設定された配分割合や枚数で連写撮影するので、無駄に多数の撮影を行わず、所望の条件に近い画像が撮影される確率を高め、効率の良い撮影ができる。   (3) Also, unlike bracketing shooting by simply combining a plurality of shooting conditions, the shooting conditions and measurement values suitable for the selected scene are determined based on measurement values such as the selected scene and luminance values, or shooting frequency data. Since continuous shooting is performed with the distribution ratio and number of shots set for each combination of shooting conditions, focusing on the shooting conditions of interest and shooting conditions with a high frequency of shooting, images that are close to the desired conditions are not used unnecessarily. Increases the probability of shooting, and enables efficient shooting.

(4)一度の撮影だけで、膨大な数の連写を行っても、所望の画像や写りの良い画像だけカメラが自動的に選択された画像、または、ユーザが選択した画像のみ記録できるので、多数枚高速連写しても、失敗画像や不要な画像などを多量に記録してしまうことが無いので、メモリがすぐに一杯になってしまうこともない。また、選択されなかった画像は保存記録されないので、不要な画像を逐一削除する面倒も無い。   (4) Even if an enormous number of continuous shots are made with only one shooting, only images desired by the camera or images selected by the user or images selected by the user can be recorded. Even if a large number of high-speed continuous shots are taken, a large number of failed images and unnecessary images are not recorded, so that the memory does not become full immediately. In addition, since the unselected images are not stored and recorded, there is no trouble of deleting unnecessary images one by one.

[第2実施例](計測データに基づいて、条件毎の撮影枚数を設定する) 図12A、図12Bに、第2実施例として、被写体の平均輝度と画面内での輝度差など、検出されたセンサ計測情報から、背景の露出条件と日中シンクロストロボ(ディライトストロボ)の発光強度条件などを、条件を少しずつ分散させて組合せ、複数の条件で複数枚連写する例を示す。   [Second Embodiment] (The number of shots for each condition is set based on measurement data) In FIGS. 12A and 12B, as a second embodiment, a difference between the average luminance of a subject and a luminance difference in a screen is detected. In addition, an example in which a background exposure condition and a light intensity condition of a daytime thin cross strobe (delight strobe) are combined by gradually separating the conditions from the sensor measurement information, and a plurality of images are continuously shot under a plurality of conditions.

例えば、日中の撮影でも、明るい一部の被写体を含んだ画面ではそれに引っ張られて、他の被写体が暗く写ってしまうことがある。また、太陽を背にした逆光の人物なども暗く写されてしまう。このような場合、日中でもストロボを少し発光照射して(日中シンクロストロボ、ディライト・ストロボなどと呼ばれる)、主要被写体が適当な明るさで撮影されるようにするのが望ましいが、発光強度が強すぎると主要被写体が白飛びして写ってしまう。   For example, even during daytime shooting, a screen that includes a part of a bright subject may be pulled and the other subject may appear dark. In addition, a backlit person with the sun on his back is also captured darkly. In such a case, it is desirable to illuminate the strobe slightly even during the day (called a daylight synchro strobe, delight strobe, etc.) so that the main subject is shot at an appropriate brightness. If it is too strong, the main subject will appear out of focus.

このような状況を平均輝度と輝度差とから判別して、背景の露出条件を適切に設定し、かつ、日中シンクロストロボの発光強度を調整して撮影するが、状況は千差万別なので、本例では、その組合せを適当に分散し、条件をばらつかせて複数枚連写する。   This situation is discriminated from the average brightness and the brightness difference, the background exposure conditions are set appropriately, and the light intensity of the daytime cross-stroboscope is adjusted to shoot, but the situation is quite different. In this example, the combinations are appropriately distributed, and a plurality of continuous shots are taken with varying conditions.

本実施例では、図12A(a)のように、被写体の平均輝度と輝度差との計測値の組合せに応じて、日中シンクロストロボ発光の強度をどの程度まで抑えて発光するかを決定する設定データを予めデータ・メモリ70に記憶しておく。図は省略したが、同様に、平均輝度と輝度差との計測値の組合せに応じて、背景の露出制御条件や測光方式も、平均測光によるAEか、高輝度重視測光、低輝度重視測光、中央重点測光によるAEか、などの条件を設定しておく。   In the present embodiment, as shown in FIG. 12A (a), it is determined how much the intensity of the daytime cross-stroboscopic light emission is suppressed according to the combination of the measurement values of the average luminance and the luminance difference of the subject. Setting data is stored in the data memory 70 in advance. Although the figure is omitted, similarly, depending on the combination of the measurement values of the average luminance and the luminance difference, the background exposure control conditions and the photometry method are AE by average photometry, high-luminance emphasis metering, low-luminance emphasis metering, Conditions such as AE by center-weighted metering are set in advance.

操作入力部51からレリーズの半押し操作やAEロック操作がされ、平均輝度と輝度差とが計測されたら、その計測値の組合せに従い、測光方式などを選択し背景の露出条件が設定され、また、平均輝度が所定値以下の場合には、高感度モードまたは所定の加算数の画素加算読出しモードに設定される。   When the release button is pressed halfway or the AE lock operation is performed from the operation input unit 51 and the average luminance and the luminance difference are measured, the photometric method is selected according to the combination of the measured values, and the background exposure condition is set. When the average luminance is less than or equal to a predetermined value, the high sensitivity mode or the pixel addition readout mode with a predetermined addition number is set.

また、ストロボ発光強度については、図12A(b)に示すように、例えば、平均輝度=2.5と輝度差=3.5の場合、合計連写枚数Nに応じて、枚数Nが20枚と少ない場合には、分散度を減数して小さくし、平均輝度:2.5±0.5、輝度差:3.5±0.5の範囲で、また、枚数Nが100枚と多い場合には、分散度を増数して大きくし、平均輝度:2.5±1.5、輝度差:3.5±1.5と分散を広くした範囲で、それぞれ計測値の組合せに対応するストロボ発光強度条件をストロボ駆動回路60に設定する。   As for the strobe emission intensity, as shown in FIG. 12A (b), for example, when average luminance = 2.5 and luminance difference = 3.5, the number N is 20 in accordance with the total number N of continuous shots. When the number is small, the degree of dispersion is reduced to reduce the average brightness: 2.5 ± 0.5, brightness difference: 3.5 ± 0.5, and the number N is as large as 100 In order to increase the variance, the average brightness: 2.5 ± 1.5 and the brightness difference: 3.5 ± 1.5, each corresponding to a combination of measured values within a wide dispersion range The strobe light emission intensity condition is set in the strobe driving circuit 60.

その結果、図12Bに示すように、連写枚数に応じて、各条件での撮影枚数がそれぞれコントローラ75aに配分設定され、レリーズボタンが全押しされたら、設定された条件に順次撮影条件を変えながら複数枚の連続撮影が行われる。   As a result, as shown in FIG. 12B, according to the number of continuous shots, the number of shots under each condition is set to be distributed to the controller 75a, and when the release button is fully pressed, the shooting conditions are sequentially changed to the set conditions. However, multiple continuous shooting is performed.

図13A、図13Bは、本発明の第2実施例のカメラの撮影制御に関するフローチャートである。   13A and 13B are flowcharts relating to the shooting control of the camera of the second embodiment of the present invention.

まず、ステップS310では、CPU53gは、操作入力部51での設定が撮影モードか否かを判断する。ここで、撮影モードにない場合には、ステップS315に進み、CPU53gは、その他のモード処理へと進む。撮影モードにある場合、ステップS320に進み、CPU53gは、操作入力部51の設定に応じて、撮影シーン、撮影条件などをコントローラ75aに設定する。   First, in step S310, the CPU 53g determines whether or not the setting in the operation input unit 51 is the shooting mode. If the shooting mode is not set, the process advances to step S315, and the CPU 53g advances to other mode processing. If it is in the shooting mode, the process proceeds to step S320, and the CPU 53g sets the shooting scene, shooting conditions, and the like in the controller 75a according to the setting of the operation input unit 51.

次いで、ステップS330では、CPU53gは、操作入力部51からレリーズボタン半押し又はAEロック操作か否かを判断する。ここで、操作入力部51からレリーズボタン半押し又はAEロック操作にない場合には、ステップS335に進み、CPU53gは、その他のキー処理へと進む。   Next, in step S330, the CPU 53g determines whether the release button is half-pressed or the AE lock operation is performed from the operation input unit 51. Here, if the release button is not half-pressed or the AE lock operation is not performed from the operation input unit 51, the process proceeds to step S335, and the CPU 53g proceeds to other key processes.

操作入力部51からレリーズボタン半押し又はAEロック操作にある場合、ステップS340に進み、CPU53gは、マルチ条件による連写撮影モードか否かを判断する。ここで、マルチ条件による連写撮影モードにない場合には、ステップS345に進み、CPU53gは、その他の撮影処理へと進む。   If the release button is half pressed or the AE lock operation is performed from the operation input unit 51, the process proceeds to step S340, and the CPU 53g determines whether or not the continuous shooting mode based on the multi-condition. If the continuous shooting mode is not in the multi-condition, the process proceeds to step S345, and the CPU 53g proceeds to other shooting processes.

マルチ条件による連写撮影モードにある場合、ステップS350に進み、CPU53gは、操作入力部51から入力された操作情報に基づいて、連写時の撮影条件、撮影枚数をコントローラ75aに設定する。次いで、ステップS360では、CPU53gは、分割測光(マルチパターン測光)処理を行う。次いで、ステップS365では、CPU53gは、検出回路63からの測光データに基づいて平均輝度値と輝度差を算出する。   When the continuous shooting mode is based on the multi-condition, the process proceeds to step S350, and the CPU 53g sets the shooting conditions and the number of shots during continuous shooting in the controller 75a based on the operation information input from the operation input unit 51. Next, in step S360, the CPU 53g performs split photometry (multi-pattern photometry) processing. Next, in step S365, the CPU 53g calculates an average luminance value and a luminance difference based on the photometric data from the detection circuit 63.

次いで、ステップS370では、CPU53gは、この平均輝度値と輝度差に基づいて、被写体又は背景の露出条件(測光方式)をコントローラ75aに設定する。次いで、ステップS375では、CPU53gは、平均輝度<所定値か否かを判断する。ここで、平均輝度<所定値でない場合には、ステップS387に進み、CPU53gは、加算なしの通常読み出しモードにコントローラ75aに設定する。平均輝度<所定値である場合には、ステップS380に進み、CPU53gは、平均輝度に応じて、高感度モード、又は(m×n)画素の加算読出しモードに設定する。   Next, in step S370, the CPU 53g sets the subject or background exposure condition (photometric method) in the controller 75a based on the average luminance value and the luminance difference. Next, in step S375, the CPU 53g determines whether or not average luminance <predetermined value. Here, if the average luminance is not smaller than the predetermined value, the process proceeds to step S387, and the CPU 53g sets the controller 75a to the normal reading mode without addition. If the average luminance is smaller than the predetermined value, the process proceeds to step S380, and the CPU 53g sets the high sensitivity mode or the (m × n) pixel addition reading mode according to the average luminance.

次いで、ステップS385では、CPU53gは、連写枚数に応じて、撮影条件の分散度をコントローラ75aに設定する。次いで、ステップS390では、CPU53gは、平均輝度値と輝度差に応じて、ストロボの発行の基本条件をストロボ駆動回路60に設定する。   Next, in step S385, the CPU 53g sets the degree of dispersion of the shooting conditions in the controller 75a according to the number of continuous shots. Next, in step S390, the CPU 53g sets strobe issuance basic conditions in the strobe driving circuit 60 in accordance with the average luminance value and the luminance difference.

次いで、ステップS400では、CPU53gは、連写枚数、分散度、及び被写体の平均輝度値と輝度差に応じて、ストロボ発光条件を基本設定から複数の発行条件に分散配分し、各発行条件での撮影枚数をコントローラ75aに設定する。   Next, in step S400, the CPU 53g distributes and distributes the strobe lighting condition from the basic setting to a plurality of issuing conditions according to the number of continuous shots, the degree of dispersion, the average luminance value of the subject, and the luminance difference. The number of shots is set in the controller 75a.

次いで、ステップS410では、CPU53gは、操作入力部51での設定がレリーズ全押し又は撮影操作があるか否かを判断する。ここで、操作入力部51での設定がレリーズ全押し又は撮影操作がない場合には、ステップS410に戻り、CPU53gは、上述した処理を繰り返す。   Next, in step S410, the CPU 53g determines whether or not the setting in the operation input unit 51 is a release full press or a photographing operation. Here, when the setting in the operation input unit 51 is not fully pressed or no photographing operation is performed, the process returns to step S410, and the CPU 53g repeats the above-described processing.

操作入力部51での設定がレリーズボタン全押し又は撮影操作がある場合には、ステップS415に進み、CPU53gは、第1のストロボ発光条件と撮影枚数とをコントローラ75aに設定する。次いで、ステップS420では、CPU53gは、設定ストロボ発光条件にてストロボ駆動回路60によりストロボ発光し、設定露出条件と設定読出しモードにて露出及び撮影処理を行う。   If the setting of the operation input unit 51 is full release button or shooting operation, the process proceeds to step S415, and the CPU 53g sets the first flash emission condition and the number of shots in the controller 75a. Next, in step S420, the CPU 53g performs strobe light emission with the strobe driving circuit 60 under the set strobe light emission conditions, and performs exposure and photographing processing under the set exposure conditions and the setting readout mode.

次いで、ステップS425では、CPU53gは、設定枚数だけ撮影したか否かを判断する。ここで、設定枚数だけ撮影していない場合、ステップS420に戻り、CPU53gは、上述した処理を繰り返す。   Next, in step S425, the CPU 53g determines whether or not a set number of images have been shot. If the set number of images has not been shot, the process returns to step S420, and the CPU 53g repeats the above-described processing.

設定枚数だけ撮影した場合、ステップS430に進み、CPU53gは、最後の条件での撮影を終了するか否か判断する。ここで、最後の条件での撮影を終了しない場合、ステップS435に進み、CPU53gは、次のストロボ発光条件と撮影枚数とをコントローラ75aに設定する。その後、ステップS420に進み、CPU53gは、上述した処理を繰り返す。   When the set number of images has been shot, the process proceeds to step S430, and the CPU 53g determines whether or not to end shooting under the last condition. If the shooting under the last condition is not completed, the process proceeds to step S435, and the CPU 53g sets the next strobe lighting condition and the number of shots in the controller 75a. Thereafter, the process proceeds to step S420, and the CPU 53g repeats the above-described processing.

最後の条件での撮影を終了する場合、ステップS440に進み、CPU53gは、撮影画像データの符号化処理、メモリ記録処理を行い、CPU53gは、復帰する。   When the photographing under the last condition is to be ended, the process proceeds to step S440, where the CPU 53g performs the photographing image data encoding process and the memory recording process, and the CPU 53g returns.

[第1、第2実施例の効果] (1)複数の撮影条件を組み合わせて撮影するので、シーン選択をしないでも、所望の画像が得られる確率が高くなる。シーン選択すると、選択されたシーンに応じて、複数の撮影条件を組合せて連写撮影するので、さらに、写りの良い所望の画像が撮影できる。この結果、連続撮影時でも無駄な多数の撮影を行わずに、所望の条件に近い画像を効率良く撮影することにある。   [Effects of the First and Second Embodiments] (1) Since shooting is performed by combining a plurality of shooting conditions, the probability of obtaining a desired image is increased without selecting a scene. When a scene is selected, continuous shooting is performed by combining a plurality of shooting conditions in accordance with the selected scene, so that a desired image with good reflection can be shot. As a result, an image close to a desired condition can be efficiently shot without performing many unnecessary shots even during continuous shooting.

(2)従来のブラケティング撮影と違って、超高速連写なので、撮影タイミングが殆ど変わらず、ほぼ同一シーンの画像で撮影条件や撮影条件の組合せを少しずつ変えた複数枚の画像が撮影でき、一度のレリーズ操作による撮影だけで、所望の写りの良い画像が得られる。   (2) Unlike conventional bracketing shooting, it is super high-speed continuous shooting, so the shooting timing is almost unchanged, and you can shoot multiple images with slightly different shooting conditions and combinations of shooting conditions in the same scene image. Thus, a desired image with good image quality can be obtained only by shooting with a single release operation.

(3)また、単なる複数の撮影条件の組合せによるブラケテイング撮影と違って、選択シーンや輝度値などの計測値、あるいは、撮影頻度データなどに基づいて、選択シーンに適した撮影条件、計測値に該当する撮影条件、撮影頻度の多い撮影条件を中心に、撮影条件の組合せ毎に設定された配分割合や枚数で連写撮影するので、無駄に多数の撮影を行わず、所望の条件に近い画像が撮影される確率を高め、効率の良い撮影ができる。   (3) Also, unlike bracketing shooting by simply combining a plurality of shooting conditions, the shooting conditions and measurement values suitable for the selected scene are determined based on measurement values such as the selected scene and luminance values, or shooting frequency data. Since continuous shooting is performed with the distribution ratio and number of shots set for each combination of shooting conditions, focusing on the shooting conditions of interest and shooting conditions with a high frequency of shooting, images that are close to the desired conditions are not used unnecessarily. Increases the probability of shooting, and enables efficient shooting.

(4)一度の撮影だけで、膨大な数の連写を行っても、所望の画像や写りの良い画像だけカメラが自動的に選択された画像、または、ユーザが選択した画像のみ記録できるので、多数枚高速連写しても、失敗画像や不要な画像などを多量に記録してしまうことが無いので、メモリがすぐに一杯になってしまうこともない。また、選択されなかった画像は保存記録されないので、不要な画像を逐一削除する面倒も無い。   (4) Even if an enormous number of continuous shots are made with only one shooting, only images desired by the camera or images selected by the user or images selected by the user can be recorded. Even if a large number of high-speed continuous shots are taken, a large number of failed images and unnecessary images are not recorded, so that the memory does not become full immediately. In addition, since the unselected images are not stored and recorded, there is no trouble of deleting unnecessary images one by one.

[第3実施例](撮影頻度データに基づいて、撮影条件毎の撮影枚数を設定) 図14A、図14Bに、第3実施例として、撮影頻度データに基づいて、撮影条件毎の撮影枚数を設定してマルチ条件の連写を行う例を示す。   [Third Embodiment] (Set the number of shots for each shooting condition based on shooting frequency data) In FIGS. 14A and 14B, as the third embodiment, the number of shots for each shooting condition is set based on shooting frequency data. An example of setting and performing multi-condition continuous shooting is shown.

本実施例では、図14(a)に示すように、各焦点距離などにおける撮影頻度データなどの撮影統計データを予めデータ・メモリ70に記憶設定しておき、この撮影頻度データに基づいて、図14B(a)、(b)に示すように、撮影時のレンズの焦点距離と検出された被写体輝度とから、当該撮影において頻度が多いと推定される複数の被写体距離条件を推定して、当該被写体距離に応じて、複数の各AE(自動露出)条件、AF(自動合焦)条件、被写界深度条件等の組合せを分散配分してコントローラ75aに設定し、条件の組合せ毎の連写枚数を切り替えて、連写撮影を行うように制御する。   In the present embodiment, as shown in FIG. 14A, shooting statistical data such as shooting frequency data at each focal length is stored in advance in the data memory 70, and based on this shooting frequency data, As shown in 14B (a) and (b), from the focal length of the lens at the time of shooting and the detected subject brightness, a plurality of subject distance conditions estimated to be frequently used in the shooting are estimated, Depending on the subject distance, combinations of a plurality of AE (automatic exposure) conditions, AF (autofocus) conditions, depth of field conditions, etc. are distributed and distributed to the controller 75a, and continuous shooting is performed for each combination of conditions. Control to perform continuous shooting by switching the number of sheets.

図15A、図15Bは、本発明の第3実施例のカメラの撮影制御に関するフローチャートである。   FIGS. 15A and 15B are flowcharts relating to the shooting control of the camera of the third embodiment of the present invention.

まず、ステップS510では、CPU53gは、操作入力部51での設定が撮影モードか否かを判断する。ここで、撮影モードにない場合には、ステップS515に進み、CPU53gは、その他のモード処理へと進む。撮影モードにある場合、ステップS520に進み、CPU53gは、操作入力部51での設定に応じて、撮影シーン、撮影条件をコントローラ75aに設定する。   First, in step S510, the CPU 53g determines whether or not the setting in the operation input unit 51 is the shooting mode. If the shooting mode is not set, the process advances to step S515, and the CPU 53g advances to other mode processing. If it is in the shooting mode, the process proceeds to step S520, and the CPU 53g sets the shooting scene and shooting conditions in the controller 75a according to the setting in the operation input unit 51.

次いで、ステップS525では、CPU53gは、ズームレンズ駆動部57からズーム処理情報を、焦点レンズ駆動部58からレンズ焦点距離情報を取得する。次いで、ステップS530では、CPU53gは、操作入力部51からレリーズ半押し又はAEロック操作があるか否かを判断する。ここで、操作入力部51からレリーズ半押し又はAEロック操作がない場合には、ステップS535に進み、CPU53gは、その他のキー処理へと進む。   Next, in step S525, the CPU 53g acquires zoom processing information from the zoom lens driving unit 57 and lens focal length information from the focal lens driving unit 58. Next, in step S530, the CPU 53g determines whether there is a release half-press or AE lock operation from the operation input unit 51. If there is no release half-press or AE lock operation from the operation input unit 51, the process proceeds to step S535, and the CPU 53g proceeds to other key processes.

操作入力部51からレリーズボタン半押し又はAEロック操作がある場合、ステップS540に進み、CPU53gは、マルチ条件による連写撮影か否かを判断する。ここで、マルチ条件による連写撮影でない場合には、ステップS545に進み、CPU53gは、その他の撮影処理へと進む。   If there is a release button half-press or AE lock operation from the operation input unit 51, the process proceeds to step S540, and the CPU 53g determines whether or not continuous shooting is performed under multi-conditions. If the continuous shooting is not performed under the multi-condition, the process proceeds to step S545, and the CPU 53g proceeds to other shooting processes.

マルチ条件による連写撮影である場合、ステップS550に進み、CPU53gは、操作入力部51から入力された操作情報に基づいて、マルチ条件連写の撮影条件、撮影枚数をコントローラ75aに設定する。次いで、ステップS555では、CPU53gは、連写枚数に応じて、撮影条件の分散度をコントローラ75aに設定する。   In the case of continuous shooting under multi-conditions, the process proceeds to step S550, and the CPU 53g sets the shooting conditions and the number of shots for multi-condition continuous shooting in the controller 75a based on the operation information input from the operation input unit 51. Next, in step S555, the CPU 53g sets the degree of dispersion of the shooting conditions in the controller 75a according to the number of continuous shots.

次いで、ステップS560では、CPU53gは、測光処理を行う。次いで、ステップS565では、CPU53gは、検出回路63からの測光データに基づいて被写体の輝度(明るさ)を算出する。   Next, in step S560, the CPU 53g performs photometry processing. Next, in step S565, the CPU 53g calculates the luminance (brightness) of the subject based on the photometric data from the detection circuit 63.

次いで、ステップS570では、CPU53gは、分散度に応じて、算出被写体輝度を中心に被写体輝度条件を分散させる。すなわち、CPU53gは、設定された分散度に応じて、撮影条件の分散範囲を増減し、増減された分散範囲において、撮影条件の組合せを複数組設定するとともに、組合せ毎の撮影枚数を自動的に配分設定する。次いで、ステップS575では、CPU53gは、(当該焦点距離における)被写体輝度と被写体距離の頻度データに基づいて、分散させた被写体輝度毎に推定される複数の被写体距離条件と各撮影枚数の配分をコントローラ75aに設定する。   Next, in step S570, the CPU 53g disperses the subject brightness condition around the calculated subject brightness according to the degree of dispersion. That is, the CPU 53g increases or decreases the dispersion range of the shooting conditions according to the set dispersion degree, sets a plurality of combinations of shooting conditions in the increased or decreased dispersion range, and automatically sets the number of shots for each combination. Set distribution. Next, in step S575, the CPU 53g controls the distribution of the plurality of subject distance conditions and the number of shots to be estimated for each dispersed subject brightness based on the subject brightness and subject distance frequency data (at the focal length). Set to 75a.

次いで、ステップS585では、CPU53gは、操作入力部51からレリーズ全押し又は撮影操作があるか否か判断する。ここで、操作入力部51からレリーズ全押し又は撮影操作がない場合には、ステップS585に戻り、CPU53gは、上述した処理を繰り返す。   Next, in step S585, the CPU 53g determines whether there is a release full press or a photographing operation from the operation input unit 51. If there is no release full press or photographing operation from the operation input unit 51, the process returns to step S585, and the CPU 53g repeats the above-described processing.

操作入力部51からレリーズボタン全押し又は撮影操作がある場合、ステップS590に進み、CPU53gは、第1の被写体輝度及び推定される被写体距離と撮影枚数とをコントローラ75aに設定する。   If there is a release button full press or shooting operation from the operation input unit 51, the process proceeds to step S590, and the CPU 53g sets the first subject brightness, the estimated subject distance, and the number of shots to the controller 75a.

次いで、ステップS595では、CPU53gは、設定された被写体輝度及び推測される被写体距離に応じて、AE(露出)条件、WB条件をコントローラ75aに設定する。次いで、ステップS600では、CPU53gは、推測被写体距離に応じて、焦点レンズ駆動部58でAF(自動合焦)処理を行う。次いで、ステップS605では、CPU53gは、設定露出条件にて、コントローラ75aが撮像素子73を制御して露出及び撮影処理を行い、バッファメモリ(A)75cに撮影画像を一時記憶する。   Next, in step S595, the CPU 53g sets an AE (exposure) condition and a WB condition in the controller 75a according to the set subject brightness and the estimated subject distance. Next, in step S600, the CPU 53g performs AF (automatic focusing) processing by the focus lens driving unit 58 according to the estimated subject distance. Next, in step S605, the CPU 53g performs exposure and photographing processing by the controller 75a controlling the image sensor 73 under the set exposure condition, and temporarily stores the photographed image in the buffer memory (A) 75c.

次いで、ステップS610では、CPU53gは、設定枚数だけ撮影したか否かを判断する。ここで、設定枚数だけ撮影していない場合、ステップS595に戻り、CPU53gは、上述した処理を繰り返す。設定枚数だけ撮影した場合、ステップS615に進み、CPU53gは、最後の条件での撮影を終了するか否か判断する。ここで、最後の条件での撮影を終了しない場合、ステップS620に進み、CPU53gは、被写体輝度及び推測被写体距離と撮影枚数とをコントローラ75aに設定する。その後、ステップS595に進み、上述した処理を繰り返す。   Next, in step S610, the CPU 53g determines whether or not a set number of images have been shot. If the set number of images has not been shot, the process returns to step S595, and the CPU 53g repeats the above-described processing. When the set number of images has been shot, the process proceeds to step S615, and the CPU 53g determines whether or not to end shooting under the last condition. If the shooting under the last condition is not completed, the process proceeds to step S620, and the CPU 53g sets the subject brightness, the estimated subject distance, and the number of shots in the controller 75a. Then, it progresses to step S595 and repeats the process mentioned above.

最後の条件での撮影を終了する場合、ステップS625に進み、CPU53gは、撮影画像データの符号化処理、メモリ記録処理を行い、CPU53gは、復帰する。   When the photographing under the last condition is finished, the process proceeds to step S625, where the CPU 53g performs the photographing image data encoding process and the memory recording process, and the CPU 53g returns.

この場合も、分散された撮影条件毎の配分割合に従って、撮影条件の組合せ毎の撮影枚数を自動的に配分設定する。また、マルチ条件連写の撮影枚数に応じて、撮影条件の分散度などを自動的にコントローラ75aに設定して、枚数が多い場合には、より広がって分散された撮影条件の組合せになるよう設定されるのが望ましい。   Also in this case, the number of shots for each combination of shooting conditions is automatically distributed and set according to the distributed distribution ratio for each shooting condition. Also, according to the number of shots in multi-condition continuous shooting, the degree of dispersion of the shooting conditions is automatically set in the controller 75a, and when the number of shots is large, the combination of shooting conditions spread more widely. It is desirable to set.

[第3実施例の効果]頻度データとして、実際の撮影例や画像データベースにおける各撮影条件の頻度データなどを集計して、予め撮影頻度データメモリに記憶しておくことで、実際の撮影における頻度や確率の高い被写体の状況や撮影シーンに適切な撮影条件を含む組合せ条件にて多くの枚数を撮影するので、画質や写りの良い所望の画像が得られる確率をより高めることができる。この結果、連続撮影時でも無駄な多数の撮影を行わずに、所望の条件に近い画像を効率良く撮影することにある。   [Effect of the third embodiment] As frequency data, the frequency of actual shooting is obtained by counting the actual shooting examples and frequency data of each shooting condition in the image database and storing them in the shooting frequency data memory in advance. In addition, since a large number of images are shot under combination conditions including shooting conditions appropriate to the situation of the subject or shooting scene with a high probability, the probability of obtaining a desired image with good image quality and good reflection can be further increased. As a result, an image close to a desired condition can be efficiently shot without performing many unnecessary shots even during continuous shooting.

[第4実施例](連写された画像を画質評価して、評価値の高い画像を優先して記録)本実施例では、撮影条件の組合せ毎に設定された枚数の撮影を行った後、各画像の画質を評価し、評価値に応じて画像を一覧表示したり、評価値の高い画像やユーザに選択された画像を優先して保存記録したり、評価値の低い画像を保存記録しないように制御する。   [Fourth embodiment] (Evaluation of image quality of continuously shot images and recording with priority given to images with high evaluation values) In this embodiment, after the number of images set for each combination of shooting conditions is taken, Evaluate the image quality of each image, display a list of images according to the evaluation value, preferentially save and record images with high evaluation values and images selected by the user, and save and record images with low evaluation values Control not to.

図16A、図16Bは、本発明の第4実施例のカメラの撮影制御に関するフローチャートである。まず、ステップS710では、CPU53gは、撮影モードか否かを判断する。ここで、撮影モードにない場合には、ステップS715に進み、CPU53gは、その他のモード処理へと進む。撮影モードにある場合、ステップS720に進み、CPU53gは、操作入力に応じて、撮影シーン、撮影条件を設定する。   FIG. 16A and FIG. 16B are flowcharts relating to the shooting control of the camera of the fourth embodiment of the present invention. First, in step S710, the CPU 53g determines whether the shooting mode is set. If the shooting mode is not set, the process advances to step S715, and the CPU 53g advances to other mode processing. If it is in the shooting mode, the process proceeds to step S720, and the CPU 53g sets a shooting scene and shooting conditions according to the operation input.

次いで、ステップS725では、CPU53gは、マルチ条件による連写撮影がONか否かを判断する。ここで、操作入力部51での設定がマルチ条件による連写撮影がONでない場合には、ステップS730に進み、CPU53gは、その他の撮影処理へと進む。   Next, in step S725, the CPU 53g determines whether continuous shooting under the multi-condition is ON. Here, when the setting in the operation input unit 51 is not ON for continuous shooting under the multi-condition, the process proceeds to step S730, and the CPU 53g proceeds to other shooting processes.

操作入力部51での設定がマルチ条件による連写撮影がONである場合、ステップS735に進み、CPU53gは、操作入力部51から入力された操作情報に基づいて、連写時の撮影条件、撮影枚数をコントローラ75aに設定する。次いで、ステップS740では、検出回路63からの検出信号に基づいてCPU53gは、測光処理を行い、被写体光又は被写体特徴、被写体状況の計測を行う。   When the continuous shooting under the multi-condition is set to ON in the operation input unit 51, the process proceeds to step S735, and the CPU 53g, based on the operation information input from the operation input unit 51, the shooting conditions and the shooting during the continuous shooting. The number of sheets is set in the controller 75a. Next, in step S740, the CPU 53g performs photometric processing based on the detection signal from the detection circuit 63, and measures subject light, subject characteristics, and subject status.

次いで、ステップS745では、CPU53gは、選択シーン若しくは計測値と、各撮影条件の分布設定データに応じて、撮影条件のいずれかを複数条件に分散してコントローラ75aに設定する。次いで、ステップS760では、操作入力部51からCPU53gは、レリーズ又は撮影操作があるか否かを判断する。ここで、操作入力部51からレリーズ又は撮影操作がない場合には、CPU53gは、復帰する。   Next, in step S745, the CPU 53g distributes one of the shooting conditions to a plurality of conditions according to the selected scene or measurement value and the distribution setting data of each shooting condition, and sets it in the controller 75a. Next, in step S760, the CPU 53g from the operation input unit 51 determines whether there is a release or shooting operation. If there is no release or shooting operation from the operation input unit 51, the CPU 53g returns.

操作入力部51からレリーズボタン又は撮影操作がある場合、ステップS765に進み、CPU53gは、第1の撮影条件をその最初の設定値、またその撮影枚数(N11)をコントローラ75aに設定する。次いで、ステップS770では、CPU53gは、第2の撮影条件をその最初の設定値、またその撮影枚数(N21)をコントローラ75aに設定する。次いで、ステップS775では、CPU53gは、最後の撮影条件をその最初の設定値にし、またその撮影枚数(Nn1)をコントローラ75aに設定する。   If there is a release button or shooting operation from the operation input unit 51, the process proceeds to step S765, and the CPU 53g sets the first shooting condition as the initial set value and the number of shots (N11) in the controller 75a. Next, in step S770, the CPU 53g sets the second shooting condition to the initial set value and the number of shots (N21) to the controller 75a. In step S775, the CPU 53g sets the last shooting condition to the first set value and sets the number of shots (Nn1) in the controller 75a.

次いで、ステップS780では、CPU53gは、設定撮影条件にて、露出及び撮影処理を行う。次いで、ステップS790では、CPU53gは、設定枚数(Nnk)だけ撮影したか否かを判断する。ここで、設定枚数(Nnk)だけ撮影していない場合、ステップS780に戻り、CPU53gは、上述した処理を繰り返す。設定枚数(Nnk)だけ撮影した場合、ステップS790に進み、CPU53gは、設定枚数(NnN)だけ撮影したか否かを判断する。ここで、設定枚数(NnN)だけ撮影していない場合、ステップS795に進み、CPU53gは、最後の撮影条件を、次の設定値に、またその設定枚数(Nnk)をコントローラ75aに設定し、ステップS780に進み、CPU53gは、上述した処理を繰り返す。設定枚数(NnN)だけ撮影した場合、ステップS800に進み、CPU53gは、設定枚数(N2M)だけ撮影したか否かを判断する。   Next, in step S780, the CPU 53g performs exposure and shooting processing under the set shooting conditions. Next, in step S790, the CPU 53g determines whether or not the set number (Nnk) of images has been shot. If the set number (Nnk) has not been shot, the process returns to step S780, and the CPU 53g repeats the above-described processing. When the set number of images (Nnk) has been shot, the process proceeds to step S790, and the CPU 53g determines whether or not the set number of shots (NnN) has been shot. If the set number (NnN) has not been shot, the process proceeds to step S795, and the CPU 53g sets the last shooting condition to the next set value and the set number (Nnk) to the controller 75a. In step S780, the CPU 53g repeats the above-described processing. If the set number (NnN) has been shot, the process proceeds to step S800, and the CPU 53g determines whether or not the set number (N2M) has been shot.

ここで、設定枚数(N2M)だけ撮影していない場合、ステップS805に進み、CPU53gは、第2の撮影条件を、次の設定値に、またその設定枚数(N2j)をコントローラ75aに設定し、ステップS775に進み、上述した処理を繰り返す。設定枚数(N2M)だけ撮影した場合、ステップS810に進み、CPU53gは、設定枚数(N1L)だけ撮影したか否かを判断する。ここで、設定枚数(N1L)だけ撮影していない場合、ステップS815に進み、CPU53gは、第1の撮影条件を、次の設定値に、またその設定枚数(N1i)をコントローラ75aに設定し、ステップS770に進み、上述した処理を繰り返す。   If the set number (N2M) has not been shot, the process proceeds to step S805, where the CPU 53g sets the second shooting condition to the next set value and the set number (N2j) to the controller 75a. Proceeding to step S775, the above-described processing is repeated. If only the set number (N2M) has been shot, the process proceeds to step S810, and the CPU 53g determines whether or not the set number (N1L) has been shot. If the set number (N1L) has not been shot, the process proceeds to step S815, and the CPU 53g sets the first shooting condition to the next set value and the set number (N1i) to the controller 75a. Proceeding to step S770, the above-described processing is repeated.

設定枚数(N1L)だけ撮影した場合、ステップS820に進み、CPU53gは、撮影された連写画像の画質評価処理を画像評価処理部75m行わせる。なお、画像評価処理部75mでの画質評価処理としては後述する画質評価方法1から4を採用することとする。   If only the set number (N1L) has been shot, the process proceeds to step S820, and the CPU 53g causes the image evaluation processing unit 75m to perform image quality evaluation processing of the shot continuous shot images. Note that image quality evaluation methods 1 to 4 described later are employed as the image quality evaluation processing in the image evaluation processing unit 75m.

次いで、ステップS830では、CPU53gは、画像評価処理部75mでの評価結果に応じて、評価の高い画像、又は項目別の評価ベスト画像をバッファメモリ(A)75cから読み出し記録候補画像として画像表示部85に表示する。   Next, in step S830, the CPU 53g reads an image with a high evaluation or an item-specific evaluation best image from the buffer memory (A) 75c in accordance with the evaluation result of the image evaluation processing unit 75m, and displays it as a recording candidate image. 85.

次いで、ステップS840では、CPU53gは、選択画像の記録が可能か否かを判断する。ここで、選択画像の記録が可能でない場合、ステップS845に進み、CPU53gは、操作入力部51の設定に応じて、記録する画像を選択し、ステップS850に進む。選択画像の記録が可能である場合、CPU53gは、選択された撮影画像の画像データの符号化処理、保存記録処理を行い、CPU53gは、復帰する。   In step S840, the CPU 53g determines whether the selected image can be recorded. If the selected image cannot be recorded, the process proceeds to step S845, and the CPU 53g selects an image to be recorded according to the setting of the operation input unit 51, and the process proceeds to step S850. If recording of the selected image is possible, the CPU 53g performs encoding processing and storage recording processing of the image data of the selected photographed image, and the CPU 53g returns.

[画質評価方法1] 図17は画像評価処理部75mでの画像評価方法(1)として、RGB各色の輝度ヒストグラム分布の統計量から画質評価することを示すフローチャートである。図17においては、画像の評価方法の例(1)を示すとして、画像評価処理部75mでは、各画像データの輝度値、または、RGB各色差成分の輝度値の分布ヒストグラム(頻度分布表、頻度分布図)を算出して、その輝度分布から画質を評価する。   [Image Quality Evaluation Method 1] FIG. 17 is a flowchart showing image quality evaluation from the statistics of luminance histogram distribution of each color of RGB as an image evaluation method (1) in the image evaluation processing unit 75m. In FIG. 17, an example (1) of an image evaluation method is shown. In the image evaluation processing unit 75m, a luminance histogram of each image data or a luminance histogram of each RGB color difference component (frequency distribution table, frequency Distribution map), and the image quality is evaluated from the luminance distribution.

例えば、輝度分布ヒストグラムが中央からはずれて高輝度側に偏ると、露出オーバー気味で、高輝度領域が飽和したり、いわゆる「白飛び」した画像になり、逆に、輝度分布が低輝度側に偏ると、露出アンダー気味で、低輝度領域が飽和したり、「黒つぶれ」した画像になる。また、輝度分布が中央でも、その分布幅が狭くて、一様に広く分布していない場合には、ダイナミック・レンジが狭くて、中間諧調やこまかな濃淡に欠けた画像となる。いずれも、露出条件や写りの良くない画像の典型である。   For example, if the luminance distribution histogram deviates from the center and is biased toward the high luminance side, the image is overexposed and the high luminance area is saturated or so-called “whiteout”, and conversely, the luminance distribution is on the low luminance side. If it is biased, the image becomes underexposed and the low luminance area is saturated or “blackout”. Also, even if the luminance distribution is in the center, if the distribution width is narrow and not uniformly distributed, the dynamic range is narrow, resulting in an image lacking intermediate gradation and fine gradation. Both are typical of images with poor exposure conditions and poor reflection.

この輝度分布特性の指標値や統計量から、露出条件の良し悪しを評価できる。最近のデジタルカメラの多くは、輝度値を集計演算して、輝度分布のヒストグラムをグラフ表示等できる機種が多いので、それを流用すれば、比較的容易に実装できる。   Whether the exposure condition is good or bad can be evaluated from the index value and statistics of the luminance distribution characteristic. Many of the recent digital cameras have a number of models that can calculate the luminance values and display the histogram of the luminance distribution as a graph.

まず、ステップS860では、CPU53gは、画像上の点(i,j)の輝度をf[i,j]と表す。次いで、ステップS862Rでは、CPU53gは、R画像の点(i,j)の輝度をR[i,j]と表す。次いで、ステップS864Rでは、CPU53gは、輝度分布図(ヒストグラム)P(X)を作成する。次いで、ステップS866Rでは、CPU53gは、R輝度のヒストグラム分布を表す。 First, in step S860, the CPU 53g represents the luminance of the point (i, j) on the image as f [i, j]. Next, in step S862R, the CPU 53g represents the luminance of the point (i, j) of the R image as R [i, j]. Then, in step S864R, CPU53g creates luminance distribution chart (the histogram) P R (X). Next, in step S866R, the CPU 53g represents a histogram distribution of R luminance.

次いで、ステップS862Gでは、CPU53gは、G画像の点(i,j)の輝度をG[i,j]と表す。次いで、ステップS864Gでは、CPU53gは、輝度分布図(ヒストグラム)P(X)を作成する。次いで、ステップS866Gでは、CPU53gは、G輝度のヒストグラム分布を表す。 Next, in step S862G, the CPU 53g represents the luminance of the point (i, j) of the G image as G [i, j]. Next, in step S864G, the CPU 53g creates a luminance distribution diagram (histogram) P G (X). Next, in step S866G, the CPU 53g represents a histogram distribution of G luminance.

次いで、ステップS862Bでは、CPU53gは、B画像の点(i,j)の輝度をB[i,j]と表す。次いで、ステップS864Bでは、CPU53gは、輝度分布図(ヒストグラム)P(X)を作成する。次いで、ステップS866Bでは、CPU53gは、B輝度のヒストグラム分布を表す。 Next, in step S862B, the CPU 53g represents the luminance of the point (i, j) of the B image as B [i, j]. Next, in step S864B, the CPU 53g creates a luminance distribution diagram (histogram) P B (X). Next, in step S866B, the CPU 53g represents a histogram distribution of B luminance.

次いで、ステップS868では、CPU53gは、輝度分布の統計量について、輝度分布の平均値(Mean)X=ΣiXi/N、中央値(Median)Xmedまたは最頻値(Mode)、輝度分布の分散(Variance)σ=Σ(x−x/(N−1)、輝度分布の標準偏差(SD)σ=√(σ)、変動係数CV=(標準偏差/平均)={σ/x}×100、輝度分布の歪み度SKは=Σ{(x−x)/σ}/N、輝度分布の尖り度K=Σ{(x−x)/σ}/N−3、とする。 Next, in step S868, the CPU 53g determines the average value of the luminance distribution (Mean) X M = Σ iXi / N, the median value ( Media ) X med or the mode value (Mode), and the luminance distribution statistic. Variance σ 2 = Σ i (x i −x M ) 2 / (N−1), standard deviation of luminance distribution (SD) σ = √ (σ 2 ), coefficient of variation CV = (standard deviation / average) = {σ / x M} × 100, skewness SK luminance distribution = Σ i {(x i -x M) / σ} 3 / N, the brightness distribution kurtosis K = Σ i {(x i -x M ) / σ} 4 / N-3.

例えば、輝度分布の平均値(Mean)X=ΣiXi/N(ただし、Xiは画素毎の輝度値)、(平均値は大きなはずれ値の影響を受け易いので、代表値としては中央値の方が有効である)、または、中央値(Median)Xmed:分布の頻度数の順位が中央にある輝度値、最頻値(Mode)Xmode(最も頻度数が多い輝度値)や、輝度の最大値Xminや最小値Xmax、輝度分布の分散(Variance)σは、
σ=Σ(x−x/(N−1) (6)
輝度分布の標準偏差(SD、Standard Deviation)σ=√(σ)(分散や標準偏差は、分布の広がりの程度を示す)などから、画質の評価値を算出することができる。
For example, the average value of the luminance distribution (Mean) X M = Σ iXi / N (where Xi is the luminance value for each pixel) (the average value is easily affected by a large outlier value, and therefore, the representative value is the median value. Or median value (Median) X med : luminance value with the ranking of frequency numbers in the distribution, mode (Mode) Xmode (luminance value with the most frequent frequency), luminance value The maximum value Xmin, the minimum value Xmax, and the variance (Variance) σ 2 of the luminance distribution are
σ 2 = Σ i (x i -x M ) 2 / (N−1) (6)
The evaluation value of the image quality can be calculated from the standard deviation (SD, Standard Deviation) σ = √ (σ 2 ) of the luminance distribution (dispersion and standard deviation indicate the extent of the distribution).

あるいは、RGB毎のバラツキを示す変動係数CVは、
CV=(標準偏差/平均)={σ/x}×100 (7)
となる。また、輝度分布の歪み度(ゆがみど、わいど、Skewness)SKは、
SK=Σ{(x−x)/σ}/N (8)
なお、歪み度は、分布が左右対称かどうかの非対称性を示す。左右対称なら0、右に大きな「はずれ値」があれば正の値に、左に大きな「はずれ値」があれば負の値となる。輝度分布の尖り度(とがり度、とつ度、Kurtosis)Kは、
K=Σ{(x−x)/σ}/N−3 (9)
Alternatively, the coefficient of variation CV indicating the variation for each RGB is
CV = (standard deviation / average) = {σ / x M } × 100 (7)
It becomes. In addition, the distortion degree of the luminance distribution (distortion, width, skewness) SK is:
SK = Σ i {(x i -x M ) / σ} 3 / N (8)
Note that the degree of distortion indicates the asymmetry of whether the distribution is symmetrical. If left-right symmetry is 0, the value is positive if there is a large “outlier” on the right, and negative if there is a large “outlier” on the left. The kurtosis (Kurtosis) K of the luminance distribution is
K = Σ i {(x i −x M ) / σ} 4 / N−3 (9)

なお、尖り度は、分布が正規分布ならば0、正規分布より広がりが大きければ正の値に、正規分布より広がりが小さければ負の値となる。輝度分布やRGB毎の輝度分布の指標値や統計量などを元に、輝度分布の幅や広がり、その偏り、分布曲線の形状や特徴を判別し、露出条件の良し悪し、写りの良し悪しの判定ができる。もちろん、その他の統計値などを用いて評価値を算出しても良い。   The kurtosis is 0 when the distribution is a normal distribution, a positive value when the spread is larger than the normal distribution, and a negative value when the spread is smaller than the normal distribution. Based on the index values and statistics of the luminance distribution and the luminance distribution for each RGB, the width and spread of the luminance distribution, its bias, the shape and characteristics of the distribution curve are determined, and the exposure conditions are good and bad. Judgment is possible. Of course, the evaluation value may be calculated using other statistical values.

次いで、ステップS870では、CPU53gは、画質の特性を、輝度分布の平均、輝度分布の中央、輝度分布の広がり度合い、RGB毎のかたより、輝度分布の左右対称性、正規分布より広い/狭いとする。次いで、ステップS872では、CPU53gは、画質評価値を決定する。   Next, in step S870, the CPU 53g sets the characteristics of the image quality to be wider / narrower than the normal distribution and the symmetry of the luminance distribution based on the average of the luminance distribution, the center of the luminance distribution, the degree of spread of the luminance distribution, and the manner of each RGB. . Next, in step S872, the CPU 53g determines an image quality evaluation value.

このように、画質評価方法1において、撮影された画像データの輝度値の分布ヒストグラム、または、RGB色差成分毎の輝度値の分布ヒストグラムを算出して、その輝度分布特性、または、その指標値、その統計量のうち、いずれかに基づいて、露出条件または中間調表現の良し悪しなどの所定の画質特性を評価することで、画質の評価値の大小に従って選択された画像を、記録候補画像として表示したり、自動選択された画質の最も良い画像や、または、表示された中からユーザが選択された所望の画像だけを簡単にメモリカードなどに保存記録することができる。   Thus, in the image quality evaluation method 1, the distribution histogram of the luminance value of the captured image data or the distribution histogram of the luminance value for each RGB color difference component is calculated, and the luminance distribution characteristic or the index value thereof is calculated. Based on one of the statistics, an image selected according to the magnitude of the image quality evaluation value is evaluated as a recording candidate image by evaluating predetermined image quality characteristics such as exposure conditions or quality of halftone expression. Only an image with the best image quality displayed or automatically selected or a desired image selected by the user from among the displayed images can be easily stored and recorded on a memory card or the like.

[画質評価方法2] 図18Aに、離散フーリエ変換、離散コサイン変換と、各変換による低周波/高周波成分を示す。図18B、図18Cに、画像評価処理部75mでの画質評価方法(2)として、画像データのDFT、DCTなどによる空間周波数の分布や高周波成分から画質を評価する方法を示す。   [Image Quality Evaluation Method 2] FIG. 18A shows discrete Fourier transform, discrete cosine transform, and low-frequency / high-frequency components by each transform. 18B and 18C show a method for evaluating the image quality from the spatial frequency distribution and high-frequency components by DFT and DCT of the image data as the image quality evaluation method (2) in the image evaluation processing unit 75m.

二次元画像データの各点の輝度値f(x,y)を、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、あるいは、それらをソフト処理で高速計算するFFT(高速フーリエ変換)アルゴリズム等により、周波数軸に変換したF(u,v)を求め、その周波数毎の振幅値や変換係数等、画像の周波数特性や、全体に占める高周波成分や低周波成分の比率から、画質のボケの程度や鮮鋭度(シャープさ)、解像度等を評価できる。   The luminance value f (x, y) of each point of the two-dimensional image data is subjected to discrete Fourier transform (DFT), discrete cosine transform (DCT), or FFT (fast Fourier transform) algorithm for calculating them at high speed by software processing, etc. Thus, F (u, v) converted to the frequency axis is obtained, and the image quality blur is determined from the frequency characteristics of the image, such as the amplitude value and conversion coefficient for each frequency, and the ratio of the high-frequency component and low-frequency component in the whole. The degree, sharpness (sharpness), resolution, etc. can be evaluated.

最近のデジタルカメラでは、JPEG等の画像圧縮符号化のためにDCT変換用のDSPやソフトウェアを内蔵しているので、その部分を流用すれば、比較的容易に実装できる。離散フーリエ変換(DFT)は、
F[u,v]=(1/MN)Σx=0 M−1Σy=0 N−1f[x,y]W ux vy
(10)
ただし、各変換係数W=exp(−j2π/M)、W2=exp(−j2π/N))
Since recent digital cameras have a built-in DSP for DCT conversion and software for image compression encoding such as JPEG, it can be mounted relatively easily by diverting that part. The discrete Fourier transform (DFT) is
F [u, v] = (1 / MN) Σx = 0 M−1 Σy = 0 N−1 f [x, y] W 1 ux W 2 vy
(10)
However, each conversion coefficient W 1 = exp (−j2π / M), W2 = exp (−j2π / N))

次に、離散コサイン変換では、
F[u,v]=(4/√MN)C(u)C(v)
・ΣΣf[x,y]・cos{(2x+1)uπ/2M}
・cos{(2y+1)vπ/2N} (11)
Next, in discrete cosine transform,
F [u, v] = (4 / √MN) C (u) C (v)
· Σ x Σ y f [x , y] · cos {(2x + 1) uπ / 2M}
Cos {(2y + 1) vπ / 2N} (11)

ただし、各変換係数C(u),C(v)=1/√2(u,v=0)、C(u),C(v)=1(u,v≠0))で計算できる。   However, each conversion coefficient C (u), C (v) = 1 / √2 (u, v = 0), C (u), C (v) = 1 (u, v ≠ 0)) can be calculated.

まず、ステップS876では、CPU53gは、画像上の点(x,y)の輝度をf[x,y]と表す。次いで、ステップS878では、CPU53gは、順次走査により1次元信号に変換する。次いで、ステップS880では、CPU53gは、フーリエ変換、DFT等で、周波数軸に変換する。   First, in step S876, the CPU 53g represents the luminance of the point (x, y) on the image as f [x, y]. Next, in step S878, the CPU 53g converts to a one-dimensional signal by sequential scanning. Next, in step S880, the CPU 53g converts the frequency axis by Fourier transform, DFT, or the like.

また、二次元画像f(x,y)を周波数空間に変換した周波数成分F(u,v)もu,v空間上に分布するが、二次元空間上の周波数特性から判別してもよい。   Further, the frequency component F (u, v) obtained by converting the two-dimensional image f (x, y) into the frequency space is also distributed in the u, v space, but may be determined from the frequency characteristics in the two-dimensional space.

図18Cに示すように、予め、画像を順次走査して1次元信号に並び替えてからDFT変換などを施して評価しても、また、DCTなど周波数軸に変換したその振幅値やDCT係数をジグザグ走査などで、1次元に並び替えてから、高周波成分の比率を産出したり、評価してもよい。また、前記ヒストグラム分布の評価と同様に、上記周波数特性の分布の代表値や統計量を求めて、それを元に評価してもよい。   As shown in FIG. 18C, the image is sequentially scanned and rearranged into a one-dimensional signal, and then evaluated by performing DFT conversion or the like, or the amplitude value or DCT coefficient converted to the frequency axis such as DCT is also obtained. The ratio of high frequency components may be produced or evaluated after rearranging in one dimension by zigzag scanning or the like. Similarly to the evaluation of the histogram distribution, a representative value or a statistic of the frequency characteristic distribution may be obtained and evaluated based on it.

まず、ステップS885では、CPU53gは、点(x,y)の輝度をf[x,y]と表す。次いで、ステップS890では、CPU53gは、DFT,DCT等、離散直交変換する。次いで、ステップS895では、CPU53gは、F[u,v]振幅値をジグザグ操作など1次元化する。次いで、ステップS900では、CPU53gは、F[i](F[u,v]の振幅、又はDCT係数等)を設定する。次いで、ステップS910では、CPU53gは、以下を行う。
画質評価値=高周波比率
=(高周波成分振幅値合計)/(全成分の振幅値合計) (12)
あるいは、
ボケ評価値=低周波比率
=(全成分合計−高周波成分合計)/(全成分の合計) (13)
First, in step S885, the CPU 53g represents the luminance of the point (x, y) as f [x, y]. Next, in step S890, the CPU 53g performs discrete orthogonal transform such as DFT or DCT. Next, in step S895, the CPU 53g makes the F [u, v] amplitude value one-dimensional such as a zigzag operation. Next, in step S900, the CPU 53g sets F [i] (the amplitude of F [u, v] or the DCT coefficient). Next, in step S910, the CPU 53g performs the following.
Image quality evaluation value = high frequency ratio
= (Total high-frequency component amplitude value) / (Total amplitude value of all components) (12)
Or
Bokeh evaluation value = Low frequency ratio
= (Total of all components-high frequency components) / (total of all components) (13)

次いで、ステップS920では、CPU53gは、周波数分布の再頻値(Mode)をfmode(振幅が最も大きい周波数)と、周波数分布の中央値(Median)をfmed(N/2番目に多い周波数)と、周波数分布の平均値(Mean)をfと、周波数分布の分散(Variance、σ2)をσ2と、周波数分布の標準偏差(SD、Standard Devitation、σ)をσとし、さらにf、σ2、σを各々以下のようにする。
=ΣiF[i]/N (14)
σ2=偏差平方和/(N−1)
=Σ(F[i]−f/(N−1) (15)
σ=SQRT(分散)
=√{Σ(F[i]−f/(N−1)} (16)
Next, in step S920, the CPU 53g sets the frequency distribution mode ( mode ) to f mode (frequency having the largest amplitude) and the frequency distribution median value (Median) to f med (N / 2 most frequently occurring frequency). The average value (Mean) of the frequency distribution is f M , the variance (Variance, σ2) of the frequency distribution is σ2, the standard deviation (SD, Standard Deviation, σ) of the frequency distribution is σ, and f M , σ2 , Σ are set as follows.
f M = ΣiF [i] / N (14)
σ2 = deviation sum of squares / (N−1)
= Σ i (F [i] −f M ) 2 / (N−1) (15)
σ = SQRT (dispersion)
= √ {Σ i (F [i] −f M ) 2 / (N−1)} (16)

このように、画質評価方法2において、撮影された画像データを離散フーリエ変換DFT、離散コサイン変換DCTなどにより周波数空間に変換し、周波数空間に変換されたデータの変換係数、または、周波数分布特性、周波数毎の振幅値、高周波成分の比率、周波数特性分布の統計量のうち、いずれかに基づいて、鮮鋭度、解像度、ボケの程度などの所定の画質特性を評価することで、画質の評価値の大小に従って選択された画像を、記録候補画像として表示したり、自動選択された画質の最も良い画像や、または、表示された中からユーザが選択された所望の画像だけを簡単にメモリカードなどに保存記録することができる。   As described above, in the image quality evaluation method 2, the captured image data is converted into the frequency space by the discrete Fourier transform DFT, the discrete cosine transform DCT, or the like, the conversion coefficient of the data converted into the frequency space, or the frequency distribution characteristic, Evaluation value of image quality by evaluating predetermined image quality characteristics such as sharpness, resolution, degree of blur, etc. based on any one of amplitude value for each frequency, ratio of high frequency components, and statistics of frequency characteristic distribution The image selected according to the size of the image is displayed as a recording candidate image, or the image with the best image quality selected automatically, or only the desired image selected by the user from the displayed images can be easily displayed on a memory card, etc. Can be saved and recorded.

[画質評価方法3] 図19A、図19Bは、画像評価処理部75mでの画質評価方法3として、画像の変換や復元等に用いるPSF(点像分布関数、点広がり関数)法等を利用して、ブレやボケを判別評価する方法を示したフローチャートである。   [Image Quality Evaluation Method 3] FIGS. 19A and 19B use a PSF (point spread function, point spread function) method or the like used for image conversion or restoration as the image quality evaluation method 3 in the image evaluation processing unit 75m. 5 is a flowchart showing a method for discriminating and evaluating blurring and blurring.

図19Aにおいて、ステップS1010では、画像評価処理部75mはPSF法による画像復元では、撮影された画像g(x,y)を、ブレやボケのない本来の画像i(x,y)が、ブレやボケを生じさせる成分p(x,y)により劣化した劣化画像g(x,y)とみなし、
g(x,y)=p(x,y)*i(x,y) (17)
(*は、コンボリューション、畳み込み積分演算)
と想定し、また、P(x,y)を、PSF関数(Point Spread Function、点像分布関数)や、LSF関数(Line Spread Function、線像分布関数)などとして、劣化要因となるp(x,y)を推定し、p(x,y)が推定できれば、本来の画像i(x,y)をデコンボリューション(逆畳み込み積分)演算により画像復元にも利用できるものである。
In FIG. 19A, in step S1010, the image evaluation processing unit 75m uses the PSF method to restore the captured image g (x, y) to the original image i (x, y) without blur or blur. And a deteriorated image g (x, y) deteriorated by a component p (x, y) that causes blurring,
g (x, y) = p (x, y) * i (x, y) (17)
(* Is convolution, convolution integral operation)
In addition, P (x, y) is converted into p (x, which is a degradation factor, as a PSF function (Point Spread Function, point spread function), an LSF function (Line Spread Function, line image distribution function), or the like. , Y) and p (x, y) can be estimated, the original image i (x, y) can be used for image restoration by deconvolution (deconvolution integration).

次いで、ステップS1020では、画像評価処理部75mは劣化画像g(x,y)を、フーリエ変換(FFT)や離散フーリエ変換(DFT)等で周波数軸に変換して、G(u,v)を求める。   Next, in step S1020, the image evaluation processing unit 75m converts the degraded image g (x, y) into the frequency axis by Fourier transform (FFT), discrete Fourier transform (DFT), or the like, and G (u, v). Ask.

G(u、v)=P(u、v)・I(u、v)(コンボリューションは、周波数軸上では、フーリエ変換同士の掛け算となる)であるので、そのP(u、v)を周波数領域で推定し、P(u、v)が推定できれば、逆フィルタとして1/P(u、v)を求め、1/P(u、v)を用いて本来の画像i(x、y)が復元できる原理である。   Since G (u, v) = P (u, v) · I (u, v) (convolution is multiplication of Fourier transforms on the frequency axis), P (u, v) is If P (u, v) can be estimated in the frequency domain, 1 / P (u, v) is obtained as an inverse filter, and the original image i (x, y) is obtained using 1 / P (u, v). Is the principle that can be restored.

すなわち、I(u、v)=G(u、v)/P(u、v)(フーリエ変換同士の割り算)を求め、それを逆フーリエ変換して、
i(x,y)=逆フーリエ変換{I(u、v)}
=Σx=0 M−1Σy=0 N−1I[u,v]W ux vy (18)
(ただし、W=exp(−j2π/M)、W=exp(−j2π/N))
That is, I (u, v) = G (u, v) / P (u, v) (division between Fourier transforms) is obtained, and it is inverse Fourier transformed.
i (x, y) = inverse Fourier transform {I (u, v)}
= Σ x = 0 M−1 Σ y = 0 N−1 I [u, v] W 1 ux W 2 vy (18)
(W 1 = exp (−j2π / M), W 2 = exp (−j2π / N))

ここでは、このPSF法におけるPSF(Point Spread Function、点像分布関数)やP(u、v)の推定方法を、一般のアマチュアや非熟練者の撮影画像では「露出設定の失敗」と並んで多い傾向にある。この方法を「焦点ボケ」画像や「直線ブレ」画像の判別や評価に用いて、写りや画質の悪い画像を検出し、それらを優先して削除できる(または、保存記録しない)ようにする。   Here, PSF (Point Spread Function) and P (u, v) estimation methods in this PSF method are aligned with “exposure setting failure” in a photographed image of a general amateur or an unskilled person. Many tend to be. This method is used to discriminate and evaluate “focal blur” images and “straight line blurring” images, so that images with poor image quality and image quality are detected so that they can be deleted preferentially (or not stored or recorded).

次いで、ステップS1030では、CPU53gは、劣化画像のフーリエ変換画像を得ることができる。(G(u,v)=P(u,v)・i(u,v)と想定される)   Next, in step S1030, the CPU 53g can obtain a Fourier transform image of the deteriorated image. (G (u, v) = P (u, v) · i (u, v) is assumed)

一般に、直線ブレした画像をフーリエ変換したF(u,v)の振幅値の分布は、図19A(a)に示すようにブレやボケが少ない一般画像となる。図19A(b)に示すような直線ブレのパターンとなり、中央付近の高周波成分がブレ角度に従って、数本の細長い筋や傾斜した楕円形状に抜けたり歪んだパターンが現れる。また、焦点ボケした画像のF(u,v)は、図19A(d)に示すような焦点ボケ画像パターンとなり、中央部の高周波成分が同心円状に抜けたり歪んだパターンとなる。また、直線ブレと焦点ボケが共に生じると、図19A(c)に示すような、両方の特徴を合せた持ったパターンとなる。   In general, the distribution of amplitude values of F (u, v) obtained by performing Fourier transform on an image that has undergone linear blurring is a general image with less blurring and blurring as shown in FIG. 19A (a). A linear blur pattern as shown in FIG. 19A (b) is formed, and a high-frequency component near the center appears as a pattern of several elongated streaks or a slanted elliptical shape that is distorted or distorted according to the blur angle. Further, F (u, v) of the defocused image becomes a defocused image pattern as shown in FIG. 19A (d), and a high-frequency component in the center portion is a concentric circle pattern or a distorted pattern. Further, when both straight blurring and out-of-focus blur occur, a pattern having both characteristics as shown in FIG. 19A (c) is obtained.

次いで、ステップS1040では、画像評価処理部75mは、PSF法、ゼロクロス法、又はHough変換法、逆フィルタ法等で、P(u,v)又はPSFを推定する。   Next, in step S1040, the image evaluation processing unit 75m estimates P (u, v) or PSF by the PSF method, zero cross method, Hough transform method, inverse filter method, or the like.

次いで、ステップS1050では、画像評価処理部75mは、例えば、ブレ方向角度(θ)、ブレ距離(L)に対して、θ方向に周期1/Lでゼロ交差する直線ブレの評価値を出力する。   Next, in step S1050, the image evaluation processing unit 75m outputs, for example, an evaluation value of linear blur that zero-crosses in the θ direction with a period 1 / L with respect to the blur direction angle (θ) and the blur distance (L). .

次いで、ステップS1060では、画像評価処理部75mは、直線ブレ補正用フィルタを設定する。
P(u,v)=sin(πfL)/πfL (19)
(f=ucosθ+vsinθ)
Next, in step S1060, the image evaluation processing unit 75m sets a straight blur correction filter.
P (u, v) = sin (πfL) / πfL (19)
(F = ucos θ + vsin θ)

一方、ステップS1070では、画像評価処理部75mは、PSF法、ゼロクロス法、又はHough変換法、逆フィルタ法等で、P(u,v)又はPSFを推定する。   On the other hand, in step S1070, the image evaluation processing unit 75m estimates P (u, v) or PSF by the PSF method, the zero cross method, the Hough transform method, the inverse filter method, or the like.

次いで、ステップS1080では、画像評価処理部75mは、例えば、焦点の広がり半径(r)に対して、周期1.01π/rで、同心円状にゼロ交差する焦点ボケの評価値を出力する。   Next, in step S1080, the image evaluation processing unit 75m outputs, for example, an evaluation value of a focal blur that crosses zero concentrically with a period of 1.01π / r with respect to a focal spread radius (r).

次いで、ステップS1090では、画像評価処理部75mは、焦点ボケ補正用フィルタを設定する。
P(u,v)=2・J1(r・R)/r・R (20)
J1=1次の第1種ベッセル関数
Next, in step S1090, the image evaluation processing unit 75m sets a defocus correction filter.
P (u, v) = 2 · J1 (r · R) / r · R (20)
J1 = first order Bessel function of first order

次いで、ステップS1100では、画像評価処理部75mは、直線ブレ、焦点ボケの度合いを出力する。又は、設定フィルタにより、直線ブレ、焦点ボケを補正した画像を出力する。   Next, in step S1100, the image evaluation processing unit 75m outputs the degree of linear blurring and defocusing. Alternatively, an image in which straight line blurring and defocusing are corrected by a setting filter is output.

次いで、ステップS1100では、画像評価処理部75mは、直線ブレ、焦点ボケの度合いを出力する。または、画像評価処理部75mは、設定フィルタにより直線ブレ、焦点ボケを補正した画像を出力する。   Next, in step S1100, the image evaluation processing unit 75m outputs the degree of linear blurring and defocusing. Alternatively, the image evaluation processing unit 75m outputs an image in which linear blurring and defocusing are corrected by the setting filter.

本実施例では、ゼロ点交差法やHough変換(ハフ変換、ヒュー変換)法などにより、直線ブレの場合には、フーリエ変換のF(u,v)の振幅値が周期1/Lでゼロ交差する方向の、ブレの方向角度(θ)と、ブレの距離またはその画素数(L)、焦点ボケの場合には、同じくF(u,v)の振幅値が周期1.01π/rでゼロ交差する同心円状の、焦点の広がりの半径またはその画素数(r)を、推定計算できるので、画像評価処理部75mからの値を評価値として、直線ブレ画像や、焦点ボケ画像を評価できる。   In the present embodiment, in the case of straight line blurring by the zero point crossing method or the Hough transformation (Hough transformation, Hugh transformation) method, the amplitude value of F (u, v) of Fourier transformation is zero crossing with a period of 1 / L. In the case of blur direction angle (θ), blur distance or the number of pixels (L), and out-of-focus, the amplitude value of F (u, v) is zero with a period of 1.01π / r. Since the intersecting concentric circles and the radius of the spread of the focal point or the number of pixels (r) thereof can be estimated and calculated, the straight blurring image and the out-of-focus image can be evaluated using the value from the image evaluation processing unit 75m as the evaluation value.

図20は、PSF法による、直線ブレ方向、ブレ距離、焦点ボケ半径の算出(推定)方法の一例を示すフローチャートである。   FIG. 20 is a flowchart illustrating an example of a method for calculating (estimating) a linear blur direction, a blur distance, and a focal blur radius by the PSF method.

PSF法では、角速度センサ66、検出回路67で検出されたブレ方向(θ)とブレ距離(L)、焦点ボケの広がり半径(r)の推定方法として、ブレ方向(θ)は、G(u,v)の縦/横の相対比(R)から算出し、ブレ距離(L)または焦点広がり半径(r)は、復元画像iL、iL+1を順次計算して求め、その相関値C(L)から逆算するか、または、相関値C(L)が所定値以上の相関度に飽和するまで繰り返して求める。さらに計算時間を短縮する方法として多階調Hough変換で求める方法などもある。   In the PSF method, the blur direction (θ) is G (u) as an estimation method of the blur direction (θ) and blur distance (L) detected by the angular velocity sensor 66 and the detection circuit 67, and the defocus radius (r). , V) is calculated from the vertical / horizontal relative ratio (R), and the blur distance (L) or the focal spread radius (r) is obtained by sequentially calculating the restored images iL and iL + 1, and the correlation value C (L). Or the calculation is repeated until the correlation value C (L) is saturated to a correlation degree equal to or greater than a predetermined value. Further, as a method of shortening the calculation time, there is a method of obtaining by multi-gradation Hough conversion.

図20において、ステップS1210では、画像評価処理部75mは、ブレ方向(θ)の推定法により、G{u,v}の縦/横の相対比Rから、ブレ方向(θ)を逆算する。相対比Rは、
R=∫|G{rcos(θ+π/2),rcos(θ+π/2)}|dr
÷∫|G{rcosθ,rcosθ}|dr (21)
ただし、r=√{u+v
G{u, v}:劣化画像のフーリエ・スペクトル
In FIG. 20, in step S1210, the image evaluation processing unit 75m calculates the blur direction (θ) from the vertical / horizontal relative ratio R of G {u, v} by the blur direction (θ) estimation method. The relative ratio R is
R = ∫ | G {rcos (θ + π / 2), rcos (θ + π / 2)} | dr
÷ ∫ | G {rcosθ, rcosθ} | dr (21)
However, r = √ {u 2 + v 2 }
G {u, v}: Fourier spectrum of the degraded image

次いで、ステップS1220では、画像評価処理部75mは、ブレ距離(L)、焦点の広がり半径(r)の推定法により、復元画像iL、iL間の相関値C(L)より、ブレ距離(L又はr)を逆算する。
C(L)=Σx,y(x,y)iL+ΔL(x,y)
÷√[Σx,y{i(x,y)}
・Σx,y{iL+ΔL(x,y)}] (22)
Next, in step S1220, the image evaluation processing unit 75m calculates the blurring distance (L) from the correlation value C (L) between the restored images iL and iL by the estimation method of the blurring distance (L) and the focal spread radius (r). Or, r) is calculated backward.
C (L) = Σx , y i L (x, y) i L + ΔL (x, y)
÷ √ [Σ x, y {i L (x, y)} 2
[Sigma] x, y { iL + [Delta ] L (x, y)} 2 ] (22)

ただし、i(x,y):パラメータがLの場合の復元画像、iL+ΔL(x,y):パラメータがL+ΔLの場合の復元画像である。
次いで、ステップS1230では、画像評価処理部75mは、直線ブレのP(u,v)の算出する。(θ方向に周期T=1/Lでゼロ交差)
P(u,v)=sin(πfL)/πfL (23)
(f=ucosθ+vsinθ)
However, i L (x, y): a restored image when the parameter is L, i L + ΔL (x, y): a restored image when the parameter is L + ΔL.
Next, in step S1230, the image evaluation processing unit 75m calculates straight blur P (u, v). (Zero crossing with period T = 1 / L in θ direction)
P (u, v) = sin (πfL) / πfL (23)
(F = ucos θ + vsin θ)

次いで、ステップS1240では、画像評価処理部75mは、焦点ボケのP(u,v)を算出する。(周期T=1.01π/rで、同心円状のゼロ交差)
P(u,v)=2・J1(r・R)/r・R (24)
(J1=1次の第1種ベッセル関数)
Next, in step S1240, the image evaluation processing unit 75m calculates P (u, v) of defocus. (Concentric zero crossing with period T = 1.01π / r)
P (u, v) = 2 · J1 (r · R) / r · R (24)
(J1 = 1-order first-order Bessel function)

このように、画質評価方法3において、撮影された画像データを高速フーリエ変換FFTまたは離散フーリエ変換DFTにより周波数空間に変換し、周波数空間に変換されたデータから、点像分布関数PSF法、または、ゼロ点交差法、Hough変換法などにより、フーリエ変換の振幅値のパターンから、ブレの距離および方向角度、または、焦点の広がり半径などの評価値を推定し、直線ブレの度合、または、焦点ボケの度合などの所定の画質特性を評価することで、画質の評価値の大小に従って選択された画像を、記録候補画像として表示したり、自動選択された画質の最も良い画像や、または、表示された中からユーザが選択された所望の画像だけを簡単にメモリカードなどに保存記録することができる。   As described above, in the image quality evaluation method 3, the captured image data is converted into the frequency space by the fast Fourier transform FFT or the discrete Fourier transform DFT, and from the data converted into the frequency space, the point spread function PSF method or Evaluation values such as blur distance and direction angle or focal spread radius are estimated from the Fourier transform amplitude value pattern by the zero point crossing method, Hough transform method, etc., and the degree of straight blurring or focal blurring is estimated. By evaluating the predetermined image quality characteristics such as the degree of image quality, the image selected according to the magnitude of the image quality evaluation value is displayed as a recording candidate image, or the image with the best image quality automatically selected or displayed. Only a desired image selected by the user can be easily stored and recorded on a memory card or the like.

[画質評価方法4] また、そのほか、画質そのものでなく、既に記録済みの画質の良い他の画像、または、画質評価済みの他の画像と比べて、類似する特性かどうかを判別して、画質の優劣を評価しても良い。   [Image quality evaluation method 4] In addition, it is determined whether or not the image quality itself is similar to that of another image with good image quality already recorded or another image that has been image quality evaluated. You may evaluate the superiority or inferiority.

すなわち、該当画像f(x,y)と、記録済みの参照画像t(x,y)との、輝度値の二次元分布パターン、あるいは、輝度分布ヒストグラム、周波数空間に変換した画像における、それぞれの類似度や相関係数を求め、記録済みの参照画像に良く似た画像パターンや露出特性、鮮鋭度などが類似した特性の画像を優先して選択したり、削除できるようにすればよい。   That is, each of the image f (x, y) and the recorded reference image t (x, y) in the two-dimensional distribution pattern of luminance values, the luminance distribution histogram, or the image converted into the frequency space. The degree of similarity and the correlation coefficient may be obtained so that an image having characteristics similar to the recorded reference image, characteristics of exposure characteristics, sharpness, etc. can be preferentially selected or deleted.

相関係数の一例として、ピアソンの積率相関係数Rは、次式で計算できる。
R=(画像fと画像tの共分散)/(画像ffの標準偏差)・(画像tの標準偏差)
={ΣyΣx(f[x,y]−fav)(t[x,y]−tav)}
/√{ΣyΣx(f[x,y]−fav)
・√{ΣyΣx(t[x,y]−tav)} (25)
ただし、favは入力画像fの濃度値の平均値、tAVは参照画像tの濃度値の平均値である。
As an example of the correlation coefficient, the Pearson product moment correlation coefficient R can be calculated by the following equation.
R = (covariance of image f and image t) / (standard deviation of image ff) · (standard deviation of image t)
= {ΣyΣx (f [x, y] −fav) (t [x, y] −tav)}
/ √ {ΣyΣx (f [x, y] −fav) 2 }
√ {ΣyΣx (t [x, y] −tav) 2 } (25)
Here, fav is an average value of density values of the input image f, and tAV is an average value of density values of the reference image t.

[第4実施例の効果] 以上説明したように、画像の画質を評価する手段やプログラムを設けて、複数の撮影条件の組合せで撮影条件を変えながら連写された複数枚の画像の中から、自動的に「ベスト3」や「ベスト10」、「撮影条件別や画質項目別のベスト3」など、画質の評価値の大小に従って選択された画像を、記録候補画像として表示したり、自動選択された画質の最も良い画像や、または、表示された中からユーザが選択された所望の画像だけを簡単にメモリカードなどに保存記録することができる。この結果、連続撮影時でも無駄な多数の撮影を行わずに、所望の条件に近い画像を効率良く撮影することにある。   [Effects of Fourth Embodiment] As described above, a means or program for evaluating the image quality of an image is provided, and a plurality of images continuously shot while changing shooting conditions by combining a plurality of shooting conditions. Images automatically selected according to the magnitude of the image quality evaluation value, such as “Best 3”, “Best 10”, “Best 3 by shooting condition and image quality item”, are automatically displayed as recording candidate images. Only the selected image having the best image quality or the desired image selected by the user from among the displayed images can be easily stored and recorded on a memory card or the like. As a result, an image close to a desired condition can be efficiently shot without performing many unnecessary shots even during continuous shooting.

このため、本発明のように、1度のレリーズボタン操作により多数枚の画像が撮影された場合にも、一度に多数のメモリ容量を消耗してしまうことなく、また、多数枚の画像の中から不要の画像や画質や写りの良くない多数の画像を逐一削除したりする面倒もない。   Therefore, as in the present invention, even when a large number of images are shot by operating the release button once, a large number of images are not consumed at the same time. There is no need to delete unnecessary images and many images with poor image quality and image quality.

[変形例] また、上記の例において、ユーザの操作に応じて、画質の評価方法や、優先する画質特性の項目、画質の良い画像から何枚まで自動的に保存記録するかなどを、任意に選択しておくような、画質評価に関するカスタム設定機能を設けても良い。   [Modification] Also, in the above example, depending on the user's operation, the image quality evaluation method, the priority image quality characteristics item, the number of images with good image quality, how many images are automatically saved and recorded, etc. are arbitrary. A custom setting function related to image quality evaluation may be provided.

さらに、画質評価の評価値が所定値に達しない画質や写りが良くないと推定される画像や、または、ブレやボケなどが目立つ画像を自動的に画像補正するような画像補正手段や画像復元手段を付加して設けることもできる。   In addition, image correction means and image restoration that automatically corrects images that are estimated to have poor image quality or poor image quality, or images with noticeable blurring or blurring. Means can be additionally provided.

本発明の実施の形態に係る撮影制御装置を電子カメラに適用した場合の概要を示すシステム構成図である。1 is a system configuration diagram illustrating an overview when an imaging control apparatus according to an embodiment of the present invention is applied to an electronic camera. 本発明の第1の実施形態に係る高速度カメラの全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a high-speed camera according to a first embodiment of the present invention. 本発明の第1の実施形態に係る高速度カメラの撮像素子の構成を示すブロック図である。It is a block diagram which shows the structure of the image pick-up element of the high speed camera which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る高速度カメラの撮像素子の詳細な構成を示す回路図である。1 is a circuit diagram illustrating a detailed configuration of an image sensor of a high-speed camera according to a first embodiment of the present invention. CDS回路、A/D変換回路の動作を説明するためのタイミングチャートである。3 is a timing chart for explaining operations of a CDS circuit and an A / D conversion circuit. 本発明の実施形態に係る高速度カメラが、複数の撮影条件の組合せを少しずつ変えながら連写するマルチ条件連写を行う場合の概略的な動作を説明するためのフローチャートである。It is a flowchart for demonstrating schematic operation | movement in case the high speed camera which concerns on embodiment of this invention performs multi-condition continuous shooting which continuously shoots, changing the combination of several imaging conditions little by little. 図6Aに示す各ステップに対応する動作を説明するための画面例(a)〜(e)である。FIG. 6B is a screen example (a) to (e) for explaining an operation corresponding to each step shown in FIG. 6A. 本発明の第1実施例として、選択されたシーンに応じて、マルチ条件連写の複数撮影条件の組合せを設定する場合での、撮影シーン毎に予め記憶されている撮影条件の設定データの例を示す図である。As a first embodiment of the present invention, an example of shooting condition setting data stored in advance for each shooting scene when a combination of a plurality of shooting conditions for multi-condition continuous shooting is set according to a selected scene. FIG. シーン別の露出補正条件の配分設定データの例を示す図である。It is a figure which shows the example of the distribution setting data of the exposure correction condition classified by scene. 撮影シーン別のホワイトバランス条件の配分設定データの例を示す図である。It is a figure which shows the example of the distribution setting data of the white balance conditions for every imaging | photography scene. 選択シーンに応じて撮影条件の組合せ毎の撮影枚数を配分した例を示す図(a)〜(d)である。FIGS. 9A to 9D are diagrams illustrating examples in which the number of shots for each combination of shooting conditions is allocated according to a selected scene. 選択シーンに応じて撮影条件の組合せ毎の撮影枚数を配分した例を示す図(a)、(b)である。FIGS. 9A and 9B are diagrams illustrating an example in which the number of shots for each combination of shooting conditions is allocated according to a selected scene. 本発明の第1実施例の電子カメラの撮影制御の一例として、撮影シーンに応じて撮影条件の組合せ毎の撮影枚数を制御することを説明するためのフローチャート(その1)である。FIG. 6 is a flowchart (part 1) for explaining the control of the number of shots for each combination of shooting conditions according to the shooting scene as an example of shooting control of the electronic camera of the first embodiment of the present invention. 本発明の第1実施例の電子カメラの撮影制御の一例として、撮影シーンに応じて撮影条件の組合せ毎の撮影枚数を制御することを説明するためのフローチャート(その2)である。FIG. 6 is a flowchart (part 2) for explaining the control of the number of shots for each combination of shooting conditions according to the shooting scene as an example of shooting control of the electronic camera of the first embodiment of the present invention. 平均輝度と輝度差に応じたストロボ強度の設定(a)、分散度に応じて、ストロボ発光強度条件を、設定ストロボ強度の周辺の条件に配分した例(b)を示す図である。It is a figure which shows the example (b) which allocated strobe light emission intensity | strength conditions to the surrounding conditions of setting strobe intensity | strength according to the setting (a) of strobe intensity according to average brightness | luminance and a brightness | luminance difference, and dispersion degree. 自動設定されたストロボ強度毎の撮影枚数の例を示す図である。It is a figure which shows the example of the imaging | photography number for every strobe intensity | strength set automatically. 本発明の第2実施例のカメラの撮影制御に関するフローチャート(その1)である。It is a flowchart (the 1) regarding imaging | photography control of the camera of 2nd Example of this invention. 本発明の第2実施例のカメラの撮影制御に関するフローチャート(その2)である。It is a flowchart (the 2) regarding imaging | photography control of the camera of 2nd Example of this invention. ある焦点距離における、被写体の輝度と距離の頻度データの例を示す図(a)〜(c)である。It is a figure (a)-(c) which shows the example of the frequency data of the luminosity and distance of a subject in a certain focal distance. 頻度データと分散度に応じて連写枚数と撮影条件を配分した例(a)、自動配分設定された撮影条件毎の撮影枚数の例(b)を示す図である。It is a figure which shows the example (b) of the example (b) which allocated the continuous shooting number and imaging | photography condition according to frequency data and dispersion | distribution, and the imaging | photography number for every imaging | photography condition set automatically. 本発明の第3実施例のカメラの撮影制御に関するフローチャート(その1)である。It is a flowchart (the 1) regarding imaging | photography control of the camera of 3rd Example of this invention. 本発明の第3実施例のカメラの撮影制御に関するフローチャート(その2)である。It is a flowchart (the 2) regarding imaging | photography control of the camera of 3rd Example of this invention. 本発明の第4実施例のカメラの撮影制御に関するフローチャート(その1)である。It is a flowchart (the 1) regarding imaging | photography control of the camera of 4th Example of this invention. 本発明の第4実施例のカメラの撮影制御に関するフローチャート(その2)である。It is a flowchart (the 2) regarding imaging | photography control of the camera of 4th Example of this invention. 画像評価方法(1)として、RGB各色の輝度ヒストグラム分布の統計量から画質評価することを示すフローチャートである。It is a flowchart which shows evaluating image quality from the statistic of luminance histogram distribution of each color of RGB as an image evaluation method (1). 離散フーリエ変換、離散コサイン変換と、各変換による低周波/高周波成分を示す図である。It is a figure which shows the low frequency / high frequency component by discrete Fourier transform, discrete cosine transform, and each transformation. 画質評価方法(2)として、画像データのDFTによる空間周波数の分布や高周波成分から画質を評価する方法を示す。As the image quality evaluation method (2), a method of evaluating image quality from a spatial frequency distribution or high-frequency component by DFT of image data is shown. 画質評価方法(2)として、画像データのDFT、DCTなどによる空間周波数の分布や高周波成分から画質を評価する方法を示す。As the image quality evaluation method (2), a method of evaluating image quality from a spatial frequency distribution and high frequency components by DFT, DCT, etc. of image data is shown. 画質評価方法3として、画像の変換や復元等に用いるPSF法等を利用して、ブレやボケを判別評価する方法を示したフローチャート(その1)である。FIG. 5 is a flowchart (part 1) showing a method for discriminating and evaluating blurring and blurring by using a PSF method or the like used for image conversion or restoration as the image quality evaluation method 3. FIG. 画質評価方法3として、画像の変換や復元等に用いるPSF法等を利用して、ブレやボケを判別評価する方法を示したフローチャート(その2)である。12 is a flowchart (part 2) showing a method for discriminating and evaluating blurring and blurring using the PSF method or the like used for image conversion or restoration as the image quality evaluation method 3. PSF法による、直線ブレ方向、ブレ距離、焦点ボケ半径の算出(推定)方法の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation (estimation) method of a linear blur direction, a blur distance, and a focus blur radius by PSF method.

符号の説明Explanation of symbols

11…操作入力部、13…制御部、13a…撮影モード/撮影シーンの選択部、13b…シーン別撮影プログラム、13c1…撮影条件、13cn…撮影条件n、13d…複数撮影条件の組合せ/連写枚数の設定部、13e…撮影条件の組合せ設定データ、13f…撮影条件の頻度統計データ、13g…撮影条件、13h…撮影制御部、13h1…通常の撮影制御部、13h2…高速連写撮影制御部、13h3…マルチ条件による連写撮影部、13i…画像評価制御部、13j…画像記録/入出力制御部、15…ズームレンズ/フォーカスレンズ駆動部、16…絞り/シャッタ駆動部、17…ストロボ駆動部、18…ストロボ、19…角速度センサ/加速度センサ、20…手ブレ/振動検出部、21…受光センサ/AFセンサ、22…測光/測距/AF検出部、23…光学系、25……イメージセンサ、29…バッファメモリ部、31…画像符号化/復号化部、33…画像記録/入出力部、35…画像メモリ媒体、37…表示部、39…表示制御部、51…操作入力部、53…制御回路、53a…入出力ポート、53b…入出力ポート、53c…HDD・IF、53d…インタフェース、53e…入力回路、53f…メモリカード・IF、53g…CPU、55…シャッタ駆動部、56…絞り駆動部、57…ズームレンズ駆動部、58…焦点レンズ駆動部、59…撮影光学系、60…ストロボ駆動回路、61…ストロボ、62…測光/測距センサ、63…検出回路、64…角速度センサ、65…検出回路、66…角速度センサ、67…検出回路、68…HDD記憶装置、69…プログラム・メモリ、70…データ・メモリ、71…画像メモリ媒体、73…撮像素子、75…DSP部、75a…コントローラ、75b…S/P変換回路、75c…バッファメモリ(A)、75d…WB補正回路、75e…画素補間/リサイズ回路、75f…カラー補間回路、75g…輪郭補正回路、75h…ガンマ補正回路、75i…マトリクス回路、75j…画像特徴処理部、75k…画像認識処理部、75m…画像評価処理部、77…バッファメモリ(B)、79…画像CODEC79、81…動画像CODEC、83…表示駆動回路、85…画像表示部   DESCRIPTION OF SYMBOLS 11 ... Operation input part, 13 ... Control part, 13a ... Shooting mode / shooting scene selection part, 13b ... Shooting program classified by scene, 13c1 ... Shooting condition, 13cn ... Shooting condition n, 13d ... Combination of multiple shooting conditions / continuous shooting Number setting section, 13e ... Shooting condition combination setting data, 13f ... Shooting condition frequency statistical data, 13g ... Shooting condition, 13h ... Shooting control section, 13h1 ... Normal shooting control section, 13h2 ... High-speed continuous shooting control section , 13h3... Continuous shooting under multiple conditions, 13i... Image evaluation control unit, 13j... Image recording / input / output control unit, 15... Zoom lens / focus lens drive unit, 16. , 18 ... Strobe, 19 ... Angular velocity sensor / acceleration sensor, 20 ... Camera shake / vibration detector, 21 ... Light receiving sensor / AF sensor, 22 ... Photometry / Distance / AF detection unit, 23 ... optical system, 25 ... image sensor, 29 ... buffer memory unit, 31 ... image encoding / decoding unit, 33 ... image recording / input / output unit, 35 ... image memory medium, 37 ... Display unit 39 ... Display control unit 51 ... Operation input unit 53 ... Control circuit 53a ... I / O port 53b ... I / O port 53c ... HDD / IF 53d ... Interface 53e ... Input circuit 53f ... Memory Card IF, 53g ... CPU, 55 ... shutter drive unit, 56 ... diaphragm drive unit, 57 ... zoom lens drive unit, 58 ... focus lens drive unit, 59 ... shooting optical system, 60 ... strobe drive circuit, 61 ... strobe, 62 ... Photometry / ranging sensor, 63 ... Detection circuit, 64 ... Angular velocity sensor, 65 ... Detection circuit, 66 ... Angular velocity sensor, 67 ... Detection circuit, 68 ... HDD storage device, 69 ... Professional RAM memory, 70 ... data memory, 71 ... image memory medium, 73 ... imaging device, 75 ... DSP section, 75a ... controller, 75b ... S / P conversion circuit, 75c ... buffer memory (A), 75d ... WB correction Circuit, 75e ... Pixel interpolation / resizing circuit, 75f ... Color interpolation circuit, 75g ... Contour correction circuit, 75h ... Gamma correction circuit, 75i ... Matrix circuit, 75j ... Image feature processing unit, 75k ... Image recognition processing unit, 75m ... Image Evaluation processing unit 77 ... Buffer memory (B), 79 ... Image CODEC 79, 81 ... Moving image CODEC, 83 ... Display drive circuit, 85 ... Image display unit

Claims (13)

光学系により結像された被写体像を撮像して撮像信号を出力する撮像手段と、
所定の条件に従って撮影条件の組合せを複数組設定する撮影条件設定手段と、
前記撮影条件設定手段により設定された複数の撮影条件の組合せに基づいて、撮影動作を繰り返し実行するように前記撮像手段を制御する連続撮影制御手段と、
を備えることを特徴とする撮影制御装置。
An imaging means for imaging a subject image formed by an optical system and outputting an imaging signal;
Shooting condition setting means for setting a plurality of combinations of shooting conditions according to predetermined conditions;
Continuous imaging control means for controlling the imaging means so as to repeatedly execute an imaging operation based on a combination of a plurality of imaging conditions set by the imaging condition setting means;
An imaging control apparatus comprising:
前記撮影条件設定手段は、
所定の条件に従って撮影条件の組合せ数を変更することを特徴とする請求項1記載の撮影制御装置。
The photographing condition setting means includes
2. The photographing control apparatus according to claim 1, wherein the number of combinations of photographing conditions is changed according to a predetermined condition.
複数の撮影モードの中から所望の撮影モードを選択する撮影モード選択手段を備え、
前記撮影条件設定手段は、
前記撮影モード選択手段により選択された撮影モードに応じた、複数の撮像シーン別に撮影条件の組合せを設定するための設定データに従って、撮影条件の組合せを複数組設定することを特徴とする請求項1記載の撮影制御装置。
A shooting mode selection means for selecting a desired shooting mode from a plurality of shooting modes;
The photographing condition setting means includes
2. A plurality of combinations of shooting conditions are set according to setting data for setting a combination of shooting conditions for each of a plurality of shooting scenes according to the shooting mode selected by the shooting mode selection means. The imaging control device described.
外部光または被写体光の輝度または照度を計測する測光手段を備え、
前記撮影条件設定手段は、
前記測光手段からの計測信号に応じた撮影条件の設定データに従って、撮影条件の組合せを複数組設定することを特徴とする請求項1記載の撮影制御装置。
Photometric means for measuring the brightness or illuminance of external light or subject light,
The photographing condition setting means includes
2. The photographing control apparatus according to claim 1, wherein a plurality of combinations of photographing conditions are set in accordance with photographing condition setting data corresponding to a measurement signal from the photometry means.
被写体までの距離を計測する測距手段を備え、
前記撮影条件設定手段は、
前記測距手段からの計測信号に応じた設定データに従って、撮影条件の組合せを複数組設定することを特徴とする請求項1記載の撮影制御装置。
Equipped with a distance measuring means to measure the distance to the subject,
The photographing condition setting means includes
2. The photographing control apparatus according to claim 1, wherein a plurality of combinations of photographing conditions are set according to setting data corresponding to a measurement signal from the distance measuring means.
前記撮影条件設定手段は、
組合せ対象となる前記撮影条件毎の配分割合の設定データに従って、前記撮影条件の組合せ毎の撮影枚数を配分設定することを特徴とする請求項1記載の撮影制御装置。
The photographing condition setting means includes
2. The photographing control apparatus according to claim 1, wherein the number of shots for each combination of the photographing conditions is distributed and set according to setting data of a distribution ratio for each of the photographing conditions to be combined.
操作入力部からの操作情報に基づいて、連続撮影の合計枚数を設定する連続撮影枚数設定手段を備え、
前記撮影条件設定手段は、
前記連続撮影枚数設定手段により設定された連続撮影の合計枚数に応じて前記撮影条件の組合せを複数組設定することを特徴とする請求項1または6項に記載の撮影制御装置。
Based on the operation information from the operation input unit, comprising continuous shooting number setting means for setting the total number of continuous shooting,
The photographing condition setting means includes
7. The photographing control apparatus according to claim 1, wherein a plurality of combinations of the photographing conditions are set according to a total number of continuous photographing set by the continuous photographing number setting means.
操作入力部からの操作情報に基づいて、連続撮影の合計枚数を設定する連続撮影枚数設定手段と、
前記設定された連続撮影の合計枚数に応じて、撮影条件の分散度を設定する分散度設定手段とを備え、
前記撮影条件設定手段は、
前記分散度設定手段により設定された分散度に応じて、撮影条件の分散範囲を増減し、増減された分散範囲において、撮影条件の組合せを複数組設定するとともに、組合せ毎の撮影枚数を自動的に配分設定することを特徴とする請求項1記載の撮影制御装置。
Based on the operation information from the operation input unit, continuous shooting number setting means for setting the total number of continuous shooting,
Dispersity setting means for setting the dispersity of the shooting conditions according to the set total number of continuous shootings,
The photographing condition setting means includes
Depending on the degree of dispersion set by the degree-of-dispersion setting means, the dispersion range of shooting conditions is increased or decreased, and a plurality of combinations of shooting conditions are set within the increased or decreased dispersion range, and the number of shots for each combination is automatically set. The photographing control apparatus according to claim 1, wherein distribution setting is performed for each of the two.
画像表示手段と、
前記撮像手段により連続撮影された複数の画像、または、前記画像の縮小画像を、当該画像の撮影時の複数の撮影条件の組合せ別、または、所定の撮影条件別に配列して前記画像表示手段に再生表示するように制御する表示制御手段と、
操作入力部からの操作情報に基づいて、前記画像表示手段に表示された画像の中から選択された画像の画像データを符号化してメモリ媒体に保存記録するように制御する記録制御手段とを備えることを特徴とする請求項1記載の撮影制御装置。
Image display means;
A plurality of images continuously photographed by the imaging means or reduced images of the images are arranged on the image display means by arranging a combination of a plurality of photographing conditions at the time of photographing the image or by predetermined photographing conditions. Display control means for controlling reproduction and display;
Recording control means for controlling to encode image data of an image selected from the images displayed on the image display means based on operation information from an operation input unit and to store and encode the image data in a memory medium. The imaging control apparatus according to claim 1.
前記撮影条件設定手段は、
予め記憶された撮影条件の頻度データまたは統計データに基づいた撮影条件の組合せを設定するための設定データに基づく撮影条件設定データに従って、撮影条件の組合せを複数組設定することを特徴とする請求項1記載の撮影制御装置。
The photographing condition setting means includes
A plurality of combinations of shooting conditions are set according to shooting condition setting data based on setting data for setting a combination of shooting conditions based on frequency data or statistical data of shooting conditions stored in advance. The imaging control apparatus according to 1.
前記撮影条件設定手段は、
前記設定データに従って、露出補正条件、ホワイトバランス設定条件、ストロボ発光条件、自動合焦条件、被写界深度条件のうちいずれかの撮影条件の組合せを複数組設定することを特徴とする請求項3または4または10記載の撮影制御装置。
The photographing condition setting means includes
4. A plurality of combinations of photographing conditions among exposure correction conditions, white balance setting conditions, strobe lighting conditions, automatic focusing conditions, and depth of field conditions are set according to the setting data. Or the imaging | photography control apparatus of 4 or 10.
所定の条件に従って撮影条件の組合せを複数組設定する撮影条件設定ステップと、
前記撮影条件設定ステップにより設定された複数の撮影条件の組合せに基づいて、撮影動作を繰り返し実行するように、光学系により結像された被写体像を撮像して撮像信号を出力する撮像素子を制御する連続撮影制御ステップと、
を有することを特徴とする撮影制御方法。
A shooting condition setting step for setting a plurality of combinations of shooting conditions according to a predetermined condition;
Based on a combination of a plurality of shooting conditions set in the shooting condition setting step, an image sensor that picks up a subject image formed by an optical system and outputs an image pickup signal is controlled so as to repeatedly execute a shooting operation. Continuous shooting control step,
An imaging control method comprising:
所定の条件に従って撮影条件の組合せを複数組設定する撮影条件設定ステップと、
前記撮影条件設定ステップにより設定された複数の撮影条件の組合せに基づいて、撮影動作を繰り返し実行するように、光学系により結像された被写体像を撮像して撮像信号を出力する撮像素子を制御する連続撮影制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
A shooting condition setting step for setting a plurality of combinations of shooting conditions according to a predetermined condition;
Based on a combination of a plurality of shooting conditions set in the shooting condition setting step, an image sensor that picks up a subject image formed by an optical system and outputs an image pickup signal is controlled so as to repeatedly execute a shooting operation. Continuous shooting control step,
A program that causes a computer to execute.
JP2006306904A 2006-11-13 2006-11-13 Imaging control apparatus, imaging control method, and program Expired - Fee Related JP4867595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006306904A JP4867595B2 (en) 2006-11-13 2006-11-13 Imaging control apparatus, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006306904A JP4867595B2 (en) 2006-11-13 2006-11-13 Imaging control apparatus, imaging control method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011116421A Division JP5163774B2 (en) 2011-05-25 2011-05-25 Imaging control apparatus, imaging control method, and program

Publications (2)

Publication Number Publication Date
JP2008124827A true JP2008124827A (en) 2008-05-29
JP4867595B2 JP4867595B2 (en) 2012-02-01

Family

ID=39509118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006306904A Expired - Fee Related JP4867595B2 (en) 2006-11-13 2006-11-13 Imaging control apparatus, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP4867595B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193342A (en) * 2007-02-02 2008-08-21 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2010073035A (en) * 2008-09-19 2010-04-02 Sharp Corp Image generation apparatus, image generation method, image generation program, and computer readable recording medium recording the program
JP2010199727A (en) * 2009-02-23 2010-09-09 Nikon Corp Imager
WO2011061807A1 (en) * 2009-11-20 2011-05-26 株式会社 東芝 Image processing device
JP2011118309A (en) * 2009-12-07 2011-06-16 Nikon Corp Image pickup device
JP2012109718A (en) * 2010-11-16 2012-06-07 Canon Inc Image processing device and control method thereof
JP2014060711A (en) * 2012-09-14 2014-04-03 Axis Ab Configuration of image capturing settings
JP2014123809A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging apparatus, imaging system, and imaging apparatus control method
JP2015111793A (en) * 2013-12-06 2015-06-18 キヤノン株式会社 Image processing apparatus, imaging device, control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238115A (en) * 2000-02-21 2001-08-31 Olympus Optical Co Ltd Electronic camera
JP2003121731A (en) * 2001-10-18 2003-04-23 Minolta Co Ltd Digital camera
JP2005338614A (en) * 2004-05-28 2005-12-08 Casio Comput Co Ltd Photographing apparatus and is program
JP2006067464A (en) * 2004-08-30 2006-03-09 Pentax Corp Digital camera
JP2006308813A (en) * 2005-04-27 2006-11-09 Victor Co Of Japan Ltd Imaging apparatus with focus bracket function

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238115A (en) * 2000-02-21 2001-08-31 Olympus Optical Co Ltd Electronic camera
JP2003121731A (en) * 2001-10-18 2003-04-23 Minolta Co Ltd Digital camera
JP2005338614A (en) * 2004-05-28 2005-12-08 Casio Comput Co Ltd Photographing apparatus and is program
JP2006067464A (en) * 2004-08-30 2006-03-09 Pentax Corp Digital camera
JP2006308813A (en) * 2005-04-27 2006-11-09 Victor Co Of Japan Ltd Imaging apparatus with focus bracket function

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193342A (en) * 2007-02-02 2008-08-21 Casio Comput Co Ltd Imaging apparatus and program thereof
JP2010073035A (en) * 2008-09-19 2010-04-02 Sharp Corp Image generation apparatus, image generation method, image generation program, and computer readable recording medium recording the program
JP2010199727A (en) * 2009-02-23 2010-09-09 Nikon Corp Imager
WO2011061807A1 (en) * 2009-11-20 2011-05-26 株式会社 東芝 Image processing device
JP2011118309A (en) * 2009-12-07 2011-06-16 Nikon Corp Image pickup device
JP2012109718A (en) * 2010-11-16 2012-06-07 Canon Inc Image processing device and control method thereof
JP2014060711A (en) * 2012-09-14 2014-04-03 Axis Ab Configuration of image capturing settings
JP2014123809A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging apparatus, imaging system, and imaging apparatus control method
JP2015111793A (en) * 2013-12-06 2015-06-18 キヤノン株式会社 Image processing apparatus, imaging device, control method, and program

Also Published As

Publication number Publication date
JP4867595B2 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP4867595B2 (en) Imaging control apparatus, imaging control method, and program
JP4567593B2 (en) Imaging apparatus and imaging method
US9270875B2 (en) Dual image capture processing
TWI465107B (en) Image capturing apparatus capable of displaying live preview image
US8855358B2 (en) Determining whether or not a digital image has been tampered with
US8223219B2 (en) Imaging device, image processing method, image processing program and semiconductor integrated circuit
JP4888069B2 (en) Imaging apparatus, display control method, and program
US20090303343A1 (en) Low-light video frame enhancement
US20130342738A1 (en) Tone Mapping For Low-Light Video Frame Enhancement
US8520095B2 (en) Imaging apparatus and imaging method
JP5090302B2 (en) Imaging apparatus and method
JP5163774B2 (en) Imaging control apparatus, imaging control method, and program
JP5138521B2 (en) Imaging apparatus and imaging method
US7864860B2 (en) Image pickup apparatus and motion vector deciding method
JP2013168723A (en) Image processing device, imaging device, image processing program, and image processing method
JP5277863B2 (en) Imaging apparatus and imaging method
JP2009164859A (en) Imaging apparatus and imaging control method
JP2008278289A (en) Noise reducing device and method, and program
JP2008136113A (en) Image processor, imaging apparatus and image processing method
KR101408359B1 (en) Imaging apparatus and imaging method
JP4356651B2 (en) Image processing apparatus, imaging apparatus, and image processing method
Allen et al. Digital cameras and scanners
JP2015037222A (en) Image processing apparatus, imaging apparatus, control method, and program
Takemura et al. Challenge for improving image quality of a digital still camera
JP2013118492A (en) Image processing apparatus, imaging apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

R150 Certificate of patent or registration of utility model

Ref document number: 4867595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees