JP2010057168A - Photographic apparatus and method - Google Patents

Photographic apparatus and method Download PDF

Info

Publication number
JP2010057168A
JP2010057168A JP2009174563A JP2009174563A JP2010057168A JP 2010057168 A JP2010057168 A JP 2010057168A JP 2009174563 A JP2009174563 A JP 2009174563A JP 2009174563 A JP2009174563 A JP 2009174563A JP 2010057168 A JP2010057168 A JP 2010057168A
Authority
JP
Japan
Prior art keywords
scene recognition
shooting
scene
information
total
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009174563A
Other languages
Japanese (ja)
Other versions
JP5166370B2 (en
Inventor
Masahiko Sugimoto
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009174563A priority Critical patent/JP5166370B2/en
Publication of JP2010057168A publication Critical patent/JP2010057168A/en
Application granted granted Critical
Publication of JP5166370B2 publication Critical patent/JP5166370B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographic apparatus and method which can stably obtain recognition result of a scene. <P>SOLUTION: A digital camera 1 determines a presently being photographed scene SR, based on the number of recognition times (recognition frequency) in a scene recognition history and the newness of the recognition result. As shown in Fig.3(a), storage regions A[0], A[1], A[2], ..., for storing the recognition results of individual scenes, in turn, are provided in a RAM 69 of the digital camera 1. When the scene recognition history is to be updated, the recognition history is read in a CPU 75, and the number of recognition times (recognition frequency) for each scene is totaled (Fig.3(d)). Then, the scene with the maximum number of recognition times is determined as the presently photographing scene SR. In the example shown in Fig.3, a "scenery" of "2" and a "night view" of "3" appear in the scene recognition history two times (these become the scenes of the maximum frequency), and the total scene recognition result becomes SR=2, since the value of "2" is stored in the storage region of the newer side; and further, a photographic mode is set to a scenery mode. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は撮像装置及び撮像方法に係り、特に高精度で撮影シーンの認識が可能な撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method, and more particularly to an imaging apparatus and an imaging method capable of recognizing a photographic scene with high accuracy.

特許文献1には、デジタルスチルカメラにおいて、設定された撮影モードがシーンに対して適切であるか否かを、デジタル画像信号やEV値に基づいて判定することが開示されている。   Patent Document 1 discloses that in a digital still camera, whether or not a set shooting mode is appropriate for a scene is determined based on a digital image signal or an EV value.

特許文献2には、顔認識手段と状態検出手段の出力情報に基づいてカメラの撮影モードを設定する撮影モード自動設定カメラが開示されている。特許文献2に記載のカメラは、被写体の動き、撮像倍率又は被写体距離の出力情報に基づいてカメラ撮影モードを自動設定するものである。   Japanese Patent Application Laid-Open No. 2004-228561 discloses an imaging mode automatic setting camera that sets the imaging mode of the camera based on output information from the face recognition unit and the state detection unit. The camera described in Patent Document 2 automatically sets a camera shooting mode based on output information of subject movement, imaging magnification, or subject distance.

特開2003−244530号公報JP 2003-244530 A 特開2003−344891号公報JP 2003-344891 A

従来、撮像装置において、画像信号やEV値に基づいてシーンを認識することが行われている。特許文献1に記載のデジタルスチルカメラは、S1オン時(シャッターボタン半押し時)の画像信号を用いて、撮影モードの設定が適切か否かを判定するように構成されている。また、特許文献2に記載のカメラは、シャッタ釦の第一ストロークがオンしたときの画像信号を用いて撮影モードの設定を行うように構成されている。即ち、特許文献1及び2に記載の技術はいずれもS1オン時の画像信号で撮影モードの判定を1回行うだけであるため、画像信号やEV値によっては、シーンの認識結果が変化しやすくなり、安定したシーンの認識結果を出力することが困難であった。   Conventionally, in an imaging apparatus, a scene is recognized based on an image signal or an EV value. The digital still camera described in Patent Document 1 is configured to determine whether or not the shooting mode setting is appropriate using an image signal when S1 is on (when the shutter button is half-pressed). In addition, the camera described in Patent Document 2 is configured to set the shooting mode using an image signal when the first stroke of the shutter button is turned on. In other words, since the techniques described in Patent Documents 1 and 2 both determine the shooting mode once with the image signal when S1 is on, the scene recognition result is likely to change depending on the image signal and the EV value. Thus, it is difficult to output a stable scene recognition result.

本発明はこのような事情に鑑みてなされたもので、シーンの認識結果を安定して得ることが可能な撮像装置及び撮像方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an imaging apparatus and an imaging method capable of stably obtaining a scene recognition result.

上記課題を解決するために、本発明第1の態様に係る撮像装置は、撮影シーンの情報である撮影情報を取得する撮影情報取得手段と、前記撮影情報取得手段により取得した前記撮影情報から撮影シーンを認識する単独シーン認識を行う単独シーン認識手段と、前記単独シーン認識手段による単独シーン認識結果を最新の所定個数分シーン認識履歴として登録するシーン認識履歴登録手段と、前記シーン認識履歴登録手段により登録されたシーン認識履歴に基づいて撮影シーンを認識するトータルシーン認識を行うトータルシーン認識手段と、前記トータルシーン認識手段による前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御手段と、を備えたことを特徴とする。   In order to solve the above-described problem, an imaging apparatus according to a first aspect of the present invention includes a shooting information acquisition unit that acquires shooting information that is information of a shooting scene, and a shooting from the shooting information acquired by the shooting information acquisition unit. A single scene recognition unit for performing single scene recognition for recognizing a scene, a scene recognition history registration unit for registering a single predetermined scene recognition result by the single scene recognition unit as the latest predetermined number of scene recognition histories, and the scene recognition history registration unit Total scene recognition means for performing a total scene recognition for recognizing a shooting scene based on the scene recognition history registered by the control unit, and display control, shooting control, and signal processing control according to the total scene recognition result by the total scene recognition means And control means for performing at least one of information recording control.

本発明第2の態様に係る撮像装置は、撮影シーンの情報である撮影情報を取得する撮影情報取得手段と、前記撮影情報取得手段により取得された撮影情報を最新の所定個数分撮影情報履歴として登録する撮影情報履歴登録手段と、前記撮影情報履歴登録手段に登録された撮影情報履歴に基づいて撮影シーンを認識するトータルシーン認識を行うトータルシーン認識手段と、前記トータルシーン認識手段による前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御手段とを備えたことを特徴とする。   An imaging apparatus according to a second aspect of the present invention includes a shooting information acquisition unit that acquires shooting information that is information of a shooting scene, and shooting information acquired by the shooting information acquisition unit as the latest predetermined number of shooting information histories. Shooting information history registration means for registration, total scene recognition means for performing total scene recognition for recognizing a shooting scene based on the shooting information history registered in the shooting information history registration means, and the total scene by the total scene recognition means And a control unit that performs at least one of display control, imaging control, signal processing control, and information recording control according to the recognition result.

本発明第3の態様に係る撮像装置は、上記第1の態様において、前記トータルシーン認識手段は、前記シーン認識履歴登録手段に登録された前記シーン認識履歴の全部もしくは一部の範囲において、最大頻度の単独シーン認識結果が示す撮影シーンを検出し、当該検出した撮影シーンを前記トータルシーン認識結果とすることを特徴とする。   The imaging apparatus according to a third aspect of the present invention is the imaging device according to the first aspect, wherein the total scene recognition means is a maximum in a range of all or a part of the scene recognition history registered in the scene recognition history registration means. A photographic scene indicated by a frequency single scene recognition result is detected, and the detected photographic scene is used as the total scene recognition result.

本発明第4の態様に係る撮像装置は、上記第3の態様において、前記トータルシーン認識手段は、前記最大頻度の単独シーン認識結果が示す撮影シーンが複数検出された場合には、最新側の最大頻度の単独シーン認識結果が示す撮影シーンを前記トータルシーン認識結果とすることを特徴とする。   The imaging device according to a fourth aspect of the present invention is the imaging device according to the third aspect, wherein the total scene recognizing means detects the latest side when a plurality of shooting scenes indicated by the maximum frequency single scene recognition result are detected. The photographic scene indicated by the maximum frequency single scene recognition result is used as the total scene recognition result.

本発明第5の態様に係る撮像装置は、上記第1の態様において、前記トータルシーン認識手段は、前記シーン認識履歴登録手段に登録された前記シーン認識履歴中の各単独シーン認識結果に対し、最新の単独シーン認識結果ほど重みが大きくなる重み付けを行う重み付け設定手段と、前記重み付け設定手段による重み付け後の単独シーン認識結果別の累積スコアを算出する算出手段とを有し、前記算出手段により算出した累積スコアが最大となる単独シーン認識結果を前記トータルシーン認識結果とすることを特徴とする。   In the imaging device according to the fifth aspect of the present invention, in the first aspect, the total scene recognizing unit is configured so that each single scene recognition result in the scene recognition history registered in the scene recognition history registration unit is A weight setting unit that performs weighting such that the weight of the latest single scene recognition result increases, and a calculation unit that calculates a cumulative score for each single scene recognition result after weighting by the weight setting unit. The single scene recognition result having the maximum accumulated score is set as the total scene recognition result.

本発明第6の態様に係る撮像装置は、上記第2の態様において、前記トータルシーン認識手段は、前記撮影情報履歴登録手段に登録された前記撮影情報履歴から代表値を算出する算出手段と、前記算出手段により算出された代表値に基づいて撮影シーンを認識する認識手段とを有することを特徴とする。   The imaging apparatus according to a sixth aspect of the present invention is the imaging apparatus according to the second aspect, wherein the total scene recognizing means calculates a representative value from the shooting information history registered in the shooting information history registration means; Recognizing means for recognizing a photographic scene based on the representative value calculated by the calculating means.

本発明第7の態様に係る撮像装置は、上記第6の態様において、前記算出手段は、前記撮影情報履歴登録手段に登録された前記撮影情報履歴の平均値、前記撮影情報履歴のうちの最新の情報ほど大きくなる重みを付けた重み付け平均値、前記撮影情報履歴のメディアン値、及び前記撮影情報履歴のうちの最大値側のN(N:0以上の整数)個分、最小値側のM(M:0以上の整数であって、N=M、N≠Mを含む)個分の撮影情報を除いた残り情報の平均値のうちのいずれか1つを前記代表値として算出することを特徴とする。   The imaging device according to a seventh aspect of the present invention is the imaging device according to the sixth aspect, wherein the calculating means is the latest value of the average value of the photographing information histories registered in the photographing information history registering means and the photographing information history. The weighted average value weighted as the information becomes larger, the median value of the shooting information history, and the maximum value side N (N is an integer of 0 or more) of the shooting information history, the minimum value side M Calculating any one of the average values of the remaining information excluding the number of pieces of shooting information (M is an integer equal to or greater than 0 and includes N = M and N ≠ M) as the representative value. Features.

本発明第8の態様に係る撮像装置は、上記第1から第7の態様において、前記撮影情報取得手段は、撮影シーン中に人物の顔があるか否かを示す情報、被写体距離を示す情報、被写体の明るさを示す情報、及び補助光の検出情報のうちの少なくとも1つの情報を取得することを特徴とする。   The imaging device according to an eighth aspect of the present invention is the imaging device according to any one of the first to seventh aspects, wherein the photographing information acquisition means includes information indicating whether or not a person's face is present in a photographing scene, and information indicating a subject distance. And at least one of information indicating the brightness of the subject and detection information of the auxiliary light.

本発明第9の態様に係る撮像装置は、上記第8の態様において、前記撮影情報取得手段は、前記被写体距離を示す情報として、前記被写体に合焦しているときのフォーカス位置の情報を取得することを特徴とする。   The imaging device according to a ninth aspect of the present invention is the imaging device according to the eighth aspect, wherein the photographing information acquisition means acquires information on a focus position when the subject is in focus as information indicating the subject distance. It is characterized by doing.

本発明第10の態様に係る撮像装置は、上記第1、3、4、5、8及び9の態様において、シャッタ半押し時に本露光用の測光及び測距を指示し、シャッタ全押し時に本露光を指示するシャッタボタンを更に備え、前記シーン認識履歴登録手段に登録される前記シーン認識履歴には、前記シャッタ半押し前の単独シーン認識結果の個数と、前記シャッタ半押し後の単独シーン認識結果の個数とが個別に設定されることを特徴とする。   The imaging apparatus according to the tenth aspect of the present invention, in the first, third, fourth, fifth, eighth and ninth aspects, instructs photometry and distance measurement for main exposure when the shutter is half-pressed, and main when the shutter is fully pressed. A shutter button for instructing exposure, and the scene recognition history registered in the scene recognition history registration unit includes the number of single scene recognition results before the shutter half-press and the single scene recognition after the shutter half-press The number of results is set individually.

本発明第11の態様に係る撮像装置は、上記第2、6、7、8及び9の態様において、シャッタ半押し時に本露光用の測光及び測距を指示し、シャッタ全押し時に本露光を指示するシャッタボタンを備え、前記撮影情報履歴登録手段に登録される前記撮影情報履歴は、前記シャッタ半押し前の撮影情報の個数と、前記シャッタ半押し後の撮影情報の個数とが個別に設定されることを特徴とする。   The imaging apparatus according to the eleventh aspect of the present invention, in the second, sixth, seventh, eighth and ninth aspects, instructs photometry and distance measurement for main exposure when the shutter is half-pressed, and performs main exposure when the shutter is fully pressed. In the shooting information history registered in the shooting information history registration means, the number of shooting information before half-pressing the shutter and the number of shooting information after half-pressing the shutter are individually set. It is characterized by being.

本発明第12の態様に係る撮像装置は、上記第1から11の態様において、前記トータルシーン認識手段によるトータルシーン認識結果に応じて撮影モードを設定する撮影モード設定手段を更に有し、前記制御手段は、前記設定された撮影モードに基づいて前記撮影制御を行うことを特徴とする。   An image pickup apparatus according to a twelfth aspect of the present invention further includes shooting mode setting means for setting a shooting mode in accordance with a total scene recognition result by the total scene recognition means in the first to eleventh aspects, wherein the control The means is characterized in that the photographing control is performed based on the set photographing mode.

本発明第13の態様に係る撮像装置は、上記第1から第12の態様において、シャッタ半押し時に本露光用の測光及び測距を指示し、シャッタ全押し時に本露光を指示するシャッタボタンを更に備え、前記撮影情報取得手段は、前記シャッタ半押し後は、本露光用の被写体距離を示す情報、及び本露光用の被写体の明るさを示す情報のみを取得する。   According to a thirteenth aspect of the present invention, in the first to twelfth aspects, the shutter button for instructing photometry and distance measurement for main exposure when the shutter is half-pressed and for main exposure when the shutter is fully pressed. The photographing information acquisition means further includes only information indicating the subject distance for main exposure and information indicating the brightness of the subject for main exposure after the shutter is half-pressed.

本発明第14の態様に係る撮像方法は、撮影シーンの情報である撮影情報を取得する撮影情報取得ステップと、前記撮影情報取得ステップにより取得した前記撮影情報から撮影シーンを認識する単独シーン認識ステップと、前記単独シーン認識ステップにおいて認識された単独シーン認識結果を最新の所定個数分シーン認識履歴としてシーン認識履歴登録手段に登録するシーン認識履歴登録ステップと、前記シーン認識履歴登録手段に登録された前記シーン認識履歴に基づいて撮影シーンを認識するトータルシーン認識ステップと、前記トータルシーン認識ステップの前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御ステップとを備えたことを特徴とする。   An imaging method according to a fourteenth aspect of the present invention includes a shooting information acquisition step for acquiring shooting information that is information of a shooting scene, and a single scene recognition step for recognizing a shooting scene from the shooting information acquired by the shooting information acquisition step. A single scene recognition result recognized in the single scene recognition step is registered in the scene recognition history registration unit as the latest predetermined number of scene recognition histories in the scene recognition history registration unit, and registered in the scene recognition history registration unit At least one of display control, shooting control, signal processing control, and information recording control according to the total scene recognition step for recognizing a shooting scene based on the scene recognition history, and the total scene recognition result of the total scene recognition step And a control step for performing one.

本発明第15の態様に係る撮像方法は、撮影シーンの情報である撮影情報を取得する撮影情報取得ステップと、前記撮影情報取得ステップにおいて取得された前記撮影情報を最新の所定個数分撮影情報履歴として撮影情報履歴登録手段に登録する撮影情報履歴登録ステップと、前記撮影情報履歴登録手段に登録された前記撮影情報履歴に基づいて撮影シーンを認識するトータルシーン認識ステップと、前記トータルシーン認識ステップの前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御および情報記録制御のうち少なくとも1つを行う制御ステップとを備えたことを特徴とする。   The imaging method according to the fifteenth aspect of the present invention includes a shooting information acquisition step of acquiring shooting information that is information of a shooting scene, and a shooting information history of the latest predetermined number of the shooting information acquired in the shooting information acquisition step. A shooting information history registration step registered as shooting information history registration means, a total scene recognition step for recognizing a shooting scene based on the shooting information history registered in the shooting information history registration means, and a total scene recognition step And a control step of performing at least one of display control, shooting control, signal processing control, and information recording control in accordance with the total scene recognition result.

本発明によれば、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値を含む撮影情報の履歴、又は上記撮影情報に基づくシーン認識結果(単独シーン認識結果)の履歴を使ってシーン認識を行うことにより、安定したシーン認識結果を取得することが可能になる。   According to the present invention, as a result of face detection, a history of shooting information including a focus lens position, a zoom lens position, an in-focus state, and a photometric value, or a history of scene recognition results (single scene recognition results) based on the shooting information. It is possible to obtain a stable scene recognition result by using and performing scene recognition.

本発明の第1の実施形態に係る撮像装置(デジタルカメラ)を示すブロック図1 is a block diagram showing an imaging apparatus (digital camera) according to a first embodiment of the present invention. トータルシーン認識処理を模式的に示す図Diagram showing total scene recognition processing トータルシーン認識処理を模式的に示す図Diagram showing total scene recognition processing シーン認識結果の表示の例Example of scene recognition result display 本発明の第1の実施形態に係るシーン認識処理を示すフローチャートThe flowchart which shows the scene recognition process which concerns on the 1st Embodiment of this invention. 単独シーン認識処理を示すフローチャートFlow chart showing single scene recognition processing シーンの認識処理を示すフローチャートFlow chart showing scene recognition processing シーンの認識処理を示すフローチャートFlow chart showing scene recognition processing シーンの認識処理を示すフローチャートFlow chart showing scene recognition processing シーンの認識処理を示すフローチャートFlow chart showing scene recognition processing シーンの認識処理を示すフローチャートFlow chart showing scene recognition processing 本発明の第2の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートThe flowchart which shows the total scene recognition process (before S1) which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートThe flowchart which shows the total scene recognition process (at the time of S1 ON) which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係るトータルシーン認識処理(S1前)を模式的に示す図The figure which shows typically the total scene recognition process (before S1) which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係るトータルシーン認識処理(S1オン時)を模式的に示す図The figure which shows typically the total scene recognition process (at the time of S1 ON) which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートThe flowchart which shows the total scene recognition process (before S1) which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートThe flowchart which shows the total scene recognition process (at the time of S1 ON) which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係るトータルシーン認識処理を模式的に示す図The figure which shows typically the total scene recognition process which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係るトータルシーン認識処理を示すフローチャートThe flowchart which shows the total scene recognition process which concerns on the 4th Embodiment of this invention. 本発明の第5の実施形態に係るトータルシーン認識処理(S1前)を模式的に示す図The figure which shows typically the total scene recognition process (before S1) which concerns on the 5th Embodiment of this invention. 本発明の第5の実施形態に係るトータルシーン認識処理(S1オン時)を模式的に示す図The figure which shows typically the total scene recognition process (at the time of S1 ON) which concerns on the 5th Embodiment of this invention. 本発明の第5の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートThe flowchart which shows the total scene recognition process (before S1) which concerns on the 5th Embodiment of this invention. 本発明の第5の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートThe flowchart which shows the total scene recognition process (at the time of S1 ON) which concerns on the 5th Embodiment of this invention. 本発明の第6の実施形態に係るトータルシーン認識処理(S1前)を模式的に示す図The figure which shows typically the total scene recognition process (before S1) which concerns on the 6th Embodiment of this invention. 本発明の第6の実施形態に係るトータルシーン認識処理(S1オン時)を模式的に示す図The figure which shows typically the total scene recognition process (at the time of S1 ON) which concerns on the 6th Embodiment of this invention. 本発明の第6の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートThe flowchart which shows the total scene recognition process (before S1) which concerns on the 6th Embodiment of this invention. 本発明の第6の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートThe flowchart which shows the total scene recognition process (at the time of S1 ON) which concerns on the 6th Embodiment of this invention.

以下、添付図面に従って本発明に係る撮像装置及び撮像方法の好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of an imaging apparatus and an imaging method according to the present invention will be described with reference to the accompanying drawings.

[第1の実施形態]
本実施形態に係る撮像装置は、撮影時に被写体の状況(撮影シーン、または単にシーンともいう)を認識するシーン認識を実行し、撮影モードを設定する。認識されるシーンとして、例えば、人物、風景、夜景、接写、スポーツ、花火、夕焼け、スノー、ビーチ、水中又は文字が挙げられる。より詳しくは、撮像装置は、撮影シーンの情報である撮影情報に基づいてシーン認識を複数回実行し(後述の単独シーン認識)、シーン認識を実行する都度、そのシーン認識結果の履歴を記録する。そして、そのシーン認識結果の履歴を考慮して撮影時のシーンの認識(後述のトータルシーン認識)及び撮影モードの設定を行う。
[First Embodiment]
The imaging apparatus according to the present embodiment executes scene recognition for recognizing a situation of a subject (a shooting scene or simply a scene) at the time of shooting, and sets a shooting mode. Examples of recognized scenes include a person, landscape, night view, close-up, sports, fireworks, sunset, snow, beach, underwater or characters. More specifically, the imaging apparatus executes scene recognition a plurality of times (single scene recognition described later) based on shooting information that is information of a shooting scene, and records the scene recognition result history each time scene recognition is executed. . Then, in consideration of the history of the scene recognition result, scene recognition during shooting (total scene recognition described later) and shooting mode setting are performed.

図1は、本発明の第1の実施形態に係る撮像装置(デジタルカメラ)を示すブロック図である。   FIG. 1 is a block diagram showing an imaging apparatus (digital camera) according to the first embodiment of the present invention.

本実施形態に係る撮像装置(以下、デジタルカメラ1という。)は、撮影により取得した画像データを、Exif形式の画像ファイルに変換して、本体に着脱可能な外部記録メディアなどの記録部70へ記録するものである。   The image pickup apparatus according to the present embodiment (hereinafter referred to as the digital camera 1) converts image data acquired by shooting into an Exif format image file and transfers it to a recording unit 70 such as an external recording medium that can be attached to and detached from the main body. To record.

図1に示すように、デジタルカメラ1は、操作部11と、ユーザによる操作部11への操作内容を解釈して各部を制御する制御回路74とを有している。   As shown in FIG. 1, the digital camera 1 includes an operation unit 11 and a control circuit 74 that interprets the operation content of the user on the operation unit 11 and controls each unit.

操作部11は、画像を撮影する撮影モードと、記録部70に記録された画像を読み出して表示部71に表示する再生モードとの間で動作モードを切り替える動作モードスイッチ、メニュー/OKボタン、ズーム/上下矢印レバー、左右矢印ボタン、Back(戻る)ボタン、表示切替ボタン、シャッタボタン、電源スイッチを含んでいる。   The operation unit 11 is an operation mode switch, a menu / OK button, a zoom that switches an operation mode between a shooting mode for shooting an image and a playback mode for reading an image recorded in the recording unit 70 and displaying it on the display unit 71. / Includes an up / down arrow lever, a left / right arrow button, a Back button, a display switching button, a shutter button, and a power switch.

制御回路74は、情報処理を行うCPU75、情報処理を規定したプログラム、ファームウェア、プログラムでの各種判定に用いる閾値その他の定数などを記録したROM68、情報処理に必要な変数やデータなどを格納するRAM69を備えている。   The control circuit 74 includes a CPU 75 that performs information processing, a program that defines information processing, firmware, a ROM 68 that records threshold values and other constants used for various determinations in the program, and a RAM 69 that stores variables and data necessary for information processing. It has.

CPU75は、操作部11やAF処理部62等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。ROM68は、デジタルカメラ1において設定される各種定数、およびCPU75が実行するプログラム等を格納する。RAM69は、CPU75がプログラムの実行に必要なデータを一時的に格納する。   The CPU 75 controls each part of the main body of the digital camera 1 in accordance with signals from various processing units such as the operation unit 11 and the AF processing unit 62. The ROM 68 stores various constants set in the digital camera 1, programs executed by the CPU 75, and the like. The RAM 69 temporarily stores data necessary for the CPU 75 to execute the program.

レンズ20は、フォーカスレンズおよびズームレンズを有している。レンズ20は、レンズ駆動部51によって光軸方向に移動可能である。レンズ駆動部51は、CPU75から出力されるフォーカス駆動量データに基づいて、フォーカスレンズの位置を制御する。また、レンズ駆動部51は、操作部11のズーム/上下矢印レバーの操作量データに基づいてズームレンズの位置を制御する。   The lens 20 has a focus lens and a zoom lens. The lens 20 can be moved in the optical axis direction by the lens driving unit 51. The lens driving unit 51 controls the position of the focus lens based on the focus drive amount data output from the CPU 75. Further, the lens driving unit 51 controls the position of the zoom lens based on the operation amount data of the zoom / up / down arrow lever of the operation unit 11.

また、絞り54は、モータとモータドライバとからなる絞り駆動部55によって駆動される。絞り駆動部55は、CPU75から出力される絞り値データに基づいて絞り径の調整を行う。   The diaphragm 54 is driven by a diaphragm driving unit 55 including a motor and a motor driver. The aperture driver 55 adjusts the aperture diameter based on aperture value data output from the CPU 75.

レンズ20、絞り54を含む撮像光学系の後方には、撮像素子(CCD)58が配置されている。なお、撮像素子58としては、CCDの代わりにCMOSイメージセンサを用いることもできる。   An imaging element (CCD) 58 is disposed behind the imaging optical system including the lens 20 and the diaphragm 54. As the image pickup device 58, a CMOS image sensor can be used instead of the CCD.

撮像素子58は、多数の受光素子が2次元的に配列された光電面を有している。撮像光学系を通過した被写体光はこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。撮像素子58は、撮像素子制御部59から供給される垂直転送クロックおよび水平転送クロックに同期して、画素毎に蓄積された電荷を1ラインずつシリアルなアナログ撮影信号として出力する。各画素において電荷を蓄積する時間、すなわち、露出時間は、撮像素子制御部59から与えられる電子シャッタ駆動信号によって決定される。また、撮像素子58は、あらかじめ定められた大きさのアナログ撮像信号が得られるように、撮像素子制御部59によりゲインが調整されている。   The image sensor 58 has a photocathode on which a large number of light receiving elements are two-dimensionally arranged. The subject light that has passed through the imaging optical system forms an image on this photocathode and undergoes photoelectric conversion. In front of the photocathode, a microlens array for condensing light on each pixel and a color filter array in which filters of R, G, and B colors are regularly arranged are arranged. The image sensor 58 outputs the charge accumulated for each pixel as a serial analog image signal for each line in synchronization with the vertical transfer clock and the horizontal transfer clock supplied from the image sensor control unit 59. The time for accumulating charges in each pixel, that is, the exposure time is determined by an electronic shutter drive signal provided from the image sensor control unit 59. Further, the gain of the image sensor 58 is adjusted by the image sensor control unit 59 so that an analog image signal having a predetermined size can be obtained.

撮像素子58から取り込まれたアナログ撮影信号は、アナログ信号処理部60に入力される。アナログ信号処理部60は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)とからなる。アナログ信号処理部60におけるR、G、B信号の増幅ゲインは、撮影感度(ISO感度)に相当する。CPU75は、この増幅ゲインを調整することにより撮影感度を設定する。   The analog photographing signal captured from the image sensor 58 is input to the analog signal processing unit 60. The analog signal processing unit 60 includes a correlated double sampling circuit (CDS) that removes noise from the analog signal, and an auto gain controller (AGC) that adjusts the gain of the analog signal. The amplification gains of the R, G, and B signals in the analog signal processing unit 60 correspond to shooting sensitivity (ISO sensitivity). The CPU 75 sets the photographing sensitivity by adjusting the amplification gain.

A/D変換部61は、アナログ信号処理部60により処理されたアナログ画像信号をデジタル画像データに変換する。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つCCD−RAWデータである。   The A / D conversion unit 61 converts the analog image signal processed by the analog signal processing unit 60 into digital image data. The image data converted into the digital signal is CCD-RAW data having R, G, and B density values for each pixel.

制御回路74は、発振子(不図示)から供給される発振信号を逓倍又は分周してタイミング信号を発生させて撮像素子制御部59に入力することにより、操作部11のシャッタボタンの操作時における撮像素子58からの電荷の取込みおよびアナログ信号処理部60の処理のタイミングを調整している。   The control circuit 74 multiplies or divides an oscillation signal supplied from an oscillator (not shown) to generate a timing signal and input it to the image sensor control unit 59, thereby operating the shutter button of the operation unit 11. The timing of taking in the charge from the image sensor 58 and the processing of the analog signal processing unit 60 is adjusted.

制御回路74は、撮像素子58で生成された画像信号の輝度を検出することにより測光を行う。制御回路74は、被写界輝度が低い場合、自動焦点調節(AF)時(シャッタボタン半押し時(S1オン))に補助光制御部25に指示して補助光発光部26(例えば、LED)から補助光を照射させる。   The control circuit 74 performs photometry by detecting the luminance of the image signal generated by the image sensor 58. When the field brightness is low, the control circuit 74 instructs the auxiliary light control unit 25 during automatic focus adjustment (AF) (when the shutter button is half-pressed (S1 on)), and the auxiliary light emitting unit 26 (for example, LED ) To assist light.

A/D変換部61から出力されたR,G,Bの各画像データ(CCD−RAWデータ)は、デジタル信号処理部65によって、ホワイトバランス(WB)調整、ガンマ補正、およびYC処理が施される。処理後の画像データは、メモリ66に書き込まれる。   The R, G, B image data (CCD-RAW data) output from the A / D converter 61 is subjected to white balance (WB) adjustment, gamma correction, and YC processing by the digital signal processor 65. The The processed image data is written into the memory 66.

メモリ66は、画像データに対して後述の各種デジタル画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。   The memory 66 is a working memory used when various digital image processing (signal processing) described later is performed on the image data. For example, an SDRAM (Synchronous) that performs data transfer in synchronization with a bus clock signal having a fixed period. Dynamic Random Access Memory) is used.

表示部71は、例えば、液晶モニタを含んでおり、撮影モード設定以後から本撮影指示がされるまでの間メモリ66に逐次格納された画像データをライブビュー画像(スルー画像)として液晶モニタに表示させたり、再生モード時に記録部70に保存されている画像データを液晶モニタに表示させる。なお、スルー画像とは、ユーザがリアルタイムに撮影画角や状況などを確認することが出来るように、撮影モードが選択されている間、所定の時間間隔で撮像素子58により撮像された被写体を示す画像信号に基づいて表示部71に表示される画像をいう。   The display unit 71 includes, for example, a liquid crystal monitor, and displays the image data sequentially stored in the memory 66 from the setting of the shooting mode until the main shooting instruction is given on the liquid crystal monitor as a live view image (through image). Or the image data stored in the recording unit 70 in the playback mode is displayed on the liquid crystal monitor. Note that the through image indicates a subject imaged by the image sensor 58 at a predetermined time interval while the shooting mode is selected so that the user can check the shooting angle of view and the situation in real time. An image displayed on the display unit 71 based on the image signal.

本実施形態のデジタルカメラ1は、動作モードが撮影モードに設定されると、画像の撮像を開始し、ライブビュー画像(スルー画)が表示部71の液晶モニタに表示される。スルー画表示時には、CPU75は、後述のAF処理部62及びAE/AWB処理部63による演算結果に基づいて、コンティニュアスAE(CAE)及びコンティニュアスAF(CAF)を実行する。ここで、コンティニュアスAEとは、スルー画撮影の継続中に繰り返し露出値の演算を行って、連続的に撮像素子(CCD)58の電子シャッタ機能及び/又は絞り54を制御する機能である。コンティニュアスAFとは、スルー画撮影の継続中に繰り返しAF評価値の演算を行って、連続的にフォーカスレンズ位置を制御する機能である。撮影モード時にシャッタボタンが半押しされると(S1オン)、デジタルカメラ1は、AE処理(S1AE)及びAF処理(S1AF)を実行し、AEロック及びAFロックを実行する。   When the operation mode is set to the shooting mode, the digital camera 1 according to the present embodiment starts image capturing, and a live view image (through image) is displayed on the liquid crystal monitor of the display unit 71. At the time of displaying a through image, the CPU 75 executes continuous AE (CAE) and continuous AF (CAF) based on calculation results by an AF processing unit 62 and an AE / AWB processing unit 63 described later. Here, the continuous AE is a function of repeatedly calculating an exposure value while continuing through image shooting and continuously controlling the electronic shutter function and / or the aperture 54 of the image sensor (CCD) 58. . Continuous AF is a function for continuously controlling the focus lens position by repeatedly calculating an AF evaluation value while continuing through image shooting. When the shutter button is half-pressed in the shooting mode (S1 on), the digital camera 1 executes AE processing (S1AE) and AF processing (S1AF), and executes AE lock and AF lock.

以下、AE処理及びAF処理について説明する。撮像素子58から出力された画像信号はA/D変換後にバッファメモリ(不図示)を介してAF処理部62及びAE/AWB処理部63に入力される。   Hereinafter, the AE process and the AF process will be described. The image signal output from the image sensor 58 is input to the AF processing unit 62 and the AE / AWB processing unit 63 via a buffer memory (not shown) after A / D conversion.

AE/AWB処理部63は、1画面を複数の分割エリア(例えば、8×8又は16×16)に分割し、この分割エリアごとにR、G、B信号を積算し、その積算値をCPU75に提供する。CPU75は、AE/AWB処理部63から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。CPU75は、上記露出値と所定のプログラム線図に従って、絞り値とシャッタスピードを決定し、これに従い撮像素子58の電子シャッタ機能及び絞り54を制御して適正な露光量を得る。   The AE / AWB processing unit 63 divides one screen into a plurality of divided areas (for example, 8 × 8 or 16 × 16), integrates R, G, and B signals for each divided area, and calculates the integrated value as a CPU 75. To provide. The CPU 75 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB processing unit 63, and calculates an exposure value (shooting EV value) suitable for shooting. The CPU 75 determines an aperture value and a shutter speed according to the exposure value and a predetermined program diagram, and controls the electronic shutter function and the aperture 54 of the image sensor 58 according to this to obtain an appropriate exposure amount.

更に、CPU75は、フラッシュ発光モードがオンに設定された場合にフラッシュ制御部73にコマンドを送って動作させる。フラッシュ制御部73は、フラッシュ発光部(放電管)24を発光させるための電流を供給するためのメインコンデンサを含んでおり、CPU75からのフラッシュ発光指令に従ってメインコンデンサの充電制御、フラッシュ発光部24への放電(発光)のタイミング及び放電時間の制御等を行う。なお、フラッシュ発光手段としては、放電管に代えて発光ダイオード(LED)を用いることも可能である。   Further, the CPU 75 sends a command to the flash control unit 73 to operate when the flash emission mode is set to ON. The flash control unit 73 includes a main capacitor for supplying a current for causing the flash light emitting unit (discharge tube) 24 to emit light. In accordance with a flash light emission command from the CPU 75, charging control of the main capacitor and the flash light emitting unit 24 are performed. The discharge (light emission) timing and discharge time are controlled. As the flash light emitting means, a light emitting diode (LED) can be used instead of the discharge tube.

また、AE/AWB処理部63は、自動ホワイトバランス調整時に、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をCPU75に提供する。CPU75は、Rの積算値、Bの積算値、Gの積算値を得て、分割エリアごとにR/G及びB/Gの比を求め、これらR/G、B/Gの値のR/G、B/G軸座標の色空間における分布等に基づいて光源種判別を行い、判別された光源種に応じてホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランスゲイン)を制御し、各色チャンネルの信号に補正をかける。   Further, the AE / AWB processing unit 63 calculates an average integrated value for each color of the R, G, and B signals for each divided area during automatic white balance adjustment, and provides the calculation result to the CPU 75. The CPU 75 obtains an integrated value of R, an integrated value of B, and an integrated value of G, obtains a ratio of R / G and B / G for each divided area, and calculates R / G and R / G of the values of B / G. The light source type is determined based on the distribution in the color space of the G and B / G axis coordinates, and the gain value (white balance gain) for the R, G, and B signals of the white balance adjustment circuit is determined according to the determined light source type. Control and correct the signal of each color channel.

本実施形態に係るデジタルカメラ1におけるAF制御は、例えば、画像信号のG信号の高周波成分が極大になるようにフォーカスレンズを移動させるコントラストAFが適用される。即ち、AF処理部62は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、画面内(例えば、画面中央部)にあらかじめ設定されているフォーカス対象エリア内の信号を切り出すAFエリア抽出部及びAFエリア内の絶対値データを積算する積算部から構成される。   For the AF control in the digital camera 1 according to the present embodiment, for example, contrast AF that moves the focus lens so that the high-frequency component of the G signal of the image signal is maximized is applied. That is, the AF processing unit 62 cuts out a signal in a focus target area set in advance in a high-pass filter that passes only high-frequency components of the G signal, an absolute value processing unit, and a screen (for example, the center of the screen). An area extraction unit and an integration unit that integrates absolute value data in the AF area are configured.

AF処理部62により求められた積算値のデータはCPU75に通知される。CPU75は、レンズ駆動部51を制御してフォーカスレンズを移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、演算した焦点評価値が極大となるレンズ位置を合焦位置として決定する。そして、CPU75は、レンズ駆動部51を制御して上記合焦位置にフォーカスレンズを移動させる。なお、コンティニュアスAF(CAF)時には、S1AFのときに比べて、合焦位置のサーチ範囲(AFサーチ時のフォーカスレンズの移動範囲)が狭く、AF検出ポイントの数が少なくなっている。また、AF評価値の演算はG信号を利用する態様に限らず、輝度信号(Y信号)を利用してもよい。   The accumulated value data obtained by the AF processing unit 62 is notified to the CPU 75. The CPU 75 calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while controlling the lens driving unit 51 to move the focus lens, and focuses the lens position where the calculated focus evaluation value is maximized. Determine as position. Then, the CPU 75 controls the lens driving unit 51 to move the focus lens to the in-focus position. In continuous AF (CAF), the focus range search range (focus lens movement range during AF search) is narrower and the number of AF detection points is smaller than in S1AF. Further, the calculation of the AF evaluation value is not limited to the mode using the G signal, and a luminance signal (Y signal) may be used.

なお、露出およびホワイトバランスについては、撮影モードがマニュアルモードに設定されている場合には、デジタルカメラ1のユーザがマニュアル操作により設定可能である。また、露出およびホワイトバランスが自動で設定された場合にも、ユーザがメニュー/OKボタン等の操作部11から指示を行うことにより、露出およびホワイトバランスをマニュアル調整することが可能である。   The exposure and white balance can be set manually by the user of the digital camera 1 when the shooting mode is set to the manual mode. Even when the exposure and white balance are automatically set, the user can manually adjust the exposure and white balance by giving an instruction from the operation unit 11 such as a menu / OK button.

シャッタボタンが半押し(S1オン)された後に全押し(S2オン)されると、撮像素子58から記録用の本画像データが取り込まれる。この本画像データは、シャッタボタンが全押しされることによって実行される本撮影時に撮像素子58から取り込まれ、アナログ信号処理部60、A/D変換部61、デジタル信号処理部65経由でメモリ66に格納された画像データである。デジタル信号処理部65は、本画像の画像データに対して、ガンマ補正、シャープネス補正、コントラスト補正等の画質補正処理、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータおよび赤色色差信号であるCrデータとからなるYCデータに変換するYC変換処理を行う。本画像の画素数の上限は、撮像素子58の画素数によって決定されるが、例えば、ファイン、ノーマル等の設定により、記録画素数を変更することができる。一方、スルー画像およびシャッタボタン半押し時に表示する画像の画像数は、例えば、本画像よりも少ない画素数、例えば、本画像の1/16程度の画素数で取り込まれる。   When the shutter button is pressed halfway (S1 on) and then fully pressed (S2 on), the main image data for recording is captured from the image sensor 58. This main image data is captured from the image sensor 58 during the main photographing executed when the shutter button is fully pressed, and is stored in the memory 66 via the analog signal processing unit 60, the A / D conversion unit 61, and the digital signal processing unit 65. Is stored in the image data. The digital signal processing unit 65 performs image quality correction processing such as gamma correction, sharpness correction, and contrast correction on the image data of the main image, CCD-RAW data as Y data that is a luminance signal, and Cb data that is a blue color difference signal. Then, YC conversion processing for converting into YC data composed of Cr data which is a red color difference signal is performed. The upper limit of the number of pixels of the main image is determined by the number of pixels of the image sensor 58. For example, the number of recorded pixels can be changed by setting fine, normal, and the like. On the other hand, the number of images of the through image and the image displayed when the shutter button is half-pressed is captured, for example, with a smaller number of pixels than the main image, for example, about 1/16 of the main image.

また、デジタル信号処理部65は、フラッシュ発光部24の発光量が通常の撮影時よりも小さくされた場合には、本画像における顔領域の輝度を求め、輝度が所定のしきい値Th1よりも小さい場合には顔領域の輝度をしきい値Th1に調整する処理を行う。   The digital signal processing unit 65 obtains the luminance of the face area in the main image when the light emission amount of the flash light emitting unit 24 is smaller than that during normal photographing, and the luminance is higher than a predetermined threshold Th1. If it is smaller, a process of adjusting the brightness of the face area to the threshold value Th1 is performed.

圧縮伸張処理部67は、補正・変換処理が行われた本画像の画像データに対して、例えば、所定の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルは、記録部70に記録される。この画像ファイルには、例えば、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。また、圧縮伸張処理部67は、再生モードの場合に、記録部70から読み出された画像ファイルに対して伸張処理を行う。伸張後の画像データは表示部71の液晶モニタに表示される。   The compression / decompression processor 67 performs a compression process on the image data of the main image that has been subjected to the correction / conversion process, for example, in a predetermined compression format to generate an image file. This image file is recorded in the recording unit 70. For example, based on the Exif format or the like, a tag that stores additional information such as the shooting date and time is added to the image file. The compression / decompression processing unit 67 performs expansion processing on the image file read from the recording unit 70 in the reproduction mode. The expanded image data is displayed on the liquid crystal monitor of the display unit 71.

顔検出処理部80は、スルー画像、シャッタボタン半押し時に表示する画像、あるいは本画像から人物の顔を検出する。具体的には、顔に含まれる顔の特徴を有する領域(例えば、肌色の領域を有する、肌色領域の中に黒色領域(目)を有する、肌色領域が顔の形状を有する等)を顔領域として検出する。   The face detection processing unit 80 detects a human face from a through image, an image displayed when the shutter button is half-pressed, or a main image. Specifically, an area having a facial feature included in the face (for example, a skin color area, a black color area (eyes) in the skin color area, a skin color area having a face shape, etc.) Detect as.

[シーン認識処理]
本実施形態に係るデジタルカメラ1(CPU75)は、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値を含む撮影情報(撮影シーンの情報)を用いてシーン認識(以下、単独シーン認識という。)を行い、「AUTO」、「人物」、「風景」、「夜景」又は「接写」等の単独シーン認識結果がRAM69に記録される。この単独シーン認識は、撮影モード時に所定のタイミングで繰り返し実行され、例えば、最新の単独シーン認識の結果が所定回数分、シーン認識履歴として記録される。また、シーン認識履歴は、例えば、デジタルカメラ1の電源オフ時又は動作モードの切り替え時、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値が所定値以上変動してシーンが変動したとCPU75が判定した場合に削除されるようにしてもよい。
[Scene recognition processing]
The digital camera 1 (CPU 75) according to the present embodiment uses the shooting information (shooting scene information) including the focus lens position, the zoom lens position, the in-focus state, and the photometric value as a result of the face detection to recognize the scene (hereinafter, referred to as a scene detection). Single scene recognition) is performed, and single scene recognition results such as “AUTO”, “person”, “landscape”, “night view” or “close-up” are recorded in the RAM 69. This single scene recognition is repeatedly executed at a predetermined timing in the shooting mode. For example, the latest single scene recognition result is recorded as a scene recognition history a predetermined number of times. The scene recognition history includes, for example, a scene in which the focus lens position, the zoom lens position, the focus state, and the photometric value fluctuate by a predetermined value or more when the digital camera 1 is turned off or the operation mode is switched. May be deleted when the CPU 75 determines that has changed.

更に、デジタルカメラ1(CPU75)は、RAM69に記録された単独シーン認識結果の履歴(シーン認識履歴)に基づいて現在のシーンSRを判定(認識)し、各シーンを撮影するのに好適な撮影モードの設定を行う。以下、シーン認識履歴に基づくシーンの判定をトータルシーン認識という。   Furthermore, the digital camera 1 (CPU 75) determines (recognizes) the current scene SR based on the history of the single scene recognition result (scene recognition history) recorded in the RAM 69, and is suitable for shooting each scene. Set the mode. Hereinafter, scene determination based on the scene recognition history is referred to as total scene recognition.

本実施形態のデジタルカメラ1は、トータルシーン認識において、シーン認識履歴における認識回数(認識頻度)及び認識結果の新しさに基づいて現在撮影中のシーンSRの判定を行う。図2及び図3は、トータルシーン認識処理を模式的に示す図である。   In the total scene recognition, the digital camera 1 according to the present embodiment determines the scene SR currently being shot based on the number of times of recognition (recognition frequency) in the scene recognition history and the newness of the recognition result. 2 and 3 are diagrams schematically showing the total scene recognition process.

図2(a)に示すように、デジタルカメラ1のRAM69上には、単独シーン認識結果を順番に格納するための格納領域A[0],A[1],A[2],…が設けられる。図2に示す例では、各シーンは所定の数字(以下、シーンIDという。)で表されている。シーン「AUTO」の場合には「0」、「人物」の場合には「1」、「風景」の場合には「2」、「夜景」の場合には「3」、「接写」の場合には「4」がRAM69の格納領域A[i](i=0,1,2,…)に書き込まれる。単独シーン認識結果は、格納領域A[0]のものが最新であり、A[1],A[2],…の順に古くなる。   As shown in FIG. 2A, the RAM 69 of the digital camera 1 is provided with storage areas A [0], A [1], A [2],... For storing single scene recognition results in order. It is done. In the example shown in FIG. 2, each scene is represented by a predetermined number (hereinafter referred to as a scene ID). “0” for the scene “AUTO”, “1” for the “person”, “2” for the “landscape”, “3” for the “night view”, “close-up” “4” is written in the storage area A [i] (i = 0, 1, 2,...) Of the RAM 69. The single scene recognition result is the latest in the storage area A [0], and becomes older in the order of A [1], A [2],.

図2(b)に示すように、単独シーン認識が実行されると、RAM69上のシーン認識履歴の格納領域A[0],A[1],A[2],…がスライドし、A[0]→A[1],A[1]→A[2],A[2]→A[3],…となり、最新の単独シーン認識結果の格納領域A[0]が空き領域になる。そして、図2(c)に示すように、空き領域A[0]に最新の単独シーン認識結果が書き込まれる。   As shown in FIG. 2B, when the single scene recognition is executed, the storage areas A [0], A [1], A [2],. 0] → A [1], A [1] → A [2], A [2] → A [3],..., And the storage area A [0] of the latest single scene recognition result becomes an empty area. Then, as shown in FIG. 2C, the latest single scene recognition result is written in the empty area A [0].

次に、トータルシーン認識を行う際、シーン認識履歴がCPU75に読み込まれ、シーンごとの認識回数(頻度)が集計される(図2(d))。そして、認識回数が最大のシーンが現在撮影中のシーンSRと判定される。図2に示す例では、シーン認識履歴中に3回登場する「3」の「夜景」が最大頻度となる。CPU75は、トータルシーン認識結果をSR=3として、撮影モードを夜景モードに設定する。これにより、夜景モードの撮影条件及び画像処理の条件に従って画像の撮影、記録が実行可能になる。   Next, when performing total scene recognition, the scene recognition history is read into the CPU 75, and the number of recognition times (frequency) for each scene is tabulated (FIG. 2 (d)). Then, the scene with the largest number of recognitions is determined to be the scene SR currently being shot. In the example shown in FIG. 2, “night view” of “3” appearing three times in the scene recognition history is the maximum frequency. The CPU 75 sets the total scene recognition result as SR = 3 and sets the shooting mode to the night view mode. As a result, it becomes possible to execute image capturing and recording in accordance with the night view mode shooting conditions and image processing conditions.

一方、図3に示す例では、「2」の「風景」と「3」の「夜景」とがシーン認識履歴中に2回登場する(最大頻度となる)。この場合、単独シーン認識結果の新しさに基づいて、トータルシーン認識が行われる。図3に示す例では、「2」の値の方がより新しい側の格納領域に格納されているため、CPU75は、トータルシーン認識結果をSR=2として、撮影モードを風景モードに設定する。   On the other hand, in the example shown in FIG. 3, “2” “landscape” and “3” “night view” appear twice in the scene recognition history (maximum frequency). In this case, total scene recognition is performed based on the newness of the single scene recognition result. In the example shown in FIG. 3, since the value “2” is stored in the newer storage area, the CPU 75 sets the total scene recognition result to SR = 2 and sets the shooting mode to the landscape mode.

トータルシーン認識処理が終了すると、図4(a)に示すように、表示部71の液晶モニタには、トータルシーン認識結果SRを示す記号C10(例えば、「AUTO」、「人物」、「風景」、「夜景」及び「接写」等の文字、アイコン)が、スルー画像あるいはシャッタボタン全押し後の記録用画像に重畳して表示される。図4(a1)に示すように、トータルシーン認識により判定されたシーンがデジタルカメラ1において予め定義したシーンに合致した場合には、当該シーンを表す記号C10が表示部71の液晶モニタに表示される。一方、図4(a2)に示すように、トータルシーン認識により判定されたシーンがデジタルカメラ1において予め定義したシーンに合致しない場合には、「AUTO」が表示部71の液晶モニタに表示される。なお、トータルシーン認識結果SRを示す記号C10は、図示しないOSD回路によって生成される。これにより、ユーザは、撮ろうとしている、もしくは撮ったシーンが、どのようなシーンであり、撮影モードがどのモードに設定されているかを認識できる。   When the total scene recognition processing is completed, as shown in FIG. 4A, a symbol C10 (for example, “AUTO”, “person”, “landscape”) indicating the total scene recognition result SR is displayed on the liquid crystal monitor of the display unit 71. , “Night view” and “close-up” characters and icons) are displayed superimposed on the through image or the recording image after the shutter button is fully pressed. As shown in FIG. 4 (a1), when a scene determined by total scene recognition matches a predefined scene in the digital camera 1, a symbol C10 representing the scene is displayed on the liquid crystal monitor of the display unit 71. The On the other hand, as shown in FIG. 4 (a2), when the scene determined by the total scene recognition does not match the scene defined in advance in the digital camera 1, “AUTO” is displayed on the liquid crystal monitor of the display unit 71. . The symbol C10 indicating the total scene recognition result SR is generated by an OSD circuit (not shown). Thereby, the user can recognize what kind of scene the photographed or photographed scene is and what shooting mode is set.

なお、デジタルカメラ1が音声処理回路やスピーカが備えている場合には、トータルシーン認識結果SRに対応する報知音を出力するようCPU75が制御してもよい。   In the case where the digital camera 1 includes an audio processing circuit or a speaker, the CPU 75 may control to output a notification sound corresponding to the total scene recognition result SR.

また、図4(b)に示すように、「自動シーン認識OFF」が設定されている場合には、トータルシーン認識結果を示す記号は表示されない。   Further, as shown in FIG. 4B, when “automatic scene recognition OFF” is set, the symbol indicating the total scene recognition result is not displayed.

デジタルカメラ1は、上記撮影モードごとに、好適な絞り値、シャッタ速度、フォーカスレンズ位置及びズームレンズ位置等の撮影条件、及び画像処理の設定を記録しており、トータルシーン認識結果SRに応じて撮影モードが設定されると、上記撮影条件及び画像処理の設定に従って画像の撮影、記録を行う。   The digital camera 1 records suitable aperture values, shutter speeds, photographing conditions such as a focus lens position and a zoom lens position, and image processing settings for each photographing mode, and according to the total scene recognition result SR. When the shooting mode is set, an image is shot and recorded in accordance with the shooting conditions and image processing settings.

具体的には、撮影モードは、例えば、人物を撮影するための人物モード、日中における遠方の風景を撮影するための風景モード、夜間における遠方の風景を撮影するための夜景モード、接写を行うための接写モード、動きのある被写体を撮影するためのスポーツモード、及び文字を撮影するためのテキストモードである。デジタルカメラ1は、トータルシーン認識結果SRが夜景であれば、撮影モードを夜景モードに設定する。夜景モードでは、合焦位置をテレ端側(例えば、無限遠)に設定して長時間露光を許可する設定となる(例えば、ISO感度が400から800以上、シャッタスピードが1/1.6秒以上などに設定される)。あるいは、トータルシーン認識結果SRが接写であれば、デジタルカメラ1は、撮影モードを接写モードに設定して、絞り径を開き、フラッシュ発光部24の発光を禁止する。また、接写モードの場合には、合焦位置の検索は、近い位置(Near側)を開始点として遠い位置(INF側)に向かって行うとよい。あるいは、トータルシーン認識結果SRが風景であれば、デジタルカメラ1は、撮影モードを風景モードに設定して、測光モードとして「平均測光」を行い、分割測光を行わせる。また、風景モードの場合には、デジタルカメラ1は、合焦位置をテレ端側(例えば、無限遠)に設定して彩度やエッジ部を強調する画像処理を行う。あるいは、トータルシーン認識結果SRが人物であれば、デジタルカメラ1は、撮影モードを人物モードに設定して、AF処理部62は、AF評価値の算出領域を、顔検出処理部80の検出した顔領域とする。また、人物モードの場合には、デジタルカメラ1は、肌色部分をなめらかにして明度を上げる画像処理を行う。トータルシーン認識結果SRがAUTOであれば、AF、AE及びAWBの設定がデフォルトの設定となり、シャッタスピード、絞り値等の撮影条件が自動で設定される。スポーツモードでは、デジタルカメラ1は、被写体ブレを回避するためにシャッタ速度を高速化して感度を上げる。テキストモードでは、デジタルカメラ1は、撮影画像をモノトーン化する画像処理を行う。   Specifically, the shooting mode includes, for example, a person mode for shooting a person, a landscape mode for shooting a distant landscape in the daytime, a night view mode for shooting a distant landscape at night, and close-up photography. A close-up mode for photographing, a sports mode for photographing a moving subject, and a text mode for photographing characters. If the total scene recognition result SR is a night view, the digital camera 1 sets the shooting mode to the night view mode. In the night view mode, the in-focus position is set to the tele end side (for example, infinity) and long exposure is permitted (for example, ISO sensitivity is 400 to 800 or more, shutter speed is 1 / 1.6 seconds) And so on). Alternatively, if the total scene recognition result SR is close-up, the digital camera 1 sets the photographing mode to the close-up mode, opens the aperture diameter, and prohibits the flash light emitting unit 24 from emitting light. In the close-up mode, the in-focus position may be searched toward the far position (INF side) starting from the near position (Near side). Alternatively, if the total scene recognition result SR is landscape, the digital camera 1 sets the shooting mode to landscape mode, performs “average metering” as the metering mode, and performs divided metering. In the landscape mode, the digital camera 1 performs image processing that sets the in-focus position to the tele end side (for example, infinity) and emphasizes saturation and edge portions. Alternatively, if the total scene recognition result SR is a person, the digital camera 1 sets the shooting mode to the person mode, and the AF processing unit 62 detects the AF evaluation value calculation area detected by the face detection processing unit 80. Let it be a face area. In the portrait mode, the digital camera 1 performs image processing for smoothing the skin color portion and increasing the brightness. If the total scene recognition result SR is AUTO, AF, AE, and AWB are set as default settings, and shooting conditions such as shutter speed and aperture value are automatically set. In the sport mode, the digital camera 1 increases the sensitivity by increasing the shutter speed in order to avoid subject blur. In the text mode, the digital camera 1 performs image processing for converting a captured image into a monotone.

上記撮影モードの設定は、画像ファイルの付加情報(例えば、Exifタグ情報)として記録される。記録部70がプリンタにセットされると、プリンタは、記録部70から画像ファイルを読み出して、該画像ファイルから撮影モードの設定を取得する。これにより、撮影時の撮影モードの設定に適したプリント条件で画像をプリントアウトすることが可能になる。   The setting of the shooting mode is recorded as additional information (for example, Exif tag information) of the image file. When the recording unit 70 is set in the printer, the printer reads the image file from the recording unit 70 and acquires the shooting mode setting from the image file. As a result, it is possible to print out an image under print conditions suitable for setting the shooting mode at the time of shooting.

図5は、本発明の第1の実施形態に係るシーン認識処理を示すフローチャートである。   FIG. 5 is a flowchart showing a scene recognition process according to the first embodiment of the present invention.

まず、CPU75により、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値のような撮影情報が取得され、上記の情報を用いてシーン認識(単独シーン認識)が行われる(ステップS10)。   First, the CPU 75 acquires photographing information such as a focus lens position, a zoom lens position, an in-focus state, and a photometric value as a result of face detection, and scene recognition (single scene recognition) is performed using the above information ( Step S10).

次に、メモリ(RAM69)上のシーン認識履歴の格納領域がスライドし、単独シーン認識結果の最新の値を格納する空き領域が設けられる(ステップS12)。そして、この最新の値の格納領域に、ステップS10における最新のシーン認識結果が書き込まれる(ステップS14)。   Next, the storage area of the scene recognition history on the memory (RAM 69) slides to provide a free area for storing the latest value of the single scene recognition result (step S12). Then, the latest scene recognition result in step S10 is written in this latest value storage area (step S14).

次に、トータルシーン認識において、シーン認識履歴が読み込まれて(ステップS16)、シーン認識履歴に基づいて、現在のシーンSRが判定される(ステップS18)。そして、このシーンSRの判定結果に応じて撮影モードの設定が行われる。ステップS18では、例えば、シーン認識履歴における認識回数(認識頻度)及び認識結果の新しさに基づいて現在撮影中のシーンSRが判定される。   Next, in total scene recognition, a scene recognition history is read (step S16), and the current scene SR is determined based on the scene recognition history (step S18). Then, the shooting mode is set according to the determination result of the scene SR. In step S18, for example, the currently captured scene SR is determined based on the number of recognitions (recognition frequency) in the scene recognition history and the newness of the recognition result.

図6は、単独シーン認識処理を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 6 is a flowchart showing the single scene recognition process. The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S71では、RAM69に格納された、シーン依存サーチ(ステップS80以降の処理)を実施するフラグ(E_AUTOSR_SEARCH_TYPE)が0であるか否かを判断する。“Yes”の場合はS80、“No”の場合はS72に進む。なお、E_AUTOSR_SEARCH_TYPEの値は操作部11から任意に設定できるものとする。   In S71, it is determined whether or not the flag (E_AUTOSR_SEARCH_TYPE) for executing the scene-dependent search (the process after Step S80) stored in the RAM 69 is 0. If “Yes”, the process proceeds to S 80. If “No”, the process proceeds to S 72. Note that the value of E_AUTOSR_SEARCH_TYPE can be arbitrarily set from the operation unit 11.

S72では、RAM69のシーン認識結果SRにAUTOを設定する。   In S72, AUTO is set in the scene recognition result SR of the RAM 69.

S73では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE1を代入する。E_AUTOSR_MODULE1は0〜4のうちのいずれかの整数である。そして、module[i]に相当するシーン判定(認識)サブルーチンを実施する。module[0]は何もしない。module[1]は後述の人物判定を行う。module[2]は後述の風景判定を行う。module[3]は後述の夜景判定を行う。module[4]は後述の接写判定を行う。   In S73, E_AUTOSR_MODULE1 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE1 is an integer from 0 to 4. Then, a scene determination (recognition) subroutine corresponding to module [i] is executed. module [0] does nothing. module [1] performs person determination described later. module [2] performs the landscape determination described later. module [3] performs night view judgment described later. module [4] performs the close-up judgment described later.

S74では、S73でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS75に進み、“No”の場合はメイン処理のS10に戻る。   In S74, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S73. If “Yes”, the process proceeds to S75. If “No”, the process returns to S10 of the main process.

S75では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE2を代入する。E_AUTOSR_MODULE2は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S75, E_AUTOSR_MODULE2 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE2 is an integer from 0 to 4, and is different from E_AUTOSR_MODULE1. Then, a scene determination subroutine corresponding to module [i] is executed.

S76では、S75でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS77に進み、“No”の場合はメイン処理のS10に戻る。   In S76, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S75. If “Yes”, the process proceeds to S77, and if “No”, the process returns to S10 of the main process.

S77では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE3を代入する。E_AUTOSR_MODULE3は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1およびE_AUTOSR_MODULE2と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S77, E_AUTOSR_MODULE3 stored in the ROM 68 in advance is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE3 is an integer from 0 to 4, and is different from E_AUTOSR_MODULE1 and E_AUTOSR_MODULE2. Then, a scene determination subroutine corresponding to module [i] is executed.

S78では、S77でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS79に進み、“No”の場合はメイン処理のS10に戻る。   In S78, it is determined whether or not the scene recognition result SR of the RAM 69 is AUTO as a result of the execution of module [i] in S77. If “Yes”, the process proceeds to S79. If “No”, the process returns to S10 of the main process.

S79では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE4を代入する。E_AUTOSR_MODULE3は0〜4のうちのいずれかの整数であり、かつE_AUTOSR_MODULE1およびE_AUTOSR_MODULE2およびE_AUTOSR_MODULE3と異なる。そして、module[i]に相当するシーン判定サブルーチンを実施する。E_AUTOSR_MODULE1、E_AUTOSR_MODULE2、E_AUTOSR_MODULE3、E_AUTOSR_MODULE4の値はどのように設定してもよいが、優先的にシーン判定を行いたい種類には若い番号を付するとよい。例えば、人物判定>風景判定>夜景判定>接写判定の順にシーン判定を行いたい場合は、E_AUTOSR_MODULE1=1、E_AUTOSR_MODULE2=2、E_AUTOSR_MODULE3=3、E_AUTOSR_MODULE4=4とする。これらの値を操作部11から任意に設定できてもよい。   In S79, E_AUTOSR_MODULE4 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. E_AUTOSR_MODULE3 is an integer from 0 to 4, and is different from E_AUTOSR_MODULE1, E_AUTOSR_MODULE2, and E_AUTOSR_MODULE3. Then, a scene determination subroutine corresponding to module [i] is executed. The values of E_AUTOSR_MODULE1, E_AUTOSR_MODULE2, E_AUTOSR_MODULE3, and E_AUTOSR_MODULE4 may be set in any way, but it is better to assign a young number to the type for which scene determination is to be performed preferentially. For example, if it is desired to perform scene determination in the order of person determination> landscape determination> night scene determination> close-up determination, E_AUTOSR_MODULE1 = 1, E_AUTOSR_MODULE2 = 2, E_AUTOSR_MODULE3 = 3, E_AUTOSR_MODULE4 = 4. These values may be arbitrarily set from the operation unit 11.

S80では、現在のRAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS72に進み、“No”の場合はS81に進む。   In S80, it is determined whether or not the current scene recognition result SR in the RAM 69 is AUTO. If “Yes”, the process proceeds to S 72. If “No”, the process proceeds to S 81.

S81では、RAM69のパラメータSR_oldに、現在のRAM69のシーン認識結果SRを設定する。すなわち、現在のRAM69のシーン認識結果SRがAUTOであればSR_old=0、現在のRAM69のシーン認識結果SRが人物であればSR_old=1、現在のRAM69のシーン認識結果SRが風景であればSR_old=2、現在のRAM69のシーン認識結果SRが夜景であればSR_old=3、現在のRAM69のシーン認識結果SRが接写であればSR_old=4とする。   In S81, the current scene recognition result SR of the RAM 69 is set in the parameter SR_old of the RAM 69. That is, SR_old = 0 if the current scene recognition result SR in the RAM 69 is AUTO, SR_old = 1 if the scene recognition result SR in the current RAM 69 is a person, and SR_old if the scene recognition result SR in the current RAM 69 is a landscape. = 2, SR_old = 3 if the current scene recognition result SR in the RAM 69 is a night view, and SR_old = 4 if the current scene recognition result SR in the RAM 69 is a close-up.

S82では、RAM69のパラメータiに、SR_oldを代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S82, SR_old is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S83では、S82でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS84に進み、“No”の場合はメイン処理のS10に戻る。   In S83, it is determined whether or not the scene recognition result SR of the RAM 69 is AUTO as a result of the execution of module [i] in S82. If “Yes”, the process proceeds to S84. If “No”, the process returns to S10 of the main process.

S84では、SR_old=E_AUTOSR_MODULE1であるか否かを判断する。“Yes”の場合はS87に進み、“No”の場合はS85に進む。   In S84, it is determined whether SR_old = E_AUTOSR_MODULE1. If “Yes”, the process proceeds to S87. If “No”, the process proceeds to S85.

S85では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE1を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S85, E_AUTOSR_MODULE1 stored in the ROM 68 in advance is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S86では、S85でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS87に進み、“No”の場合はメイン処理のS10に戻る。   In S86, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S85. If “Yes”, the process proceeds to S87. If “No”, the process returns to S10 of the main process.

S87では、SR_old=E_AUTOSR_MODULE2であるか否かを判断する。“Yes”の場合はS90に進み、“No”の場合はS88に進む。   In S87, it is determined whether SR_old = E_AUTOSR_MODULE2. If “Yes”, the process proceeds to S90, and if “No”, the process proceeds to S88.

S88では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE2を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S88, E_AUTOSR_MODULE2 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S89では、S88でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS90に進み、“No”の場合はメイン処理のS10に戻る。   In S89, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S88. If “Yes”, the process proceeds to S90, and if “No”, the process returns to S10 of the main process.

S90では、SR_old=E_AUTOSR_MODULE3であるか否かを判断する。“Yes”の場合はS93に進み、“No”の場合はS91に進む。   In S90, it is determined whether SR_old = E_AUTOSR_MODULE3. If “Yes”, the process proceeds to S93. If “No”, the process proceeds to S91.

S91では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE3を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。   In S91, E_AUTOSR_MODULE3 stored in the ROM 68 in advance is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed.

S92では、S91でのmodule[i]の実施の結果、RAM69のシーン認識結果SRがAUTOであるか否かを判断する。“Yes”の場合はS93に進み、“No”の場合はメイン処理のS10に戻る。   In S92, it is determined whether or not the scene recognition result SR in the RAM 69 is AUTO as a result of the execution of module [i] in S91. If “Yes”, the process proceeds to S93. If “No”, the process returns to S10 of the main process.

S93では、SR_old=E_AUTOSR_MODULE4であるか否かを判断する。“Yes”の場合はメイン処理のS10に戻り、“No”の場合はS94に進む。   In S93, it is determined whether SR_old = E_AUTOSR_MODULE4. If “Yes”, the process returns to S10 of the main process, and if “No”, the process proceeds to S94.

S94では、RAM69のパラメータiに、ROM68に予め記憶されたE_AUTOSR_MODULE4を代入する。そして、module[i]に相当するシーン判定サブルーチンを実施する。その後、メイン処理のS10に戻る。   In S94, E_AUTOSR_MODULE4 stored in advance in the ROM 68 is substituted for the parameter i of the RAM 69. Then, a scene determination subroutine corresponding to module [i] is executed. Thereafter, the process returns to S10 of the main process.

以下、単独シーン認識処理について、図7から図11のフローチャートを参照して具体的に説明する。   Hereinafter, the single scene recognition process will be specifically described with reference to the flowcharts of FIGS.

図7は、シーン判定サブルーチン(人物判定、module[1])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 7 is a flowchart showing details of the scene determination subroutine (person determination, module [1]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S101では、顔検出処理部80が顔検出したか否かを判断する。“Yes”の場合はS102、“No”の場合はS105に進む。   In S101, the face detection processing unit 80 determines whether a face is detected. If “Yes”, the process proceeds to S102. If “No”, the process proceeds to S105.

S102では、RAM69の顔制限フラグがオンであるか否かを判断する。“Yes”の場合はS103、“No”の場合はS104に進む。   In S102, it is determined whether or not the face restriction flag in the RAM 69 is on. If “Yes”, the process proceeds to S 103. If “No”, the process proceeds to S 104.

S103では、AF評価値の算出領域に設定された顔領域について、顔の大きさが所定範囲内かつ顔の傾きが所定の範囲内かつ顔の向きが所定の範囲内かつ顔の確からしさのスコアが所定の範囲内かつ顔の位置が所定の範囲内であるか否かを判断する。“No”の場合はS103、“Yes”の場合はS104に進む。   In S103, for the face area set as the AF evaluation value calculation area, the face size is within a predetermined range, the face inclination is within the predetermined range, the face orientation is within the predetermined range, and the face probability score Is determined within a predetermined range and whether the face position is within the predetermined range. If “No”, the process proceeds to S103, and if “Yes”, the process proceeds to S104.

S104では、シーン認識結果SR=人物に設定する。そして、module[1]の後に続く処理、すなわち、S73・S75・S77・S79のうちいずれか1つの次の処理、あるいはS85・S88・S91・S94のうちいずれか1つの次の処理に進む。   In S104, the scene recognition result SR = person is set. Then, the process proceeds after module [1], that is, the next process of any one of S73, S75, S77, and S79, or the next process of any one of S85, S88, S91, and S94.

S105では、シーン認識結果SR=AUTOに設定する。   In S105, the scene recognition result SR is set to AUTO.

図8は、シーン判定サブルーチン(風景判定、module[2])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 8 is a flowchart showing details of the scene determination subroutine (landscape determination, module [2]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S111では、シャッタボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS124、“No”の場合はS112に進む。   In S111, it is determined whether or not the half-press (S1) of the shutter button is locked. If “Yes”, the process proceeds to S 124. If “No”, the process proceeds to S 112.

S112では、設定メニューや操作部11を介して予めコンティニュアスAF(以下「CAF」と表記)の実行が設定されているか否かを判断する。“Yes”の場合はS113、“No”の場合はS129に進む。   In S <b> 112, it is determined whether execution of continuous AF (hereinafter referred to as “CAF”) is set in advance via the setting menu or the operation unit 11. If “Yes”, the process proceeds to S113. If “No”, the process proceeds to S129.

S113では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS114、“No”の場合はS119に進む。なお、本ステップS113を省略してもよい。この場合、S112で“Yes”の場合はS114に進み、また、S113で“No”と判断された場合に続く諸処理(S119、S120、S121、S122、S123)も省略される。   In S113, it is determined whether the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the ROM 68. If “Yes”, the process proceeds to S114. If “No”, the process proceeds to S119. Note that step S113 may be omitted. In this case, if “Yes” in S112, the process proceeds to S114, and the processes (S119, S120, S121, S122, and S123) that follow when “No” is determined in S113 are also omitted.

S114では、ROM68に記憶されたE_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS115、“No”の場合はS116に進む。   In S114, it is determined whether or not E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0 stored in the ROM 68. If “Yes”, the process proceeds to S 115. If “No”, the process proceeds to S 116.

S115では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち合焦被写体が所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S115, it is determined whether the in-focus position determined as a result of the CAF is on the infinity side (INF) side from the predetermined focal length threshold stored in the ROM 68, that is, whether the in-focus subject is farther than the predetermined distance. To do. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S116では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS117、“No”の場合はS118に進む。   In S116, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the operation proceeds to S117, and if “No”, the operation proceeds to S118.

S117では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S117, as a result of the CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S118では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S118, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S119では、ROM68に記憶されたE_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS120、“No”の場合はS121に進む。   In S119, it is determined whether or not E_AUTOSR_CHECK_CAFSTATUS_LOW = 0 stored in the ROM 68. If “Yes”, the process proceeds to S120. If “No”, the process proceeds to S121.

S120では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S120, it is determined whether the in-focus position determined as a result of CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, whether it is farther than the predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S121では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS122、“No”の場合はS123に進む。   In S121, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S122. If “No”, the process proceeds to S123.

S122では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S122, as a result of the CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S123では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S123, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of JP-A-2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S124では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS125、“No”の場合はS129に進む。   In S124, the in-focus position is determined by the AF processing of the AF processing unit 62, and the focal length corresponding to the in-focus position is on the infinity (INF) side of the predetermined focal length threshold stored in the ROM 68. That is, it is determined whether or not the distance is longer than a predetermined distance. If “Yes”, the operation proceeds to S 125. If “No”, the operation proceeds to S 129.

S125では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS126、“No”の場合はS129に進む。   In S125, it is determined whether or not the field luminance measured by the control circuit 74 is lower than a predetermined threshold stored in the ROM 68. If “Yes”, the process proceeds to S 126. If “No”, the process proceeds to S 129.

S126では、ROM68の設定パラメータとしてあるいは操作部11から、予め風景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS126、“No”の場合はS129に進む。   In S126, it is determined whether or not the landscape zoom information flag is set in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S 126. If “No”, the process proceeds to S 129.

S127では、ズームレンズ位置が所定範囲内例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS128、“No”の場合はS129に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、全景を画角に収めることができず、風景撮影に適していないから、撮影シーンはAUTOと判断する。   In S127, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S128. If “No”, the process proceeds to S129. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, since the entire view cannot be included in the angle of view and is not suitable for landscape photography, the photographing scene is determined to be AUTO.

S128では、SR=風景に設定する。そして、module[2]の後に続く処理に進む。   In S128, SR = landscape is set. Then, the process proceeds after module [2].

S129では、SR=AUTOに設定する。そして、module[2]の後に続く処理に進む。   In S129, SR = AUTO is set. Then, the process proceeds after module [2].

図9は、シーン判定サブルーチン(夜景判定、module[3])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 9 is a flowchart showing details of the scene determination subroutine (night scene determination, module [3]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S131では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS132、“No”の場合はS152に進む。   In S 131, it is determined whether or not the field luminance measured by the control circuit 74 is lower than a predetermined threshold stored in the ROM 68. If “Yes”, the operation proceeds to S 132. If “No”, the operation proceeds to S 152.

S132では、シャッタボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS147、“No”の場合はS133に進む。   In S132, it is determined whether or not half-pressing of the shutter button (S1) is locked. If “Yes”, the process proceeds to S 147. If “No”, the process proceeds to S 133.

S133では、RAM69に記憶されている半押し(S1)前の夜景判定フラグがオンに設定さているか否かを判断する。“Yes”の場合はS134、“No”の場合はS152に進む。   In S133, it is determined whether or not the night scene determination flag stored in the RAM 69 before half-pressing (S1) is set to ON. If “Yes”, the process proceeds to S 134. If “No”, the process proceeds to S 152.

S134では、操作部11からの入力あるいはROM68に記憶されたパラメータにより夜景判定で距離情報を使うか否かのいずれが設定されているかを判断する。夜景判定で距離情報を使う設定がされている場合はS135、夜景判定で距離情報を使う設定がされていない場合はS149に進む。   In S134, it is determined whether the distance information is to be used in the night scene determination based on the input from the operation unit 11 or the parameter stored in the ROM 68. If the setting for using distance information is set for night scene determination, the process proceeds to S135, and if the setting for using distance information is not set for night scene determination, the process proceeds to S149.

S135では、設定メニューや操作部11を介して予めCAFの実行が設定されているか否かを判断する。“Yes”の場合はS136、“No”の場合はS152に進む。   In S135, it is determined whether or not CAF execution is set in advance via the setting menu or the operation unit 11. If “Yes”, the operation proceeds to S136. If “No”, the operation proceeds to S152.

S136では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS137、“No”の場合はS142に進む。なお、本ステップS136を省略してもよい。この場合、S135で“Yes”の場合はS137に進み、また、S136で“No”と判断された場合に続く諸処理も省略される。   In S 136, it is determined whether or not the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the ROM 68. If “Yes”, the operation proceeds to S 137. If “No”, the operation proceeds to S 142. Note that step S136 may be omitted. In this case, if “Yes” in S135, the process proceeds to S137, and various processes subsequent to “No” in S136 are also omitted.

S137では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS138、“No”の場合はS139に進む。   In S137, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0. If “Yes”, the process proceeds to S 138. If “No”, the process proceeds to S 139.

S138では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S138, it is determined whether the in-focus position determined as a result of CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, whether it is farther than the predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S139では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS140、“No”の場合はS141に進む。   In S139, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the process proceeds to S140. If “No”, the process proceeds to S141.

S140では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S140, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S141では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S141, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S142では、E_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS143、“No”の場合はS144に進む。   In S142, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 0. If “Yes”, the process proceeds to S143. If “No”, the process proceeds to S144.

S143では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S143, it is determined whether the in-focus position determined as a result of the CAF is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, whether it is farther than the predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S144では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS145、“No”の場合はS146に進む。   In S144, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S145. If “No”, the process proceeds to S146.

S145では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S145, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is infinity (INF) than the predetermined focal length threshold stored in the ROM 68. ) Side, that is, whether it is farther than a predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S146では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S146, as a result of CAF, a maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of Japanese Patent Application Laid-Open No. 2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined at the local maximum point is on the infinity side (INF) side of the predetermined focal length threshold stored in the ROM 68, that is, from the predetermined distance. Judge whether the distance is too far. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S147では、操作部11からの入力あるいはROM68に記憶されたパラメータにより夜景判定で距離情報を使うか否かのいずれが設定されているかを判断する。夜景判定で距離情報を使う設定がされている場合はS148、夜景判定で距離情報を使う設定がされていない場合はS149に進む。   In S147, it is determined whether the distance information is to be used in the night scene determination based on an input from the operation unit 11 or a parameter stored in the ROM 68. If the setting for using distance information is set for night scene determination, the process proceeds to S148, and if the setting for using distance information is not set for night scene determination, the process proceeds to S149.

S148では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも無限遠(INF)側にあるか、すなわち所定距離よりも遠いか否かを判断する。“Yes”の場合はS149、“No”の場合はS152に進む。   In S148, the in-focus position is determined by the AF processing of the AF processing unit 62, and the focal length corresponding to the in-focus position is on the infinity (INF) side of the predetermined focal length threshold stored in the ROM 68. That is, it is determined whether or not the distance is longer than a predetermined distance. If “Yes”, the process proceeds to S 149. If “No”, the process proceeds to S 152.

S149では、ROM68の設定パラメータとしてあるいは操作部11から、予め夜景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS150、“No”の場合はS151に進む。   In S149, it is determined whether the night view zoom information flag is set to ON in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S150. If “No”, the process proceeds to S151.

S150では、ズームレンズ位置が所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS151、“No”の場合はS152に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、入射光量の乏しいバック遠景を画角に収めることができず、夜景撮影に適していないから、AUTOと判定する。   In S150, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 151. If “No”, the process proceeds to S 152. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, the back distant view with a small amount of incident light cannot be included in the angle of view, and is not suitable for night view photography, so it is determined as AUTO.

S151では、SR=夜景に設定する。そして、module[3]の後に続く処理に進む。   In S151, SR = night view is set. Then, the process proceeds after module [3].

S152では、SR=AUTOに設定する。そして、module[3]の後に続く処理に進む。   In S152, SR = AUTO is set. Then, the process proceeds after module [3].

図10は、シーン判定サブルーチン(夜景判定、module[3])の他の一例を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。夜景判定は、図11または12のいずれかを採用すれば足りる。いずれか一方を選択的に実行できてもよい。   FIG. 10 is a flowchart illustrating another example of the scene determination subroutine (night scene determination, module [3]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68. For night view determination, either of FIGS. 11 and 12 is sufficient. Either one may be selectively executed.

S161では、制御回路74の測光した被写界輝度が、ROM68に記憶された所定の閾値よりも低いか否かを判断する。“Yes”の場合はS162、“No”の場合はS168に進む。なお、この閾値は、補助光制御部25へ発光を指示するか否かを判別する閾値と同じであってもよいし異なっていてもよい。   In S 161, it is determined whether or not the field luminance measured by the control circuit 74 is lower than a predetermined threshold stored in the ROM 68. If “Yes”, the operation proceeds to S 162. If “No”, the operation proceeds to S 168. This threshold value may be the same as or different from the threshold value for determining whether to instruct the auxiliary light control unit 25 to emit light.

S162では、シャッタボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS163、“No”の場合はS168に進む。   In S162, it is determined whether or not half-pressing of the shutter button (S1) is locked. If “Yes”, the process proceeds to S 163. If “No”, the process proceeds to S 168.

S163では、補助光制御部25に補助光発光部26の発光を指示したか否かを判断する。“Yes”の場合はS164、“No”の場合はS168に進む。   In S163, it is determined whether or not the auxiliary light control unit 25 is instructed to emit light from the auxiliary light emitting unit 26. If “Yes”, the process proceeds to S 164. If “No”, the process proceeds to S 168.

S164では、補助光制御部25が補助光発光部26を発光させる直前と直後にそれぞれ制御回路74の測光した被写界輝度の差が、ROM68に記憶された所定の閾値を超えているか否かを判断する。“Yes”の場合はS168、“No”の場合はS165に進む。なお、当該差が当該閾値を超えておらず、微小であれば、補助光照射による被写体輝度の増加の寄与がほとんどなく、被写体が近くないといえる。   In S164, whether or not the difference in the field luminance measured by the control circuit 74 immediately before and after the auxiliary light control unit 25 causes the auxiliary light emitting unit 26 to emit light exceeds a predetermined threshold stored in the ROM 68. Judging. If “Yes”, the process proceeds to S168. If “No”, the process proceeds to S165. Note that if the difference does not exceed the threshold and is very small, it can be said that there is almost no contribution to the increase in subject brightness due to irradiation of auxiliary light, and the subject is not close.

S165では、ROM68の設定パラメータとしてあるいは操作部11から、予め夜景ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS166、“No”の場合はS167に進む。   In S165, it is determined whether the night view zoom information flag is set to ON in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S 166. If “No”, the process proceeds to S 167.

S166では、ズームレンズ位置が所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS167、“No”の場合はS168に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がテレ端あるいはその近傍にある場合である。この場合、バック遠景を画角に収めることができず、夜景撮影に適していない。   In S166, it is determined whether or not the zoom lens position is within a predetermined range, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 167. If “No”, the process proceeds to S 168. The zoom position is not within the predetermined range when, for example, the zoom lens position is at or near the tele end. In this case, the back distant view cannot be included in the angle of view and is not suitable for night view photography.

S167では、SR=夜景に設定する。そして、module[3]の後に続く処理に進む。   In S167, SR = night scene is set. Then, the process proceeds after module [3].

S168では、SR=AUTOに設定する。そして、module[3]の後に続く処理に進む。   In S168, SR = AUTO is set. Then, the process proceeds after module [3].

図11は、シーン判定サブルーチン(接写判定、module[4])の詳細を示すフローチャートである。この処理はカメラ1のCPU75によって実行が制御される。この処理を規定するプログラムはROM68に記憶されている。   FIG. 11 is a flowchart showing details of the scene determination subroutine (close-up determination, module [4]). The execution of this process is controlled by the CPU 75 of the camera 1. A program for defining this processing is stored in the ROM 68.

S171では、シャッタボタンの半押し(S1)がロックされているか否かを判断する。“Yes”の場合はS184、“No”の場合はS172に進む。   In S171, it is determined whether or not half-pressing of the shutter button (S1) is locked. If “Yes”, the process proceeds to S 184. If “No”, the process proceeds to S 172.

S172では、設定メニューや操作部11を介して予めCAFの実行が設定されているか否かを判断する。“Yes”の場合はS173、“No”の場合はS188に進む。   In S172, it is determined whether or not CAF execution is set in advance via the setting menu or the operation unit 11. If “Yes”, the process proceeds to S 173. If “No”, the process proceeds to S 188.

S173では、本撮像前AF処理部81の算出したAF評価値が、ROM68に記憶された所定の閾値よりも高いか否かを判断する。“Yes”の場合はS174、“No”の場合はS179に進む。なお、本ステップS173を省略してもよい。この場合、S172で“Yes”の場合はS174に進み、また、S173で“No”と判断された場合に続く諸処理も省略される。   In S 173, it is determined whether or not the AF evaluation value calculated by the pre-imaging AF processing unit 81 is higher than a predetermined threshold stored in the ROM 68. If “Yes”, the process proceeds to S 174. If “No”, the process proceeds to S 179. Note that step S173 may be omitted. In this case, if “Yes” in S 172, the process proceeds to S 174, and various processes subsequent to “No” in S 173 are also omitted.

S174では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=0であるか否かを判断する。“Yes”の場合はS175、“No”の場合はS176に進む。   In S174, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 0. If “Yes”, the process proceeds to S175. If “No”, the process proceeds to S176.

S175では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S175, it is determined whether the in-focus position determined as a result of CAF is closer to the near (NEAR) side than the predetermined focal distance threshold stored in the ROM 68, that is, whether it is closer than the predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S176では、E_AUTOSR_CHECK_CAFSTATUS_HIGH=1であるか否かを判断する。“Yes”の場合はS177、“No”の場合はS178に進む。   In S176, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_HIGH = 1. If “Yes”, the process proceeds to S 177. If “No”, the process proceeds to S 178.

S177では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S177, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is closer than the predetermined focal length threshold value stored in the ROM 68 (NEAR). It is determined whether it is on the side, that is, whether it is closer than a predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S178では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S178, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in paragraph 0041 of JP-A-2003-348426 by the present applicant). And the focal length corresponding to the in-focus position determined by the local maximum point is closer to the near (NEAR) side than the predetermined focal length threshold stored in the ROM 68, that is, more than the predetermined distance. Judge whether it is close or not. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S179では、E_AUTOSR_CHECK_CAFSTATUS_LOW=0であるか否かを判断する。“Yes”の場合はS180、“No”の場合はS181に進む。   In S179, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 0. If “Yes”, the process proceeds to S180. If “No”, the process proceeds to S181.

S180では、CAFの結果定まった合焦位置が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S180, it is determined whether the in-focus position determined as a result of CAF is closer to the nearer (NEAR) side than the predetermined focal length threshold stored in the ROM 68, that is, whether it is closer than the predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S181では、E_AUTOSR_CHECK_CAFSTATUS_LOW=1であるか否かを判断する。“Yes”の場合はS182、“No”の場合はS183に進む。   In S181, it is determined whether E_AUTOSR_CHECK_CAFSTATUS_LOW = 1. If “Yes”, the process proceeds to S 182. If “No”, the process proceeds to S 183.

S182では、CAFの結果、AF評価値の極大点が検出され、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S182, as a result of CAF, the maximum point of the AF evaluation value is detected, and the focal length corresponding to the in-focus position determined by the maximum point is closer than the predetermined focal length threshold value stored in the ROM 68 (NEAR). It is determined whether it is on the side, that is, whether it is closer than a predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S183では、CAFの結果、AF評価値の極大点が検出されるかまたはAF評価値がその極大点の近傍にあり(例えば本出願人による特開2003−348426号公報段落0041の「微動調整」の段階にある場合)、かつその極大点で定まった合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S183, as a result of CAF, the maximum point of the AF evaluation value is detected or the AF evaluation value is in the vicinity of the maximum point (for example, “fine adjustment” in Japanese Patent Application Laid-Open No. 2003-348426, paragraph 0041 by the present applicant). And the focal length corresponding to the in-focus position determined by the local maximum point is closer to the near (NEAR) side than the predetermined focal length threshold stored in the ROM 68, that is, more than the predetermined distance. Judge whether it is close or not. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S184では、AF処理部62のAF処理により合焦位置が決定され、かつその合焦位置に対応する焦点距離が、ROM68に記憶された所定の焦点距離閾値よりも至近(NEAR)側にあるか、すなわち所定距離よりも近いか否かを判断する。“Yes”の場合はS185、“No”の場合はS188に進む。   In S184, the focus position is determined by the AF process of the AF processing unit 62, and the focal length corresponding to the focus position is closer to the near (NEAR) side than the predetermined focal distance threshold stored in the ROM 68. That is, it is determined whether or not it is closer than a predetermined distance. If “Yes”, the process proceeds to S 185. If “No”, the process proceeds to S 188.

S185では、ROM68の設定パラメータとしてあるいは操作部11から、予め接写ズーム情報フラグがオンに設定されているか否かを判断する。“Yes”の場合はS186、“No”の場合はS187に進む。   In S185, it is determined whether the close-up zoom information flag is set to ON in advance as a setting parameter of the ROM 68 or from the operation unit 11. If “Yes”, the process proceeds to S186. If “No”, the process proceeds to S187.

S186では、ズームレンズ位置がROM68に記憶された所定範囲内、例えば所定位置よりもワイド側にあるか否かを判断する。“Yes”の場合はS187、“No”の場合はS188に進む。なお、ズーム位置が所定範囲内にないとは、例えばズームレンズ位置がワイド端あるいはその近傍にある場合以外である。この場合、近接被写体の合焦ができず、近接撮影に適していない。   In S186, it is determined whether or not the zoom lens position is within a predetermined range stored in the ROM 68, for example, on the wide side of the predetermined position. If “Yes”, the process proceeds to S 187. If “No”, the process proceeds to S 188. Note that the zoom position is not within the predetermined range, for example, except when the zoom lens position is at or near the wide end. In this case, the close subject cannot be focused and is not suitable for close-up photography.

S187では、SR=接写に設定する。そして、module[4]の後に続く処理に進む。   In S187, SR = close-up is set. Then, the process proceeds after module [4].

S188では、SR=AUTOに設定する。そして、module[4]の後に続く処理に進む。   In S188, SR = AUTO is set. Then, the process proceeds after module [4].

本実施形態によれば、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値の情報に基づく、1回だけのシーン認識結果(単独シーン認識結果)だけでなく、シーン認識履歴を使ってシーン認識(トータルシーン認識)を行うことにより、安定したシーン認識結果を取得することが可能になる。   According to the present embodiment, not only a single scene recognition result (single scene recognition result) but also scene recognition based on face detection results, focus lens position, zoom lens position, focus state, and photometric value information. By performing scene recognition (total scene recognition) using the history, it is possible to acquire a stable scene recognition result.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.

本実施形態は、S1オン時におけるトータルシーン認識においてシーンSRの判定に用いる単独シーン認識結果の数を、S1前(S1オフ時、スルー画表示時)よりも少なくしたものである。   In the present embodiment, the number of single scene recognition results used for determining the scene SR in total scene recognition when S1 is on is smaller than that before S1 (when S1 is off and when a live view is displayed).

図12は、本発明の第2の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートである。   FIG. 12 is a flowchart showing the total scene recognition process (before S1) according to the second embodiment of the present invention.

まず、CPU75により、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値を含む撮影情報が取得され、上記の撮影情報を用いてシーン認識(単独シーン認識)が行われる(ステップS20)。   First, the CPU 75 acquires shooting information including a focus lens position, a zoom lens position, an in-focus state, and a photometric value as a result of face detection, and scene recognition (single scene recognition) is performed using the above shooting information ( Step S20).

次に、メモリ(RAM69)上のシーン認識履歴の格納領域がスライドし、単独シーン認識結果の最新の値を格納する空き領域が設けられる(ステップS22)。そして、この最新の値の格納領域に、ステップS10における最新の単独シーン認識結果が書き込まれる(ステップS24)。   Next, the storage area of the scene recognition history on the memory (RAM 69) slides to provide a free area for storing the latest value of the single scene recognition result (step S22). Then, the latest single scene recognition result in step S10 is written in this latest value storage area (step S24).

次に、S1前(スルー画表示時)におけるトータルシーン認識においてシーンSRの判定に用いる単独シーン認識結果を所定数分(S1前用参照数分)含むシーン認識履歴が読み込まれて(ステップS26)、シーン認識履歴に基づいて、現在のシーンSRが判定される(ステップS28)。例えば、S1前にトータルシーン認識を行う際に参照すべき単独シーン認識結果の数a(S1前用参照数)がa=5と設定されている場合、5つの単独シーン認識結果が読み込まれる。なお、ステップS28では、上記ステップS18と同様に、トータルシーン認識において、例えば、シーン認識履歴における認識回数(認識頻度)及び認識結果の新しさに基づいて現在撮影中のシーンSRが判定される。そして、このシーンSRの判定結果に応じて撮影モードの設定が行われる。   Next, a scene recognition history including a predetermined number (single reference number for S1) of single scene recognition results used for determination of the scene SR in total scene recognition before S1 (during live view display) is read (step S26). Based on the scene recognition history, the current scene SR is determined (step S28). For example, when the number a of single scene recognition results to be referred to when total scene recognition is performed before S1 (reference number for S1 before) is set to a = 5, five single scene recognition results are read. In step S28, as in step S18, in the total scene recognition, the currently captured scene SR is determined based on, for example, the number of times of recognition (recognition frequency) in the scene recognition history and the newness of the recognition result. Then, the shooting mode is set according to the determination result of the scene SR.

図13は、本発明の第2の実施形態に係るシーン認識処理(S1オン時)を示すフローチャートである。   FIG. 13 is a flowchart showing scene recognition processing (when S1 is on) according to the second embodiment of the present invention.

まず、CPU75により、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値の情報を取得され、上記の情報を用いてシーン認識(単独シーン認識)が行われる(ステップS30)。   First, the CPU 75 acquires information on the focus lens position, zoom lens position, focus state, and photometric value as a result of face detection, and scene recognition (single scene recognition) is performed using the above information (step S30). .

次に、シーン認識履歴を参照するかどうか判定される(ステップS32)。S1オン時のシーン認識においてシーン認識履歴を参照しない設定になっている場合には(ステップS32のNo)、ステップS30における単独シーン認識結果が現在のシーン(SR)に設定される(ステップS34)。   Next, it is determined whether or not to refer to the scene recognition history (step S32). If the scene recognition history is set so as not to refer to the scene recognition when S1 is on (No in step S32), the single scene recognition result in step S30 is set to the current scene (SR) (step S34). .

次に、S1オン時のシーン認識においてシーン認識履歴を参照する(トータルシーン認識を行う)設定になっている場合には(ステップS32のYes)、メモリ(RAM69)上のシーン認識履歴の格納領域がスライドし、単独シーン認識結果の最新の値を格納する空き領域が設けられる(ステップS36)。そして、この最新の値の格納領域に、ステップS10における最新の単独シーン認識結果が書き込まれる(ステップS38)。   Next, when the scene recognition history is set to refer to the scene recognition history when S1 is on (total scene recognition is performed) (Yes in step S32), the storage area of the scene recognition history on the memory (RAM 69) is stored. Slides to provide a free space for storing the latest value of the single scene recognition result (step S36). Then, the latest single scene recognition result in step S10 is written in this latest value storage area (step S38).

次に、S1前用参照数よりも少ないS1後用参照数分の単独シーン認識結果を含むシーン認識履歴が読み込まれて(ステップS40)、シーン認識履歴に基づいて、現在のシーンSRが判定される(ステップS42)。例えば、S1前にトータルシーン認識を行う際に参照すべき単独シーン認識結果の数a(S1前用参照数)がa=5と設定されている場合、S1後にトータルシーン認識を行う際に参照すべき単独シーン認識結果の数b(S1後用参照数)はb=4と設定することとしても良い。この場合、4つの単独シーン認識結果が読み込まれる。なお、ステップS42では、上記ステップS18等と同様に、トータルシーン認識において、例えば、シーン認識履歴における認識回数(認識頻度)及び認識結果の新しさに基づいて現在撮影中のシーンSRが判定される。そして、このシーンSRの判定結果に応じて撮影モードの設定が行われる。   Next, a scene recognition history including single scene recognition results corresponding to the S1 post-reference number that is smaller than the S1 pre-reference number is read (step S40), and the current scene SR is determined based on the scene recognition history. (Step S42). For example, when the number a of single scene recognition results to be referred to when performing total scene recognition before S1 (reference number before S1) is set to a = 5, reference is made when performing total scene recognition after S1. The number b of single scene recognition results to be performed (the reference number for S1 after) may be set to b = 4. In this case, four single scene recognition results are read. In step S42, as in step S18 and the like, in the total scene recognition, for example, the currently captured scene SR is determined based on the number of times of recognition (recognition frequency) in the scene recognition history and the newness of the recognition result. . Then, the shooting mode is set according to the determination result of the scene SR.

一般に、S1AE及びS1AF(以下、S1AUTOという。)により得られる撮影情報は、CAE及びCAF(以下、CAUTOという。)により得られる撮影情報よりも精度が高い。このため、S1AUTO時の撮影情報に基づく単独シーン認識結果は、CAUTOに基づく単独シーン認識結果よりも精度が高いと考えられる。本実施形態では、S1オン時におけるトータルシーン認識においてシーンSRの判定に用いる単独シーン認識結果の数を、S1前(スルー画表示時)よりも少なくすることで、S1オン時のトータルシーン認識で参照するシーン認識履歴中のS1前の単独シーン認識結果の数を少なくし、その影響を小さくする。   In general, photographing information obtained by S1AE and S1AF (hereinafter referred to as S1AUTO) has higher accuracy than photographing information obtained by CAE and CAF (hereinafter referred to as CAUTO). For this reason, it is considered that the single scene recognition result based on the shooting information at S1AUTO has higher accuracy than the single scene recognition result based on CAUTO. In the present embodiment, the total scene recognition at the time of S1 is reduced by reducing the number of single scene recognition results used for the determination of the scene SR in the total scene recognition at the time of S1 than that before S1 (when the through image is displayed). The number of single scene recognition results before S1 in the scene recognition history to be referred to is reduced to reduce the influence thereof.

本実施形態によれば、S1オン時におけるトータルシーン認識においてシーンSRの判定に用いる単独シーン認識結果の数を、S1前(スルー画表示時)よりも少なくすることにより、S1前のトータルシーン認識結果の安定性とS1オン時のトータルシーン認識結果の正確性を両立させることが可能となる。   According to the present embodiment, the total scene recognition before S1 is performed by reducing the number of single scene recognition results used for determining the scene SR in total scene recognition when S1 is on than before S1 (during live view display). It is possible to achieve both the stability of the result and the accuracy of the total scene recognition result when S1 is on.

なお、精度を重視する場合、S1オン時のトータルシーン認識では、S1前の単独シーン認識結果の履歴を参照しないようにすることも可能である。   When accuracy is important, the total scene recognition when S1 is on may not refer to the history of the single scene recognition result before S1.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.

本実施形態は、トータルシーン認識において、シーン認識履歴の集計を行うときに重みづけをするようにしたものであり、新しい単独シーン認識結果ほど重みを大きくしたものである。   In the present embodiment, in total scene recognition, weighting is performed when scene recognition histories are aggregated, and the weight is increased as the new single scene recognition result is obtained.

図14は、本発明の第3の実施形態に係るトータルシーン認識処理(S1前)を模式的に示す図である。   FIG. 14 is a diagram schematically showing the total scene recognition process (before S1) according to the third embodiment of the present invention.

上記第1及び第2の実施形態と同様、S1前のスルー画表示時には、RAM69の所定の格納領域A[0],A[1],A[2],…にS1前の単独シーン認識結果がシーン認識履歴として順番に格納される。   As in the first and second embodiments, when a through image before S1 is displayed, a single scene recognition result before S1 is stored in a predetermined storage area A [0], A [1], A [2],. Are sequentially stored as a scene recognition history.

シーン認識履歴が更新されると、CPU75は、シーン認識履歴から単独シーン認識結果を読み出して集計し、トータルシーン認識を行う。図14に示すように、本実施形態のデジタルカメラ1は、シーン認識履歴中の個別の単独シーン認識結果にかける重みw[i](i=0,1,2,…)を予めRAM69に記憶している。この重みw[i]の値は、シーン認識結果の古い側ほど小さくなっている。CPU75は、単独シーン認識結果の集計時に重みw[i]を乗算してシーンごとのスコアを算出し、このスコアが最大のものを現在のシーン(SR)と判定する。   When the scene recognition history is updated, the CPU 75 reads out and sums up the single scene recognition results from the scene recognition history and performs total scene recognition. As shown in FIG. 14, the digital camera 1 of the present embodiment stores the weight w [i] (i = 0, 1, 2,...) Applied to each individual scene recognition result in the scene recognition history in the RAM 69 in advance. is doing. The value of this weight w [i] is smaller as the scene recognition result is older. The CPU 75 calculates the score for each scene by multiplying the weight w [i] at the time of counting the single scene recognition results, and determines the one having the largest score as the current scene (SR).

図14に示す例では、各シーンのスコアは下記のようになる。   In the example shown in FIG. 14, the score of each scene is as follows.

スコア(ID=1)=1×w[1]+1×w[2]+1×w[3]+1×w[4]
=3+2+1+1
=7
スコア(ID=3)=1×w[0]
=5
従って、トータルシーン認識結果を示すシーンIDはSR=1となり、撮影モードが「人物」モードに設定される。
Score (ID = 1) = 1 × w [1] + 1 × w [2] + 1 × w [3] + 1 × w [4]
= 3 + 2 + 1 + 1
= 7
Score (ID = 3) = 1 × w [0]
= 5
Accordingly, the scene ID indicating the total scene recognition result is SR = 1, and the shooting mode is set to the “person” mode.

図15は、本発明の第3の実施形態に係るトータルシーン認識処理(S1オン時)を模式的に示す図である。   FIG. 15 is a diagram schematically showing total scene recognition processing (when S1 is on) according to the third embodiment of the present invention.

図15に示す例では、S1後における単独シーン認識結果に係る重みが最大になっており、各シーンのスコアは下記のようになる。   In the example shown in FIG. 15, the weight related to the single scene recognition result after S1 is the maximum, and the score of each scene is as follows.

スコア(ID=0)=1×w[2]+1×w[3]+1×w[4]
=2+1+1
=4
スコア(ID=1)=1×w[1]
=5
スコア(ID=3)=1×w[0]
=10
従って、トータルシーン認識結果を示すシーンIDはSR=3となり、撮影モードが「夜景」モードに設定される。
Score (ID = 0) = 1 × w [2] + 1 × w [3] + 1 × w [4]
= 2 + 1 + 1
= 4
Score (ID = 1) = 1 × w [1]
= 5
Score (ID = 3) = 1 × w [0]
= 10
Accordingly, the scene ID indicating the total scene recognition result is SR = 3, and the photographing mode is set to the “night view” mode.

なお、S1オン時の単独シーン認識結果にかかる重みだけ0より大きい値とし、S1前の重みを全て0にすることで、S1後の結果だけ使うようにすることも可能である。   It is also possible to use only the result after S1 by setting the weight for the single scene recognition result when S1 is ON to a value greater than 0 and setting all the weights before S1 to 0.

なお、本実施形態では、S1前とS1オン時(S1オン後)とで重みの値が異なっているが、同じ値を用いてもよい。   In the present embodiment, the weight value is different before S1 and when S1 is on (after S1 is on), but the same value may be used.

図16は、本発明の第3の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートである。   FIG. 16 is a flowchart showing the total scene recognition process (before S1) according to the third embodiment of the present invention.

まず、CPU75により、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値の情報を取得され、上記の情報を用いてシーン認識(単独シーン認識)が行われる(ステップS50)。   First, the CPU 75 acquires information on the focus lens position, zoom lens position, focus state, and photometric value as a result of face detection, and scene recognition (single scene recognition) is performed using the above information (step S50). .

次に、メモリ(RAM69)上のシーン認識履歴の格納領域がスライドし、単独シーン認識結果の最新の値を格納する空き領域が設けられる(ステップS52)。そして、この最新の値の格納領域に、ステップS10における最新の単独シーン認識結果が書き込まれる(ステップS54)。   Next, the storage area of the scene recognition history on the memory (RAM 69) slides to provide a free area for storing the latest value of the single scene recognition result (step S52). Then, the latest single scene recognition result in step S10 is written in this latest value storage area (step S54).

次に、S1前(スルー画表示時)におけるトータルシーン認識においてシーンSRの判定に用いる単独シーン認識結果の数分(S1前用参照数分)のシーン認識履歴が読み込まれて(ステップS56)、重みづけ演算が実行される(ステップS58)。そして、重みづけ後のシーン認識履歴に基づいて、現在のシーンSRが判定される(ステップS60)。なお、ステップS60では、上記ステップS18等と同様に、トータルシーン認識において、例えば、シーン認識履歴における認識回数(認識頻度)及び認識結果の新しさに基づいて現在撮影中のシーンSRが判定される。そして、このシーンSRの判定結果に応じて撮影モードの設定が行われる。   Next, scene recognition histories corresponding to the number of single scene recognition results (for the number of references for S1 before) used for determining the scene SR in total scene recognition before S1 (during live view display) are read (step S56). A weighting operation is executed (step S58). Then, based on the weighted scene recognition history, the current scene SR is determined (step S60). In step S60, as in step S18 and the like, in the total scene recognition, for example, the currently captured scene SR is determined based on the number of recognitions (recognition frequency) in the scene recognition history and the newness of the recognition result. . Then, the shooting mode is set according to the determination result of the scene SR.

図17は、本発明の第3の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートである。   FIG. 17 is a flowchart showing total scene recognition processing (when S1 is on) according to the third embodiment of the present invention.

まず、CPU75により、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値の情報を取得され、上記の情報を用いてシーン認識(単独シーン認識)が行われる(ステップS70)。   First, the CPU 75 obtains information on the focus lens position, zoom lens position, focus state, and photometric value as a result of face detection, and scene recognition (single scene recognition) is performed using the above information (step S70). .

次に、シーン認識履歴を参照するかどうか判定される(ステップS72)。S1オン時のシーン認識においてシーン認識履歴を参照しない設定になっている場合には(ステップS72のNo)、ステップS70における単独シーン認識結果が現在のシーン(SR)に設定される(ステップS74)。   Next, it is determined whether or not to refer to the scene recognition history (step S72). If the scene recognition history is set so as not to refer to the scene recognition when S1 is on (No in step S72), the single scene recognition result in step S70 is set to the current scene (SR) (step S74). .

次に、S1オン時のシーン認識においてシーン認識履歴を参照する(トータルシーン認識を行う)設定になっている場合には(ステップS72のYes)、メモリ(RAM69)上のシーン認識履歴の格納領域がスライドし、単独シーン認識結果の最新の値を格納する空き領域が設けられる(ステップS76)。そして、この最新の値の格納領域に、ステップS10における最新の単独シーン認識結果が書き込まれる(ステップS78)。   Next, when the scene recognition history is set to refer to the scene recognition history when S1 is turned on (total scene recognition is performed) (Yes in step S72), the storage area of the scene recognition history on the memory (RAM 69) is set. Slides to provide a free space for storing the latest value of the single scene recognition result (step S76). Then, the latest single scene recognition result in step S10 is written in this latest value storage area (step S78).

次に、S1前用参照数よりも少ないS1後用参照数分の単独シーン認識結果を含むシーン認識履歴が読み込まれて(ステップS80)、重みづけ演算が実行される(ステップS82)。そして、シーン認識履歴に基づいて、現在のシーンSRが判定される(ステップS84)。なお、ステップS84では、上記ステップS18等と同様に、トータルシーン認識において、例えば、シーン認識履歴における認識回数(認識頻度)及び認識結果の新しさに基づいて現在撮影中のシーンSRが判定される。そして、このシーンSRの判定結果に応じて撮影モードの設定が行われる。   Next, a scene recognition history including single scene recognition results corresponding to the number of references after S1 that is smaller than the number of references before S1 is read (step S80), and a weighting operation is executed (step S82). Then, based on the scene recognition history, the current scene SR is determined (step S84). In step S84, as in step S18 and the like, in the total scene recognition, for example, the currently captured scene SR is determined based on the number of times of recognition (recognition frequency) in the scene recognition history and the newness of the recognition result. . Then, the shooting mode is set according to the determination result of the scene SR.

本実施形態によれば、シーン認識履歴を集計するときに、新しい単独シーン認識結果ほど重みを大きくすることにより、シーン変動があった場合の応答性を向上させることが可能となり、トータルシーン認識結果の安定性と応答性を両立させることが可能となる。また、S1AUTO時の撮影情報に基づく単独シーン認識結果は精度が高いので、S1オン時における単独シーン認識結果にかかる重みを大きくすることで、シーンの認識精度を向上させることが可能になる。   According to the present embodiment, when the scene recognition history is totaled, it is possible to improve the responsiveness when there is a scene change by increasing the weight as the new single scene recognition result, and the total scene recognition result It is possible to achieve both stability and responsiveness. In addition, since the single scene recognition result based on the shooting information at the time of S1 AUTO has high accuracy, it is possible to improve the scene recognition accuracy by increasing the weight applied to the single scene recognition result when S1 is on.

[第4の実施形態]
次に、本発明の第4の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.

本実施形態は、単独シーン認識に使用する撮影情報(例えば、顔検出の結果、フォーカスレンズ位置、ズームレンズ位置、合焦状態及び測光値のうち少なくとも1つ)の履歴をRAM69に格納しておき、上記撮影情報履歴から各撮影情報の代表値を求めて、この代表値に基づいて単独シーン認識を行うものである。   In this embodiment, a history of shooting information (for example, at least one of face detection result, focus lens position, zoom lens position, in-focus state, and photometric value) used for single scene recognition is stored in the RAM 69 in advance. The representative value of each piece of photographing information is obtained from the photographing information history, and single scene recognition is performed based on this representative value.

図18は、本発明の第4の実施形態に係るトータルシーン認識処理を模式的に示す図である。   FIG. 18 is a diagram schematically showing a total scene recognition process according to the fourth embodiment of the present invention.

本実施形態に係るデジタルカメラ1は、上記第1の実施形態と同様、撮影モード時に、コンティニュアスAE(CAE)及びコンティニュアスAF(CAF)を行う。また、シャッタボタンが半押しされると(S1オン)、S1AE及びS1AFを行う。図18に示すように、CAE及びCAF、S1AE及びS1AFによって得られた撮影情報はRAM69に順次格納される。   Similar to the first embodiment, the digital camera 1 according to the present embodiment performs continuous AE (CAE) and continuous AF (CAF) in the shooting mode. When the shutter button is half-pressed (S1 on), S1AE and S1AF are performed. As shown in FIG. 18, shooting information obtained by CAE and CAF, S1AE and S1AF is sequentially stored in a RAM 69.

なお、図18に示す例では、撮影情報の例として、明るさEV[i](測光値、EV値)と被写体距離POS[i](例えば、フォーカスレンズ位置)が示されているが、上記以外の情報(例えば、顔検出の結果(顔の有無、個数)、ズームレンズ位置及び測光値)を格納するようにしてもよい。   In the example shown in FIG. 18, brightness EV [i] (photometric value, EV value) and subject distance POS [i] (for example, focus lens position) are shown as examples of shooting information. Other information (for example, face detection results (face presence / absence, number), zoom lens position, and photometric value) may be stored.

次に、CPU75は、所定の時間間隔ごとに(例えば、CAE及びCAFによってRAM69に新たな撮影情報が格納されてRAM69の撮影情報が更新されるごとに、又は撮影履歴が所定の個数格納されるごとに)、上記撮影情報履歴を読み出して各撮影情報の代表値を算出する。そして、この代表値に基づいてシーン認識を行う。ここで、撮影情報の代表値としては、例えば、平均値又はメディアン値を用いることができる。また、代表値としては、例えば、撮影情報の値を大きさの順に並べた場合に、最大値側のN個、最小値側のM個(N=M、N≠Mのいずれでもよい。)を除外してから残りの撮影情報について算出した平均値を用いることもできる。この場合、他の撮影情報と極端にかけ離れた値を除外することができるので、シーンの変動やノイズの影響を受けにくくなる。   Next, the CPU 75 stores a predetermined number of shooting histories at every predetermined time interval (for example, whenever new shooting information is stored in the RAM 69 by CAE and CAF and the shooting information in the RAM 69 is updated). Each time, the photographing information history is read out, and a representative value of each photographing information is calculated. Then, scene recognition is performed based on this representative value. Here, as the representative value of the shooting information, for example, an average value or a median value can be used. Further, as representative values, for example, when the values of shooting information are arranged in order of size, N values on the maximum value side and M values on the minimum value side (N = M or N ≠ M may be used). It is also possible to use an average value calculated for the remaining shooting information after removing. In this case, since values that are extremely different from other shooting information can be excluded, it is less susceptible to scene fluctuations and noise.

図19は、本発明の第4の実施形態に係るトータルシーン認識処理を示すフローチャートである。なお、図19の処理は、撮影モード時において、所定の時間間隔ごとに実行される。処理を行うタイミングとして、例えば、CAE及びCAFによってRAM69に新たな撮影情報が格納されてRAM69の撮影情報が更新されるごと、又は所定の個数の撮影情報履歴が格納されるごと、が挙げられる。   FIG. 19 is a flowchart showing a total scene recognition process according to the fourth embodiment of the present invention. Note that the processing in FIG. 19 is executed at predetermined time intervals in the photographing mode. The timing for performing the process includes, for example, every time new shooting information is stored in the RAM 69 by CAE and CAF and the shooting information in the RAM 69 is updated, or every time a predetermined number of shooting information histories are stored.

まず、RAM69から撮影情報履歴(例えば、明るさ及び被写体距離)が読み出されて(ステップS90)、その代表値(EVa、POSa)が算出される(ステップS92)。   First, the shooting information history (for example, brightness and subject distance) is read from the RAM 69 (step S90), and the representative values (EVa, POSa) are calculated (step S92).

次に、上記代表値(EVa、POSa)に基づいてトータルシーン認識が行われ(ステップS94)、このトータルシーン認識の結果に応じて撮影モードの設定が行われる。   Next, total scene recognition is performed based on the representative values (EVa, POSa) (step S94), and a shooting mode is set according to the result of the total scene recognition.

本実施形態によれば、AE及びAF時に得られるシーン認識用の撮影情報を時系列的に格納しておき、撮影情報の履歴を使ってトータルシーン認識を行うことにより、安定したシーン認識結果を取得することが可能になる。   According to this embodiment, shooting information for scene recognition obtained at the time of AE and AF is stored in time series, and a total scene recognition is performed using a history of shooting information, so that a stable scene recognition result can be obtained. It becomes possible to acquire.

[第5の実施形態]
次に、本発明の第5の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.

図20は、本発明の第5の実施形態に係るトータルシーン認識処理(S1前)を模式的に示す図であり、図21は、本発明の第5の実施形態に係るトータルシーン認識処理(S1オン時)を模式的に示す図である。図20及び図21に示すように、本実施形態は、S1オン時におけるトータルシーン認識に用いる撮影情報の履歴に含まれる撮影情報の数を、S1前(スルー画表示時)よりも少なくしたものである。   FIG. 20 is a diagram schematically showing a total scene recognition process (before S1) according to the fifth embodiment of the present invention, and FIG. 21 is a total scene recognition process (before the S1) according to the fifth embodiment of the present invention. It is a figure which shows typically (at the time of S1 ON). As shown in FIGS. 20 and 21, in this embodiment, the number of pieces of shooting information included in the history of shooting information used for total scene recognition when S1 is on is less than that before S1 (during live view display). It is.

図22は、本発明の第5の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートである。図22の処理は、撮影モード時において、所定の時間間隔ごとに実行される。なお、上記処理は、例えば、CAE及びCAFによってRAM69に新たな撮影情報が格納されてRAM69の撮影情報が更新されるごと、又は撮影履歴が所定の個数格納されるごとに行われることとしてもよい。   FIG. 22 is a flowchart showing the total scene recognition process (before S1) according to the fifth embodiment of the present invention. The process of FIG. 22 is executed at predetermined time intervals in the shooting mode. The above process may be performed every time new shooting information is stored in the RAM 69 by CAE and CAF and the shooting information in the RAM 69 is updated, or every time a predetermined number of shooting histories are stored. .

まず、所定数分(S1前用参照数分)の撮影情報(例えば、明るさ及び被写体距離)を含む撮影情報履歴がRAM69から読み出されて(ステップS100)、その代表値(EVa、POSa)が算出される(ステップS102)。   First, a shooting information history including shooting information (for example, brightness and subject distance) for a predetermined number (for reference number before S1) is read from the RAM 69 (step S100), and the representative values (EVa, POSa). Is calculated (step S102).

次に、上記代表値(EVa、POSa)に基づいてトータルシーン認識が行われ(ステップS104)、このトータルシーンの認識結果に応じて撮影モードの設定が行われる。   Next, total scene recognition is performed based on the representative values (EVa, POSa) (step S104), and a shooting mode is set according to the total scene recognition result.

図23は、本発明の第5の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートである。図23の処理は、S1オン後に、所定の時間間隔ごとに実行される。なお、上記処理は、例えば、CAE及びCAFによってRAM69に新たな撮影情報が格納されてRAM69の撮影情報が更新されるごと、又は撮影履歴が所定の個数格納されるごと、に行われることとしてもよい。   FIG. 23 is a flowchart showing total scene recognition processing (when S1 is on) according to the fifth embodiment of the present invention. The process of FIG. 23 is executed at predetermined time intervals after S1 is turned on. The above processing may be performed every time new shooting information is stored in the RAM 69 by CAE and CAF and the shooting information in the RAM 69 is updated or a predetermined number of shooting histories are stored. Good.

まず、S1前用参照数よりも少ないS1後用参照数分の撮影情報(例えば、明るさ及び被写体距離)を含む撮影情報履歴がRAM69から読み出されて(ステップS110)、その代表値(EVa、POSa)が算出される(ステップS112)。   First, shooting information history including shooting information (for example, brightness and subject distance) corresponding to the number after S1 reference that is smaller than the number before S1 reference is read from the RAM 69 (step S110), and the representative value (EVa) is read. , POSa) is calculated (step S112).

次に、上記代表値(EVa、POSa)に基づいてトータルシーン認識が行われ(ステップS114)、このトータルシーンの認識結果に応じて撮影モードの設定が行われる。   Next, total scene recognition is performed based on the representative values (EVa, POSa) (step S114), and a shooting mode is set according to the total scene recognition result.

一般に、S1AUTO時により得られる撮影情報は、CAUTO時により得られる撮影情報よりも精度が高い。本実施形態では、S1オン時のシーン認識に用いる履歴中の撮影情報の数を、S1前(スルー画表示時)のトータルシーン認識に用いる数よりも少なくすることで、S1オン時のトータルシーン認識で参照する撮影情報履歴中のS1前の撮影情報の数を少なくし、その影響を小さくする。これにより、S1前のトータルシーン認識結果の安定性とS1オン時のトータルシーン認識結果の正確性を両立させることが可能となる。   In general, the shooting information obtained at S1 AUTO time is more accurate than the shooting information obtained at CAUTO time. In the present embodiment, the total number of shooting information in the history used for scene recognition when S1 is on is less than the number used for total scene recognition before S1 (when displaying a through image), so that the total scene when S1 is on The number of shooting information before S1 in the shooting information history to be referred to by recognition is reduced, and the influence is reduced. This makes it possible to achieve both the stability of the total scene recognition result before S1 and the accuracy of the total scene recognition result when S1 is on.

[第6の実施形態]
次に、本発明の第6の実施形態について説明する。なお、以下の説明において、上記第1の実施形態と同様の構成については説明を省略する。
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described. In the following description, the description of the same configuration as in the first embodiment is omitted.

本実施形態は、撮影情報の代表値を算出するときに重みづけをするようにしたものであり、新しい撮影情報にかける重みの値を大きくしたものである。   In this embodiment, weighting is performed when calculating a representative value of shooting information, and a value of weight applied to new shooting information is increased.

図24は、本発明の第6の実施形態に係るトータルシーン認識処理(S1前)を模式的に示す図であり、図25は、本発明の第6の実施形態に係るトータルシーン認識処理(S1オン時)を模式的に示す図である。   FIG. 24 is a diagram schematically showing a total scene recognition process (before S1) according to the sixth embodiment of the present invention, and FIG. 25 is a diagram showing a total scene recognition process (before the S1) according to the sixth embodiment of the present invention. It is a figure which shows typically (at the time of S1 ON).

図24及び図25に示すように、本実施形態のデジタルカメラ1は、撮影情報を集計するときにかける重みw[i](i=0,1,2,…)を予めRAM69に記憶している。この重みw[i]の値は、撮影情報履歴のうちで古い撮影情報ほど小さくなっている。なお、この重みw[i]の値は、S1前とS1オン時とで異なっていてもよいし、同じでもよい。   As shown in FIGS. 24 and 25, the digital camera 1 according to the present embodiment stores weights w [i] (i = 0, 1, 2,. Yes. The value of this weight w [i] is smaller for older shooting information in the shooting information history. The value of the weight w [i] may be different before S1 and when S1 is on, or may be the same.

図26は、本発明の第6の実施形態に係るトータルシーン認識処理(S1前)を示すフローチャートである。図26の処理は、撮影モード時において、所定の時間間隔ごとに実行される。なお、上記処理は、例えば、CAE及びCAFによってRAM69に新たな撮影情報が格納されてRAM69の撮影情報が更新されるごと、又は撮影履歴が所定の個数格納されるごと、に行うこととしてもよい。   FIG. 26 is a flowchart showing the total scene recognition process (before S1) according to the sixth embodiment of the present invention. The process of FIG. 26 is executed at predetermined time intervals in the shooting mode. The above process may be performed every time new shooting information is stored in the RAM 69 by CAE and CAF and the shooting information in the RAM 69 is updated, or every time a predetermined number of shooting histories are stored. .

まず、RAM69から撮影情報履歴(例えば、明るさ及び被写体距離)が所定数分(S1前用参照数分)読み出されて(ステップS120)、撮影情報が重みづけされて(ステップS122)、その代表値(重みづけ平均値)EVa及びPOSaが算出される(ステップS124)。   First, the shooting information history (for example, brightness and subject distance) is read from the RAM 69 by a predetermined number (for the reference number before S1) (step S120), and the shooting information is weighted (step S122). Representative values (weighted average values) EVa and POSa are calculated (step S124).

次に、上記代表値(EVa、POSa)に基づいてトータルシーン認識が行われ(ステップS126)、このトータルシーン認識の結果に応じて撮影モードの設定が行われる。   Next, total scene recognition is performed based on the representative values (EVa, POSa) (step S126), and a shooting mode is set according to the result of the total scene recognition.

図27は、本発明の第6の実施形態に係るトータルシーン認識処理(S1オン時)を示すフローチャートである。図27の処理は、S1オン後に、所定の時間間隔ごとに実行される。なお、上記処理は、例えば、CAE及びCAFによってRAM69に新たな撮影情報が格納されてRAM69の撮影情報が更新されるごと、又は撮影履歴が所定の個数格納されるごと、に行うこととしても良い。   FIG. 27 is a flowchart showing total scene recognition processing (when S1 is on) according to the sixth embodiment of the present invention. The processing in FIG. 27 is executed at predetermined time intervals after S1 is turned on. The above process may be performed every time new shooting information is stored in the RAM 69 by CAE and CAF and the shooting information in the RAM 69 is updated, or every time a predetermined number of shooting histories are stored. .

まず、S1前用参照数よりも少ないS1後用参照数分の撮影情報(例えば、明るさ及び被写体距離)を含む撮影情報履歴がRAM69から読み出されて(ステップS130)、撮影情報が重みづけされて(ステップS132)、その代表値(重みづけ平均値)EVa及びPOSaが算出される(ステップS134)。   First, a shooting information history including shooting information (for example, brightness and subject distance) corresponding to the number of references for S1 smaller than the number of references for S1 before is read from the RAM 69 (step S130), and the shooting information is weighted. Then, the representative values (weighted average values) EVa and POSa are calculated (step S134).

次に、上記代表値(EVa、POSa)に基づいてトータルシーン認識が行われ(ステップS136)、このトータルシーン認識の結果に応じて撮影モードの設定が行われる。   Next, total scene recognition is performed based on the representative values (EVa, POSa) (step S136), and a shooting mode is set according to the result of the total scene recognition.

本実施形態によれば、撮影情報の代表値を算出するときに、撮影履歴ごとに重みづけすることにより、シーン変動があった場合の応答性を向上させることが可能となり、シーン認識結果の安定性と応答性を両立させることが可能となる。また、S1AUTO時に得られた撮影情報は精度が高いので、S1オン時における撮影情報にかかる重みを大きくすることで、シーンの認識精度を向上させることが可能になる。   According to the present embodiment, when calculating a representative value of shooting information, weighting is performed for each shooting history, whereby it is possible to improve responsiveness when there is a scene change, and stable scene recognition results. And responsiveness can both be achieved. Also, since the shooting information obtained at the time of S1 AUTO has high accuracy, it is possible to improve the recognition accuracy of the scene by increasing the weight applied to the shooting information when S1 is on.

1…デジタルカメラ、11…操作部、20…レンズ、24…フラッシュ発光部、25…補助光制御部、26…補助光発光部、51…レンズ駆動部、54…絞り、55…絞り駆動部、58…撮像素子(CCD)、59…撮像素子制御部、60…アナログ信号処理部、61…A/D変換部、62…AF処理部、63…AE/AWB処理部、65…デジタル信号処理部、66…メモリ、67…圧縮伸張処理部、68…ROM、69…RAM、70…記録部、71…表示部、73…フラッシュ制御部、74…制御回路、75…CPU、80…顔検出処理部   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 11 ... Operation part, 20 ... Lens, 24 ... Flash light emission part, 25 ... Auxiliary light control part, 26 ... Auxiliary light emission part, 51 ... Lens drive part, 54 ... Aperture, 55 ... Aperture drive part, 58 ... Image sensor (CCD), 59 ... Image sensor controller, 60 ... Analog signal processor, 61 ... A / D converter, 62 ... AF processor, 63 ... AE / AWB processor, 65 ... Digital signal processor , 66 ... Memory, 67 ... Compression / decompression processing unit, 68 ... ROM, 69 ... RAM, 70 ... Recording unit, 71 ... Display unit, 73 ... Flash control unit, 74 ... Control circuit, 75 ... CPU, 80 ... Face detection processing Part

Claims (15)

撮影シーンの情報である撮影情報を取得する撮影情報取得手段と、
前記撮影情報取得手段により取得した前記撮影情報から撮影シーンを認識する単独シーン認識を行う単独シーン認識手段と、
前記単独シーン認識手段による単独シーン認識結果を最新の所定個数分シーン認識履歴として登録するシーン認識履歴登録手段と、
前記シーン認識履歴登録手段により登録されたシーン認識履歴に基づいて撮影シーンを認識するトータルシーン認識を行うトータルシーン認識手段と、
前記トータルシーン認識手段による前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御手段と、
を備えたことを特徴とする撮像装置。
Shooting information acquisition means for acquiring shooting information which is information of a shooting scene;
Single scene recognition means for performing single scene recognition for recognizing a shooting scene from the shooting information acquired by the shooting information acquisition means;
Scene recognition history registration means for registering a single scene recognition result by the single scene recognition means as the latest predetermined number of scene recognition histories;
Total scene recognition means for performing total scene recognition for recognizing a photographic scene based on the scene recognition history registered by the scene recognition history registration means;
Control means for performing at least one of display control, shooting control, signal processing control and information recording control according to the total scene recognition result by the total scene recognition means;
An imaging apparatus comprising:
撮影シーンの情報である撮影情報を取得する撮影情報取得手段と、
前記撮影情報取得手段により取得された撮影情報を最新の所定個数分撮影情報履歴として登録する撮影情報履歴登録手段と、
前記撮影情報履歴登録手段に登録された撮影情報履歴に基づいて撮影シーンを認識するトータルシーン認識を行うトータルシーン認識手段と、
前記トータルシーン認識手段による前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御手段と、
を備えたことを特徴とする撮像装置。
Shooting information acquisition means for acquiring shooting information which is information of a shooting scene;
Shooting information history registration means for registering shooting information acquired by the shooting information acquisition means as the latest predetermined number of shooting information history;
Total scene recognition means for performing total scene recognition for recognizing a shooting scene based on the shooting information history registered in the shooting information history registration means;
Control means for performing at least one of display control, shooting control, signal processing control and information recording control according to the total scene recognition result by the total scene recognition means;
An imaging apparatus comprising:
前記トータルシーン認識手段は、前記シーン認識履歴登録手段に登録された前記シーン認識履歴の全部もしくは一部の範囲において、最大頻度の単独シーン認識結果が示す撮影シーンを検出し、当該検出した撮影シーンを前記トータルシーン認識結果とすることを特徴とする請求項1に記載の撮像装置。   The total scene recognition unit detects a shooting scene indicated by the single scene recognition result with the highest frequency in the whole or a part of the range of the scene recognition history registered in the scene recognition history registration unit, and the detected shooting scene The imaging apparatus according to claim 1, wherein the total scene recognition result is defined as 前記トータルシーン認識手段は、前記最大頻度の単独シーン認識結果が示す撮影シーンが複数検出された場合には、最新側の最大頻度の単独シーン認識結果が示す撮影シーンを前記トータルシーン認識結果とすることを特徴とする請求項3に記載の撮像装置。   When a plurality of shooting scenes indicated by the maximum frequency single scene recognition result are detected, the total scene recognition means sets the shooting scene indicated by the latest single frequency recognition result of the highest frequency as the total scene recognition result. The imaging apparatus according to claim 3. 前記トータルシーン認識手段は、
前記シーン認識履歴登録手段に登録された前記シーン認識履歴中の各単独シーン認識結果に対し、最新の単独シーン認識結果ほど重みが大きくなる重み付けを行う重み付け設定手段と、
前記重み付け設定手段による重み付け後の単独シーン認識結果別の累積スコアを算出する算出手段とを有し、
前記算出手段により算出した累積スコアが最大となる単独シーン認識結果を前記トータルシーン認識結果とすることを特徴とする請求項1に記載の撮像装置。
The total scene recognition means
Weight setting means for performing weighting that increases the weight of the latest single scene recognition result for each single scene recognition result in the scene recognition history registered in the scene recognition history registration means;
Calculating means for calculating a cumulative score for each single scene recognition result after weighting by the weight setting means;
The imaging apparatus according to claim 1, wherein the single scene recognition result that maximizes the cumulative score calculated by the calculation unit is the total scene recognition result.
前記トータルシーン認識手段は、
前記撮影情報履歴登録手段に登録された前記撮影情報履歴から代表値を算出する算出手段と、
前記算出手段により算出された代表値に基づいて撮影シーンを認識する認識手段と、
を有することを特徴とする請求項2に記載の撮像装置。
The total scene recognition means
Calculating means for calculating a representative value from the shooting information history registered in the shooting information history registration means;
Recognizing means for recognizing a photographic scene based on the representative value calculated by the calculating means;
The imaging apparatus according to claim 2, further comprising:
前記算出手段は、前記撮影情報履歴登録手段に登録された前記撮影情報履歴の平均値、前記撮影情報履歴のうちの最新の情報ほど大きくなる重みを付けた重み付け平均値、前記撮影情報履歴のメディアン値、及び前記撮影情報履歴のうちの最大値側のN(N:0以上の整数)個分、最小値側のM(M:0以上の整数であって、N=M、N≠Mを含む)個分の撮影情報を除いた残り情報の平均値のうちのいずれか1つを前記代表値として算出することを特徴とする請求項6に記載の撮像装置。   The calculating means includes an average value of the photographing information history registered in the photographing information history registering means, a weighted average value with a larger weight as the latest information of the photographing information history, and a median of the photographing information history. Value and N (N is an integer greater than or equal to N) of the maximum value side of the shooting information history, and M (M is an integer greater than or equal to 0) on the minimum value side, where N = M and N ≠ M The imaging apparatus according to claim 6, wherein any one of the average values of the remaining information excluding the number of pieces of shooting information is calculated as the representative value. 前記撮影情報取得手段は、撮影シーン中に人物の顔があるか否かを示す情報、被写体距離を示す情報、被写体の明るさを示す情報、及び補助光の検出情報のうちの少なくとも1つの情報を取得することを特徴とする請求項1から7のいずれかに記載の撮像装置。   The shooting information acquisition means includes at least one of information indicating whether or not a person's face is present in the shooting scene, information indicating a subject distance, information indicating the brightness of the subject, and auxiliary light detection information. The imaging device according to claim 1, wherein the imaging device is acquired. 前記撮影情報取得手段は、前記被写体距離を示す情報として、前記被写体に合焦しているときのフォーカス位置の情報を取得することを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the photographing information acquisition unit acquires information on a focus position when the subject is focused as information indicating the subject distance. シャッタ半押し時に本露光用の測光及び測距を指示し、シャッタ全押し時に本露光を指示するシャッタボタンを更に備え、
前記シーン認識履歴登録手段に登録される前記シーン認識履歴には、前記シャッタ半押し前の単独シーン認識結果の個数と、前記シャッタ半押し後の単独シーン認識結果の個数とが個別に設定されることを特徴とする請求項1、3、4、5、8及び9のいずれかに記載の撮像装置。
A shutter button for instructing photometry and distance measurement for main exposure when the shutter is half-pressed, and for instructing main exposure when the shutter is fully pressed;
In the scene recognition history registered in the scene recognition history registration unit, the number of single scene recognition results before the shutter half-press and the number of single scene recognition results after the shutter half-press are individually set. The imaging apparatus according to any one of claims 1, 3, 4, 5, 8, and 9.
シャッタ半押し時に本露光用の測光及び測距を指示し、シャッタ全押し時に本露光を指示するシャッタボタンを備え、
前記撮影情報履歴登録手段に登録される前記撮影情報履歴は、前記シャッタ半押し前の撮影情報の個数と、前記シャッタ半押し後の撮影情報の個数とが個別に設定されることを特徴とする請求項2、6、7、8及び9のいずれかに記載の撮像装置。
A shutter button is provided to instruct photometry and distance measurement for main exposure when the shutter is half-pressed, and to instruct main exposure when the shutter is fully pressed.
In the shooting information history registered in the shooting information history registration means, the number of shooting information before half-pressing the shutter and the number of shooting information after half-pressing the shutter are individually set. The imaging device according to any one of claims 2, 6, 7, 8, and 9.
前記トータルシーン認識手段によるトータルシーン認識結果に応じて撮影モードを設定する撮影モード設定手段を更に有し、
前記制御手段は、前記設定された撮影モードに基づいて前記撮影制御を行うことを特徴とする請求項1から11のいずれかに記載の撮像装置。
A shooting mode setting means for setting a shooting mode according to a total scene recognition result by the total scene recognition means;
12. The imaging apparatus according to claim 1, wherein the control unit performs the shooting control based on the set shooting mode.
シャッタ半押し時に本露光用の測光及び測距を指示し、シャッタ全押し時に本露光を指示するシャッタボタンを更に備え、
前記撮影情報取得手段は、前記シャッタ半押し後は、本露光用の被写体距離を示す情報、及び本露光用の被写体の明るさを示す情報のみを取得することを特徴とする請求項1から12のうちのいずれかに記載の撮像装置。
A shutter button for instructing photometry and distance measurement for main exposure when the shutter is half-pressed, and for instructing main exposure when the shutter is fully pressed;
13. The photographing information acquisition unit acquires only information indicating a subject distance for main exposure and information indicating brightness of a subject for main exposure after the shutter is half-pressed. The imaging device according to any one of the above.
撮影シーンの情報である撮影情報を取得する撮影情報取得ステップと、
前記撮影情報取得ステップにより取得した前記撮影情報から撮影シーンを認識する単独シーン認識ステップと、
前記単独シーン認識ステップにおいて認識された単独シーン認識結果を最新の所定個数分シーン認識履歴としてシーン認識履歴登録手段に登録するシーン認識履歴登録ステップと、
前記シーン認識履歴登録手段に登録された前記シーン認識履歴に基づいて撮影シーンを認識するトータルシーン認識ステップと、
前記トータルシーン認識ステップの前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御ステップと、
を備えたことを特徴とする撮像方法。
A shooting information acquisition step of acquiring shooting information that is information of a shooting scene;
A single scene recognition step for recognizing a shooting scene from the shooting information acquired by the shooting information acquisition step;
A scene recognition history registration step of registering a single scene recognition result recognized in the single scene recognition step as a latest predetermined number of scene recognition histories in a scene recognition history registration unit;
A total scene recognition step for recognizing a photographic scene based on the scene recognition history registered in the scene recognition history registration means;
A control step of performing at least one of display control, shooting control, signal processing control and information recording control according to the total scene recognition result of the total scene recognition step;
An imaging method comprising:
撮影シーンの情報である撮影情報を取得する撮影情報取得ステップと、
前記撮影情報取得ステップにおいて取得された前記撮影情報を最新の所定個数分撮影情報履歴として撮影情報履歴登録手段に登録する撮影情報履歴登録ステップと、
前記撮影情報履歴登録手段に登録された前記撮影情報履歴に基づいて撮影シーンを認識するトータルシーン認識ステップと、
前記トータルシーン認識ステップの前記トータルシーン認識結果に応じて、表示制御、撮影制御、信号処理制御及び情報記録制御のうち少なくとも1つを行う制御ステップと、
を備えたことを特徴とする撮像方法。
A shooting information acquisition step of acquiring shooting information that is information of a shooting scene;
A shooting information history registration step of registering the shooting information acquired in the shooting information acquisition step in a shooting information history registration unit as the latest predetermined number of shooting information histories;
A total scene recognition step for recognizing a shooting scene based on the shooting information history registered in the shooting information history registration means;
A control step of performing at least one of display control, shooting control, signal processing control and information recording control according to the total scene recognition result of the total scene recognition step;
An imaging method comprising:
JP2009174563A 2008-07-29 2009-07-27 Imaging apparatus and imaging method Active JP5166370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009174563A JP5166370B2 (en) 2008-07-29 2009-07-27 Imaging apparatus and imaging method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008195273 2008-07-29
JP2008195273 2008-07-29
JP2009174563A JP5166370B2 (en) 2008-07-29 2009-07-27 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2010057168A true JP2010057168A (en) 2010-03-11
JP5166370B2 JP5166370B2 (en) 2013-03-21

Family

ID=41615523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009174563A Active JP5166370B2 (en) 2008-07-29 2009-07-27 Imaging apparatus and imaging method

Country Status (3)

Country Link
JP (1) JP5166370B2 (en)
KR (1) KR101542436B1 (en)
CN (1) CN101640764B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100173A (en) * 2010-11-04 2012-05-24 Canon Inc Imaging device, imaging system, and imaging device control method
JP2014168173A (en) * 2013-02-28 2014-09-11 Casio Comput Co Ltd Imaging apparatus, display control method and program
JP2020086532A (en) * 2018-11-15 2020-06-04 フリュー株式会社 Imaging apparatus, control method of imaging apparatus, and program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104994298B (en) * 2015-07-14 2018-08-10 厦门美图之家科技有限公司 A kind of the focusing triggering method and system of intelligent selection focal modes
CN106506939B (en) * 2016-10-12 2020-02-04 成都西纬科技有限公司 Image acquisition device and acquisition method
US10847073B2 (en) 2016-10-17 2020-11-24 Huawei Technologies Co., Ltd. Image display optimization method and apparatus
CN107977391B (en) * 2017-03-09 2020-12-08 北京物灵智能科技有限公司 Method, device and system for identifying picture book and electronic equipment
CN107977392B (en) * 2017-03-09 2020-12-04 北京物灵智能科技有限公司 Method, device and system for identifying picture book and electronic equipment
CN115327562A (en) * 2022-10-16 2022-11-11 常州海图信息科技股份有限公司 Handheld visual laser rangefinder

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092699A (en) * 2001-09-17 2003-03-28 Ricoh Co Ltd Digital camera imaging apparatus
JP2003244530A (en) * 2002-02-21 2003-08-29 Konica Corp Digital still camera and program
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining apparatus, imaging device, and supervisory apparatus
JP2008042616A (en) * 2006-08-08 2008-02-21 Eastman Kodak Co Imaging apparatus
JP2008054295A (en) * 2006-07-25 2008-03-06 Fujifilm Corp System for and method of photographing, and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4717539B2 (en) * 2005-07-26 2011-07-06 キヤノン株式会社 Imaging apparatus and imaging method
DE602006009191D1 (en) * 2005-07-26 2009-10-29 Canon Kk Imaging device and method
CN101137012B (en) * 2006-07-25 2010-09-08 富士胶片株式会社 Screening device and method
JP4910584B2 (en) 2006-09-14 2012-04-04 日本電気株式会社 Imaging device, mobile phone, imaging control method, imaging control program, and program recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092699A (en) * 2001-09-17 2003-03-28 Ricoh Co Ltd Digital camera imaging apparatus
JP2003244530A (en) * 2002-02-21 2003-08-29 Konica Corp Digital still camera and program
JP2003344891A (en) * 2002-05-23 2003-12-03 Canon Inc Automatic photographing mode setting camera
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining apparatus, imaging device, and supervisory apparatus
JP2008054295A (en) * 2006-07-25 2008-03-06 Fujifilm Corp System for and method of photographing, and computer program
JP2008042616A (en) * 2006-08-08 2008-02-21 Eastman Kodak Co Imaging apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100173A (en) * 2010-11-04 2012-05-24 Canon Inc Imaging device, imaging system, and imaging device control method
JP2014168173A (en) * 2013-02-28 2014-09-11 Casio Comput Co Ltd Imaging apparatus, display control method and program
US9191571B2 (en) 2013-02-28 2015-11-17 Casio Computer Co., Ltd. Image capture apparatus that controls photographing according to photographic scene
JP2020086532A (en) * 2018-11-15 2020-06-04 フリュー株式会社 Imaging apparatus, control method of imaging apparatus, and program
JP7260737B2 (en) 2018-11-15 2023-04-19 フリュー株式会社 Image capturing device, control method for image capturing device, and program

Also Published As

Publication number Publication date
CN101640764A (en) 2010-02-03
JP5166370B2 (en) 2013-03-21
KR20100012822A (en) 2010-02-08
KR101542436B1 (en) 2015-08-06
CN101640764B (en) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5166370B2 (en) Imaging apparatus and imaging method
US8199203B2 (en) Imaging apparatus and imaging method with face detection based on scene recognition results
JP4655054B2 (en) Imaging device
JP4518131B2 (en) Imaging method and apparatus
JP5394296B2 (en) Imaging apparatus and image processing method
US8248484B2 (en) Imaging apparatus and method
JP4974812B2 (en) Electronic camera
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2007264049A (en) Imaging method and apparatus
JP5180349B2 (en) Imaging apparatus, method, and program
JP4818999B2 (en) Imaging apparatus, method, and program
JP5027580B2 (en) Imaging apparatus, method, and program
JP5665512B2 (en) Imaging apparatus and main subject detection method
JP2007025559A (en) Focusing position detecting method and device
JP3985005B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD
JP2010154438A (en) Photographic apparatus and control method therefor
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2010062987A (en) Imaging apparatus and method
JP5324684B2 (en) Imaging apparatus and imaging method
JP5421682B2 (en) Imaging apparatus and method
JP2011078143A (en) Photographing apparatus, face detecting method thereof and image recording method
KR101417818B1 (en) Apparatus and method for recognizing scene mode in digital image processing device
JP2009145622A (en) Electronic camera
JP2009105694A (en) Electronic camera
JP2010041504A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5166370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250