JP2010251866A - Image processor, method of controlling the same, and computer program - Google Patents

Image processor, method of controlling the same, and computer program Download PDF

Info

Publication number
JP2010251866A
JP2010251866A JP2009096456A JP2009096456A JP2010251866A JP 2010251866 A JP2010251866 A JP 2010251866A JP 2009096456 A JP2009096456 A JP 2009096456A JP 2009096456 A JP2009096456 A JP 2009096456A JP 2010251866 A JP2010251866 A JP 2010251866A
Authority
JP
Japan
Prior art keywords
still image
video
video data
image
trigger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009096456A
Other languages
Japanese (ja)
Inventor
Toshiki Ishida
俊樹 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009096456A priority Critical patent/JP2010251866A/en
Publication of JP2010251866A publication Critical patent/JP2010251866A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of selecting and photographing a main object which is envisioned by an object, when photographing moving images. <P>SOLUTION: The face information of a face detected as the main object when photographing a still image is registered; and in the case of detecting the face information corresponding to the already registered face information when photographing the moving image, it is selected as the main object in moving image photographing, as well. Also, when the object appears in a frame during photographing, timing suitable for photographing the still image is provided for a photographer, according to history information generated on the basis of the still images photographed by the photographer in the past. Alternatively, the still image is automatically photographed with the timing. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置及びその制御方法、コンピュータプログラムに関する。   The present invention relates to an image processing apparatus, a control method thereof, and a computer program.

画像データから人物の顔を検出して主被写体とし、その主被写体のピントおよび輝度が適切な値となるように焦点と露出を自動制御して撮影するカメラ、あるいは、ビデオが実現されている。複数の人物が検出された場合に、いずれの人物も撮影者が意図した被写体であるとは限らない。例えば、通りすがりの人が入ってしまうこともあれば、複数のメンバーの中でも主役となる人物だけにピントをあわせて撮影したいような場合もある。   A camera or video that detects a person's face from image data and sets it as a main subject and automatically controls the focus and exposure so that the focus and brightness of the main subject become appropriate values is realized. When a plurality of persons are detected, none of the persons is necessarily a subject intended by the photographer. For example, there may be a person who passes by, or there may be a case where only a person who plays a leading role among a plurality of members is focused.

このような場合を鑑みて、検出された複数の人物の中から、その画像データの構図を考慮して、カメラが自動的に最も主被写体らしい人物を選択する機能が提案されている。例えば、検出された顔が画面の中央に近いほど、あるいは、その面積が大きいほど、主被写体として自動的に選択されるカメラが提案されている(特許文献1を参照)。   In view of such a case, a function has been proposed in which the camera automatically selects the person most likely to be the main subject from among a plurality of detected persons in consideration of the composition of the image data. For example, there has been proposed a camera that is automatically selected as a main subject as the detected face is closer to the center of the screen or the area thereof is larger (see Patent Document 1).

特開2008-005438号公報JP 2008-005438 A

ここで、記念撮影のように、静止画をとる場合であれば、撮影者が主役とみなした人物が画面の中央に存在する、あるいは、最も顔の面積が大きくなるという状況である可能性は高い。しかしながら、被写体が動くことを前提とした動画撮影においては、撮影者が主役とみなした人物が画面の中央に存在したり、最もカメラの近くにいたりするとは限らない。よって、静止画撮影時と同様の方法で主被写体を選択しても、それが撮影者が主役とみなす被写体である可能性は、静止画のときほど高くは無い。   Here, if you take a still image, such as a commemorative photo, there is a possibility that the person who the photographer considered as the main role is in the center of the screen, or the area of the face is the largest high. However, in moving image shooting on the premise that the subject moves, the person regarded as the main character by the photographer does not always exist in the center of the screen or is closest to the camera. Therefore, even if the main subject is selected in the same way as when shooting a still image, the possibility that it is a subject that the photographer considers to be the main role is not as high as that when a still image is taken.

そこで、本発明は動画撮影時に、被写体が想定する主被写体を選択し、撮影可能とする技術を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a technique that enables a subject to be selected and photographed when a moving image is shot.

上記課題を解決するための本発明は、
被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定手段と、
前記判定手段により前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が前記映像データにおいて前記顔情報を検出した領域を、前記撮影パラメータを設定するための領域として設定する領域設定手段と
を備える画像処理装置であって、
前記パラメータ設定手段は、前記領域設定手段が設定した領域に基づいて前記撮影パラメータを設定することを特徴とする。
The present invention for solving the above problems is as follows.
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
History information holding means for holding detection history information including face information detected by the still image detection means;
Determination means for determining whether or not the history information holding means holds information corresponding to the face information detected by the moving image detection means;
When the determination means determines that the history information holding means holds, an area where the moving image detection means detects the face information in the video data is set as an area for setting the shooting parameters. An image processing apparatus comprising a region setting means for setting,
The parameter setting means sets the imaging parameter based on the area set by the area setting means.

本発明によれば、動画撮影時に、被写体が想定する主被写体を選択し、撮影可能とする技術を提供することができる。   According to the present invention, it is possible to provide a technique capable of selecting a main subject assumed as a subject and capturing the image during moving image shooting.

発明の実施形態1に対応する画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image processing apparatus corresponding to Embodiment 1 of invention. 発明の実施形態2に対応する画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image processing apparatus corresponding to Embodiment 2 of invention. 発明の実施形態に対応する動作シーケンスの一例を示すタイミングチャートである。It is a timing chart which shows an example of the operation | movement sequence corresponding to embodiment of invention. 発明の実施形態に対応する履歴情報保持部121が保持する履歴情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the log | history information which the log | history information holding part 121 corresponding to embodiment of invention hold | maintains. 発明の実施形態に対応する処理のフローチャートである。It is a flowchart of the process corresponding to embodiment of invention. 発明の実施形態に対応する履歴情報再構築処理の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of the log | history information reconstruction process corresponding to embodiment of invention. 発明の実施形態に対応する履歴情報再構築処理を説明するための図である。It is a figure for demonstrating the historical information reconstruction process corresponding to embodiment of invention. 発明の実施形態に対応する静止画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of the historical information update process at the time of still image shooting corresponding to embodiment of invention. 発明の実施形態に対応する静止画撮影時の履歴情報構築処理を説明するための図である。It is a figure for demonstrating the log | history information construction process at the time of still image shooting corresponding to embodiment of invention. 発明の実施形態1に対応する動画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of the log | history information update process at the time of the video recording corresponding to Embodiment 1 of invention. 発明の実施形態に対応する動画撮影時の被写体検出に基づく評価枠の設定法を説明するための図である。It is a figure for demonstrating the setting method of the evaluation frame based on the to-be-photographed object detection at the time of the video recording corresponding to embodiment of invention. 発明の実施形態2に対応する動画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed process of the log | history information update process at the time of the video recording corresponding to Embodiment 2 of invention. 発明の実施形態2に対応する動画撮影時の同時記録最適フラグに基づく表示を説明するための図である。It is a figure for demonstrating the display based on the simultaneous recording optimal flag at the time of the video recording corresponding to Embodiment 2 of invention.

以下、添付の図面を参照して発明の実施形態1及び2を説明する。   Embodiments 1 and 2 of the invention will be described below with reference to the accompanying drawings.

[実施形態1]
図1は発明の実施形態に対応する画像処理装置の機能構成の一例を示す図である。図1の画像処理装置100は、例えば動画及び静止画を撮影可能なデジタルカメラとして実現することができる。なお、動画、静止画撮影機能を有する情報処理装置であれば、パーソナルコンピュータや、PDA等の携帯情報機器、携帯電話等であってもよい。
[Embodiment 1]
FIG. 1 is a diagram illustrating an example of a functional configuration of an image processing apparatus corresponding to an embodiment of the invention. The image processing apparatus 100 in FIG. 1 can be realized as a digital camera capable of shooting moving images and still images, for example. Note that a personal computer, a portable information device such as a PDA, a cellular phone, or the like may be used as long as it is an information processing apparatus having a moving image and still image shooting function.

画像処理装置100において、入射光がレンズ101により結像され、アイリス102で入射光量を調節され、CMOSやCCD等の半導体からなるセンサ103へ入射される。レンズ駆動部105はフォーカス時のレンズ駆動を行い、アイリス駆動部106はアイリスを駆動する。システム制御部123は撮影者の操作(電源、静止画トリガ、動画トリガ)により遷移するモードに応じて全ブロックの制御を行なう。画像処理装置100は、電源ボタン、動画トリガを生成するための動画撮影ボタン、静止画トリガを生成するための静止画撮影ボタンを有する。   In the image processing apparatus 100, incident light is imaged by a lens 101, the amount of incident light is adjusted by an iris 102, and is incident on a sensor 103 made of a semiconductor such as a CMOS or CCD. The lens driving unit 105 performs lens driving during focusing, and the iris driving unit 106 drives the iris. The system control unit 123 controls all blocks according to a mode that is changed by a photographer's operation (power supply, still image trigger, moving image trigger). The image processing apparatus 100 includes a power button, a moving image shooting button for generating a moving image trigger, and a still image shooting button for generating a still image trigger.

センサ103で光電変換をして、AD104でAD変換を施されたデジタル映像信号はセレクタ124を経由する。パラメータ設定部118は、システム制御部123の制御に従い、該デジタル映像信号を処理して撮影パラメータを設定する。パラメータ設定部118から出力された撮影パラメータは、システム制御部123経由でAF、露出制御へフィードバックされる。静止画撮影時は静止画信号処理部114で信号処理され、静止画符号化部115で符号化され、静止画記録部116へ記憶される。また静止画表示部117に撮影後に所定期間、記憶画像が表示される。同時にデジタル映像信号は静止画顔検出・認識部113へ入力され、静止画用検出処理、即ち、所定の領域内における顔形状を認識し顔情報を検出する処理が行なわれる。検出結果はアクセス制御部120へ入力される。アクセス制御部120は、履歴情報を履歴情報保持部121から読み出し、顔情報の検出結果と比較し、比較結果に応じて履歴情報保持部121の履歴情報を更新する。   The digital video signal that has been subjected to photoelectric conversion by the sensor 103 and subjected to AD conversion by the AD 104 passes through the selector 124. The parameter setting unit 118 processes the digital video signal and sets shooting parameters under the control of the system control unit 123. The shooting parameters output from the parameter setting unit 118 are fed back to AF and exposure control via the system control unit 123. At the time of still image shooting, signal processing is performed by the still image signal processing unit 114, encoded by the still image encoding unit 115, and stored in the still image recording unit 116. The stored image is displayed on the still image display unit 117 for a predetermined period after shooting. At the same time, the digital video signal is input to the still image face detection / recognition unit 113, and still image detection processing, that is, processing for recognizing the face shape in a predetermined area and detecting face information. The detection result is input to the access control unit 120. The access control unit 120 reads the history information from the history information holding unit 121, compares it with the detection result of the face information, and updates the history information of the history information holding unit 121 according to the comparison result.

動画撮影時は動画信号処理部108で信号処理され、動画符号化部109で符号化され、動画記録部110に記憶される。同時に映像データは動画顔検出・認識部107へ入力され、動画用検出処理、即ち、顔形状を認識し顔情報を検出する処理が行なわれる。検出結果はパラメータ設定部118経由で評価枠設定部119へ入力される。評価枠設定部119は、履歴情報を履歴情報保持部121から読み出し、顔情報の検出結果との整合をとって主被写体の検出を行い、主被写体が検出された枠を撮影パラメータ設定を行うための領域として領域設定する。評価枠の情報は、パラメータ設定部118に通知され、パラメータ設定部118は通知された評価枠の領域の処理を優先的に行なうようにする。これにより主被写体を検出した領域が優先的に処理され、撮影パラメータが算出される。撮影パラメータは、システム制御部123を経由してAF、露出制御にフィードバックされる。   During moving image shooting, signal processing is performed by the moving image signal processing unit 108, encoded by the moving image encoding unit 109, and stored in the moving image recording unit 110. At the same time, the video data is input to the moving image face detection / recognition unit 107, and moving image detection processing, that is, processing for recognizing the face shape and detecting face information is performed. The detection result is input to the evaluation frame setting unit 119 via the parameter setting unit 118. The evaluation frame setting unit 119 reads the history information from the history information holding unit 121, detects the main subject in alignment with the detection result of the face information, and sets the shooting parameter for the frame in which the main subject is detected. Set the area as the area. The information of the evaluation frame is notified to the parameter setting unit 118, and the parameter setting unit 118 preferentially performs the processing of the notified evaluation frame region. As a result, the area in which the main subject is detected is preferentially processed, and the shooting parameters are calculated. The shooting parameters are fed back to AF and exposure control via the system control unit 123.

電源を投入してから撮影が行われていない期間を利用し、システム制御部123は、静止画記録部116に記憶済の静止画を静止画顔検出・認識部113で処理させる。静止画顔検出・認識部113での顔認識結果はアクセス制御部120を経由して履歴情報保持部121へ蓄積される。   The system control unit 123 causes the still image face detection / recognition unit 113 to process a still image stored in the still image recording unit 116 using a period in which shooting is not performed after the power is turned on. The face recognition result in the still image face detection / recognition unit 113 is accumulated in the history information holding unit 121 via the access control unit 120.

次に、図3Aを参照して発明の実施形態に対応する撮影中のシーケンスを説明する。図3Aは、発明の実施形態に対応する動作シーケンスの一例を示すタイミングチャートである。図3Aでは、動画処理、静止画処理、履歴情報処理の3つの処理について、フェーズ毎のシーケンスを説明する。   Next, a sequence during photographing corresponding to the embodiment of the invention will be described with reference to FIG. 3A. FIG. 3A is a timing chart showing an example of an operation sequence corresponding to the embodiment of the invention. In FIG. 3A, a sequence for each phase will be described for the three processes of moving image processing, still image processing, and history information processing.

まず、フェーズF301は電源投入後に行われる初期シーケンスの期間である。ここでは履歴情報が再構築される。次にフェーズF302は動画撮影が行われている期間である。ここではフェーズF301で構築された履歴情報が読み出されて、動画撮影パラメータが補正が行われる。続くフェーズF303はプレビュー及び静止画撮影の期間である。静止画撮影ボタンの操作に応じて静止画トリガが発生すると、静止画顔検出・認識部113が顔検出及び認識処理を行い、履歴情報保持部121の履歴情報を蓄積・更新していく。なお、静止画トリガがない場合も検出動作は行い、撮影時にフィードバックしてもよい。また、図3Aでは記載していないが、フェーズF303において、動画撮影が平行して行われていてもよい。以下ではその場合を想定して実施形態を説明する。フェーズF304は動画撮影が行われている期間であり、フェーズF301で再構築され、フェーズF303で更新された履歴情報を用いて、動画撮影パラメータが補正される。   First, phase F301 is a period of an initial sequence performed after power-on. Here, history information is reconstructed. Next, phase F302 is a period during which moving image shooting is performed. Here, the history information constructed in phase F301 is read out, and the moving image shooting parameters are corrected. A subsequent phase F303 is a period for preview and still image shooting. When a still image trigger is generated in response to the operation of the still image shooting button, the still image face detection / recognition unit 113 performs face detection and recognition processing, and the history information in the history information holding unit 121 is accumulated and updated. Note that the detection operation may be performed even when there is no still image trigger, and feedback may be performed during shooting. Although not shown in FIG. 3A, moving image shooting may be performed in parallel in phase F303. The embodiment will be described below assuming that case. Phase F304 is a period during which moving image shooting is performed, and moving image shooting parameters are corrected using the history information reconstructed in phase F301 and updated in phase F303.

次に、図3Bを参照して、発明の実施形態に対応する履歴情報保持部121が保持する履歴情報のデータ構造の一例を説明する。履歴情報テーブル310では、各履歴情報を識別するための識別情報としてのID311、顔検出・認識処理において検出された被写体の顔に関する顔情報312、当該顔が主被写体として検出された頻度313が互いに関連づけられて登録されている。このうち、顔情報312は、静止画顔検出・認識部113が画像中で認識した顔につき、該顔の特徴を表すパラメータとして抽出される特徴量である。該特徴量には、例えば、目の間隔と目の大きさとの比率や、目尻と目頭とを結んだ線の顔の中心線に対する傾き、小鼻の間隔と唇の幅との比率など、被写体の顔の特徴量を特定するための情報を含めることができる。なお、本発明は、顔の特徴量の決定方法に技術的特徴を有する発明ではなく、また、顔認識の手法についても、公知の顔認識アルゴリズムを任意に用いることができる。よって、ここでの特徴量は、複数の画像から同一の被写体の顔を特定するための情報として機能するものであれば、どのようなものでもよい。また、顔検出・認識のアルゴリズム自体も本質的な特徴ではないので本実施形態での、より詳細な説明は省略する。   Next, an example of a data structure of history information held by the history information holding unit 121 corresponding to the embodiment of the invention will be described with reference to FIG. 3B. In the history information table 310, ID 311 as identification information for identifying each history information, face information 312 regarding the face of the subject detected in the face detection / recognition process, and the frequency 313 at which the face is detected as the main subject are It is associated and registered. Among these, the face information 312 is a feature amount extracted as a parameter representing the feature of the face recognized by the still image face detection / recognition unit 113 in the image. The feature amount includes, for example, the ratio of the distance between the eyes and the size of the eyes, the inclination of the line connecting the corners of the eyes and the eyes to the center line of the face, the ratio of the distance between the nose and the width of the lips, and the like. Information for specifying the feature amount of the face can be included. Note that the present invention is not an invention having technical features in the method for determining the facial feature amount, and a known face recognition algorithm can be arbitrarily used as a face recognition method. Therefore, the feature amount here may be any as long as it functions as information for specifying the face of the same subject from a plurality of images. Further, since the face detection / recognition algorithm itself is not an essential feature, a more detailed explanation in this embodiment is omitted.

以下では、図3Aのシーケンスにおける各処理を、図4乃至図8を参照して具体的に説明していく。まず、図4は、上述のシーケンスの全体的な流れをフローチャート化したものである。当該フローチャートに対応する処理は、処理のためのプログラムをシステム制御部123が実行することにより、画像処理装置100の各構成要素を制御することで実現される。   Hereinafter, each process in the sequence of FIG. 3A will be specifically described with reference to FIGS. 4 to 8. First, FIG. 4 is a flowchart showing the overall flow of the above-described sequence. The process corresponding to the flowchart is realized by controlling each component of the image processing apparatus 100 by the system control unit 123 executing a program for the process.

S401で電源ONされるとS402に移行し、初期化シーケンスにより履歴情報テーブル310が再構築される。ここでの処理は、図3AのフェーズF301での処理に相当する。S403では初期化シーケンスが終了したかどうかを判定し、終了の場合(S403で「YES」)は撮影待ち状態となる。撮影待ち状態でS404では動画撮影ボタンが押されたかどうかを判定する。もし、動画撮影ボタンが押されれば(S404で「YES」)、動画撮影が開始される。その後、動画撮影の停止指示を受け付ける(再度動画撮影ボタンが押される)まではフレームもしくはフィールド単位で動画撮影処理が繰り返される。   When the power is turned on in S401, the process proceeds to S402, and the history information table 310 is reconstructed by the initialization sequence. This process corresponds to the process in phase F301 in FIG. 3A. In S403, it is determined whether or not the initialization sequence has been completed. If the initialization sequence has been completed ("YES" in S403), the camera enters a shooting standby state. In S404, it is determined whether or not the moving image shooting button has been pressed. If the moving image shooting button is pressed (“YES” in S404), moving image shooting is started. Thereafter, the moving image shooting process is repeated for each frame or field until a moving image shooting stop instruction is received (the moving image shooting button is pressed again).

その間、S405では静止画トリガが検出されたか否かを判定する。もし静止画トリガが検出されれば(S405で「YES」)、S407に移行する。S407では、動画と静止画との同時撮影が行われる。その際、顔認識と顔情報の検出処理が行なわれ履歴情報テーブル310の更新が行なわれる。ここでの処理は、図3AのF303に相当する。その後S411に移行する。一方、静止画トリガが検出されない場合(S404で「NO」)は、S408に移行して動画撮影のみを行う。S408では、顔認識と顔情報の検出処理が行なわれるが、検出された顔情報は履歴情報と整合され、主被写体の検出が行われる。主被写体が検出されれば、検出領域が優先的に処理されるように、評価枠設定部119が後述する評価枠を設定する。パラメータ設定部118は、設定された評価枠に基づいて撮影パラメータを算出する。ここでの処理は図3AのフェーズF302やF304での処理に相当する。その後S411に移行する。   Meanwhile, in S405, it is determined whether or not a still image trigger has been detected. If a still image trigger is detected (“YES” in S405), the process proceeds to S407. In S407, simultaneous shooting of a moving image and a still image is performed. At that time, face recognition and face information detection processing are performed, and the history information table 310 is updated. This process corresponds to F303 in FIG. 3A. Thereafter, the process proceeds to S411. On the other hand, when the still image trigger is not detected (“NO” in S404), the process proceeds to S408 and only moving image shooting is performed. In S408, face recognition and face information detection processing are performed. The detected face information is matched with the history information, and the main subject is detected. If the main subject is detected, the evaluation frame setting unit 119 sets an evaluation frame to be described later so that the detection area is processed with priority. The parameter setting unit 118 calculates shooting parameters based on the set evaluation frame. The processing here corresponds to the processing in phases F302 and F304 in FIG. 3A. Thereafter, the process proceeds to S411.

S404で動画撮影ボタンが押されない場合(S404で「NO」)、S406に移行し、静止画トリガが検出されたか否かを判定する。静止画トリガが検出されると(S406で「YES」)、S409にて静止画撮影になる。ここでの処理は図3AのフェーズF303での処理に相当する。静止画撮影時は、AD104からのデジタル映像信号について顔認識と顔情報の検出処理が行なわれ履歴情報テーブル310の更新が行なわれる。その後S411に移行する。静止画トリガが検出されない場合(S406で「NO」)、待機状態が継続し、S410でプレビュー表示がされるが、その際も検出動作は継続し撮影開始に備える。その後S411に移行する。S411では、フレーム期間(フィールド期間でもよい)が終了したか否かを判定し、終了の場合にはS404に戻って処理を繰り返す。   When the moving image shooting button is not pressed in S404 (“NO” in S404), the process proceeds to S406, and it is determined whether a still image trigger is detected. When a still image trigger is detected (“YES” in S406), still image shooting is performed in S409. The processing here corresponds to the processing in phase F303 in FIG. 3A. During still image shooting, face recognition and face information detection processing are performed on the digital video signal from the AD 104, and the history information table 310 is updated. Thereafter, the process proceeds to S411. When the still image trigger is not detected (“NO” in S406), the standby state continues and the preview display is performed in S410. However, the detection operation continues in this case to prepare for the start of shooting. Thereafter, the process proceeds to S411. In S411, it is determined whether or not the frame period (which may be a field period) has ended. If the frame period has ended, the process returns to S404 and the process is repeated.

次に、図5を参照して図4のS402における初期化シーケンスにおける履歴情報テーブル310の再構築処理について説明する。図5は、発明の実施形態に対応する履歴情報再構築処理の詳細な処理の一例を示すフローチャートである。まず、S501では、システム制御部123が、静止画記録部116に記録済の静止画が存在するか否かを判定する。もし、存在しない場合(S501で「NO」)は、本処理を終了する。なお、記録されていた静止画像の全てについて本処理を完了した場合も、同様に本処理を終了する。一方、存在する場合(S501で「YES」)、S503で静止画記録部116から静止画を読み出す。続くS504では、システム制御部123が、静止画のタイムスタンプに基づいて静止画の撮影日時が所定日時より前か否かを判定する。所定日時より前であれば(S504において「所定日時前」)、S501に戻り次の静止画の処理へ移行する。所定日時以後であれば(S504にて「所定日時以後」)、S505に移行する。   Next, the reconstruction process of the history information table 310 in the initialization sequence in S402 of FIG. 4 will be described with reference to FIG. FIG. 5 is a flowchart showing an example of detailed processing of history information reconstruction processing corresponding to the embodiment of the invention. First, in step S <b> 501, the system control unit 123 determines whether there is a recorded still image in the still image recording unit 116. If it does not exist (“NO” in S501), this process ends. It should be noted that the present process is similarly terminated when the present process is completed for all of the recorded still images. On the other hand, if it exists (“YES” in S501), a still image is read from the still image recording unit 116 in S503. In subsequent S504, the system control unit 123 determines whether the shooting date / time of the still image is earlier than the predetermined date / time based on the time stamp of the still image. If it is before the predetermined date and time (“predetermined date and time” in S504), the process returns to S501 and proceeds to the next still image processing. If it is after the predetermined date and time (“after the predetermined date and time” in S504), the process proceeds to S505.

S505では、主被写体の検出を行う。具体的には、まず、静止画顔検出・認識部113が画像画角内に含まれる顔画像が所定画角に存在するか否かを判定する。本実施形態では、所定画角を画像画角の中央付近の矩形領域とする。もし、存在する場合は該顔を有する被写体を主被写体と判定し(S505において「YES」)、S506に移行する。当該主被写体の情報は、アクセス制御部120に入力される。ここで、主被写体の情報には、履歴情報テーブル310に登録される顔情報312に相当する情報が少なくとも含まれている。   In step S505, the main subject is detected. Specifically, first, the still image face detection / recognition unit 113 determines whether or not a face image included in the image angle of view exists at a predetermined angle of view. In the present embodiment, the predetermined angle of view is a rectangular area near the center of the image angle of view. If it exists, the subject having the face is determined as the main subject (“YES” in S505), and the process proceeds to S506. Information on the main subject is input to the access control unit 120. Here, the main subject information includes at least information corresponding to the face information 312 registered in the history information table 310.

S506では、アクセス制御部120が履歴情報保持部121の履歴情報を参照し、該主被写体が登録済かどうかを判定する。登録済か否かは、履歴情報テーブル310に登録されている顔情報312として、取得した主被写体の情報に含まれる顔情報と一致する情報が登録されているか否かで判定することができる。もし、登録済であれば(S506で「YES」)、S507に移行し履歴情報テーブル310に含まれる頻度313の値を1つインクリメントする。一方、登録済の被写体でない場合(S506で「NO」)、S508に移行し新規主被写体として、履歴情報保持部121に登録する。こうして初期シーケンスでは、中央画角で検出された顔を主被写体情報として認識する。   In step S506, the access control unit 120 refers to the history information stored in the history information holding unit 121, and determines whether the main subject has been registered. Whether or not it has been registered can be determined based on whether or not information matching the face information included in the acquired main subject information is registered as the face information 312 registered in the history information table 310. If registered (“YES” in S506), the process proceeds to S507, and the value of the frequency 313 included in the history information table 310 is incremented by one. On the other hand, if it is not a registered subject (“NO” in S506), the process proceeds to S508 and is registered in the history information holding unit 121 as a new main subject. Thus, in the initial sequence, the face detected at the central angle of view is recognized as main subject information.

次に、図6を参照して図5の履歴情報再構築処理における処理の具体例を説明する。図6は、発明の実施形態に対応する履歴情報再構築処理を説明するための図である。   Next, a specific example of processing in the history information reconstruction processing in FIG. 5 will be described with reference to FIG. FIG. 6 is a diagram for explaining history information reconstruction processing corresponding to the embodiment of the invention.

図6では、静止画記録部116に記録済の画像として画像Aから画像Fが存在している場合を想定している。各画像にはタイムスタンプが付されており、ここでは上記の所定日時を2008年3月1日とした場合を考える。この場合、画像Aと画像Bとは当該所定日時前の画像であるので、S504において処理対象から除外される。それ以外の画像Cから画像Fについて、以降の処理が行われる。   In FIG. 6, it is assumed that images A to F exist as images already recorded in the still image recording unit 116. Each image is given a time stamp, and here, a case is considered where the predetermined date and time is March 1, 2008. In this case, since the image A and the image B are images before the predetermined date and time, they are excluded from the processing target in S504. Subsequent processing is performed on the other images C to F.

画像Cから画像Fについて点線で囲った領域601が所定画角に属する領域である。各画像において検出された顔画像が、当該領域601に含まれる場合には、履歴情報テーブル310の登録対象となる。図6では、被写体602、603及び604が登場する場合を想定している。まず、画像Cが処理されると、被写体602と603とがS508で新規に登録される。その後、画像D、画像E、画像Fでは、被写体602がS507で頻度が更新される。画像Fについては、被写体604が新たに検出されS508で新規に登録される。これにより、初期化後に頻度の多い被写体602、頻度は1回だが日付が新しい画像で検出された被写体604、1回検出された被写体603の順の優先度で主被写体情報が認識される。   An area 601 surrounded by a dotted line for the image C to the image F is an area belonging to a predetermined angle of view. When the face image detected in each image is included in the area 601, it is registered in the history information table 310. In FIG. 6, it is assumed that subjects 602, 603, and 604 appear. First, when the image C is processed, the subjects 602 and 603 are newly registered in S508. Thereafter, in the images D, E, and F, the frequency of the subject 602 is updated in S507. For the image F, the subject 604 is newly detected and newly registered in S508. Thus, the main subject information is recognized in the order of priority of the subject 602 with high frequency after initialization, the subject 604 with a frequency of one time but the subject 604 detected with a new date, and the subject 603 detected once.

次に、図7を参照して静止画撮影時の履歴情報更新処理について説明する。図7は、発明の実施形態に対応する静止画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。当該処理は、図4のS407とS409において静止画撮影が行われる場合に実行される。   Next, a history information update process at the time of still image shooting will be described with reference to FIG. FIG. 7 is a flowchart showing an example of detailed processing of history information update processing at the time of still image shooting corresponding to the embodiment of the invention. This processing is executed when still image shooting is performed in S407 and S409 of FIG.

S405またはS406において静止画トリガが検出されると、S701において静止画信号処理部114にて静止画がキャプチャされる。S702では、静止画顔検出・認識部113が静止画に主被写体が含まれるかどうかを判定する。具体的には、静止画の中央画角に被写体の顔が検出されるかどうかにより判定する。もし、主被写体が含まれる場合(S702で「YES」)、S703に移行する。当該主被写体の情報は、アクセス制御部120に入力される。主被写体が含まれない場合(S702で「NO」)は、S405かS406で再び静止画トリガが検出されるのを待つ。   When a still image trigger is detected in S405 or S406, a still image is captured by the still image signal processing unit 114 in S701. In S <b> 702, the still image face detection / recognition unit 113 determines whether or not the main subject is included in the still image. Specifically, the determination is made based on whether or not the face of the subject is detected at the central angle of view of the still image. If the main subject is included (“YES” in S702), the process proceeds to S703. Information on the main subject is input to the access control unit 120. If the main subject is not included (“NO” in S702), the process waits until a still image trigger is detected again in S405 or S406.

S703では、検出された主被写体が登録済かどうかをアクセス制御部120が、履歴情報テーブル310の内容に基づいて判定する。もし、登録済の場合(S703で「YES」)、S704に移行して、頻度情報を1つインクリメントする。一方、未登録であれば(S703で「NO」)、S705において、新規主被写体として履歴情報テーブル310に登録する。こうして静止画撮影ごとに中央画角で検出された被写体について履歴情報を更新していく。   In step S <b> 703, the access control unit 120 determines whether the detected main subject has been registered based on the contents of the history information table 310. If registered ("YES" in S703), the process proceeds to S704 and the frequency information is incremented by one. On the other hand, if it is not registered (“NO” in S703), it is registered in the history information table 310 as a new main subject in S705. Thus, the history information is updated for the subject detected at the central angle of view for each still image shooting.

次に、図8を参照して図7の静止画撮影時の履歴情報更新処理における処理の具体例を説明する。図8は、発明の実施形態に対応する静止画撮影時の履歴情報更新処理を説明するための図である。   Next, a specific example of processing in the history information update processing at the time of still image shooting in FIG. 7 will be described with reference to FIG. FIG. 8 is a diagram for explaining history information update processing at the time of still image shooting corresponding to the embodiment of the invention.

図8では、静止画として画像A’から画像E’が撮影された場合を想定している。画像A’から画像E’にも所定画角に属する領域が点線で設定されているが、これは図6の領域601と同等であるので図8でも同一参照番号を付している。各画像において検出された顔画像が、当該領域601に含まれる場合には、履歴情報テーブル310の登録対象となる。図8では、図6と同様の被写体602、603及び604が再度登場するとともに、新規に被写体801が登場する場合を想定している。まず、画像A’から画像D’が処理されると、被写体602、603及び604についてS704で頻度が更新される。画像E’については、被写体801が新たに検出されS705で新規に登録される。   In FIG. 8, it is assumed that an image E ′ is captured from an image A ′ as a still image. A region belonging to a predetermined angle of view is also set as a dotted line in the image A ′ to the image E ′, and this is equivalent to the region 601 in FIG. 6, and therefore the same reference number is given in FIG. 8. When the face image detected in each image is included in the area 601, it is registered in the history information table 310. In FIG. 8, it is assumed that subjects 602, 603, and 604 similar to those in FIG. 6 appear again and a subject 801 newly appears. First, when the image A ′ is processed from the image A ′, the frequencies of the subjects 602, 603, and 604 are updated in S <b> 704. For the image E ′, the subject 801 is newly detected and newly registered in S705.

なお、履歴情報を構築する処理として、電源投入後に静止画記録部116に記録済の静止画から履歴情報を構築する履歴情報再構築処理と、静止画撮影時に撮影された静止画から履歴情報を構築する履歴情報更新処理の両方を説明した。これらは必ずしも両方とも必要というわけではなく、いずれか一方だけであっても構わない。   In addition, as processing for constructing history information, history information reconstruction processing for constructing history information from a still image recorded in the still image recording unit 116 after power-on, and history information from a still image taken at the time of still image shooting are performed. Both history information update processes to be constructed have been described. Both of these are not necessarily required, and only one of them may be used.

次に、図9を参照して動画撮影時の評価枠設定処理について説明する。図9は、発明の実施形態に対応する動画撮影時の評価枠設定処理の詳細な処理の一例を示すフローチャートである。当該処理は、図4のS407とS408において動画撮影が行われる場合に実行される。   Next, an evaluation frame setting process at the time of moving image shooting will be described with reference to FIG. FIG. 9 is a flowchart showing an example of detailed processing of the evaluation frame setting processing at the time of moving image shooting corresponding to the embodiment of the invention. This processing is executed when moving image shooting is performed in S407 and S408 of FIG.

図4のS404の動画撮影ボタンの操作に基づいてS901で動画撮影が開始されると、S902でシステム制御部123はアクセス制御部120を介して履歴情報保持部121から主被写体の情報を読み出す。これ以降の処理は、フィールドもしくはフレーム単位で繰り返す(S909)。S903では、動画顔検出・認識部107が撮影画像のフレーム内において被写体検出を行う。検出結果はパラメータ設定部118経由で評価枠設定部119に入力される。続くS904で、評価枠設定部119は、履歴情報を履歴情報保持部121から読み出し、動画顔検出・認識部107が検出した被写体の情報を該履歴情報と比較する。そして、履歴情報テーブル310に登録されている被写体が存在するか、即ち、主被写体が存在するか否かを判定する。   When the moving image shooting is started in S901 based on the operation of the moving image shooting button in S404 in FIG. 4, the system control unit 123 reads the main subject information from the history information holding unit 121 via the access control unit 120 in S902. The subsequent processing is repeated for each field or frame (S909). In step S903, the moving image face detection / recognition unit 107 performs subject detection within the frame of the captured image. The detection result is input to the evaluation frame setting unit 119 via the parameter setting unit 118. In subsequent S904, the evaluation frame setting unit 119 reads the history information from the history information holding unit 121, and compares the subject information detected by the moving image face detection / recognition unit 107 with the history information. Then, it is determined whether there is a subject registered in the history information table 310, that is, whether a main subject exists.

もし、主被写体が存在する場合(S904で「YES」)、S905に移行する。S905では、評価枠設定部119はフレーム内で主被写体が含まれる領域を優先的に処理するように評価枠情報を補正する。なお、主被写体が複数存在する場合には、履歴情報テーブル310の頻度313が最も多い主被写体を優先する。これにより、AF、露出を制御するための領域が、フレーム内で主被写体が含まれる領域に設定される。設定された評価枠の情報は、パラメータ設定部118に通知される。登録済の被写体が存在しない場合(S904で「NO」)、S906に移行する。S906では、評価枠設定部119は評価枠を変更しない。S907では、S905又はS906における枠の情報に基づき、パラメータ設定部118が撮影パラメータを算出し、システム制御部123に出力する。S908において、システム制御部123は、撮影パラメータに基づいてレンズ駆動やアイリス駆動といった撮影制御を行なう。   If there is a main subject (“YES” in S904), the process proceeds to S905. In step S905, the evaluation frame setting unit 119 corrects the evaluation frame information so as to preferentially process an area including the main subject in the frame. When there are a plurality of main subjects, the main subject with the highest frequency 313 in the history information table 310 is given priority. Thereby, an area for controlling AF and exposure is set to an area including the main subject in the frame. Information on the set evaluation frame is notified to the parameter setting unit 118. When there is no registered subject (“NO” in S904), the process proceeds to S906. In S906, the evaluation frame setting unit 119 does not change the evaluation frame. In step S <b> 907, the parameter setting unit 118 calculates shooting parameters based on the frame information in step S <b> 905 or S <b> 906 and outputs the shooting parameters to the system control unit 123. In step S908, the system control unit 123 performs shooting control such as lens driving and iris driving based on the shooting parameters.

次に、図10を参照して図9の動画撮影時の被写体検出に基づく評価枠の設定法について具体例を説明する。図10は、発明の実施形態に対応する動画撮影時の被写体検出に基づく評価枠の設定法を説明するための図である。   Next, a specific example of the evaluation frame setting method based on subject detection during moving image shooting in FIG. 9 will be described with reference to FIG. FIG. 10 is a diagram for explaining a method of setting an evaluation frame based on subject detection during moving image shooting corresponding to the embodiment of the invention.

図10では、撮影フレームとしてフレームAからフレームDの順で撮影された場合を想定している。図10(a)に示すように、各フレームには評価枠1001から1005が与えられている。当該評価枠は、AF、露出の制御を行う際に優先される領域の候補である。   In FIG. 10, it is assumed that the frames are shot in the order of frame A to frame D as shooting frames. As shown in FIG. 10A, evaluation frames 1001 to 1005 are given to each frame. The evaluation frame is a candidate area that is prioritized when performing AF and exposure control.

まず、フレームAでは、評価枠1002に主被写体として被写体602が検出される。その他の被写体1006は無視される。なお、その他の被写体1006は、被写体602に比べて、履歴情報テーブル310における頻度313の値が小さいか、或いは、履歴情報テーブル310に登録されていないものと考えることができる。そこで、評価枠1002で得られる評価値を優先して処理してAF、露出制御が行われることとなる。また、フレームB、Cも同様にそれぞれ被写体602が検出される枠1003、1004が優先される。フレームDでは主被写体は検出されないので通常通り全枠の平均もしくは中央枠1003の評価値に基づき撮影パラメータの制御が行われる。   First, in frame A, the subject 602 is detected as the main subject in the evaluation frame 1002. Other subjects 1006 are ignored. It can be considered that the other subject 1006 has a smaller frequency 313 value in the history information table 310 than the subject 602 or is not registered in the history information table 310. Therefore, the evaluation value obtained in the evaluation frame 1002 is processed with priority, and AF and exposure control are performed. Similarly, for frames B and C, priority is given to frames 1003 and 1004 in which the subject 602 is detected. Since the main subject is not detected in frame D, the shooting parameters are controlled based on the average of all frames or the evaluation value of the center frame 1003 as usual.

このように、本実施形態では、静止画撮影時に主被写体として検出された顔の顔情報を登録しておき、動画撮影時に登録済の顔情報に対応する顔情報が検出された場合、動画撮影でも主被写体として選択する。静止画撮影で主被写体であった被写体は、動画撮影においても主被写体となる可能性は高いと考えられるため、静止画から主被写体情報を検出し、動画撮影時にこの情報を利用する。なお、動画のみから主被写体を判定することは難しいので、動画から検出された被写体の情報は履歴情報テーブル310には反映せず、静止画から検出された顔情報のみを用いて履歴情報が更新される。   As described above, in the present embodiment, face information of a face detected as a main subject at the time of still image shooting is registered, and when face information corresponding to registered face information is detected at the time of moving image shooting, moving image shooting is performed. But select it as the main subject. Since the subject that was the main subject in still image shooting is considered to be highly likely to become the main subject in moving image shooting, main subject information is detected from the still image and this information is used during moving image shooting. Since it is difficult to determine the main subject only from the moving image, the subject information detected from the moving image is not reflected in the history information table 310, and the history information is updated using only the face information detected from the still image. Is done.

以上説明したように、本発明によれば、静止画で検出した主被写体の情報を用いて、動画撮影時の被写体検出及び撮影パラメータの設定を行なうことが可能となるので、撮影者の意図する動画を記録することが可能となる。   As described above, according to the present invention, it is possible to perform subject detection and shooting parameter setting at the time of moving image shooting using information on a main subject detected in a still image. It is possible to record a moving image.

[実施形態2]
次に、発明の実施形態2を説明する。本実施形態に対応する画像処理装置の構成は図2に示す通りである。図2において、図1の画像処理装置100と同様の構成には対応する参照番号を付している。本実施形態における画像処理装置200は、画像処理装置100の評価枠設定部119の代わりに主被写体画角検出部201を有する点が異なる。主被写体画角検出部201は、動画撮影時に動画顔検出・認識部107における顔検出結果と、履歴情報テーブル310から読み出した主被写体情報とを比較し、整合領域があるかどうかを検知する。もし、整合領域がフレームの中央画角にある場合、静止画撮影タイミングを通知するための通知信号として同時記録最適フラグを動画表示部111へ出力する。動画表示部111は、同時記録最適フラグに基づき、撮影タイミング通知を表示中の動画に重畳して、撮影者へ通知をおこなう。
[Embodiment 2]
Next, Embodiment 2 of the invention will be described. The configuration of the image processing apparatus corresponding to this embodiment is as shown in FIG. In FIG. 2, the same components as those of the image processing apparatus 100 of FIG. The image processing apparatus 200 according to the present embodiment is different from the image processing apparatus 100 in that a main subject field angle detection unit 201 is provided instead of the evaluation frame setting unit 119 of the image processing apparatus 100. The main subject field angle detection unit 201 compares the face detection result in the moving image face detection / recognition unit 107 during moving image shooting with the main subject information read from the history information table 310, and detects whether there is a matching region. If the matching area is at the central angle of view of the frame, the simultaneous recording optimum flag is output to the moving image display unit 111 as a notification signal for notifying the still image shooting timing. The moving image display unit 111 notifies the photographer by superimposing the shooting timing notification on the displayed moving image based on the simultaneous recording optimum flag.

本実施形態においても実施形態1と同様に、図4から図8に示すような処理を行う。但し、動画撮影時の処理については、主被写体画角検出部201を利用して以下のような処理を行う。   In the present embodiment as well, the processes as shown in FIGS. 4 to 8 are performed as in the first embodiment. However, the processing at the time of moving image shooting is performed as follows using the main subject angle-of-view detection unit 201.

まず、図11を参照して動画撮影時の履歴情報更新処理について説明する。図11は、発明の実施形態2に対応する動画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。当該処理は、図4のS407とS408において動画撮影が行われる場合に実行される。   First, the history information update process during moving image shooting will be described with reference to FIG. FIG. 11 is a flowchart showing an example of detailed processing of history information update processing at the time of moving image shooting corresponding to the second embodiment of the invention. This processing is executed when moving image shooting is performed in S407 and S408 of FIG.

図4のS404の動画撮影ボタンの操作に基づいてS1101で動画撮影が開始されると、S1102でシステム制御部123はアクセス制御部120を介して履歴情報テーブル310から主被写体の情報を読み出す。これ以降の処理は、フィールドもしくはフレーム単位で繰り返される(S1107)。S1103では、動画顔検出・認識部107が撮影画像のフレーム内において被写体検出を行う。続くS1104で、主被写体画角検出部201が動画顔検出・認識部107は検出した被写体の情報を履歴情報と比較し、履歴情報テーブル310に登録されている被写体が存在するか、即ち、主被写体が存在するか否かを判定する。   When the moving image shooting is started in S1101 based on the operation of the moving image shooting button in S404 of FIG. 4, the system control unit 123 reads the main subject information from the history information table 310 via the access control unit 120 in S1102. The subsequent processing is repeated for each field or frame (S1107). In step S1103, the moving image face detection / recognition unit 107 performs subject detection within the frame of the captured image. In subsequent S1104, the main subject angle-of-view detection unit 201 compares the detected subject information with the history information, and the moving image face detection / recognition unit 107 compares the detected subject information with the history information. It is determined whether or not a subject exists.

もし、主被写体が存在する場合(S1104で「YES」)、S1105に移行する。S1105では、主被写体画角検出部201が更に主被写体が適正な画角に位置しているか否かを判定する。適正な画角については、図12(a)を参照して後述する。もし、適正画角に存在している場合は、主被写体画角検出部201が動画表示部111に同時記録最適フラグを送信する。これに応じて動画表示部111は、S1106において静止画も同時に撮影することを促す表示を行なう。   If there is a main subject (“YES” in S1104), the process proceeds to S1105. In step S1105, the main subject field angle detection unit 201 further determines whether or not the main subject is positioned at an appropriate field angle. An appropriate angle of view will be described later with reference to FIG. If it exists at an appropriate angle of view, the main subject angle of view detection unit 201 transmits the simultaneous recording optimum flag to the moving image display unit 111. In response to this, the moving image display unit 111 performs display for prompting to capture a still image at S1106.

次に、図12を参照して図11の動画撮影時の同時記録最適フラグに基づく表示について具体例を説明する。図12は、発明の実施形態2に対応する動画撮影時の同時記録最適フラグに基づく表示を説明するための図である。図12では、撮影フレームとしてフレームA’からフレームD’の順で撮影された場合を想定している。ここで登場する被写体は実施形態1における被写体602とする。まず、図12(a)に示すように、フレームには適正な画角に対応する領域1301が与えられている。   Next, a specific example of display based on the simultaneous recording optimum flag at the time of moving image shooting in FIG. 11 will be described with reference to FIG. FIG. 12 is a diagram for explaining display based on the simultaneous recording optimum flag at the time of moving image shooting corresponding to the second embodiment of the invention. In FIG. 12, it is assumed that the frames are captured in the order of frame A ′ to frame D ′. The subject appearing here is the subject 602 in the first embodiment. First, as shown in FIG. 12A, a region 1301 corresponding to an appropriate angle of view is given to the frame.

図12(b)においてフレームA’では、フレーム内に被写体602が検出される。この被写体602の顔領域は、領域1201内に一部含まれてはいるが、全体ではないので、静止画として撮影するには不向きである。そこで、主被写体画角検出部201は、同時記録最適フラグを動画表示部111には送信しない。フレームB’やフレームD’も同様である。一方、フレームC’では、被写体602の顔領域が領域1301内に収まっているので、静止画として撮影するのに適している。そこで、主被写体画角検出部201は同時記録最適フラグを動画表示部111に送信する。これにより、領域1201の枠部分がハイライト表示(1202)される。   In FIG. 12B, the subject 602 is detected in the frame A ′. Although the face area of the subject 602 is partially included in the area 1201, it is not the whole, so it is not suitable for shooting as a still image. Therefore, the main subject field angle detection unit 201 does not transmit the simultaneous recording optimum flag to the moving image display unit 111. The same applies to the frame B 'and the frame D'. On the other hand, in the frame C ′, the face area of the subject 602 is within the area 1301, which is suitable for shooting as a still image. Therefore, the main subject field angle detection unit 201 transmits the simultaneous recording optimum flag to the moving image display unit 111. As a result, the frame portion of the area 1201 is highlighted (1202).

なお、主被写体の顔領域が領域1301内に収まっているかどうか、即ち、適正画角に存在しているかどうかは、顔領域が領域1301内に包含される割合に基づいて決定することができる。例えば、顔領域の80%以上が領域1301に包含される場合には、適正が閣内に存在しているとみなすことができる。なお、80%という数値はあくまで一例であって、実施形態に応じて異なる数値を採用することができる。   Note that whether or not the face area of the main subject is within the area 1301, that is, whether or not the face area of the main subject exists at an appropriate angle of view can be determined based on the ratio of the face area included in the area 1301. For example, when 80% or more of the face area is included in the area 1301, it can be considered that the appropriateness exists in the cabinet. The numerical value of 80% is merely an example, and a different numerical value can be adopted depending on the embodiment.

なお、上記では主被写体が領域1301内に収まっている場合に主被写体画角検出部201が動画表示部111に同時記録最適フラグを送信した。これに対して、該フラグをシステム制御部123に送信して、システム制御部123が静止画シャッターを自動で実行して撮影を行なってもよい。この場合には、静止画撮影タイミングを逃さずに自動で主被写体が中心に存在する静止画を取得することができるので、撮影者は静止画撮影タイミングを気にせず動画の撮影を行うことができる。   In the above description, when the main subject is within the area 1301, the main subject field angle detection unit 201 transmits the simultaneous recording optimum flag to the moving image display unit 111. On the other hand, the flag may be transmitted to the system control unit 123 so that the system control unit 123 automatically performs a still image shutter to perform shooting. In this case, since the still image with the main subject at the center can be automatically acquired without missing the still image shooting timing, the photographer can shoot a movie without worrying about the still image shooting timing. it can.

本実施形態によれば、撮影者が過去に撮影した静止画に基づいて生成された履歴情報に従い、撮影中のフレームに被写体が登場すると静止画撮影を行うのに好適なタイミングを撮影者に対して提供することができる。或いは、当該タイミングで自動で静止画撮影を行うことができる。   According to this embodiment, according to history information generated based on still images taken by the photographer in the past, when a subject appears in the frame being photographed, a timing suitable for taking a still image is given to the photographer. Can be provided. Alternatively, it is possible to automatically take a still image at this timing.

[その他の実施形態]
また、本発明は、上記の実施形態1及び実施形態2と同等の処理を、コンピュータプログラムでも実現できる。この場合、図Xをはじめとする構成要素の各々は関数、もしくはCPUが実行するサブルーチンで機能させれば良い。また、通常、コンピュータプログラムは、CD−ROM等のコンピュータ可読記憶媒体に格納されており、それを、コンピュータが有する読取り装置(CD−ROMドライブ等)にセットし、システムにコピーもしくはインストールすることで実行可能になる。従って、かかるコンピュータ可読記憶媒体も本発明の範疇にあることは明らかである。
[Other Embodiments]
In addition, the present invention can also realize processing equivalent to that in the first and second embodiments by a computer program. In this case, each of the components including FIG. X may be functioned by a function or a subroutine executed by the CPU. In general, the computer program is stored in a computer-readable storage medium such as a CD-ROM, and is set in a reading device (such as a CD-ROM drive) included in the computer and copied or installed in the system. Become executable. Therefore, it is obvious that such a computer readable storage medium is also within the scope of the present invention.

Claims (9)

被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定手段と、
前記判定手段により前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が前記映像データにおいて前記顔情報を検出した領域を、前記撮影パラメータを設定するための領域として設定する領域設定手段と
を備え、
前記パラメータ設定手段は、前記領域設定手段が設定した領域に基づいて前記撮影パラメータを設定することを特徴とする画像処理装置。
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
History information holding means for holding detection history information including face information detected by the still image detection means;
Determination means for determining whether or not the history information holding means holds information corresponding to the face information detected by the moving image detection means;
When the determination means determines that the history information holding means holds, an area where the moving image detection means detects the face information in the video data is set as an area for setting the shooting parameters. An area setting means for setting,
The image processing apparatus, wherein the parameter setting means sets the imaging parameter based on the area set by the area setting means.
被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定手段と、
前記判定手段により前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が検出した前記顔情報が、前記動画トリガに応じて生成された映像データにおいて予め定められた領域内に属するか否かを判定し、属する場合に静止画撮影タイミングを通知するための通知信号を出力する出力手段と
を備えることを特徴とする画像処理装置。
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
History information holding means for holding detection history information including face information detected by the still image detection means;
Determination means for determining whether or not the history information holding means holds information corresponding to the face information detected by the moving image detection means;
When the determination unit determines that the history information holding unit holds, the face information detected by the moving image detection unit is predetermined in the video data generated in response to the moving image trigger. An image processing apparatus comprising: an output unit that determines whether or not the image belongs to an area and outputs a notification signal for notifying a still image shooting timing when the image belongs.
前記動画処理手段が生成した前記動画を表示する表示手段をさらに備え、
前記出力手段は、前記通知信号を前記表示手段に出力し、
前記表示手段は、前記通知信号に応じて前記動画に前記静止画撮影タイミングを通知する表示を重畳して表示を行うことを特徴とする請求項2に記載の画像処理装置。
Further comprising display means for displaying the video generated by the video processing means,
The output means outputs the notification signal to the display means,
The image processing apparatus according to claim 2, wherein the display unit performs display by superimposing a display for notifying the moving image shooting timing on the moving image according to the notification signal.
前記静止画トリガを生成して、前記撮影手段を制御する制御手段をさらに備え、
前記出力手段は、前記通知信号を前記制御手段に出力し、
前記制御手段は、前記通知信号に応じて前記静止画トリガを生成して、前記撮影手段に前記映像データを生成させることを特徴とする請求項2に記載の画像処理装置。
A control unit that generates the still image trigger and controls the photographing unit;
The output means outputs the notification signal to the control means,
The image processing apparatus according to claim 2, wherein the control unit generates the still image trigger according to the notification signal, and causes the photographing unit to generate the video data.
前記履歴情報では、前記静止画のための映像データ、及び、前記記録手段に記録された静止画の少なくとも一方について前記静止画用検出手段が同一の顔情報を検出した頻度が、対応する顔情報と関連づけられていることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   In the history information, the frequency at which the still image detection unit detects the same face information for at least one of the video data for the still image and the still image recorded in the recording unit corresponds to the corresponding face information. The image processing apparatus according to claim 1, wherein the image processing apparatus is associated with the image processing apparatus. 前記静止画用検出手段は、少なくとも前記記録手段に記録された前記静止画について前記顔情報を検出するものであり、前記記録手段に記録された前記静止画のうち、撮影日時が所定日時前の静止画を除外して前記検出を行うことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The still image detection means detects the face information of at least the still image recorded in the recording means, and among the still images recorded in the recording means, the shooting date and time is before a predetermined date and time. The image processing apparatus according to claim 1, wherein the detection is performed by excluding a still image. 被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と
を備える画像処理装置の制御方法であって、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定工程と、
前記判定工程において前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が前記映像データにおいて前記顔情報を検出した領域を、前記撮影パラメータを設定するための領域として設定する領域設定工程と、
前記パラメータ設定手段が、前記領域設定工程で設定された領域に基づいて前記撮影パラメータを設定する撮影パラメータ設定工程と
を備えることを特徴とする画像処理装置の制御方法。
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
A control method of an image processing apparatus comprising history information holding means for holding detection history information including face information detected by the still image detection means,
A determination step of determining whether or not the history information holding unit holds information corresponding to the face information detected by the moving image detection unit;
When it is determined in the determination step that the history information holding means holds, an area where the moving image detection means detects the face information in the video data is set as an area for setting the shooting parameter. An area setting process to be set;
A control method for an image processing apparatus, wherein the parameter setting means includes a shooting parameter setting step for setting the shooting parameter based on the region set in the region setting step.
被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記憶された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と
を備える画像処理装置の制御方法であって、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定工程と、
前記判定工程において前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が検出した前記顔情報が、前記動画トリガに応じて生成された映像データにおいて予め定められた領域内に属するか否かをさらに判定する工程と、
前記予め定められた領域内に属すると判定された場合に、静止画撮影タイミングを通知するための通知信号を出力する出力工程と
を備えることを特徴とする画像処理装置の制御方法。
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image stored in the recording means. Image detection means;
A control method of an image processing apparatus comprising history information holding means for holding detection history information including face information detected by the still image detection means,
A determination step of determining whether or not the history information holding unit holds information corresponding to the face information detected by the moving image detection unit;
When it is determined in the determination step that the history information holding unit holds, the face information detected by the moving image detection unit is predetermined in the video data generated in response to the moving image trigger. Further determining whether or not it belongs to the area;
A control method for an image processing apparatus, comprising: an output step of outputting a notification signal for notifying a still image shooting timing when it is determined that the image belongs to the predetermined area.
被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記憶された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と
を備える画像処理装置に、請求項7または8に記載の各工程の処理を実行させるためのコンピュータプログラム。
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image stored in the recording means. Image detection means;
9. A computer for causing an image processing apparatus to execute processing of each step according to claim 7 or 8, further comprising history information holding means for holding detection history information including face information detected by the still image detection means. program.
JP2009096456A 2009-04-10 2009-04-10 Image processor, method of controlling the same, and computer program Pending JP2010251866A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009096456A JP2010251866A (en) 2009-04-10 2009-04-10 Image processor, method of controlling the same, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009096456A JP2010251866A (en) 2009-04-10 2009-04-10 Image processor, method of controlling the same, and computer program

Publications (1)

Publication Number Publication Date
JP2010251866A true JP2010251866A (en) 2010-11-04

Family

ID=43313746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009096456A Pending JP2010251866A (en) 2009-04-10 2009-04-10 Image processor, method of controlling the same, and computer program

Country Status (1)

Country Link
JP (1) JP2010251866A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining apparatus, imaging device, and supervisory apparatus
JP2007150601A (en) * 2005-11-25 2007-06-14 Nikon Corp Electronic camera
JP2008067003A (en) * 2006-09-06 2008-03-21 Fujifilm Corp Photographing device and photographing system
JP2008245007A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Imaging apparatus and program
JP2008270896A (en) * 2007-04-16 2008-11-06 Casio Comput Co Ltd Imaging device and program thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007006033A (en) * 2005-06-22 2007-01-11 Omron Corp Object determining apparatus, imaging device, and supervisory apparatus
JP2007150601A (en) * 2005-11-25 2007-06-14 Nikon Corp Electronic camera
JP2008067003A (en) * 2006-09-06 2008-03-21 Fujifilm Corp Photographing device and photographing system
JP2008245007A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Imaging apparatus and program
JP2008270896A (en) * 2007-04-16 2008-11-06 Casio Comput Co Ltd Imaging device and program thereof

Similar Documents

Publication Publication Date Title
EP2791899B1 (en) Method and apparatus for image capture targeting
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP4784678B2 (en) Imaging apparatus, imaging method, and program
JP4605039B2 (en) Automatic photographing method, automatic photographing apparatus and automatic photographing program
JP2005128156A (en) Focusing device and method
JP2009033491A (en) Imaging apparatus and imaging method
JP2007215091A (en) Imaging apparatus and program therefor
JP2008099246A (en) Imaging device and subject detection method
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP2008252711A (en) Digital camera
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2008136024A (en) Photographing device, photographing system, and photographing method
JP2009175821A (en) Detection method and photographing device for specific image
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2019186791A (en) Imaging apparatus, control method of the imaging apparatus, and control program
JP2008116663A (en) Imaging apparatus
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010028341A (en) Electronic still camera
JP2008058553A (en) Imaging apparatus, imaging method, and imaging control program
JP2019032370A (en) Imaging device and control method thereof
JP2010251866A (en) Image processor, method of controlling the same, and computer program
JP2011066828A (en) Imaging device, imaging method and program
JP2011055272A (en) Imaging apparatus and imaging method
JP2008160280A (en) Imaging apparatus and automatic imaging method
JP2017041778A (en) Imaging apparatus, moving picture formation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131129