JP2010251866A - Image processor, method of controlling the same, and computer program - Google Patents
Image processor, method of controlling the same, and computer program Download PDFInfo
- Publication number
- JP2010251866A JP2010251866A JP2009096456A JP2009096456A JP2010251866A JP 2010251866 A JP2010251866 A JP 2010251866A JP 2009096456 A JP2009096456 A JP 2009096456A JP 2009096456 A JP2009096456 A JP 2009096456A JP 2010251866 A JP2010251866 A JP 2010251866A
- Authority
- JP
- Japan
- Prior art keywords
- still image
- video
- video data
- image
- trigger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置及びその制御方法、コンピュータプログラムに関する。 The present invention relates to an image processing apparatus, a control method thereof, and a computer program.
画像データから人物の顔を検出して主被写体とし、その主被写体のピントおよび輝度が適切な値となるように焦点と露出を自動制御して撮影するカメラ、あるいは、ビデオが実現されている。複数の人物が検出された場合に、いずれの人物も撮影者が意図した被写体であるとは限らない。例えば、通りすがりの人が入ってしまうこともあれば、複数のメンバーの中でも主役となる人物だけにピントをあわせて撮影したいような場合もある。 A camera or video that detects a person's face from image data and sets it as a main subject and automatically controls the focus and exposure so that the focus and brightness of the main subject become appropriate values is realized. When a plurality of persons are detected, none of the persons is necessarily a subject intended by the photographer. For example, there may be a person who passes by, or there may be a case where only a person who plays a leading role among a plurality of members is focused.
このような場合を鑑みて、検出された複数の人物の中から、その画像データの構図を考慮して、カメラが自動的に最も主被写体らしい人物を選択する機能が提案されている。例えば、検出された顔が画面の中央に近いほど、あるいは、その面積が大きいほど、主被写体として自動的に選択されるカメラが提案されている(特許文献1を参照)。 In view of such a case, a function has been proposed in which the camera automatically selects the person most likely to be the main subject from among a plurality of detected persons in consideration of the composition of the image data. For example, there has been proposed a camera that is automatically selected as a main subject as the detected face is closer to the center of the screen or the area thereof is larger (see Patent Document 1).
ここで、記念撮影のように、静止画をとる場合であれば、撮影者が主役とみなした人物が画面の中央に存在する、あるいは、最も顔の面積が大きくなるという状況である可能性は高い。しかしながら、被写体が動くことを前提とした動画撮影においては、撮影者が主役とみなした人物が画面の中央に存在したり、最もカメラの近くにいたりするとは限らない。よって、静止画撮影時と同様の方法で主被写体を選択しても、それが撮影者が主役とみなす被写体である可能性は、静止画のときほど高くは無い。 Here, if you take a still image, such as a commemorative photo, there is a possibility that the person who the photographer considered as the main role is in the center of the screen, or the area of the face is the largest high. However, in moving image shooting on the premise that the subject moves, the person regarded as the main character by the photographer does not always exist in the center of the screen or is closest to the camera. Therefore, even if the main subject is selected in the same way as when shooting a still image, the possibility that it is a subject that the photographer considers to be the main role is not as high as that when a still image is taken.
そこで、本発明は動画撮影時に、被写体が想定する主被写体を選択し、撮影可能とする技術を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a technique that enables a subject to be selected and photographed when a moving image is shot.
上記課題を解決するための本発明は、
被写体を撮影し映像データを生成する撮影手段と、
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定手段と、
前記判定手段により前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が前記映像データにおいて前記顔情報を検出した領域を、前記撮影パラメータを設定するための領域として設定する領域設定手段と
を備える画像処理装置であって、
前記パラメータ設定手段は、前記領域設定手段が設定した領域に基づいて前記撮影パラメータを設定することを特徴とする。
The present invention for solving the above problems is as follows.
Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
History information holding means for holding detection history information including face information detected by the still image detection means;
Determination means for determining whether or not the history information holding means holds information corresponding to the face information detected by the moving image detection means;
When the determination means determines that the history information holding means holds, an area where the moving image detection means detects the face information in the video data is set as an area for setting the shooting parameters. An image processing apparatus comprising a region setting means for setting,
The parameter setting means sets the imaging parameter based on the area set by the area setting means.
本発明によれば、動画撮影時に、被写体が想定する主被写体を選択し、撮影可能とする技術を提供することができる。 According to the present invention, it is possible to provide a technique capable of selecting a main subject assumed as a subject and capturing the image during moving image shooting.
以下、添付の図面を参照して発明の実施形態1及び2を説明する。
[実施形態1]
図1は発明の実施形態に対応する画像処理装置の機能構成の一例を示す図である。図1の画像処理装置100は、例えば動画及び静止画を撮影可能なデジタルカメラとして実現することができる。なお、動画、静止画撮影機能を有する情報処理装置であれば、パーソナルコンピュータや、PDA等の携帯情報機器、携帯電話等であってもよい。
[Embodiment 1]
FIG. 1 is a diagram illustrating an example of a functional configuration of an image processing apparatus corresponding to an embodiment of the invention. The
画像処理装置100において、入射光がレンズ101により結像され、アイリス102で入射光量を調節され、CMOSやCCD等の半導体からなるセンサ103へ入射される。レンズ駆動部105はフォーカス時のレンズ駆動を行い、アイリス駆動部106はアイリスを駆動する。システム制御部123は撮影者の操作(電源、静止画トリガ、動画トリガ)により遷移するモードに応じて全ブロックの制御を行なう。画像処理装置100は、電源ボタン、動画トリガを生成するための動画撮影ボタン、静止画トリガを生成するための静止画撮影ボタンを有する。
In the
センサ103で光電変換をして、AD104でAD変換を施されたデジタル映像信号はセレクタ124を経由する。パラメータ設定部118は、システム制御部123の制御に従い、該デジタル映像信号を処理して撮影パラメータを設定する。パラメータ設定部118から出力された撮影パラメータは、システム制御部123経由でAF、露出制御へフィードバックされる。静止画撮影時は静止画信号処理部114で信号処理され、静止画符号化部115で符号化され、静止画記録部116へ記憶される。また静止画表示部117に撮影後に所定期間、記憶画像が表示される。同時にデジタル映像信号は静止画顔検出・認識部113へ入力され、静止画用検出処理、即ち、所定の領域内における顔形状を認識し顔情報を検出する処理が行なわれる。検出結果はアクセス制御部120へ入力される。アクセス制御部120は、履歴情報を履歴情報保持部121から読み出し、顔情報の検出結果と比較し、比較結果に応じて履歴情報保持部121の履歴情報を更新する。
The digital video signal that has been subjected to photoelectric conversion by the
動画撮影時は動画信号処理部108で信号処理され、動画符号化部109で符号化され、動画記録部110に記憶される。同時に映像データは動画顔検出・認識部107へ入力され、動画用検出処理、即ち、顔形状を認識し顔情報を検出する処理が行なわれる。検出結果はパラメータ設定部118経由で評価枠設定部119へ入力される。評価枠設定部119は、履歴情報を履歴情報保持部121から読み出し、顔情報の検出結果との整合をとって主被写体の検出を行い、主被写体が検出された枠を撮影パラメータ設定を行うための領域として領域設定する。評価枠の情報は、パラメータ設定部118に通知され、パラメータ設定部118は通知された評価枠の領域の処理を優先的に行なうようにする。これにより主被写体を検出した領域が優先的に処理され、撮影パラメータが算出される。撮影パラメータは、システム制御部123を経由してAF、露出制御にフィードバックされる。
During moving image shooting, signal processing is performed by the moving image
電源を投入してから撮影が行われていない期間を利用し、システム制御部123は、静止画記録部116に記憶済の静止画を静止画顔検出・認識部113で処理させる。静止画顔検出・認識部113での顔認識結果はアクセス制御部120を経由して履歴情報保持部121へ蓄積される。
The
次に、図3Aを参照して発明の実施形態に対応する撮影中のシーケンスを説明する。図3Aは、発明の実施形態に対応する動作シーケンスの一例を示すタイミングチャートである。図3Aでは、動画処理、静止画処理、履歴情報処理の3つの処理について、フェーズ毎のシーケンスを説明する。 Next, a sequence during photographing corresponding to the embodiment of the invention will be described with reference to FIG. 3A. FIG. 3A is a timing chart showing an example of an operation sequence corresponding to the embodiment of the invention. In FIG. 3A, a sequence for each phase will be described for the three processes of moving image processing, still image processing, and history information processing.
まず、フェーズF301は電源投入後に行われる初期シーケンスの期間である。ここでは履歴情報が再構築される。次にフェーズF302は動画撮影が行われている期間である。ここではフェーズF301で構築された履歴情報が読み出されて、動画撮影パラメータが補正が行われる。続くフェーズF303はプレビュー及び静止画撮影の期間である。静止画撮影ボタンの操作に応じて静止画トリガが発生すると、静止画顔検出・認識部113が顔検出及び認識処理を行い、履歴情報保持部121の履歴情報を蓄積・更新していく。なお、静止画トリガがない場合も検出動作は行い、撮影時にフィードバックしてもよい。また、図3Aでは記載していないが、フェーズF303において、動画撮影が平行して行われていてもよい。以下ではその場合を想定して実施形態を説明する。フェーズF304は動画撮影が行われている期間であり、フェーズF301で再構築され、フェーズF303で更新された履歴情報を用いて、動画撮影パラメータが補正される。
First, phase F301 is a period of an initial sequence performed after power-on. Here, history information is reconstructed. Next, phase F302 is a period during which moving image shooting is performed. Here, the history information constructed in phase F301 is read out, and the moving image shooting parameters are corrected. A subsequent phase F303 is a period for preview and still image shooting. When a still image trigger is generated in response to the operation of the still image shooting button, the still image face detection /
次に、図3Bを参照して、発明の実施形態に対応する履歴情報保持部121が保持する履歴情報のデータ構造の一例を説明する。履歴情報テーブル310では、各履歴情報を識別するための識別情報としてのID311、顔検出・認識処理において検出された被写体の顔に関する顔情報312、当該顔が主被写体として検出された頻度313が互いに関連づけられて登録されている。このうち、顔情報312は、静止画顔検出・認識部113が画像中で認識した顔につき、該顔の特徴を表すパラメータとして抽出される特徴量である。該特徴量には、例えば、目の間隔と目の大きさとの比率や、目尻と目頭とを結んだ線の顔の中心線に対する傾き、小鼻の間隔と唇の幅との比率など、被写体の顔の特徴量を特定するための情報を含めることができる。なお、本発明は、顔の特徴量の決定方法に技術的特徴を有する発明ではなく、また、顔認識の手法についても、公知の顔認識アルゴリズムを任意に用いることができる。よって、ここでの特徴量は、複数の画像から同一の被写体の顔を特定するための情報として機能するものであれば、どのようなものでもよい。また、顔検出・認識のアルゴリズム自体も本質的な特徴ではないので本実施形態での、より詳細な説明は省略する。
Next, an example of a data structure of history information held by the history
以下では、図3Aのシーケンスにおける各処理を、図4乃至図8を参照して具体的に説明していく。まず、図4は、上述のシーケンスの全体的な流れをフローチャート化したものである。当該フローチャートに対応する処理は、処理のためのプログラムをシステム制御部123が実行することにより、画像処理装置100の各構成要素を制御することで実現される。
Hereinafter, each process in the sequence of FIG. 3A will be specifically described with reference to FIGS. 4 to 8. First, FIG. 4 is a flowchart showing the overall flow of the above-described sequence. The process corresponding to the flowchart is realized by controlling each component of the
S401で電源ONされるとS402に移行し、初期化シーケンスにより履歴情報テーブル310が再構築される。ここでの処理は、図3AのフェーズF301での処理に相当する。S403では初期化シーケンスが終了したかどうかを判定し、終了の場合(S403で「YES」)は撮影待ち状態となる。撮影待ち状態でS404では動画撮影ボタンが押されたかどうかを判定する。もし、動画撮影ボタンが押されれば(S404で「YES」)、動画撮影が開始される。その後、動画撮影の停止指示を受け付ける(再度動画撮影ボタンが押される)まではフレームもしくはフィールド単位で動画撮影処理が繰り返される。 When the power is turned on in S401, the process proceeds to S402, and the history information table 310 is reconstructed by the initialization sequence. This process corresponds to the process in phase F301 in FIG. 3A. In S403, it is determined whether or not the initialization sequence has been completed. If the initialization sequence has been completed ("YES" in S403), the camera enters a shooting standby state. In S404, it is determined whether or not the moving image shooting button has been pressed. If the moving image shooting button is pressed (“YES” in S404), moving image shooting is started. Thereafter, the moving image shooting process is repeated for each frame or field until a moving image shooting stop instruction is received (the moving image shooting button is pressed again).
その間、S405では静止画トリガが検出されたか否かを判定する。もし静止画トリガが検出されれば(S405で「YES」)、S407に移行する。S407では、動画と静止画との同時撮影が行われる。その際、顔認識と顔情報の検出処理が行なわれ履歴情報テーブル310の更新が行なわれる。ここでの処理は、図3AのF303に相当する。その後S411に移行する。一方、静止画トリガが検出されない場合(S404で「NO」)は、S408に移行して動画撮影のみを行う。S408では、顔認識と顔情報の検出処理が行なわれるが、検出された顔情報は履歴情報と整合され、主被写体の検出が行われる。主被写体が検出されれば、検出領域が優先的に処理されるように、評価枠設定部119が後述する評価枠を設定する。パラメータ設定部118は、設定された評価枠に基づいて撮影パラメータを算出する。ここでの処理は図3AのフェーズF302やF304での処理に相当する。その後S411に移行する。
Meanwhile, in S405, it is determined whether or not a still image trigger has been detected. If a still image trigger is detected (“YES” in S405), the process proceeds to S407. In S407, simultaneous shooting of a moving image and a still image is performed. At that time, face recognition and face information detection processing are performed, and the history information table 310 is updated. This process corresponds to F303 in FIG. 3A. Thereafter, the process proceeds to S411. On the other hand, when the still image trigger is not detected (“NO” in S404), the process proceeds to S408 and only moving image shooting is performed. In S408, face recognition and face information detection processing are performed. The detected face information is matched with the history information, and the main subject is detected. If the main subject is detected, the evaluation
S404で動画撮影ボタンが押されない場合(S404で「NO」)、S406に移行し、静止画トリガが検出されたか否かを判定する。静止画トリガが検出されると(S406で「YES」)、S409にて静止画撮影になる。ここでの処理は図3AのフェーズF303での処理に相当する。静止画撮影時は、AD104からのデジタル映像信号について顔認識と顔情報の検出処理が行なわれ履歴情報テーブル310の更新が行なわれる。その後S411に移行する。静止画トリガが検出されない場合(S406で「NO」)、待機状態が継続し、S410でプレビュー表示がされるが、その際も検出動作は継続し撮影開始に備える。その後S411に移行する。S411では、フレーム期間(フィールド期間でもよい)が終了したか否かを判定し、終了の場合にはS404に戻って処理を繰り返す。
When the moving image shooting button is not pressed in S404 (“NO” in S404), the process proceeds to S406, and it is determined whether a still image trigger is detected. When a still image trigger is detected (“YES” in S406), still image shooting is performed in S409. The processing here corresponds to the processing in phase F303 in FIG. 3A. During still image shooting, face recognition and face information detection processing are performed on the digital video signal from the
次に、図5を参照して図4のS402における初期化シーケンスにおける履歴情報テーブル310の再構築処理について説明する。図5は、発明の実施形態に対応する履歴情報再構築処理の詳細な処理の一例を示すフローチャートである。まず、S501では、システム制御部123が、静止画記録部116に記録済の静止画が存在するか否かを判定する。もし、存在しない場合(S501で「NO」)は、本処理を終了する。なお、記録されていた静止画像の全てについて本処理を完了した場合も、同様に本処理を終了する。一方、存在する場合(S501で「YES」)、S503で静止画記録部116から静止画を読み出す。続くS504では、システム制御部123が、静止画のタイムスタンプに基づいて静止画の撮影日時が所定日時より前か否かを判定する。所定日時より前であれば(S504において「所定日時前」)、S501に戻り次の静止画の処理へ移行する。所定日時以後であれば(S504にて「所定日時以後」)、S505に移行する。
Next, the reconstruction process of the history information table 310 in the initialization sequence in S402 of FIG. 4 will be described with reference to FIG. FIG. 5 is a flowchart showing an example of detailed processing of history information reconstruction processing corresponding to the embodiment of the invention. First, in step S <b> 501, the
S505では、主被写体の検出を行う。具体的には、まず、静止画顔検出・認識部113が画像画角内に含まれる顔画像が所定画角に存在するか否かを判定する。本実施形態では、所定画角を画像画角の中央付近の矩形領域とする。もし、存在する場合は該顔を有する被写体を主被写体と判定し(S505において「YES」)、S506に移行する。当該主被写体の情報は、アクセス制御部120に入力される。ここで、主被写体の情報には、履歴情報テーブル310に登録される顔情報312に相当する情報が少なくとも含まれている。
In step S505, the main subject is detected. Specifically, first, the still image face detection /
S506では、アクセス制御部120が履歴情報保持部121の履歴情報を参照し、該主被写体が登録済かどうかを判定する。登録済か否かは、履歴情報テーブル310に登録されている顔情報312として、取得した主被写体の情報に含まれる顔情報と一致する情報が登録されているか否かで判定することができる。もし、登録済であれば(S506で「YES」)、S507に移行し履歴情報テーブル310に含まれる頻度313の値を1つインクリメントする。一方、登録済の被写体でない場合(S506で「NO」)、S508に移行し新規主被写体として、履歴情報保持部121に登録する。こうして初期シーケンスでは、中央画角で検出された顔を主被写体情報として認識する。
In step S506, the
次に、図6を参照して図5の履歴情報再構築処理における処理の具体例を説明する。図6は、発明の実施形態に対応する履歴情報再構築処理を説明するための図である。 Next, a specific example of processing in the history information reconstruction processing in FIG. 5 will be described with reference to FIG. FIG. 6 is a diagram for explaining history information reconstruction processing corresponding to the embodiment of the invention.
図6では、静止画記録部116に記録済の画像として画像Aから画像Fが存在している場合を想定している。各画像にはタイムスタンプが付されており、ここでは上記の所定日時を2008年3月1日とした場合を考える。この場合、画像Aと画像Bとは当該所定日時前の画像であるので、S504において処理対象から除外される。それ以外の画像Cから画像Fについて、以降の処理が行われる。
In FIG. 6, it is assumed that images A to F exist as images already recorded in the still
画像Cから画像Fについて点線で囲った領域601が所定画角に属する領域である。各画像において検出された顔画像が、当該領域601に含まれる場合には、履歴情報テーブル310の登録対象となる。図6では、被写体602、603及び604が登場する場合を想定している。まず、画像Cが処理されると、被写体602と603とがS508で新規に登録される。その後、画像D、画像E、画像Fでは、被写体602がS507で頻度が更新される。画像Fについては、被写体604が新たに検出されS508で新規に登録される。これにより、初期化後に頻度の多い被写体602、頻度は1回だが日付が新しい画像で検出された被写体604、1回検出された被写体603の順の優先度で主被写体情報が認識される。
An
次に、図7を参照して静止画撮影時の履歴情報更新処理について説明する。図7は、発明の実施形態に対応する静止画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。当該処理は、図4のS407とS409において静止画撮影が行われる場合に実行される。 Next, a history information update process at the time of still image shooting will be described with reference to FIG. FIG. 7 is a flowchart showing an example of detailed processing of history information update processing at the time of still image shooting corresponding to the embodiment of the invention. This processing is executed when still image shooting is performed in S407 and S409 of FIG.
S405またはS406において静止画トリガが検出されると、S701において静止画信号処理部114にて静止画がキャプチャされる。S702では、静止画顔検出・認識部113が静止画に主被写体が含まれるかどうかを判定する。具体的には、静止画の中央画角に被写体の顔が検出されるかどうかにより判定する。もし、主被写体が含まれる場合(S702で「YES」)、S703に移行する。当該主被写体の情報は、アクセス制御部120に入力される。主被写体が含まれない場合(S702で「NO」)は、S405かS406で再び静止画トリガが検出されるのを待つ。
When a still image trigger is detected in S405 or S406, a still image is captured by the still image
S703では、検出された主被写体が登録済かどうかをアクセス制御部120が、履歴情報テーブル310の内容に基づいて判定する。もし、登録済の場合(S703で「YES」)、S704に移行して、頻度情報を1つインクリメントする。一方、未登録であれば(S703で「NO」)、S705において、新規主被写体として履歴情報テーブル310に登録する。こうして静止画撮影ごとに中央画角で検出された被写体について履歴情報を更新していく。
In step S <b> 703, the
次に、図8を参照して図7の静止画撮影時の履歴情報更新処理における処理の具体例を説明する。図8は、発明の実施形態に対応する静止画撮影時の履歴情報更新処理を説明するための図である。 Next, a specific example of processing in the history information update processing at the time of still image shooting in FIG. 7 will be described with reference to FIG. FIG. 8 is a diagram for explaining history information update processing at the time of still image shooting corresponding to the embodiment of the invention.
図8では、静止画として画像A’から画像E’が撮影された場合を想定している。画像A’から画像E’にも所定画角に属する領域が点線で設定されているが、これは図6の領域601と同等であるので図8でも同一参照番号を付している。各画像において検出された顔画像が、当該領域601に含まれる場合には、履歴情報テーブル310の登録対象となる。図8では、図6と同様の被写体602、603及び604が再度登場するとともに、新規に被写体801が登場する場合を想定している。まず、画像A’から画像D’が処理されると、被写体602、603及び604についてS704で頻度が更新される。画像E’については、被写体801が新たに検出されS705で新規に登録される。
In FIG. 8, it is assumed that an image E ′ is captured from an image A ′ as a still image. A region belonging to a predetermined angle of view is also set as a dotted line in the image A ′ to the image E ′, and this is equivalent to the
なお、履歴情報を構築する処理として、電源投入後に静止画記録部116に記録済の静止画から履歴情報を構築する履歴情報再構築処理と、静止画撮影時に撮影された静止画から履歴情報を構築する履歴情報更新処理の両方を説明した。これらは必ずしも両方とも必要というわけではなく、いずれか一方だけであっても構わない。
In addition, as processing for constructing history information, history information reconstruction processing for constructing history information from a still image recorded in the still
次に、図9を参照して動画撮影時の評価枠設定処理について説明する。図9は、発明の実施形態に対応する動画撮影時の評価枠設定処理の詳細な処理の一例を示すフローチャートである。当該処理は、図4のS407とS408において動画撮影が行われる場合に実行される。 Next, an evaluation frame setting process at the time of moving image shooting will be described with reference to FIG. FIG. 9 is a flowchart showing an example of detailed processing of the evaluation frame setting processing at the time of moving image shooting corresponding to the embodiment of the invention. This processing is executed when moving image shooting is performed in S407 and S408 of FIG.
図4のS404の動画撮影ボタンの操作に基づいてS901で動画撮影が開始されると、S902でシステム制御部123はアクセス制御部120を介して履歴情報保持部121から主被写体の情報を読み出す。これ以降の処理は、フィールドもしくはフレーム単位で繰り返す(S909)。S903では、動画顔検出・認識部107が撮影画像のフレーム内において被写体検出を行う。検出結果はパラメータ設定部118経由で評価枠設定部119に入力される。続くS904で、評価枠設定部119は、履歴情報を履歴情報保持部121から読み出し、動画顔検出・認識部107が検出した被写体の情報を該履歴情報と比較する。そして、履歴情報テーブル310に登録されている被写体が存在するか、即ち、主被写体が存在するか否かを判定する。
When the moving image shooting is started in S901 based on the operation of the moving image shooting button in S404 in FIG. 4, the
もし、主被写体が存在する場合(S904で「YES」)、S905に移行する。S905では、評価枠設定部119はフレーム内で主被写体が含まれる領域を優先的に処理するように評価枠情報を補正する。なお、主被写体が複数存在する場合には、履歴情報テーブル310の頻度313が最も多い主被写体を優先する。これにより、AF、露出を制御するための領域が、フレーム内で主被写体が含まれる領域に設定される。設定された評価枠の情報は、パラメータ設定部118に通知される。登録済の被写体が存在しない場合(S904で「NO」)、S906に移行する。S906では、評価枠設定部119は評価枠を変更しない。S907では、S905又はS906における枠の情報に基づき、パラメータ設定部118が撮影パラメータを算出し、システム制御部123に出力する。S908において、システム制御部123は、撮影パラメータに基づいてレンズ駆動やアイリス駆動といった撮影制御を行なう。
If there is a main subject (“YES” in S904), the process proceeds to S905. In step S905, the evaluation
次に、図10を参照して図9の動画撮影時の被写体検出に基づく評価枠の設定法について具体例を説明する。図10は、発明の実施形態に対応する動画撮影時の被写体検出に基づく評価枠の設定法を説明するための図である。 Next, a specific example of the evaluation frame setting method based on subject detection during moving image shooting in FIG. 9 will be described with reference to FIG. FIG. 10 is a diagram for explaining a method of setting an evaluation frame based on subject detection during moving image shooting corresponding to the embodiment of the invention.
図10では、撮影フレームとしてフレームAからフレームDの順で撮影された場合を想定している。図10(a)に示すように、各フレームには評価枠1001から1005が与えられている。当該評価枠は、AF、露出の制御を行う際に優先される領域の候補である。 In FIG. 10, it is assumed that the frames are shot in the order of frame A to frame D as shooting frames. As shown in FIG. 10A, evaluation frames 1001 to 1005 are given to each frame. The evaluation frame is a candidate area that is prioritized when performing AF and exposure control.
まず、フレームAでは、評価枠1002に主被写体として被写体602が検出される。その他の被写体1006は無視される。なお、その他の被写体1006は、被写体602に比べて、履歴情報テーブル310における頻度313の値が小さいか、或いは、履歴情報テーブル310に登録されていないものと考えることができる。そこで、評価枠1002で得られる評価値を優先して処理してAF、露出制御が行われることとなる。また、フレームB、Cも同様にそれぞれ被写体602が検出される枠1003、1004が優先される。フレームDでは主被写体は検出されないので通常通り全枠の平均もしくは中央枠1003の評価値に基づき撮影パラメータの制御が行われる。
First, in frame A, the subject 602 is detected as the main subject in the
このように、本実施形態では、静止画撮影時に主被写体として検出された顔の顔情報を登録しておき、動画撮影時に登録済の顔情報に対応する顔情報が検出された場合、動画撮影でも主被写体として選択する。静止画撮影で主被写体であった被写体は、動画撮影においても主被写体となる可能性は高いと考えられるため、静止画から主被写体情報を検出し、動画撮影時にこの情報を利用する。なお、動画のみから主被写体を判定することは難しいので、動画から検出された被写体の情報は履歴情報テーブル310には反映せず、静止画から検出された顔情報のみを用いて履歴情報が更新される。 As described above, in the present embodiment, face information of a face detected as a main subject at the time of still image shooting is registered, and when face information corresponding to registered face information is detected at the time of moving image shooting, moving image shooting is performed. But select it as the main subject. Since the subject that was the main subject in still image shooting is considered to be highly likely to become the main subject in moving image shooting, main subject information is detected from the still image and this information is used during moving image shooting. Since it is difficult to determine the main subject only from the moving image, the subject information detected from the moving image is not reflected in the history information table 310, and the history information is updated using only the face information detected from the still image. Is done.
以上説明したように、本発明によれば、静止画で検出した主被写体の情報を用いて、動画撮影時の被写体検出及び撮影パラメータの設定を行なうことが可能となるので、撮影者の意図する動画を記録することが可能となる。 As described above, according to the present invention, it is possible to perform subject detection and shooting parameter setting at the time of moving image shooting using information on a main subject detected in a still image. It is possible to record a moving image.
[実施形態2]
次に、発明の実施形態2を説明する。本実施形態に対応する画像処理装置の構成は図2に示す通りである。図2において、図1の画像処理装置100と同様の構成には対応する参照番号を付している。本実施形態における画像処理装置200は、画像処理装置100の評価枠設定部119の代わりに主被写体画角検出部201を有する点が異なる。主被写体画角検出部201は、動画撮影時に動画顔検出・認識部107における顔検出結果と、履歴情報テーブル310から読み出した主被写体情報とを比較し、整合領域があるかどうかを検知する。もし、整合領域がフレームの中央画角にある場合、静止画撮影タイミングを通知するための通知信号として同時記録最適フラグを動画表示部111へ出力する。動画表示部111は、同時記録最適フラグに基づき、撮影タイミング通知を表示中の動画に重畳して、撮影者へ通知をおこなう。
[Embodiment 2]
Next, Embodiment 2 of the invention will be described. The configuration of the image processing apparatus corresponding to this embodiment is as shown in FIG. In FIG. 2, the same components as those of the
本実施形態においても実施形態1と同様に、図4から図8に示すような処理を行う。但し、動画撮影時の処理については、主被写体画角検出部201を利用して以下のような処理を行う。
In the present embodiment as well, the processes as shown in FIGS. 4 to 8 are performed as in the first embodiment. However, the processing at the time of moving image shooting is performed as follows using the main subject angle-of-
まず、図11を参照して動画撮影時の履歴情報更新処理について説明する。図11は、発明の実施形態2に対応する動画撮影時の履歴情報更新処理の詳細な処理の一例を示すフローチャートである。当該処理は、図4のS407とS408において動画撮影が行われる場合に実行される。 First, the history information update process during moving image shooting will be described with reference to FIG. FIG. 11 is a flowchart showing an example of detailed processing of history information update processing at the time of moving image shooting corresponding to the second embodiment of the invention. This processing is executed when moving image shooting is performed in S407 and S408 of FIG.
図4のS404の動画撮影ボタンの操作に基づいてS1101で動画撮影が開始されると、S1102でシステム制御部123はアクセス制御部120を介して履歴情報テーブル310から主被写体の情報を読み出す。これ以降の処理は、フィールドもしくはフレーム単位で繰り返される(S1107)。S1103では、動画顔検出・認識部107が撮影画像のフレーム内において被写体検出を行う。続くS1104で、主被写体画角検出部201が動画顔検出・認識部107は検出した被写体の情報を履歴情報と比較し、履歴情報テーブル310に登録されている被写体が存在するか、即ち、主被写体が存在するか否かを判定する。
When the moving image shooting is started in S1101 based on the operation of the moving image shooting button in S404 of FIG. 4, the
もし、主被写体が存在する場合(S1104で「YES」)、S1105に移行する。S1105では、主被写体画角検出部201が更に主被写体が適正な画角に位置しているか否かを判定する。適正な画角については、図12(a)を参照して後述する。もし、適正画角に存在している場合は、主被写体画角検出部201が動画表示部111に同時記録最適フラグを送信する。これに応じて動画表示部111は、S1106において静止画も同時に撮影することを促す表示を行なう。
If there is a main subject (“YES” in S1104), the process proceeds to S1105. In step S1105, the main subject field
次に、図12を参照して図11の動画撮影時の同時記録最適フラグに基づく表示について具体例を説明する。図12は、発明の実施形態2に対応する動画撮影時の同時記録最適フラグに基づく表示を説明するための図である。図12では、撮影フレームとしてフレームA’からフレームD’の順で撮影された場合を想定している。ここで登場する被写体は実施形態1における被写体602とする。まず、図12(a)に示すように、フレームには適正な画角に対応する領域1301が与えられている。 Next, a specific example of display based on the simultaneous recording optimum flag at the time of moving image shooting in FIG. 11 will be described with reference to FIG. FIG. 12 is a diagram for explaining display based on the simultaneous recording optimum flag at the time of moving image shooting corresponding to the second embodiment of the invention. In FIG. 12, it is assumed that the frames are captured in the order of frame A ′ to frame D ′. The subject appearing here is the subject 602 in the first embodiment. First, as shown in FIG. 12A, a region 1301 corresponding to an appropriate angle of view is given to the frame.
図12(b)においてフレームA’では、フレーム内に被写体602が検出される。この被写体602の顔領域は、領域1201内に一部含まれてはいるが、全体ではないので、静止画として撮影するには不向きである。そこで、主被写体画角検出部201は、同時記録最適フラグを動画表示部111には送信しない。フレームB’やフレームD’も同様である。一方、フレームC’では、被写体602の顔領域が領域1301内に収まっているので、静止画として撮影するのに適している。そこで、主被写体画角検出部201は同時記録最適フラグを動画表示部111に送信する。これにより、領域1201の枠部分がハイライト表示(1202)される。
In FIG. 12B, the subject 602 is detected in the frame A ′. Although the face area of the subject 602 is partially included in the
なお、主被写体の顔領域が領域1301内に収まっているかどうか、即ち、適正画角に存在しているかどうかは、顔領域が領域1301内に包含される割合に基づいて決定することができる。例えば、顔領域の80%以上が領域1301に包含される場合には、適正が閣内に存在しているとみなすことができる。なお、80%という数値はあくまで一例であって、実施形態に応じて異なる数値を採用することができる。 Note that whether or not the face area of the main subject is within the area 1301, that is, whether or not the face area of the main subject exists at an appropriate angle of view can be determined based on the ratio of the face area included in the area 1301. For example, when 80% or more of the face area is included in the area 1301, it can be considered that the appropriateness exists in the cabinet. The numerical value of 80% is merely an example, and a different numerical value can be adopted depending on the embodiment.
なお、上記では主被写体が領域1301内に収まっている場合に主被写体画角検出部201が動画表示部111に同時記録最適フラグを送信した。これに対して、該フラグをシステム制御部123に送信して、システム制御部123が静止画シャッターを自動で実行して撮影を行なってもよい。この場合には、静止画撮影タイミングを逃さずに自動で主被写体が中心に存在する静止画を取得することができるので、撮影者は静止画撮影タイミングを気にせず動画の撮影を行うことができる。
In the above description, when the main subject is within the area 1301, the main subject field
本実施形態によれば、撮影者が過去に撮影した静止画に基づいて生成された履歴情報に従い、撮影中のフレームに被写体が登場すると静止画撮影を行うのに好適なタイミングを撮影者に対して提供することができる。或いは、当該タイミングで自動で静止画撮影を行うことができる。 According to this embodiment, according to history information generated based on still images taken by the photographer in the past, when a subject appears in the frame being photographed, a timing suitable for taking a still image is given to the photographer. Can be provided. Alternatively, it is possible to automatically take a still image at this timing.
[その他の実施形態]
また、本発明は、上記の実施形態1及び実施形態2と同等の処理を、コンピュータプログラムでも実現できる。この場合、図Xをはじめとする構成要素の各々は関数、もしくはCPUが実行するサブルーチンで機能させれば良い。また、通常、コンピュータプログラムは、CD−ROM等のコンピュータ可読記憶媒体に格納されており、それを、コンピュータが有する読取り装置(CD−ROMドライブ等)にセットし、システムにコピーもしくはインストールすることで実行可能になる。従って、かかるコンピュータ可読記憶媒体も本発明の範疇にあることは明らかである。
[Other Embodiments]
In addition, the present invention can also realize processing equivalent to that in the first and second embodiments by a computer program. In this case, each of the components including FIG. X may be functioned by a function or a subroutine executed by the CPU. In general, the computer program is stored in a computer-readable storage medium such as a CD-ROM, and is set in a reading device (such as a CD-ROM drive) included in the computer and copied or installed in the system. Become executable. Therefore, it is obvious that such a computer readable storage medium is also within the scope of the present invention.
Claims (9)
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定手段と、
前記判定手段により前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が前記映像データにおいて前記顔情報を検出した領域を、前記撮影パラメータを設定するための領域として設定する領域設定手段と
を備え、
前記パラメータ設定手段は、前記領域設定手段が設定した領域に基づいて前記撮影パラメータを設定することを特徴とする画像処理装置。 Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
History information holding means for holding detection history information including face information detected by the still image detection means;
Determination means for determining whether or not the history information holding means holds information corresponding to the face information detected by the moving image detection means;
When the determination means determines that the history information holding means holds, an area where the moving image detection means detects the face information in the video data is set as an area for setting the shooting parameters. An area setting means for setting,
The image processing apparatus, wherein the parameter setting means sets the imaging parameter based on the area set by the area setting means.
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定手段と、
前記判定手段により前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が検出した前記顔情報が、前記動画トリガに応じて生成された映像データにおいて予め定められた領域内に属するか否かを判定し、属する場合に静止画撮影タイミングを通知するための通知信号を出力する出力手段と
を備えることを特徴とする画像処理装置。 Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
History information holding means for holding detection history information including face information detected by the still image detection means;
Determination means for determining whether or not the history information holding means holds information corresponding to the face information detected by the moving image detection means;
When the determination unit determines that the history information holding unit holds, the face information detected by the moving image detection unit is predetermined in the video data generated in response to the moving image trigger. An image processing apparatus comprising: an output unit that determines whether or not the image belongs to an area and outputs a notification signal for notifying a still image shooting timing when the image belongs.
前記出力手段は、前記通知信号を前記表示手段に出力し、
前記表示手段は、前記通知信号に応じて前記動画に前記静止画撮影タイミングを通知する表示を重畳して表示を行うことを特徴とする請求項2に記載の画像処理装置。 Further comprising display means for displaying the video generated by the video processing means,
The output means outputs the notification signal to the display means,
The image processing apparatus according to claim 2, wherein the display unit performs display by superimposing a display for notifying the moving image shooting timing on the moving image according to the notification signal.
前記出力手段は、前記通知信号を前記制御手段に出力し、
前記制御手段は、前記通知信号に応じて前記静止画トリガを生成して、前記撮影手段に前記映像データを生成させることを特徴とする請求項2に記載の画像処理装置。 A control unit that generates the still image trigger and controls the photographing unit;
The output means outputs the notification signal to the control means,
The image processing apparatus according to claim 2, wherein the control unit generates the still image trigger according to the notification signal, and causes the photographing unit to generate the video data.
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記録された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と
を備える画像処理装置の制御方法であって、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定工程と、
前記判定工程において前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が前記映像データにおいて前記顔情報を検出した領域を、前記撮影パラメータを設定するための領域として設定する領域設定工程と、
前記パラメータ設定手段が、前記領域設定工程で設定された領域に基づいて前記撮影パラメータを設定する撮影パラメータ設定工程と
を備えることを特徴とする画像処理装置の制御方法。 Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image recorded in the recording unit. Image detection means;
A control method of an image processing apparatus comprising history information holding means for holding detection history information including face information detected by the still image detection means,
A determination step of determining whether or not the history information holding unit holds information corresponding to the face information detected by the moving image detection unit;
When it is determined in the determination step that the history information holding means holds, an area where the moving image detection means detects the face information in the video data is set as an area for setting the shooting parameter. An area setting process to be set;
A control method for an image processing apparatus, wherein the parameter setting means includes a shooting parameter setting step for setting the shooting parameter based on the region set in the region setting step.
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記憶された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と
を備える画像処理装置の制御方法であって、
前記動画用検出手段が検出した顔情報に対応する情報を、前記履歴情報保持手段が保持しているか否かを判定する判定工程と、
前記判定工程において前記履歴情報保持手段が保持していると判定された場合に、前記動画用検出手段が検出した前記顔情報が、前記動画トリガに応じて生成された映像データにおいて予め定められた領域内に属するか否かをさらに判定する工程と、
前記予め定められた領域内に属すると判定された場合に、静止画撮影タイミングを通知するための通知信号を出力する出力工程と
を備えることを特徴とする画像処理装置の制御方法。 Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image stored in the recording means. Image detection means;
A control method of an image processing apparatus comprising history information holding means for holding detection history information including face information detected by the still image detection means,
A determination step of determining whether or not the history information holding unit holds information corresponding to the face information detected by the moving image detection unit;
When it is determined in the determination step that the history information holding unit holds, the face information detected by the moving image detection unit is predetermined in the video data generated in response to the moving image trigger. Further determining whether or not it belongs to the area;
A control method for an image processing apparatus, comprising: an output step of outputting a notification signal for notifying a still image shooting timing when it is determined that the image belongs to the predetermined area.
前記撮影手段の撮影パラメータを設定するパラメータ設定手段と、
動画トリガに応じて生成された前記映像データを、動画として処理する動画処理手段と、
静止画トリガに応じて生成された前記映像データを、静止画として処理する静止画処理手段と、
前記動画トリガに応じて生成された映像データについて、前記被写体の顔を認識して顔情報を検出する動画用検出手段と、
前記静止画トリガに応じて生成された映像データ、及び、記録手段に記憶された前記静止画の少なくとも一方について、所定の領域内に存在する前記被写体の顔を認識して顔情報を検出する静止画用検出手段と、
前記静止画用検出手段が検出した顔情報を含む検出の履歴情報を保持する履歴情報保持手段と
を備える画像処理装置に、請求項7または8に記載の各工程の処理を実行させるためのコンピュータプログラム。 Photographing means for photographing a subject and generating video data;
Parameter setting means for setting shooting parameters of the shooting means;
Video processing means for processing the video data generated in response to a video trigger as a video;
Still image processing means for processing the video data generated in response to a still image trigger as a still image;
For video data generated in response to the video trigger, video detection means for detecting face information by recognizing the face of the subject;
A still image for detecting face information by recognizing the face of the subject existing in a predetermined area for at least one of the video data generated in response to the still image trigger and the still image stored in the recording means. Image detection means;
9. A computer for causing an image processing apparatus to execute processing of each step according to claim 7 or 8, further comprising history information holding means for holding detection history information including face information detected by the still image detection means. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009096456A JP2010251866A (en) | 2009-04-10 | 2009-04-10 | Image processor, method of controlling the same, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009096456A JP2010251866A (en) | 2009-04-10 | 2009-04-10 | Image processor, method of controlling the same, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010251866A true JP2010251866A (en) | 2010-11-04 |
Family
ID=43313746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009096456A Pending JP2010251866A (en) | 2009-04-10 | 2009-04-10 | Image processor, method of controlling the same, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010251866A (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007006033A (en) * | 2005-06-22 | 2007-01-11 | Omron Corp | Object determining apparatus, imaging device, and supervisory apparatus |
JP2007150601A (en) * | 2005-11-25 | 2007-06-14 | Nikon Corp | Electronic camera |
JP2008067003A (en) * | 2006-09-06 | 2008-03-21 | Fujifilm Corp | Photographing device and photographing system |
JP2008245007A (en) * | 2007-03-28 | 2008-10-09 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2008270896A (en) * | 2007-04-16 | 2008-11-06 | Casio Comput Co Ltd | Imaging device and program thereof |
-
2009
- 2009-04-10 JP JP2009096456A patent/JP2010251866A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007006033A (en) * | 2005-06-22 | 2007-01-11 | Omron Corp | Object determining apparatus, imaging device, and supervisory apparatus |
JP2007150601A (en) * | 2005-11-25 | 2007-06-14 | Nikon Corp | Electronic camera |
JP2008067003A (en) * | 2006-09-06 | 2008-03-21 | Fujifilm Corp | Photographing device and photographing system |
JP2008245007A (en) * | 2007-03-28 | 2008-10-09 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2008270896A (en) * | 2007-04-16 | 2008-11-06 | Casio Comput Co Ltd | Imaging device and program thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2791899B1 (en) | Method and apparatus for image capture targeting | |
JP5713055B2 (en) | Imaging apparatus, imaging method, and program | |
JP4784678B2 (en) | Imaging apparatus, imaging method, and program | |
JP4605039B2 (en) | Automatic photographing method, automatic photographing apparatus and automatic photographing program | |
JP2005128156A (en) | Focusing device and method | |
JP2009033491A (en) | Imaging apparatus and imaging method | |
JP2007215091A (en) | Imaging apparatus and program therefor | |
JP2008099246A (en) | Imaging device and subject detection method | |
JP2009124340A (en) | Imaging apparatus, photographing support method, and photographing support program | |
JP2008252711A (en) | Digital camera | |
KR20120002834A (en) | Image pickup apparatus for providing reference image and method for providing reference image thereof | |
JP2008136024A (en) | Photographing device, photographing system, and photographing method | |
JP2009175821A (en) | Detection method and photographing device for specific image | |
US8571404B2 (en) | Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method | |
JP2019186791A (en) | Imaging apparatus, control method of the imaging apparatus, and control program | |
JP2008116663A (en) | Imaging apparatus | |
JP5448868B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2010028341A (en) | Electronic still camera | |
JP2008058553A (en) | Imaging apparatus, imaging method, and imaging control program | |
JP2019032370A (en) | Imaging device and control method thereof | |
JP2010251866A (en) | Image processor, method of controlling the same, and computer program | |
JP2011066828A (en) | Imaging device, imaging method and program | |
JP2011055272A (en) | Imaging apparatus and imaging method | |
JP2008160280A (en) | Imaging apparatus and automatic imaging method | |
JP2017041778A (en) | Imaging apparatus, moving picture formation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120410 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131129 |