JP2013042514A - Target image detection device, control method therefor, control program, recording medium with the program recorded thereon, and electronic apparatus provided with target image detection device - Google Patents
Target image detection device, control method therefor, control program, recording medium with the program recorded thereon, and electronic apparatus provided with target image detection device Download PDFInfo
- Publication number
- JP2013042514A JP2013042514A JP2012208544A JP2012208544A JP2013042514A JP 2013042514 A JP2013042514 A JP 2013042514A JP 2012208544 A JP2012208544 A JP 2012208544A JP 2012208544 A JP2012208544 A JP 2012208544A JP 2013042514 A JP2013042514 A JP 2013042514A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- image
- target image
- unit
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、元画像の中から対象画像を検出する対象画像検出デバイス、その制御方法、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器に関するものである。 The present invention relates to a target image detection device that detects a target image from an original image, a control method thereof, a control program, a recording medium that records the program, and an electronic apparatus that includes the target image detection device.
従来、撮像機器および表示デバイスなどにおいて、使い易いユーザインタフェースを提供したり、自動的に最適な画像を取得したりするために、撮影対象または表示対象を自動認識するニーズが高まっている。このようなニーズの一例として、人の顔を検出し、検出した顔に最適なフォーカスおよび露出となるように調整したり、文字を認識し、認識した文字の領域を自動的にOCR(Optical Character Recognition)の対象にしたりするような機能が挙げられる。 2. Description of the Related Art Conventionally, there is an increasing need for automatically recognizing a shooting target or a display target in order to provide an easy-to-use user interface or automatically acquire an optimal image in an imaging device, a display device, or the like. As an example of such a need, a human face is detected and adjusted so that the detected face has an optimum focus and exposure, or a character is recognized, and the recognized character area is automatically OCR (Optical Character). Recognition).
一般に、このような機能を実現するには、高度な画像処理が必要となり、多大な計算量が必要となる。また、上記機能は、一般に、リアルタイム性が要求されるため、高速な処理が必要となる。このため、デジタルカメラ、携帯型通信端末などのような、処理能力、消費電力、およびコストが制約される組込み機器で上記機能を実現することが困難な場合が多い。 In general, in order to realize such a function, advanced image processing is required, and a large amount of calculation is required. Moreover, since the above functions generally require real-time properties, high-speed processing is required. For this reason, it is often difficult to realize the above functions in an embedded device whose processing capability, power consumption, and cost are restricted, such as a digital camera or a portable communication terminal.
この問題点に対し、処理を高速化する種々の方法が提案されている。例えば、特許文献1に記載の画像処理装置では、解像度が順次段階的に変化する順序により縮小画像を順次テンプレートマッチングして、特定の被写体が撮影された領域を検出し、検出後に処理を中断することにより、処理の高速化を図っている。また、特許文献2に記載の顔検出方法では、大きい顔から順に検出し、顔が検出されたら、それ以降は既に顔が検出された領域を検出対象領域から除いて検出を続けている。これにより、顔を検出する度に検出対象領域を縮小できるので、処理を高速化することができる。
Various methods for speeding up the processing have been proposed for this problem. For example, in the image processing apparatus described in Patent Document 1, the reduced images are sequentially template-matched in the order in which the resolution sequentially changes to detect a region where a specific subject is photographed, and the processing is interrupted after detection As a result, the processing speed is increased. Further, in the face detection method described in
特許文献1の画像処理装置は、特定の被写体の動きを追従するためのものである。このため、不特定であり、かつ数が未定である被写体が撮影された領域を検出する処理では、検出後に処理を中断することが困難であり、処理の高速化を図ることが困難となる。また、特許文献2の顔検出方法では、検出対象領域に対する顔の検出を、大きい顔から小さい顔まで順番に繰り返しているため、依然として処理に時間がかかることになる。
The image processing apparatus of Patent Document 1 is for following the movement of a specific subject. For this reason, in the process of detecting an area where an unspecified subject whose number has not been determined is detected, it is difficult to interrupt the process after detection, and it is difficult to increase the speed of the process. Further, in the face detection method of
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、検出結果を迅速に出力できる対象画像検出デバイスなどを提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a target image detection device that can quickly output a detection result.
本発明に係る対象画像検出デバイスは、元画像の中から対象画像を検出する対象画像検出デバイスであって、前記元画像を取得する取得手段と、前記対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる第1の検出条件に決定する決定手段と、前記取得手段が取得した第1の元画像から、前記決定手段が決定した第1の検出条件で前記対象画像を検出する検出手段と、前記検出手段が検出した対象画像を特定可能な情報を、前記第1の元画像に続く第2の元画像に出力する出力手段とを備え、前記決定手段は、或る検出条件と前記検出手段が該検出条件で前記対象画像を検出したか否かを示す検出結果との対応付けの履歴に基づいて、前記第1の検出条件とは異なる第2の検出条件をさらに決定することを特徴としている。 A target image detection device according to the present invention is a target image detection device that detects a target image from an original image, and an acquisition unit that acquires the original image and a plurality of detection conditions for detecting the target image Among the first detection condition different from the previous detection condition, and the target image under the first detection condition determined by the determination means from the first original image acquired by the acquisition means. Detecting means for detecting the image, and output means for outputting information that can identify the target image detected by the detecting means to a second original image following the first original image, wherein the determining means comprises: And a second detection condition different from the first detection condition based on a history of association between the detection condition and the detection result indicating whether or not the detection means has detected the target image. Further determined That.
また、本発明に係る対象画像検出デバイスの制御方法は、元画像の中から対象画像を検出する対象画像検出デバイスの制御方法であって、前記元画像を取得する取得ステップと、前記対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる第1の検出条件に決定する決定ステップと、前記取得ステップにおいて取得された第1の元画像から、前記決定ステップにおいて決定された第1の検出条件で前記対象画像を検出する検出ステップと、前記検出ステップにおいて検出された対象画像を特定可能な情報を、前記第1の元画像に続く第2の元画像に出力する出力ステップとを含み、前記決定ステップでは、或る検出条件と前記検出ステップにおいて該検出条件で前記対象画像が検出されたか否かを示す検出結果との対応付けの履歴に基づいて、前記第1の検出条件とは異なる第2の検出条件をさらに決定することを特徴としている。 The target image detection device control method according to the present invention is a target image detection device control method for detecting a target image from an original image, the acquisition step for acquiring the original image, and the target image Of the plurality of detection conditions for detection, the determination step determines the first detection condition different from the previous detection condition and the first original image acquired in the acquisition step. A detection step for detecting the target image under the first detection condition, and an output for outputting information capable of specifying the target image detected in the detection step to a second original image following the first original image A correspondence between a certain detection condition and a detection result indicating whether or not the target image is detected under the detection condition in the detection step. Based on only the history is characterized by further determining a different second detection condition from the first detection condition.
本発明に係る対象画像検出デバイスでは、前記検出手段は、前記第2の元画像から前記決定手段が決定した第2の検出条件で前記対象画像をさらに検出し、前記出力手段は、前記検出手段が検出した対象画像を特定可能な情報を、前記第2の元画像に続く第3の元画像にさらに出力してもよい。 In the target image detection device according to the present invention, the detection unit further detects the target image under a second detection condition determined by the determination unit from the second original image, and the output unit includes the detection unit. The information that can identify the target image detected by may be further output to a third original image that follows the second original image.
本発明に係る対象画像検出デバイスは、前記検出条件が検出した対象画像を、当該対象画像を含む元画像に続く元画像にて追跡する追跡手段をさらに備えてもよい。 The target image detection device according to the present invention may further include a tracking unit that tracks the target image detected by the detection condition with an original image following the original image including the target image.
本発明に係る対象画像検出デバイスでは、前記追跡手段は、前記第1の検出条件に含まれる追跡条件で、前記第2の元画像にて前記対象画像を追跡し、前記出力手段は、前記追跡手段が追跡した対象画像を特定可能な情報を、前記第2の元画像に続く第3の元画像にさらに出力してもよい。 In the target image detection device according to the present invention, the tracking unit tracks the target image with the second original image under a tracking condition included in the first detection condition, and the output unit includes the tracking unit. Information that can identify the target image tracked by the means may be further output to a third original image following the second original image.
本発明に係る対象画像検出デバイスは、前記対応付けの履歴に基づいて、前記追跡手段が追跡した追跡結果を補正する補正手段をさらに備え、前記出力手段は、前記補正手段が補正した追跡結果を、前記追跡手段が追跡した対象画像を特定可能な情報として、前記第2の元画像に続く第3の元画像にさらに出力してもよい。 The target image detection device according to the present invention further includes correction means for correcting the tracking result tracked by the tracking means based on the association history, and the output means outputs the tracking result corrected by the correction means. The target image tracked by the tracking unit may be further output as information that can be specified to a third original image following the second original image.
本発明に係る対象画像検出デバイスでは、前記補正手段は、前記検出結果に対応付けられた検出条件に含まれる数値の平均で、前記追跡手段が追跡した追跡結果を補正してもよい。 In the target image detection device according to the present invention, the correction unit may correct the tracking result tracked by the tracking unit with an average of numerical values included in the detection condition associated with the detection result.
本発明に係る対象画像検出デバイスでは、前記補正手段は、前記検出条件を変更することで前記対象画像を検出したことを示す検出結果の検出数が減少した場合、減少する前の検出条件を優先して適用することによって、前記追跡手段が追跡した追跡結果を補正してもよい。 In the target image detection device according to the present invention, when the number of detection results indicating that the target image has been detected decreases by changing the detection condition, the correction unit prioritizes the detection condition before the decrease. In this case, the tracking result tracked by the tracking unit may be corrected.
本発明に係る対象画像検出デバイスでは、前記決定手段は、或る検出条件によるこれまでの検出回数に応じて当該検出条件の利用頻度を変更し、変更した利用頻度に基づいて、前記複数の検出条件のうち、前回の検出条件とは異なる検出条件に決定してもよい。 In the target image detection device according to the present invention, the determining unit changes the use frequency of the detection condition according to the number of times of detection by the detection condition so far, and the plurality of detections based on the changed use frequency. Of the conditions, a detection condition different from the previous detection condition may be determined.
本発明に係る対象画像検出デバイスでは、前記決定手段は、前記対象画像を検出するための複数の検出条件の組み合わせに応じて、前記複数の検出条件のうち、前回の検出条件とは異なる検出条件に決定してもよい。 In the target image detection device according to the present invention, the determination unit may detect a detection condition different from the previous detection condition among the plurality of detection conditions according to a combination of the plurality of detection conditions for detecting the target image. You may decide to.
本発明に係る対象画像検出デバイスでは、前記決定手段は、所定の規則性に基づいて前記対象画像を検出するための複数の検出条件の順番を変更することによって、前記複数の検出条件のうち、前回の検出条件とは異なる検出条件に決定してもよい。 In the target image detection device according to the present invention, the determination unit changes the order of the plurality of detection conditions for detecting the target image based on a predetermined regularity, and thereby among the plurality of detection conditions, The detection condition may be determined differently from the previous detection condition.
本発明に係る対象画像検出デバイスは、或る検出条件と前記検出手段が該検出条件で前記対象画像を検出したか否かを示す検出結果との対応付けの履歴を記憶する結果履歴記憶部をさらに備えてもよい。 The target image detection device according to the present invention includes a result history storage unit that stores a history of correspondence between a detection condition and a detection result indicating whether the detection unit has detected the target image under the detection condition. Further, it may be provided.
本発明に係る対象画像検出デバイスでは、前記決定手段は、前記対象画像を検出するための複数の検出条件の中から、検出条件を逐次決定してもよい。 In the target image detection device according to the present invention, the determination unit may sequentially determine a detection condition from a plurality of detection conditions for detecting the target image.
本発明に係る対象画像検出デバイスでは、前記取得手段は、動画像に含まれる一連の静止画像を前記元画像として取得してもよい。 In the target image detection device according to the present invention, the acquisition unit may acquire a series of still images included in a moving image as the original image.
本発明に係る電子機器は、上記対象画像検出デバイスを備えてもよい。 The electronic apparatus according to the present invention may include the target image detection device.
本発明に係る電子機器は、情報を表示する表示部と、前記対象画像検出デバイスが検出した検出結果を示す画像を、前記元画像に合成して前記表示部に表示させる画像合成手段とをさらに備えてもよい。 The electronic apparatus according to the present invention further includes: a display unit that displays information; and an image combining unit that combines the original image with an image indicating the detection result detected by the target image detection device and displays the image on the display unit. You may prepare.
なお、上記対象画像検出デバイスにおける各手段を、制御プログラムによりコンピュータ上で実行させることができる。さらに、上記制御プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記制御プログラムを実行させることができる。 Each unit in the target image detection device can be executed on a computer by a control program. Furthermore, the control program can be executed on any computer by storing the control program in a computer-readable recording medium.
以上のように、本発明に係る対象画像検出デバイスは、元画像を取得すると、対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる検出条件で、取得された元画像に対して対象画像を検出して、検出結果を出力するので、従来技術に比べて、対象画像の一部の検出結果ではあるが、該検出結果を短時間で出力でき、その結果、出力された検出結果を他のデバイスが迅速に利用できるという効果を奏する。 As described above, when the target image detection device according to the present invention acquires the original image, the source image acquired under a detection condition different from the previous detection condition among the plurality of detection conditions for detecting the target image. Since the target image is detected from the image and the detection result is output, the detection result can be output in a short time compared to the conventional technique, but the detection result can be output in a short time. There is an effect that other devices can quickly use the detected result.
〔実施の形態1〕
本発明の一実施形態について図1〜図4を参照して説明する。図1は、本実施形態であるデジタルカメラの概略構成を示している。図示のように、デジタルカメラ(電子機器)10は、撮影部11で撮影され、画像処理部12にて画像処理された撮影画像(元画像)が、ライブビュー画像として表示部13に表示される。また、デジタルカメラ10は、ユーザが操作部14のシャッターボタン(図示せず)を押すと、画像処理部12にて画像処理された撮影画像が、画像圧縮部15にて画像圧縮された後、画像記録部16に記憶される。
[Embodiment 1]
An embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a schematic configuration of a digital camera according to the present embodiment. As shown in the figure, a digital camera (electronic device) 10 is photographed by a photographing
本実施形態のデジタルカメラ10は、まず、画像処理部12にて画像処理された撮影画像を取得し、顔画像(対象画像)を検出するための複数の検出条件のうち、前回の検出条件とは別の検出条件に変更する。次に、取得された撮影画像に対し、変更された検出条件で顔画像を検出する。そして、検出された顔画像の領域を囲む枠画像(対象画像を特定可能な情報)を生成し、生成された枠画像を、画像合成部(画像合成手段)17にて上記撮影画像と合成して、ライブビュー画像として表示部13に表示される。
The
これにより、従来技術に比べて、顔画像の一部の検出結果ではあるが、該検出結果が短時間で出力される。その結果、出力された検出結果を利用して、枠画像を迅速に表示することができる。また、続く撮影画像に対し、さらに別の検出条件で顔画像を検出し、別の検出結果が短時間で出力される。従って、撮影画像が動画像である場合、枠画像の数が徐々に増えていくので、枠画像の表示の様子が、従来技術に比べて滑らかとなる。 As a result, the detection result is output in a short time, although it is a detection result of a part of the face image as compared with the conventional technique. As a result, the frame image can be quickly displayed using the output detection result. In addition, a face image is detected under still another detection condition for the subsequent photographed image, and another detection result is output in a short time. Therefore, when the captured image is a moving image, the number of frame images gradually increases, so that the display state of the frame images becomes smoother than in the conventional technique.
次に、本実施形態のデジタルカメラ10の詳細について説明する。上述のように、デジタルカメラ10は、撮影部11、画像処理部12、表示部13、操作部14、画像圧縮部15、画像記録部16、および画像合成部17を備えている。さらに、図1に示すように、デジタルカメラ10は、制御部(対象画像検出デバイス)20および記憶部21を備えている。
Next, details of the
撮影部11は、被写体の撮影を行うものであり、例えばレンズ群、絞り、撮像素子などの光学系と、アンプ、A/Dコンバータなどの回路系とを備えている。撮像素子の例としては、CCD、CMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどが挙げられる。撮影部11は、上記撮影により撮影画像を生成し、撮影画像のデータに変換して画像処理部12に送信する。
The photographing
画像処理部12は、撮影部11からの撮影画像のデータに対し、マトリックス演算、γ補正、ホワイトバランスの調整などの画像処理を行うものである。また、画像処理部12は、画像処理された撮影画像のデータから、表示用、記録用、および顔検出用の撮影画像のデータを作成し、それぞれ、表示部13、画像圧縮部15、および制御部20に送信する。なお、表示用および顔検出用の撮影画像のデータは同じであってもよい。
The
画像合成部17は、画像処理部12からの撮影画像に対し、制御部20からの指示に基づく画像を合成するものである。画像合成部17は、合成した画像である合成画像のデータを表示部13に送信する。
The
本実施形態では、画像合成部17は、制御部20が検出した顔画像の位置情報を受信し、受信した位置情報に基づいて、上記顔画像を適当に囲む矩形画像、円形画像などの枠画像を生成する。また、画像合成部17は、制御部20が追跡した顔画像の位置情報を受信し、受信した位置情報に基づいて、上記顔画像を適当に囲む枠画像を生成する。そして、画像合成部17は、生成した枠画像を画像処理部12からの撮影画像に合成する。合成された合成画像は、そのデータが表示部13に送信されて、表示部13に表示される。
In the present embodiment, the
なお、制御部20が検出した顔画像に関する枠画像と、制御部20が追跡した顔画像に関する枠画像とは、同じでもよいし、異なっていてもよい。また、枠画像は、その内側に顔画像を含むことを示し得る図形であればよく、例えば、矩形の頂点付近のみを表示するような画像であってもよい。
The frame image related to the face image detected by the
表示部13は、LCD(液晶表示素子)、CRT(陰極線管)、プラズマディスプレイなどの表示デバイスによって構成されている。表示部13は、画像合成部17からの合成画像のデータに基づいて、文字や画像などの各種の情報を表示出力する。
The
操作部14は、ユーザの操作によりユーザから各種の入力を受け付けるものであり、入力用ボタン、タッチパネル、その他の入力デバイスによって構成されている。操作部14は、ユーザが操作した情報を操作データに変換して制御部20に送信する。なお、入力デバイスの他の例としては、キーボードと、テンキーと、マウスなどのポインティングデバイスとが挙げられる。
The
画像圧縮部15は、画像処理部12からの撮影画像のデータを、JPEG、MPEGなどの方式に従って圧縮するものである。画像圧縮部15は、圧縮した撮影画像のデータを画像記録部16に記録する。
The
画像記録部16は、情報を記録するものであり、特に画像圧縮部15が圧縮した撮影画像のデータを記録するものである。画像記録部16は、フラッシュメモリ、ハードディスクなどの不揮発性の記憶装置によって構成される。
The
制御部20は、デジタルカメラ10内における各種構成の動作を統括的に制御する。制御部20は、例えばCPU(Central Processing Unit)およびメモリを含むコンピュータによって構成される。そして、各種構成の動作制御は、制御プログラムをコンピュータに実行させることによって行われる。このプログラムは、例えばフラッシュメモリなどのリムーバブルメディアに記録されているものを読み込んで使用する形態であってもよいし、ハードディスクなどにインストールされたものを読み込んで使用する形態であってもよい。また、上記プログラムをダウンロードしてハードディスクなどにインストールして実行する形態なども考えられる。なお、制御部20の詳細については後述する。
The
記憶部21は、フラッシュメモリ、ROM(Read Only Memory)などの不揮発性の記憶装置と、RAM(Random Access Memory)などの揮発性の記憶装置とによって構成されるものである。不揮発性の記憶装置に記憶される内容としては、上記した制御プログラム、OS(operating system)プログラム、その他の各種プログラム、画像処理部12における動作設定値、入力された文字データなどが挙げられる。画像処理部12における動作設定値としては、装置出荷時やメンテナンス時などに設定されるホワイトバランスの値、撮影画像の明暗などを調整する際の画像処理に関する各種パラメータ値などが挙げられる。一方、揮発性の記憶装置に記憶される内容としては、作業用ファイル、テンポラリファイルなどが挙げられる。なお、記憶部21の詳細については後述する。
The
本実施形態では、制御部20は、時系列順の複数の撮影画像からなる動画像に関して、上記撮影画像から顔画像を検出する顔検出機能と、検出された顔画像を、続く撮影画像から検出することにより、上記顔画像を追跡する顔追跡機能とを有している。なお、顔画像の検出には、テンプレートマッチングを利用したり、肌色領域を検出したり、顔の輪郭を検出したり、顔の特徴点を検出したりするなど、公知の顔検出技術を利用することができる。
In the present embodiment, the
図1には、制御部20および記憶部21において、顔検出機能および顔追跡機能に関連する構成が示されている。図示のように、制御部20は、画像取得部(取得手段)22、条件決定部(決定手段)23、顔検出部(検出手段)24、顔追跡部(追跡手段)25、および位置情報出力部(出力手段)26を備える構成である。また、記憶部21は、条件記憶部27および結果履歴記憶部28を備える構成である。
FIG. 1 shows a configuration related to the face detection function and the face tracking function in the
条件記憶部27は、上記顔画像を検出するための複数の検出条件(以下「顔検出の検出条件」と称する。)を予め記憶している。図2は、上記顔検出の検出条件の例を示している。なお、図示の矢印は、テンプレートのスキャン方向を示している。同図の(a)は、上記テンプレートマッチングで利用されるテンプレートであって、サイズが異なる複数のテンプレートを示している。また、同図の(b)は、上記テンプレートに対し画像内の回転(RIP(Rotation In Plane))を行った複数のテンプレートを示している。また、同図の(c)は、上記テンプレートに対し観測方向の変化(ROP(Rotation Off Plane))した複数のテンプレートを示している。
The
また、図2の(d)は、顔検出の対象となる撮影画像において、上記テンプレートで検索を行う複数の検索範囲を示している。また、同図の(e)は、特徴量の異なる複数のテンプレートを示している。その他の検出条件としては、顔検出を良好に行うための複数の画像フィルタ、テンプレートとの類似度を算出する複数の類似度算出方法などが挙げられる。 FIG. 2D shows a plurality of search ranges in which a search is performed using the template in a captured image that is a face detection target. Further, (e) in the figure shows a plurality of templates having different feature amounts. Other detection conditions include a plurality of image filters for favorably performing face detection, a plurality of similarity calculation methods for calculating a similarity with a template, and the like.
ところで、人は、1または数フレームといったごく短時間にさほど移動しないと考えられる。このことから、或る撮影画像で検出された顔画像は、続く撮影画像においても、前回検出された顔画像の位置付近に、前回の検出条件と同じまたは類似する検出条件で検出されることが予想される。従って、上記顔画像を追跡するための追跡条件は、上記顔画像を検出するための検出条件に含まれることになる。 By the way, it is considered that a person does not move so much in a very short time such as one or several frames. Therefore, a face image detected in a certain captured image can be detected in the subsequent captured image in the vicinity of the position of the previously detected face image under the same or similar detection condition as the previous detection condition. is expected. Accordingly, the tracking condition for tracking the face image is included in the detection condition for detecting the face image.
結果履歴記憶部28は、上記顔検出の検出結果および検出条件と、上記顔追跡の追跡結果および検出条件とを結果履歴として蓄積している。上記検出結果および上記追跡結果としては、検出された顔画像の検出日時、サイズ、位置情報などが挙げられる。
The result
画像取得部22は、画像処理部12から撮影画像のデータを取得するものである。画像取得部22は、上記撮影画像のデータを取得すると、その旨を条件決定部23に通知すると共に、取得した上記撮影画像のデータを顔検出部24および顔追跡部25に送出する。
The
条件決定部23は、画像取得部22からの通知を受け取ると、結果履歴記憶部28の検出条件を参照し、条件記憶部27における複数の検出条件の中から、前回の検出条件とは異なる検出条件を決定するものである。本実施形態では、条件決定部23は、撮影画像から全ての顔画像を検出するために必要とされる複数の検出条件を逐次決定している。条件決定部23は、決定した検出条件を顔検出部24に送出する。
When the
また、条件決定部23は、画像取得部22からの通知を受け取ると、結果履歴記憶部28における顔画像の検出履歴および追跡履歴に基づき、上記追跡条件を決定する。条件決定部23は、決定した追跡条件を顔追跡部25に送出する。なお、条件決定部23は、上記追跡条件を決定するときに、条件記憶部27における複数の検出条件を利用してもよい。
In addition, when receiving the notification from the
顔検出部24は、画像取得部22から撮影画像のデータを受け取ると、条件決定部23からの検出条件に基づいて、当該撮影画像から顔画像を検出する。顔検出部24は、検出結果を位置情報出力部26に送出すると共に、上記検出結果および上記検出条件を結果履歴記憶部28に蓄積する。なお、顔検出部24が行う顔検出の具体的な処理は、従来と同様であるので、その説明を省略する。
When the
顔追跡部25は、画像取得部22から撮影画像のデータを受け取ると、条件決定部23からの追跡条件に基づいて、当該撮影画像から顔画像を追跡する。具体的には、顔追跡部25は、条件決定部23からの上記顔追跡に適した検出条件に基づいて、前回検出した顔画像を当該撮影画像から検出する。顔追跡部25は、追跡結果を位置情報出力部26に送出すると共に、上記追跡結果および上記追跡条件を結果履歴記憶部28に蓄積する。なお、顔追跡部25が行う顔追跡の具体的な処理は、従来と同様であるので、その説明を省略する。
Upon receiving the captured image data from the
位置情報出力部26は、顔検出部24からの検出結果に基づいて、検出された顔画像の位置情報を画像合成部17に出力するものである。また、位置情報出力部26は、顔追跡部25からの追跡結果に基づいて、追跡された顔画像の位置情報を画像合成部17に出力するものである。
The position
なお、位置情報出力部26が出力する顔画像の位置情報としては、撮影画像における顔画像の領域を特定できる情報であれば任意の情報を利用できる。上記顔画像の位置情報の例としては、上記顔画像の領域における中心座標および幅の組合せや、上記顔画像の領域の境界を示す矩形の4頂点の座標の組合せなどが挙げられる。
As the position information of the face image output by the position
図3は、上記構成のデジタルカメラ10における顔検出処理および顔追跡処理の処理動作を示している。図示のように、撮影部11にて撮影された動画像における一撮影画像を画像取得部22が取得すると、条件決定部23は、結果履歴記憶部28における結果履歴である顔画像の検出履歴および追跡履歴を参照し、検出された顔画像(検出済対象)が存在するか否かを判断する(ステップS10。以下、単に「S10」と記載することがある。他のステップについても同様である。)。存在しない場合、ステップS15に進む。
FIG. 3 shows processing operations of face detection processing and face tracking processing in the
検出済対象が存在する場合、条件決定部23は、上記結果履歴から上記追跡条件を決定し(S11)、決定された追跡条件で、顔追跡部25は、検出された顔画像を追跡する(S12)。次に、顔追跡部25は、追跡結果および追跡条件を結果履歴記憶部28に記憶する一方、位置情報出力部26は、上記追跡結果に基づく顔画像の位置情報を画像合成部17に出力する(S13)。これにより、画像合成部17は、顔追跡部25が追跡した顔画像に関する枠画像を生成し、生成した枠画像と撮影画像とを合成して、表示部13を介して表示出力する。
When the detected target exists, the
次に、条件決定部23は、上記検出済対象を全て処理したか否かを判断する(S14)。全て処理していない場合、ステップS11に戻って上記処理動作を繰り返す。一方、全て処理している場合、ステップS15に進む。
Next, the
ステップS15において、条件決定部23は、結果履歴記憶部28における検出条件を参照して、検出条件を前回の検出条件から変更する。次に、変更された検出条件で、顔検出部24は、顔画像を検出する(S16)。そして、顔検出部24は、検出結果および検出条件を結果履歴記憶部28に記憶する一方、位置情報出力部26は、上記検出結果に基づく顔画像の位置情報を画像合成部17に出力する(S17)。これにより、画像合成部17は、顔検出部24が検出した顔画像に関する枠画像を生成し、生成した枠画像と撮影画像とを合成して、表示部13を介して表示出力する。その後、処理動作を終了する。
In step S15, the
図4は、上記合成画像の例を示している。同図の(a)は、本実施形態のデジタルカメラ10において表示される合成画像の例を時系列的に示している。また、同図の(b)は、比較例であり、従来のデジタルカメラにおいて表示される合成画像の例を時系列的に示している。なお、図示の例では、全ての顔検出を行うための検出条件の数は5つとしている。
FIG. 4 shows an example of the composite image. (A) of the figure has shown the example of the synthesized image displayed in the
本実施形態では、図4の(a)に示すように、1番目の撮影画像a1に対し、第1の検出条件で顔検出が行われて、検出された顔画像を囲む矩形の枠画像b1が2番目の撮影画像a2に合成されて表示される。次に、2番目の撮影画像a2に対し、第1の検出条件とは異なる第2の検出条件で顔検出が行われて、検出された顔画像を囲む矩形の枠画像b2が3番目の撮影画像a3に合成されて表示される。また、2番目の撮影画像a2に対し、枠画像b1で囲まれた顔画像に適した追跡条件で顔追跡が行われて、追跡された顔画像を囲む矩形の枠画像c1が3番目の撮影画像a3に合成されて表示される。 In the present embodiment, as shown in FIG. 4A, face detection is performed on the first captured image a1 under the first detection condition, and a rectangular frame image b1 surrounding the detected face image. Is combined with the second photographed image a2 and displayed. Next, face detection is performed on the second captured image a2 under a second detection condition that is different from the first detection condition, and a rectangular frame image b2 surrounding the detected face image is captured at the third position. It is synthesized and displayed on the image a3. Further, face tracking is performed on the second captured image a2 under tracking conditions suitable for the face image surrounded by the frame image b1, and a rectangular frame image c1 surrounding the tracked face image is captured third. It is synthesized and displayed on the image a3.
次に、3番目の撮影画像a3に対し、第1・第2の検出条件とは異なる第3の検出条件で顔検出が行われて、検出された顔画像を囲む矩形の枠画像b3が4番目の撮影画像a4に合成されて表示される。また、3番目の撮影画像a3に対し、枠画像c1・b2で囲まれた2つの顔画像のそれぞれに適した追跡条件で顔追跡が行われて、追跡された顔画像を囲む矩形の枠画像c1・c2が4番目の撮影画像a4に合成されて表示される。 Next, face detection is performed on the third captured image a3 under a third detection condition different from the first and second detection conditions, and four rectangular frame images b3 surrounding the detected face image are obtained. The second captured image a4 is combined and displayed. Further, face tracking is performed on the third photographed image a3 under tracking conditions suitable for each of the two face images surrounded by the frame images c1 and b2, and a rectangular frame image surrounding the tracked face image. c1 and c2 are combined with the fourth captured image a4 and displayed.
次に、4番目の撮影画像a4に対し、第1〜第3の検出条件とは異なる第4の検出条件で顔検出が行われて、検出された顔画像を囲む矩形の枠画像b4が5番目の撮影画像a5に合成されて表示される。また、4番目の撮影画像a4に対し、枠画像c1・c2・b3で囲まれた3つの顔画像のそれぞれに適した追跡条件で顔追跡が行われて、追跡された顔画像を囲む矩形の枠画像c1〜c3が5番目の撮影画像a5に合成されて表示される。 Next, face detection is performed on the fourth captured image a4 under a fourth detection condition different from the first to third detection conditions, and a rectangular frame image b4 surrounding the detected face image is 5 The second captured image a5 is combined and displayed. Also, face tracking is performed on the fourth captured image a4 under tracking conditions suitable for each of the three face images surrounded by the frame images c1, c2, and b3, and a rectangular shape surrounding the tracked face image is obtained. The frame images c1 to c3 are combined with the fifth captured image a5 and displayed.
以下、これを繰り返すことにより、6番目の撮影画像a6と、5番目の撮影画像a5にて検出された顔画像を囲む矩形の枠画像b5と、5番目の撮影画像a5にて追跡された顔画像を囲む矩形の枠画像c1〜c4とが合成されて表示されることになる。すなわち、6番目の合成画像に、全ての検出条件で顔検出が行われた結果の枠画像c1〜c4・b5が表示されることになる。 Hereinafter, by repeating this, a rectangular frame image b5 surrounding the face image detected in the sixth captured image a6, the fifth captured image a5, and the face tracked in the fifth captured image a5 The rectangular frame images c1 to c4 surrounding the image are combined and displayed. In other words, frame images c1 to c4 and b5 obtained as a result of face detection under all detection conditions are displayed in the sixth composite image.
一方、従来は、図4の(b)に示すように、1番目の撮影画像a1に対し、第1〜第5の検出条件で順番に顔検出が行われ、該顔検出の終了後に、検出された全ての顔画像を囲む矩形の枠画像d1〜d5が撮影画像と合成されて表示される。このため、上記枠画像d1〜d5が表示されるまでに時間がかかることになる。図示の例では、1番目の撮影画像a1に対する顔検出による枠画像d1〜d5が、6番目の撮影画像a6と合成されて表示されることになる。 On the other hand, conventionally, as shown in FIG. 4B, face detection is sequentially performed on the first captured image a1 under the first to fifth detection conditions, and the detection is performed after the face detection is completed. The rectangular frame images d1 to d5 surrounding all the face images are combined with the captured image and displayed. For this reason, it takes time until the frame images d1 to d5 are displayed. In the illustrated example, frame images d1 to d5 obtained by face detection for the first captured image a1 are combined with the sixth captured image a6 and displayed.
なお、図4では、撮影画像における各被写体の位置は、撮影画像a1〜a6間で同じとしているが、実際には被写体は動くので、撮影画像a1〜a6間で異なることが多く、時間の経過と共に、ずれが大きくなることが多い。 In FIG. 4, the position of each subject in the captured image is the same between the captured images a1 to a6. However, since the subject actually moves, it is often different between the captured images a1 to a6. At the same time, the deviation often increases.
図4の(a)および(b)を比較すると、本実施形態の方が、従来よりも、顔検出および顔追跡の結果を示す枠画像が、一部とはいえ迅速に表示開始されるので、顔画像の検出をユーザが待機する時間を短縮できることが理解できる。また、枠画像の数が徐々に増えていくので、枠画像の表示の様子が、従来技術に比べて滑らかとなる。また、顔検出および顔追跡の残りの結果を示す枠画像が逐次表示されるので、ユーザに新たな娯楽を提供できることが理解できる。 Comparing (a) and (b) of FIG. 4, the frame image showing the results of face detection and face tracking is started more quickly than the conventional case, although it is a part. It can be understood that the time for the user to wait for the detection of the face image can be shortened. In addition, since the number of frame images gradually increases, the display state of the frame images becomes smoother than in the conventional technique. Further, since frame images indicating the remaining results of face detection and face tracking are sequentially displayed, it can be understood that new entertainment can be provided to the user.
また、本実施形態では、図4の(a)に示すように、第2の検出条件での顔検出が、2番目の撮影画像a2に対し行われて、検出結果を示す枠画像b2が次(3番目)の撮影画像a3と合成される。一方、従来技術では、図4の(b)に示すように、第2の検出条件での顔検出が、1番目の撮影画像a1に対し行われて、検出結果を示す枠画像d2が6番目の撮影画像a6と合成される。 In the present embodiment, as shown in FIG. 4A, face detection under the second detection condition is performed on the second captured image a2, and the frame image b2 indicating the detection result is the next. It is combined with the (third) captured image a3. On the other hand, in the prior art, as shown in FIG. 4B, face detection under the second detection condition is performed on the first captured image a1, and the frame image d2 indicating the detection result is the sixth. Is combined with the captured image a6.
従って、本実施形態の方が、従来よりも、顔検出の対象となる撮影画像の撮影時刻と、検出結果を示す枠画像が合成される撮影画像の撮影時刻との期間が短いので、枠画像と、該枠画像が合成される撮影画像における顔画像とのずれが小さくなることが理解できる。 Therefore, in the present embodiment, the period between the shooting time of the shot image that is the target of face detection and the shooting time of the shot image in which the frame image indicating the detection result is combined is shorter than in the conventional case. It can be understood that the deviation from the face image in the photographed image synthesized with the frame image becomes small.
また、本実施形態では、図4の(a)に示すように、6番目の撮影画像a6と合成される枠画像のうち、枠画像c1〜c4は、5番目までの撮影画像に対し、一度検出された後に追跡され続けた顔画像に関するものであり、枠画像b5は、5番目までの撮影画像に対し検出された顔画像に関するものである。すなわち、本実施形態では、6番目の撮影画像a6と合成される枠画像は、直前(5番目)の撮影画像a5における顔画像に関するものである。一方、従来技術では、図4の(b)に示すように、6番目の撮影画像a6と合成される枠画像d1〜d5の全ては、1番目の撮影画像a1に対し検出された顔画像に関するものである。 Further, in the present embodiment, as shown in FIG. 4A, among the frame images combined with the sixth photographed image a6, the frame images c1 to c4 are once for the fifth photographed image. The frame image b5 relates to the face image detected with respect to the fifth photographed image. That is, in the present embodiment, the frame image combined with the sixth captured image a6 relates to the face image in the immediately preceding (fifth) captured image a5. On the other hand, in the prior art, as shown in FIG. 4B, all of the frame images d1 to d5 combined with the sixth captured image a6 relate to the face image detected with respect to the first captured image a1. Is.
従って、本実施形態の方が、従来よりも、枠画像を生成する元になった撮影画像の撮影時刻と、当該枠画像が合成される撮影画像の撮影時刻との期間が短いので、枠画像と、該枠画像が合成される撮影画像における顔画像とのずれがさらに小さくなることが理解できる。 Therefore, the frame image has a shorter period between the shooting time of the shot image from which the frame image is generated and the shooting time of the shot image in which the frame image is combined than in the conventional case. It can be understood that the deviation from the face image in the captured image in which the frame image is synthesized is further reduced.
〔実施の形態2〕
次に、本発明の他の実施形態について図5〜図7を参照して説明する。図5は、本実施形態であるデジタルカメラの概略構成を示している。図示のデジタルカメラ10は、図1に示すデジタルカメラ10に比べて、条件決定部30の機能が異なる点と、顔検出部24および顔追跡部25から位置情報出力部26までの間に、結果補正部(補正手段)31が追加されている点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成および処理動作と同様の構成および処理動作には、同一の符号を付して、その説明を省略する。
[Embodiment 2]
Next, another embodiment of the present invention will be described with reference to FIGS. FIG. 5 shows a schematic configuration of the digital camera according to the present embodiment. The
図1に示す条件決定部23は、全ての顔画像を検出するために必要とされる複数の検出条件を逐次決定していた。この場合、動画像に含まれる複数の撮影画像を取得することにより、上記複数の検出条件の全てについて、上記従来技術と同様に、顔画像の全検出結果を出力することができる。
The
これに対し、本実施形態の条件決定部30は、結果履歴記憶部28の検出結果の履歴に基づいて、検出条件を動的に変更して決定している。なお、動的に変更する条件の情報は、条件記憶部27に記憶される。
On the other hand, the
例えば、図2の(c)における左側の画像に示されるような、横向きの顔画像のテンプレートによる顔検出が所定期間に無い場合、該テンプレートを利用する検出条件での検出頻度を減らすことが挙げられる。これは、上記の場合では、被写体の顔がデジタルカメラ10の方向を向いていると考えられるからである。
For example, when face detection using a sideways face image template is not performed in a predetermined period as shown in the left image of FIG. 2C, the detection frequency under the detection condition using the template may be reduced. It is done. This is because in the above case, it is considered that the face of the subject is facing the direction of the
また、今まで顔画像が検出されていた撮影画像の領域から急に顔画像が検出されなくなった場合、当該顔画像の検出条件での検出頻度を増やすことが挙げられる。これは、上記の場合では、被写体がデジタルカメラ10からフレームアウトしたか、或いは、被写体が振り返ったため、被写体の顔がデジタルカメラ10と反対の方向を向いていると考えられ、再び当該顔画像が検出される可能性が高いからである。
In addition, when a face image is suddenly no longer detected from the region of the captured image from which the face image has been detected, the detection frequency under the detection condition of the face image can be increased. In the above case, it is considered that the subject is out of the frame from the
このように、上記検出結果の履歴に基づいて、検出条件を動的に変更することにより、顔検出の効率を向上することができる。 Thus, the efficiency of face detection can be improved by dynamically changing the detection condition based on the history of detection results.
以下に、上記検出結果の履歴に基づいて、検出条件を動的に変更する手法をまとめて記載する。第1の手法は、或る検出条件によるこれまでの検出回数に応じて、当該検出条件の利用頻度を変更することである。例えば、撮影画像の或る領域での検出回数が多い場合、当該領域を検出条件として利用する頻度を増加することが挙げられる。また、顔の或る向きの検出回数が少ない場合、当該向きのテンプレートを検出条件として利用する頻度を減少することが挙げられる。 Below, methods for dynamically changing the detection conditions based on the history of the detection results are collectively described. The first method is to change the use frequency of the detection condition according to the number of times of detection by the detection condition so far. For example, when the number of times of detection in a certain area of a captured image is large, the frequency of using the area as a detection condition can be increased. In addition, when the number of detections of a face orientation is small, the frequency of using the orientation template as a detection condition may be reduced.
第2の手法は、検出条件の組合せに応じて、検出条件の利用頻度および/または組合せを変更することである。例えば、撮影画像における右下の領域と左上の領域とに同時に顔画像を検出する回数が少ない場合、一方の領域で顔画像を検出すると、他方の領域を検出条件として利用する頻度を減少することが挙げられる。また、第1の方向の顔画像と、第1の方向から画像内で180°回転した第2の方向の顔画像とを同時に検出する可能性が低い場合、第1の方向の顔画像を検出すると、第2の方向を検出条件として利用する頻度を減少することが挙げられる。 The second method is to change the use frequency and / or combination of detection conditions in accordance with the combination of detection conditions. For example, if the number of times that a face image is detected simultaneously in the lower right area and the upper left area in the captured image is small, detecting the face image in one area reduces the frequency of using the other area as a detection condition. Is mentioned. In addition, when the possibility of simultaneously detecting the face image in the first direction and the face image in the second direction rotated 180 ° within the image from the first direction is low, the face image in the first direction is detected. Then, the frequency of using the second direction as a detection condition can be reduced.
また、例えば、撮影画像の中央領域で30ピクセルの顔画像が多く、周縁領域で20ピクセルの顔画像が多い場合のように、撮影画像における領域に応じて、検出される顔画像のサイズに傾向が存在する場合、顔画像のサイズを検出条件として利用する頻度を、領域に応じて変更することが挙げられる。 In addition, for example, when there are many face images of 30 pixels in the center area of the photographed image and many face images of 20 pixels in the peripheral area, the size of the detected face image tends to vary depending on the area in the photographed image. Is present, the frequency of using the size of the face image as a detection condition may be changed according to the region.
第3の手法は、検出条件の順番に規則性が存在する場合、当該規則性に基づいて検出条件の順番を変更することである。例えば、一度検出した顔画像のサイズが時間と共に小さくなる傾向がある場合、顔画像のサイズを大きい方から小さい方に順番に検出条件として利用することが挙げられる。また、一度検出した顔画像を見失うと、しばらくの間に同じ検出条件で再度現れることが予想される場合、しばらくの間上記検出条件を利用する頻度を増加することが挙げられる。 The third method is to change the order of detection conditions based on the regularity when regularity exists in the order of detection conditions. For example, when the size of the face image once detected tends to decrease with time, the face image size may be used as a detection condition in order from the largest to the smallest. In addition, if it is predicted that the face image once detected is lost again in a while, it is possible to increase the frequency of using the detection condition for a while.
結果補正部31は、顔検出部24からの検出結果に基づいて、顔追跡部25からの追跡結果を補正するものである。結果補正部31は、補正した検出結果および追跡結果を位置情報出力部26に送出する。
The
従来は、撮影画像から全ての顔画像を検出するために必要とされる複数の検出条件のそれぞれについて順番に顔画像を検出し、これらの複数の検出結果に基づき、検出結果を補正して、補正された検出結果を出力していた。例えば、撮影画像の或る領域に対し、サイズが20画素である顔画像と、サイズが30画素である顔画像との両方が検出された場合、平均値である25画素をサイズとする顔画像に補正することが挙げられる。 Conventionally, a face image is detected in order for each of a plurality of detection conditions required to detect all face images from a captured image, and the detection result is corrected based on the plurality of detection results, The corrected detection result was output. For example, when both a face image having a size of 20 pixels and a face image having a size of 30 pixels are detected for a certain area of the photographed image, the face image having an average value of 25 pixels as a size. It is mentioned to correct to.
これに対し、本実施形態では、撮影画像を取得すると、上記複数の検出条件の一部を決定し、決定された検出条件で顔画像を検出し、検出結果を出力している。このため、上記複数の検出条件の全てによる検出結果に基づいて、検出結果を補正する従来の場合に比べて、検出結果の精度が低下することになる。 In contrast, in the present embodiment, when a captured image is acquired, some of the plurality of detection conditions are determined, a face image is detected under the determined detection conditions, and a detection result is output. For this reason, the accuracy of the detection result is reduced as compared with the conventional case in which the detection result is corrected based on the detection result of all of the plurality of detection conditions.
そこで、本実施形態では、結果補正部31は、上述のように、顔追跡部25からの追跡結果を、顔検出部24からの検出結果に基づいて補正している。なお、結果補正部31は、さらに結果履歴記憶部28の結果履歴に基づいて顔追跡部25からの追跡結果を補正してもよい。
Therefore, in the present embodiment, the
図7は、追跡結果の補正の一例を説明するためのものである。同図の(a)は、或る時点での合成画像を示している。図示のように、該合成画像は、或る時点での撮影画像e1と、該時点の直前の撮影画像(図示せず)に対し、顔検出により検出された30ピクセルの顔画像に対応する枠画像f1とを含んでいる。同図の(a)に示す撮影画像e1に対し、20ピクセルのテンプレートを用いて顔検出部24が顔検出を行ったところ、同図の(b)に破線で示すように、20ピクセルの顔画像g1・g2が2つ検出されたとする。このとき、枠画像f1で囲まれた30ピクセルの顔画像と、20ピクセルの顔画像g1とは、撮影画像における同じ様な領域で検出されるので、同一の顔であると考えられる。
FIG. 7 illustrates an example of tracking result correction. (A) of the figure shows a composite image at a certain time point. As shown in the figure, the composite image is a frame corresponding to a 30-pixel face image detected by face detection with respect to a photographed image e1 at a certain time point and a photographed image (not shown) immediately before that time point. Image f1. When the
そこで、図7の(a)に示す撮影画像e1に対し、枠画像f1で囲まれた顔画像に適した追跡条件で追跡された30ピクセルの顔画像(図示せず)を、結果補正部31が、30ピクセルと20ピクセルの平均である25ピクセルの顔画像に補正し、補正結果を位置情報出力部26に送出する。なお、上記領域とは別の領域で初めて検出された顔画像g2は、補正されることなく位置情報出力部26に送出される。
Therefore, a 30-pixel face image (not shown) tracked under a tracking condition suitable for the face image surrounded by the frame image f1 with respect to the photographed image e1 shown in FIG. Is corrected to a face image of 25 pixels, which is the average of 30 pixels and 20 pixels, and the correction result is sent to the position
このとき、表示部13に表示される合成画像を図7の(c)に示す。図示のように、該構成画像は、次の撮影画像e2と、撮影画像e1に対し、顔検出により検出された20ピクセルの顔画像に対応する枠画像f2と、顔追跡により追跡されかつ補正された25ピクセルの顔画像に対応する枠画像h1とを含んでいる。同図の(a)および(c)を比較すると、補正後の枠画像h1は、補正前の枠画像f1に比べて、サイズが実際の顔画像のサイズに近付いていることが理解できる。従って、顔画像の精度を徐々に向上させることができる。
At this time, a composite image displayed on the
以下に、検出結果に基づいて追跡結果を補正する手法をまとめて記載する。第1の手法は、同じ被写体と推測される顔画像を複数の検出条件で検出した場合、検出結果の平均で追跡結果を補正する手法である。例えば、撮影画像のほぼ同じ領域での顔画像の検出回数が所定のフレーム数に達した場合、検出した顔画像のサイズの平均値で、追跡結果における顔画像のサイズを補正したり、検出した顔画像の方向の平均値で、追跡結果における顔画像の方向を補正したりすることが挙げられる。また、同じ被写体と推測される顔画像の移動軌跡が滑らかとなるように、追跡結果における顔画像の追跡位置を補正することが挙げられる。 Below, methods for correcting the tracking result based on the detection result will be described together. The first method is a method of correcting a tracking result with an average of detection results when a face image presumed to be the same subject is detected under a plurality of detection conditions. For example, when the number of detected face images in almost the same area of the captured image reaches a predetermined number of frames, the face image size in the tracking result is corrected or detected with the average value of the detected face image size. For example, the face image direction in the tracking result may be corrected with the average value of the face image direction. In addition, the tracking position of the face image in the tracking result may be corrected so that the movement trajectory of the face image estimated to be the same subject becomes smooth.
また、同じ被写体と推測される顔画像を複数の検出条件で検出した場合、適切な方の検出条件の検出結果を優先して追跡結果を補正する手法である。例えば、画像フィルタの検出条件を変更することで検出数が減った場合、前の検出条件の検出結果の方がより適切であるとして、その検出結果に重きをおいた加重平均を算出し、算出結果に基づいて追跡結果を補正することが挙げられる。 In addition, when face images presumed to be the same subject are detected under a plurality of detection conditions, the tracking result is corrected by giving priority to the detection result of the appropriate detection condition. For example, if the number of detections is reduced by changing the detection condition of the image filter, the detection result of the previous detection condition is assumed to be more appropriate, and a weighted average is calculated with a weight on the detection result. For example, the tracking result may be corrected based on the result.
図6は、上記構成のデジタルカメラ10における顔検出処理および顔追跡処理の処理動作を示している。図示のように、撮影部11にて撮影された動画像における一撮影画像を画像取得部22が取得すると、条件決定部30は、結果履歴記憶部28における結果履歴を参照し、検出済対象が存在するか否かを判断する(S10)。存在しない場合、ステップS21に進む。
FIG. 6 shows processing operations of face detection processing and face tracking processing in the
検出済対象が存在する場合、条件決定部30は、上記結果履歴から上記追跡条件を決定し(S11)、決定された追跡条件で、顔追跡部25は、検出された顔画像を追跡する(S12)。次に、顔追跡部25は、追跡結果および追跡条件を結果履歴記憶部28に記憶する(S20)。
When the detected target exists, the
次に、条件決定部30は、上記検出済対象を全て処理したか否かを判断する(S14)。全て処理していない場合、ステップS11に戻って上記処理動作を繰り返す。一方、全て処理している場合、ステップS21に進む。
Next, the
ステップS21において、条件決定部30は、結果履歴記憶部28における検出条件を参照して、検出条件を前回の検出条件から変更する。このとき、条件決定部30は、さらに、結果履歴記憶部28における検出結果の履歴を考慮して検出条件を変更する。
In step S21, the
次に、変更された検出条件で、顔検出部24は、顔画像を検出する(S16)。そして、顔検出部24は、検出結果および検出条件を結果履歴記憶部28に記憶する(S22)。
Next, the
次に、結果補正部31は、ステップS16による検出結果に基づいて、ステップS12による追跡結果を補正する(S23)。そして、位置情報出力部26は、上記検出結果に基づく顔画像の位置情報と、補正された追跡結果に基づく顔画像の位置情報とを画像合成部17に出力する(S24)。これにより、画像合成部17は、顔検出部24が検出した顔画像に関する枠画像と、顔追跡部25が追跡し、結果補正部31が補正した顔画像に関する枠画像とを生成し、生成した枠画像と撮影画像とを合成して、表示部13を介して表示出力する。その後、処理動作を終了する。
Next, the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
例えば、上記実施形態では、顔検出および顔追跡に関する各構成22〜28・30・31を制御部20に設けているが、画像処理部12に設けることもできる。また、上記実施形態では、検出結果および追跡結果を枠画像として表示出力しているが、検出結果および追跡結果に基づいて、フォーカス調整やピント調整などの撮影部11の制御を行うこともできる。
For example, in the above-described embodiment, the
また、上記実施形態では、撮影画像から人の顔画像を検出して追跡している。しかしながら、アニメーションその他の動画像にも適用可能である。また、人の上半身や全身の画像を検出してもよいし、ボール、車両、運搬される荷物その他の動く物体の画像を検出してもよい。さらには、静止した物体であっても、デジタルカメラ10を動かせば、撮影画像上では移動することになるので、適用可能である。すなわち、本発明は、取得した時系列画像上で移動する物体の画像の検出に適用可能である。
Moreover, in the said embodiment, the person's face image is detected and tracked from the picked-up image. However, it can also be applied to animation and other moving images. In addition, an image of a person's upper body or whole body may be detected, or an image of a moving object such as a ball, a vehicle, a baggage being carried, or the like may be detected. Furthermore, even a stationary object can be applied because it moves on the captured image if the
また、上記実施形態では、本発明をデジタルカメラ10に適用しているが、カメラ付き携帯電話機など、撮影部を有する任意の電子機器に本発明を適用可能である。さらに、動画像を取得して画像処理を行う画像処理デバイスにも適用可能である。このような画像処理デバイスは、デジタルカメラ10だけでなく、プリンタにも適用されることが予想される。
In the above-described embodiment, the present invention is applied to the
最後に、デジタルカメラ10の各ブロック、特に制御部20および画像処理部12は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
Finally, each block of the
すなわち、デジタルカメラ10は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるデジタルカメラ10の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記デジタルカメラ10に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
That is, the
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ系などを用いることができる。 Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM (registered trademark) / flash ROM.
また、デジタルカメラ10を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
Further, the
〔付記事項〕
本発明に係る対象画像検出デバイスは、元画像の中から対象画像を検出する対象画像検出デバイスであって、上記課題を解決するために、前記元画像を取得する取得手段と、前記対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる検出条件に決定する決定手段と、前記取得手段が取得した元画像に対し、前記決定手段が決定した検出条件で、前記対象画像を検出する検出手段と、該検出手段が検出した検出結果を出力する出力手段とを備えることを特徴としている。
[Additional Notes]
A target image detection device according to the present invention is a target image detection device that detects a target image from an original image, and in order to solve the above problem, an acquisition unit that acquires the original image, and the target image Of the plurality of detection conditions for detection, a determination means for determining a detection condition different from the previous detection condition, and the detection condition determined by the determination means for the original image acquired by the acquisition means, the target The image processing apparatus includes a detection unit that detects an image and an output unit that outputs a detection result detected by the detection unit.
また、本発明に係る対象画像検出デバイスの制御方法は、元画像の中から対象画像を検出するものであって、上記課題を解決するために、前記元画像を取得する取得ステップと、前記対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる検出条件に決定する決定ステップと、前記取得ステップにて取得された元画像に対し、前記決定手段が決定した検出条件で、前記対象画像を検出する検出ステップと、該検出ステップにて検出された検出結果を出力する出力ステップとを含むことを特徴としている。 In addition, a control method for a target image detection device according to the present invention detects a target image from an original image, and in order to solve the above problem, an acquisition step of acquiring the original image, and the target Of a plurality of detection conditions for detecting an image, a determination step for determining a detection condition different from the previous detection condition, and a detection condition determined by the determination means for the original image acquired in the acquisition step Thus, the method includes a detection step of detecting the target image and an output step of outputting a detection result detected in the detection step.
ここで、検出される対象の例としては、人の顔、上半身、および全身、ボール、車両など、移動する物体またはその一部が挙げられる。 Here, examples of the target to be detected include a moving object such as a human face, upper body, whole body, ball, and vehicle, or a part thereof.
上記の構成および方法によると、元画像を取得すると、対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる検出条件で、取得された元画像に対して対象画像を検出して、検出結果を出力する。従って、或る元画像に対して、対象画像を検出するための複数の検出条件で対象画像をそれぞれ検出し、全検出結果を一斉に出力する従来技術に比べて、対象画像の一部の検出結果ではあるが、該検出結果を短時間で出力することができる。その結果、出力された検出結果を他のデバイス(例えば表示を制御するデバイス、撮影を制御するデバイスなど)が迅速に利用することができる。 According to the above configuration and method, when the original image is acquired, the target image is acquired with respect to the acquired original image under a detection condition different from the previous detection condition among a plurality of detection conditions for detecting the target image. Detect and output the detection result. Therefore, a part of the target image is detected as compared with the conventional technique in which the target image is detected for each original image under a plurality of detection conditions for detecting the target image, and all detection results are output all at once. Although it is a result, the detection result can be output in a short time. As a result, the output detection result can be quickly used by other devices (for example, a device that controls display, a device that controls imaging, etc.).
本発明に係る対象画像検出デバイスでは、前記検出手段が検出した検出結果の履歴を記憶する結果履歴記憶部をさらに備えており、前記決定手段は、さらに、前記結果履歴記憶部における検出結果の履歴に基づいて、検出条件を決定してもよい。或いは、本発明に係る対象画像検出デバイスでは、前記決定手段は、前記対象画像を検出するための複数の検出条件の中から、検出条件を逐次決定してもよい。 The target image detection device according to the present invention further includes a result history storage unit that stores a history of detection results detected by the detection unit, and the determination unit further includes a history of detection results in the result history storage unit. Based on the above, the detection condition may be determined. Alternatively, in the target image detection device according to the present invention, the determination unit may sequentially determine detection conditions from among a plurality of detection conditions for detecting the target image.
逐次決定する場合、上記複数の検出条件の全てについて、上記従来技術と同様に、対象画像の全検出結果を出力することができる。さらに、元画像が、動画像に含まれる複数の静止画像であり、上記従来技術において或る静止画像の全検出結果が出力されるまでに、後に続く静止画像が取得される場合、本発明では、上記後に続く静止画像に対する検出結果を出力できるので、従来よりも新しい静止画像に対する検出結果を含むことができる。 When sequentially determining, all the detection results of the target image can be output for all of the plurality of detection conditions as in the conventional technique. Furthermore, when the original image is a plurality of still images included in the moving image, and the subsequent still image is acquired before all the detection results of a certain still image are output in the above-described conventional technique, Since the detection result for the subsequent still image can be output, the detection result for the still image that is newer than before can be included.
一方、検出結果の履歴に基づいて検出条件を決定する場合、例えば、対象画像を検出する可能性の高い検出条件は、検出条件として決定される頻度を多くする一方、対象画像を検出する可能性の低い検出条件は、検出条件として決定される頻度を少なくすることなどが考えられる。従って、対象画像を検出する効率が向上する。 On the other hand, when determining a detection condition based on the history of detection results, for example, a detection condition that is highly likely to detect a target image increases the frequency that is determined as the detection condition, and may detect a target image. It is conceivable that the detection condition with a low is to reduce the frequency determined as the detection condition. Therefore, the efficiency of detecting the target image is improved.
ところで、検出対象は上記移動する物体などであるため、元画像が動画像に含まれる複数の静止画像である場合、対象画像の位置は、時間の経過と共に検出位置からずれる虞がある。 By the way, since the detection target is the moving object or the like, when the original image is a plurality of still images included in the moving image, the position of the target image may deviate from the detection position as time passes.
そこで、本発明に係る対象画像検出デバイスでは、前記取得手段は、動画像に含まれる複数の静止画像を前記元画像として取得しており、前記取得手段が取得した或る時点の元画像に対し、前記検出手段が検出した前記対象画像を、前記時点より後の時点の元画像にて追跡する追跡手段をさらに備えており、前記出力手段は、前記追跡手段が追跡した追跡結果をさらに出力することが好ましい。 Therefore, in the target image detection device according to the present invention, the acquisition unit acquires a plurality of still images included in a moving image as the original image, and the original image at a certain time acquired by the acquisition unit is obtained. And a tracking unit that tracks the target image detected by the detection unit with an original image at a time point after the time point, and the output unit further outputs a tracking result tracked by the tracking unit. It is preferable.
この場合、一度検出した対象画像を追跡して、追跡結果を出力するので、上記問題点を回避することができる。なお、追跡手段は、追跡条件に基づいて対象画像を追跡してもよい。さらに、上記追跡条件は、上記検出条件から取得してもよい。 In this case, since the target image once detected is tracked and the tracking result is output, the above problem can be avoided. The tracking unit may track the target image based on the tracking condition. Furthermore, the tracking condition may be acquired from the detection condition.
ところで、本発明では、一部の検出条件で対象画像を検出して、検出結果を出力するので、全ての検出条件で対象画像を検出した後に検出結果を出力する従来技術に比べて、検出結果の精度が低い場合が存在する。 By the way, in the present invention, since the target image is detected under some detection conditions and the detection result is output, the detection result is compared with the conventional technique that outputs the detection result after detecting the target image under all the detection conditions. There are cases where the accuracy of is low.
そこで、本発明に係る対象画像検出デバイスでは、前記追跡手段が追跡した追跡結果を、前記検出手段が検出した検出結果に基づいて補正する補正手段をさらに備えており、前記出力手段は、前記追跡手段が追跡した追跡結果に代えて、前記補正手段が補正した追跡結果を出力することが好ましい。 Thus, the target image detection device according to the present invention further includes a correction unit that corrects the tracking result tracked by the tracking unit based on the detection result detected by the detection unit, and the output unit includes the tracking unit. Instead of the tracking result tracked by the means, it is preferable to output the tracking result corrected by the correcting means.
この場合、別の検出条件での検出結果を追跡結果に反映させることができるので、検出結果の精度を徐々に向上させることができる。なお、上記補正手段は、さらに検出結果の履歴に基づいて補正してもよい。 In this case, the detection result under another detection condition can be reflected in the tracking result, so that the accuracy of the detection result can be gradually improved. Note that the correction means may further correct based on the history of detection results.
なお、上記構成の対象画像検出デバイスを備えた電子機器でも、上述の作用効果を奏することができる。 Note that the electronic device including the target image detection device having the above-described configuration can also exhibit the above-described effects.
さらに、上記電子機器では、情報を表示する表示部と、前記対象画像検出デバイスが検出した検出結果を示す画像を、前記元画像に合成して前記表示部に表示させる画像合成手段とをさらに備えてもよい。この場合、一部ではあるが、検出結果を示す画像の表示開始を迅速に行うことができ、その後に残りの検出結果を示す画像を逐次表示することができる。その結果、全ての検出結果を示す画像を一斉に表示する従来技術に比べて、対象画像の検出をユーザが待機する時間を短縮することができる。また、検出結果を示す画像が逐次表示されるので、ユーザに新たな娯楽を提供することができる。さらに、残りの検出結果は、最初の検出が行われた元画像よりも後の元画像に対するものであるので、当該検出結果を示す画像と、現在表示されている元画像に対して対象画像を検出した場合の検出結果を示す画像とのずれを抑えることができる。 Further, the electronic apparatus further includes a display unit that displays information, and an image combining unit that combines an image indicating a detection result detected by the target image detection device with the original image and displays the image on the display unit. May be. In this case, although it is a part, the display of the image indicating the detection result can be quickly started, and thereafter the image indicating the remaining detection result can be sequentially displayed. As a result, it is possible to shorten the time for which the user waits for detection of the target image, as compared with the conventional technique in which images indicating all detection results are displayed all at once. In addition, since images indicating the detection results are sequentially displayed, new entertainment can be provided to the user. Furthermore, since the remaining detection results are for the original image after the original image where the first detection is performed, the target image is selected for the image indicating the detection result and the currently displayed original image. Deviation from an image indicating a detection result when detected can be suppressed.
以上のように、本発明に係るデジタルカメラは、撮影画像を取得すると、前回の検出条件とは異なる検出条件で、取得された撮影画像に対し顔画像を検出することにより、一部ではあるが検出結果を短時間で出力できるので、カメラ付き携帯電話機以外にも、プリンタなどのように、元画像から対象画像を検出する任意の電子機器に適用することができる。 As described above, when a digital camera according to the present invention acquires a captured image, the digital camera detects a face image from the acquired captured image under a detection condition different from the previous detection condition. Since the detection result can be output in a short time, the present invention can be applied to any electronic device that detects a target image from an original image, such as a printer, in addition to a camera-equipped mobile phone.
10 デジタルカメラ(電子機器)
11 撮影部
12 画像処理部
13 表示部
14 操作部
15 画像圧縮部
16 画像記録部
17 画像合成部(画像合成手段)
20 制御部(対象画像検出デバイス)
21 記憶部
22 画像取得部(取得手段)
23・30 条件決定部(決定手段)
24 顔検出部(検出手段)
25 顔追跡部(追跡手段)
26 位置情報出力部(出力手段)
27 条件記憶部
28 結果履歴記憶部
31 結果補正部(補正手段)
10 Digital camera (electronic equipment)
DESCRIPTION OF
20 Control unit (target image detection device)
21
23.30 Condition determining unit (determining means)
24 face detection unit (detection means)
25 Face tracking part (tracking means)
26 position information output unit (output means)
27
Claims (18)
前記元画像を取得する取得手段と、
前記対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる第1の検出条件に決定する決定手段と、
前記取得手段が取得した第1の元画像から、前記決定手段が決定した第1の検出条件で前記対象画像を検出する検出手段と、
前記検出手段が検出した対象画像を特定可能な情報を、前記第1の元画像に続く第2の元画像に出力する出力手段とを備え、
前記決定手段は、或る検出条件と前記検出手段が該検出条件で前記対象画像を検出したか否かを示す検出結果との対応付けの履歴に基づいて、前記第1の検出条件とは異なる第2の検出条件をさらに決定することを特徴とする対象画像検出デバイス。 A target image detection device for detecting a target image from an original image,
Obtaining means for obtaining the original image;
Determining means for determining a first detection condition different from the previous detection condition among the plurality of detection conditions for detecting the target image;
Detecting means for detecting the target image under a first detection condition determined by the determining means from a first original image acquired by the acquiring means;
Output means for outputting information that can identify the target image detected by the detection means to a second original image that follows the first original image;
The determination unit is different from the first detection condition based on a history of association between a certain detection condition and a detection result indicating whether the detection unit has detected the target image under the detection condition. A target image detection device, wherein the second detection condition is further determined.
前記出力手段は、前記検出手段が検出した対象画像を特定可能な情報を、前記第2の元画像に続く第3の元画像にさらに出力することを特徴とする請求項1に記載の対象画像検出デバイス。 The detection means further detects the target image under a second detection condition determined by the determination means from the second original image,
2. The target image according to claim 1, wherein the output unit further outputs information that can identify the target image detected by the detection unit to a third original image that follows the second original image. Detection device.
前記出力手段は、前記追跡手段が追跡した対象画像を特定可能な情報を、前記第2の元画像に続く第3の元画像にさらに出力することを特徴とする請求項3に記載の対象画像検出デバイス。 The tracking means tracks the target image in the second original image under a tracking condition included in the first detection condition,
The target image according to claim 3, wherein the output unit further outputs information that can identify the target image tracked by the tracking unit to a third original image that follows the second original image. Detection device.
前記出力手段は、前記補正手段が補正した追跡結果を、前記追跡手段が追跡した対象画像を特定可能な情報として、前記第2の元画像に続く第3の元画像にさらに出力することを特徴とする請求項3または4に記載の対象画像検出デバイス。 A correction means for correcting the tracking result tracked by the tracking means based on the history of the correspondence;
The output means further outputs the tracking result corrected by the correction means to a third original image following the second original image as information that can identify the target image tracked by the tracking means. The target image detection device according to claim 3 or 4.
前記対象画像検出デバイスが検出した検出結果を示す画像を、前記元画像に合成して前記表示部に表示させる画像合成手段とをさらに備えたことを特徴とする請求項14に記載の電子機器。 A display for displaying information;
The electronic apparatus according to claim 14, further comprising an image composition unit configured to synthesize an image indicating a detection result detected by the target image detection device with the original image and display the image on the display unit.
前記元画像を取得する取得ステップと、
前記対象画像を検出するための複数の検出条件のうち、前回の検出条件とは異なる第1の検出条件に決定する決定ステップと、
前記取得ステップにおいて取得された第1の元画像から、前記決定ステップにおいて決定された第1の検出条件で前記対象画像を検出する検出ステップと、
前記検出ステップにおいて検出された対象画像を特定可能な情報を、前記第1の元画像に続く第2の元画像に出力する出力ステップとを含み、
前記決定ステップでは、或る検出条件と前記検出ステップにおいて該検出条件で前記対象画像が検出されたか否かを示す検出結果との対応付けの履歴に基づいて、前記第1の検出条件とは異なる第2の検出条件をさらに決定することを特徴とする対象画像検出デバイスの制御方法。
A method of controlling a target image detection device that detects a target image from an original image,
An acquisition step of acquiring the original image;
Of the plurality of detection conditions for detecting the target image, a determination step for determining a first detection condition different from the previous detection condition;
From the first original image acquired in the acquisition step, a detection step of detecting the target image under the first detection condition determined in the determination step;
Outputting the information that can identify the target image detected in the detection step to a second original image following the first original image, and
The determination step is different from the first detection condition based on a history of association between a detection condition and a detection result indicating whether or not the target image is detected under the detection condition in the detection step. A control method for a target image detection device, further comprising determining a second detection condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012208544A JP5482852B2 (en) | 2012-09-21 | 2012-09-21 | Target image detection device, control method thereof, control program, recording medium recording the program, and electronic apparatus including the target image detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012208544A JP5482852B2 (en) | 2012-09-21 | 2012-09-21 | Target image detection device, control method thereof, control program, recording medium recording the program, and electronic apparatus including the target image detection device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008066775A Division JP5141317B2 (en) | 2008-03-14 | 2008-03-14 | Target image detection device, control program, recording medium storing the program, and electronic apparatus including the target image detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013042514A true JP2013042514A (en) | 2013-02-28 |
JP5482852B2 JP5482852B2 (en) | 2014-05-07 |
Family
ID=47890418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012208544A Active JP5482852B2 (en) | 2012-09-21 | 2012-09-21 | Target image detection device, control method thereof, control program, recording medium recording the program, and electronic apparatus including the target image detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5482852B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014203866A1 (en) | 2013-03-05 | 2014-09-25 | Hitachi Automotive Systems, Ltd. | Brake control device |
JP2015053032A (en) * | 2013-08-05 | 2015-03-19 | キヤノン株式会社 | Setting apparatus, method, and computer program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007281798A (en) * | 2006-04-05 | 2007-10-25 | Fujifilm Corp | Device, method, and program for red-eye correction processing |
JP2008009849A (en) * | 2006-06-30 | 2008-01-17 | Matsushita Electric Ind Co Ltd | Person tracking device |
-
2012
- 2012-09-21 JP JP2012208544A patent/JP5482852B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007281798A (en) * | 2006-04-05 | 2007-10-25 | Fujifilm Corp | Device, method, and program for red-eye correction processing |
JP2008009849A (en) * | 2006-06-30 | 2008-01-17 | Matsushita Electric Ind Co Ltd | Person tracking device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014203866A1 (en) | 2013-03-05 | 2014-09-25 | Hitachi Automotive Systems, Ltd. | Brake control device |
JP2015053032A (en) * | 2013-08-05 | 2015-03-19 | キヤノン株式会社 | Setting apparatus, method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP5482852B2 (en) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5141317B2 (en) | Target image detection device, control program, recording medium storing the program, and electronic apparatus including the target image detection device | |
JP6106921B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP4825093B2 (en) | Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program | |
CN104205804B (en) | Image processing apparatus, filming apparatus and image processing method | |
US9336606B2 (en) | Image capturing apparatus, image capturing method, and computer program product | |
KR20150009184A (en) | Apparatus and method for processing an image having a camera device | |
US8712207B2 (en) | Digital photographing apparatus, method of controlling the same, and recording medium for the method | |
JPWO2012132129A1 (en) | Imaging apparatus, imaging method, and program | |
US11120533B2 (en) | Information processing method and information processing apparatus | |
US10009545B2 (en) | Image processing apparatus and method of operating the same | |
JP6136504B2 (en) | Target image detection device, control method and control program therefor, recording medium, and digital camera | |
JP5482852B2 (en) | Target image detection device, control method thereof, control program, recording medium recording the program, and electronic apparatus including the target image detection device | |
JP6172973B2 (en) | Image processing device | |
JP2009253925A (en) | Imaging apparatus and imaging method, and imaging control program | |
JP2014027580A (en) | Imaging device, and image processing method | |
JP2012191265A (en) | Image processing apparatus and program | |
JP5740934B2 (en) | Subject detection apparatus, subject detection method, and program | |
JP2011221680A (en) | Image synthesizing method, image synthesis program and image synthesizer | |
US20130016242A1 (en) | Electronic camera | |
JP6668646B2 (en) | Image processing apparatus, image processing method, and program | |
JP6476811B2 (en) | Image generating apparatus, image generating method, and program | |
JP5131376B2 (en) | Image data processing apparatus, image data processing method, image data processing program, and imaging apparatus | |
JP2014039098A (en) | Image processing apparatus, imaging device, and image processing program | |
JP2011076457A (en) | Face image correction device, face image correction method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5482852 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |