JP2011029822A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011029822A
JP2011029822A JP2009172211A JP2009172211A JP2011029822A JP 2011029822 A JP2011029822 A JP 2011029822A JP 2009172211 A JP2009172211 A JP 2009172211A JP 2009172211 A JP2009172211 A JP 2009172211A JP 2011029822 A JP2011029822 A JP 2011029822A
Authority
JP
Japan
Prior art keywords
subject
frame
specifying
display
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009172211A
Other languages
Japanese (ja)
Other versions
JP5371604B2 (en
Inventor
Yasunobu Kodama
泰伸 兒玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009172211A priority Critical patent/JP5371604B2/en
Publication of JP2011029822A publication Critical patent/JP2011029822A/en
Application granted granted Critical
Publication of JP5371604B2 publication Critical patent/JP5371604B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus in which the motion of an identification marker following the motion of a subject can be easily seen even when means specifying a subject region are different. <P>SOLUTION: The imaging apparatus is provided with a first specifying means 202 which specifies a subject region of a feature part for image data, a second specifying means 204 which specifies the subject region of the feature part by a method different from the first specifying means 202 for the image data, a display means 205 which displays the identification marker in the subject region specified by the first specifying means 202 and in the subject region specified by the second specifying means 204, and a switching means 206 which discriminates the subject region is the subject region specified by the first specifying means 202 or the subject region specified by the second specifying means 204, and switches the display characteristics of the identification marker which is displayed in the subject region by the display means 205 based on the discrimination result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、例えば、デジタルカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera.

近年、画像から被写体の一部である顔領域を検出する機能や、表示部の画面に配置されたタッチパネル等の操作により任意の被写体領域を設定する機能を備えた撮像装置が知られている。   2. Description of the Related Art In recent years, there has been known an imaging apparatus having a function of detecting a face area that is a part of a subject from an image and a function of setting an arbitrary subject area by operating a touch panel or the like disposed on a screen of a display unit.

これらの機能を用いて被写体が選択されると、選択された画像の被写体領域に該被写体を囲う被写体枠を重畳して表示し、この被写体枠内の対象画像にピントを合わせたり、露出制御を行うことで、その被写体にとって好適な条件で画像を撮影することができる。   When a subject is selected using these functions, a subject frame surrounding the subject is displayed superimposed on the subject area of the selected image, and the subject image in the subject frame is focused or exposure control is performed. By doing so, an image can be taken under conditions suitable for the subject.

また、動画を構成する連続するフレームに対して続けて顔領域の検出を行ったり、フレーム画像間の相関情報を用いて選択された被写体を周期的に検出したりすることで、被写体を追尾する追尾機能も知られている。   In addition, tracking of a subject is performed by continuously detecting a face area for successive frames constituting a moving image or periodically detecting a selected subject using correlation information between frame images. The tracking function is also known.

動画中の被写体を追尾する場合、被写体の向きが少し変わったり、手振れによりカメラがわずかに動いたりすると、検出された被写体の座標はフレーム間で変化する。このわずかな座標の変化にあわせて被写体枠の位置を変化させてしまうと、被写体がほとんど動いていないにも関わらずに、被写体枠の位置が細かく動いてしまうことになり、ユーザにとって見にくいものとなってしまう。   When tracking a subject in a moving image, if the orientation of the subject changes slightly or the camera moves slightly due to camera shake, the coordinates of the detected subject change between frames. If the position of the subject frame is changed in accordance with this slight change in coordinates, the subject frame position will move finely even though the subject is hardly moving, which is difficult for the user to see. turn into.

そこで、被写体枠の不要な変動を防止する為に、主被写体の実際の位置変動に対する被写体枠の追従応答性を低く設定することで、被写体枠の表示を見やすくする方法が開示されている(特許文献1)。   Therefore, in order to prevent unnecessary fluctuation of the subject frame, a method is disclosed in which the subject frame display is made easier to view by setting the tracking response of the subject frame to the actual position fluctuation of the main subject to be low (patent). Reference 1).

特開2007−208425号公報JP 2007-208425 A

ところで、例えば、顔のパーツ情報等を基に顔領域を検出する機能では、各パーツの小さな変化でも顔領域の検出結果に影響を与えることがある。つまり、被写体の動きがない場合でも顔領域の検出結果にバラツキが発生することがある為(図8(a)参照)、上記特許文献1のように、被写体枠の追従応答性を低くすることで被写体枠の表示を見やすくする必要が生じる(図8(b)参照)。   By the way, for example, in the function of detecting a face area based on face part information or the like, even a small change of each part may affect the detection result of the face area. That is, even when there is no movement of the subject, the detection result of the face area may vary (see FIG. 8A), so that the tracking response of the subject frame is lowered as in Patent Document 1 above. This makes it necessary to make the display of the subject frame easier to see (see FIG. 8B).

一方、画像間の被写体周辺領域の相関を取ることで被写体を追尾する機能では、被写体周辺の領域全体を使用して相関を取ることから、領域内の狭い範囲の動きに影響されにくい。この場合、上記特許文献1のように、被写体枠の追従応答性を低くしなくても追尾結果のバラツキが小さい(図8(c)参照)。この為、被写体枠の追従応答性を低くしたときの効果が小さく、追従応答性を低くしてしまうと、かえって被写体枠の被写体の動きへの追従が遅れて見える不具合が生じる(図8(d)参照)。   On the other hand, in the function of tracking the subject by obtaining the correlation between the subject peripheral areas between the images, the correlation is obtained by using the entire area around the subject, so that it is not easily influenced by the movement of a narrow range in the area. In this case, as in Patent Document 1, the variation in the tracking result is small even if the tracking response of the subject frame is not lowered (see FIG. 8C). For this reason, the effect when the tracking response of the subject frame is lowered is small, and if the tracking response is lowered, there is a problem that the tracking of the subject frame to the movement of the subject appears delayed (FIG. 8 (d) )reference).

従って、これらの両方の機能を備える撮像装置では、主被写体の実際の位置変動に対する被写体枠の追従応答性を一定値にしてしまうと、少なくともいずれかの追尾機能において被写体枠の表示が見にくくなってしまう。   Therefore, in an imaging apparatus having both of these functions, if the tracking response of the subject frame with respect to the actual position fluctuation of the main subject is set to a constant value, it is difficult to see the display of the subject frame in at least one of the tracking functions End up.

そこで、本発明は、被写体領域を特定する手段が異なる場合であっても、被写体の動きに追従する識別表示の動きを見やすくすることができる仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism that makes it easy to see the movement of an identification display that follows the movement of the subject even when the means for specifying the subject area is different.

上記目的を達成するために、本発明の撮像装置は、画像データに対して特徴部位の被写体領域を特定する第1の特定手段と、前記画像データに対して前記第1の特定手段とは異なる方法で前記特徴部位の被写体領域を特定する第2の特定手段と、前記第1の特定手段により特定された被写体領域及び前記第2の特定手段により特定された被写体領域に識別表示を表示する表示手段と、前記被写体領域が前記第1の特定手段により特定された被写体領域か前記第2の特定手段により特定された被写体領域かを判断する判断手段と、該判断手段での判断に基づき、前記表示手段により前記被写体領域に表示する前記識別表示の表示特性を切り替える切替手段と、を備えることを特徴とする。   In order to achieve the above object, the imaging apparatus of the present invention is different from the first specifying means for specifying the subject region of the characteristic part for the image data and the first specifying means for the image data. A second specifying means for specifying a subject area of the characteristic part by a method, a display for displaying an identification display on the subject area specified by the first specifying means and the subject area specified by the second specifying means A determination means for determining whether the subject area is the subject area specified by the first specifying means or the subject area specified by the second specifying means; Switching means for switching display characteristics of the identification display displayed in the subject area by a display means.

本発明によれば、被写体領域を特定する手段が異なる場合であっても、被写体の動きに追従する識別表示の動きを見やすくすることができる。   According to the present invention, it is possible to make it easy to see the movement of the identification display that follows the movement of the subject even when the means for specifying the subject area is different.

本発明の撮像装置の第1の実施形態であるデジタルカメラを説明するための機能ブロック図である。It is a functional block diagram for demonstrating the digital camera which is 1st Embodiment of the imaging device of this invention. 顔検出部で特定された被写体領域及び被写体追尾部で特定された被写体領域にそれぞれ被写体枠を表示する処理について説明するためのフローチャート図である。FIG. 10 is a flowchart for explaining processing for displaying a subject frame in each of a subject area specified by a face detection unit and a subject region specified by a subject tracking unit. 図2のステップS304での被写体追尾部の処理について説明するためのフローチャート図である。FIG. 3 is a flowchart for explaining processing of a subject tracking unit in step S304 of FIG. 表示特性処理部により、顔検出部で特定された顔領域に被写体枠を表示する場合と被写体追尾部で特定された被写体領域に被写体枠を表示する場合とで枠の追従応答性を切り替える処理について説明するためのフローチャート図である。Processing for switching the tracking response of the frame between when the subject frame is displayed in the face area specified by the face detection unit and when the subject frame is displayed in the subject area specified by the subject tracking unit by the display characteristic processing unit It is a flowchart figure for demonstrating. 本発明の撮像装置の第2の実施形態であるデジタルカメラにおいて、顔検出部及び被写体追尾部により特定された顔が複数ある場合の顔検出枠および被写体追尾枠の表示処理について説明するためのフローチャート図である。The flowchart for demonstrating the display processing of the face detection frame and subject tracking frame when there are a plurality of faces specified by the face detection unit and subject tracking unit in the digital camera which is the second embodiment of the imaging apparatus of the present invention. FIG. (a)は顔検出枠の変動量と顔検出枠の追従応答性との関係を示すグラフ図、(b)は被写体追尾枠の変動量と被写体追尾枠の追従応答性との関係を示すグラフ図である。(A) is a graph showing the relationship between the fluctuation amount of the face detection frame and the tracking response of the face detection frame, and (b) is a graph showing the relationship between the fluctuation amount of the subject tracking frame and the tracking response of the subject tracking frame. FIG. 顔検出枠の変動量が大きい場合に枠表示の追従応答性を高くし、被写体追尾枠の変動量が大きい場合に枠表示の追従応答性を低くする理由を説明するための説明図である。It is explanatory drawing for demonstrating the reason which makes tracking response of a frame display high when the variation | change_quantity of a face detection frame is large, and makes tracking response of a frame display low when the variation | change_quantity of a subject tracking frame is large. 従来における、顔検出機能と被写体追尾機能との被写体枠の追従応答性を説明するための説明図である。It is explanatory drawing for demonstrating the tracking response of the subject frame of the face detection function and a subject tracking function in the past.

以下、本発明の実施形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本発明の撮像装置の第1の実施形態であるデジタルカメラを説明するための機能ブロック図である。
(First embodiment)
FIG. 1 is a functional block diagram for explaining a digital camera which is a first embodiment of an imaging apparatus of the present invention.

本実施形態のデジタルカメラは、図1に示すように、画像処理部201、顔検出部202、被写体設定部203、被写体追尾部204、EVF表示部205及び表示特性処理部206を備える。   As shown in FIG. 1, the digital camera of this embodiment includes an image processing unit 201, a face detection unit 202, a subject setting unit 203, a subject tracking unit 204, an EVF display unit 205, and a display characteristic processing unit 206.

画像処理部201は、入力された被写体のデジタル画像データに対して各種の画像処理を行い、処理済みのデジタル画像データ、例えば、デジタル画像データをYUV画像データに変換して出力する。   The image processing unit 201 performs various types of image processing on the input digital image data of the subject, converts processed digital image data, for example, digital image data into YUV image data, and outputs the YUV image data.

顔検出部202は、本発明の第1の特定手段の一例に相当し、画像処理部201から出力されたデジタル画像データから特徴部位の被写体領域の一例としての顔領域を検出する。顔領域を検出する方法としては、公知の手法、例えば、ニューラルネットワークに代表される学習を用いた方法がある。また、目、鼻、口および顔の輪郭といった物理的な形状の特徴のある部位を画像情報からテンプレートマッチングを用いて顔領域を識別する手法や、肌の色や目の形といった画像情報の特徴量を検出して統計的解析により顔領域を識別する手法がある。さらに、直前の顔領域が検出された位置の近傍であるか判定したり、服の色を加味するために顔領域の近傍の色を判定したり、あるいは画面の中央付近ほど顔識別のための閾値を低く設定したりする方法がある。   The face detection unit 202 corresponds to an example of a first specifying unit of the present invention, and detects a face region as an example of a subject region of a characteristic part from digital image data output from the image processing unit 201. As a method for detecting a face region, there is a known method, for example, a method using learning represented by a neural network. In addition, a method for identifying a facial region using template matching from image information for parts having physical shape features such as eyes, nose, mouth, and facial contours, and features of image information such as skin color and eye shape There is a method of identifying a face region by detecting the quantity and performing statistical analysis. Furthermore, it is determined whether the immediately preceding face area is near the detected position, the color near the face area is determined in consideration of the color of clothes, or the face identification is performed near the center of the screen. There is a method of setting the threshold value low.

被写体設定部203は、追尾対象となる被写体領域を設定するものである。被写体設定部203は、例えば、不図示の操作表示部に配置されるタッチパネルでのユーザ操作により被写体の位置を指定させ、この指定位置を含む領域を追尾対象となる被写体領域として設定する。   The subject setting unit 203 sets a subject area to be tracked. For example, the subject setting unit 203 causes the subject position to be designated by a user operation on a touch panel arranged on an operation display unit (not shown), and sets an area including the designated position as a subject area to be tracked.

被写体追尾部204は、本発明の第2の特定手段の一例に相当し、顔検出部202で検出された顔領域や、被写体設定部203で設定された領域を追尾対象である追尾被写体として設定する。そして、被写体追尾部204は、この追尾被写体が設定されたフレーム画像よりも後のフレーム画像から、追尾被写体として設定された領域と最も相関の高くなる領域を抽出し、この抽出した領域を新たな追尾被写体として更新する。   The subject tracking unit 204 corresponds to an example of the second specifying unit of the present invention, and sets the face area detected by the face detection unit 202 or the area set by the subject setting unit 203 as a tracking subject to be tracked. To do. Then, the subject tracking unit 204 extracts a region having the highest correlation with the region set as the tracking subject from the frame image after the frame image in which the tracking subject is set, and extracts the extracted region as a new one. Update as tracking subject.

EVF表示部205は、液晶ディスプレイ等により構成され、画像処理部201による処理済みの画像データを表示する。また、EVF表示部205は、顔検出部202および被写体追尾部204で特定された被写体領域に識別表示の一例としての被写体枠を表示する。この表示を動画で行うことで、画像上の被写体枠の位置が随時更新され、追尾被写体を追尾している様子をユーザに認識させることができる。   The EVF display unit 205 includes a liquid crystal display or the like, and displays the image data processed by the image processing unit 201. The EVF display unit 205 displays a subject frame as an example of identification display in the subject area specified by the face detection unit 202 and the subject tracking unit 204. By performing this display as a moving image, the position of the subject frame on the image is updated at any time, and the user can recognize that the tracking subject is being tracked.

表示特性処理部206は、顔検出部202および被写体追尾部204のそれぞれに対応する表示特性を有する。そして、表示特性処理部206は、顔検出部202で特定された被写体領域に被写体枠を表示する場合と被写体追尾部204で特定された被写体領域に被写体枠を表示する場合とで表示特性、本実施形態では、被写体枠の追従応答性を切り替える。   The display characteristic processing unit 206 has display characteristics corresponding to each of the face detection unit 202 and the subject tracking unit 204. The display characteristic processing unit 206 displays the display characteristics, the main frame, when the subject frame is displayed in the subject area specified by the face detection unit 202 and when the subject frame is displayed in the subject area specified by the subject tracking unit 204. In the embodiment, the tracking response of the subject frame is switched.

次に、図2を参照して、顔検出部202で特定された被写体領域及び被写体追尾部204で特定された被写体領域にそれぞれ被写体枠を表示する処理について説明する。図2での各処理は、図示は省略するが、ROM等に記憶された制御プログラムがRAMにロードされて、CPU等により実行される。   Next, with reference to FIG. 2, processing for displaying a subject frame in each of the subject area specified by the face detection unit 202 and the subject area specified by the subject tracking unit 204 will be described. Each process in FIG. 2 is not shown, but a control program stored in the ROM or the like is loaded into the RAM and executed by the CPU or the like.

ステップS301では、CPUは、顔検出部202及び被写体追尾部204での処理対象となる画像を画像処理部201から取得し、ステップS302に進む。   In step S301, the CPU acquires an image to be processed by the face detection unit 202 and the subject tracking unit 204 from the image processing unit 201, and proceeds to step S302.

ステップS302では、CPUは、ステップS301で取得した画像に対して顔検出部202での処理を実行し、ステップS303に進む。   In step S302, the CPU executes processing in the face detection unit 202 on the image acquired in step S301, and proceeds to step S303.

ステップS303では、CPUは、ステップS301で画像を取得するよりも前に、被写体設定部203によって追尾対象となる被写体領域が設定されているかどうかを判定する。ここでは、CPUは、例えば、上述したように、操作表示部に配置されたタッチパネルでユーザ操作により追尾対象となる被写体領域が設定されているかどうかを判定する。或いは、CPUは、ステップS301で取得した画像よりも前に取得した画像に対して、被写体追尾部204によって追尾結果が更新された被写体領域が設定されているかどうかを判定する。   In step S303, the CPU determines whether or not a subject area to be tracked is set by the subject setting unit 203 before acquiring an image in step S301. Here, for example, as described above, the CPU determines whether or not a subject area to be tracked is set by a user operation on the touch panel arranged in the operation display unit. Alternatively, the CPU determines whether or not the subject area in which the tracking result is updated by the subject tracking unit 204 is set for the image acquired before the image acquired in step S301.

そして、CPUは、追尾対象となる被写体領域が設定されていると判定した場合は、ステップS304に進み、追尾対象となる被写体領域が設定されていないと判定した場合は、ステップS305に進む。   If the CPU determines that a subject area to be tracked is set, the CPU proceeds to step S304. If the CPU determines that a subject area to be tracked is not set, the CPU proceeds to step S305.

ステップS304では、CPUは、被写体設定部203で設定された追尾対象の被写体領域の画像を基準データとして被写体追尾部204の内部メモリに記憶し、被写体追尾部204での処理を実行する。そして、被写体追尾部204は、ステップS301で取得した画像の中から、内部メモリに記憶した基準データにもっとも相関の高い領域を抽出し、その領域を追尾対象の被写体領域であると決定し、ステップS305に進む。   In step S <b> 304, the CPU stores the image of the tracking target subject area set in the subject setting unit 203 as reference data in the internal memory of the subject tracking unit 204, and executes processing in the subject tracking unit 204. Then, the subject tracking unit 204 extracts a region having the highest correlation with the reference data stored in the internal memory from the image acquired in step S301, determines that the region is the subject region to be tracked, The process proceeds to S305.

ここで、図3を参照して、図2のステップS304での被写体追尾部204の処理について具体的に説明する。ここでは、一例として、時系列的に連続した2つのフレーム、即ち、第nフレームおよび第(n+1)フレームで被写体の追尾を実行する。   Here, the processing of the subject tracking unit 204 in step S304 of FIG. 2 will be described in detail with reference to FIG. Here, as an example, subject tracking is executed in two frames that are continuous in time series, that is, the nth frame and the (n + 1) th frame.

図3において、ステップS401では、CPUは、被写体設定部203で設定された第nフレームでの追尾対象の被写体領域の画像を基準データとして被写体追尾部204の内部メモリに記憶し、ステップS402に進む。   In FIG. 3, in step S401, the CPU stores the image of the subject area to be tracked in the nth frame set by the subject setting unit 203 as reference data in the internal memory of the subject tracking unit 204, and proceeds to step S402. .

ステップS402では、CPUは、被写体追尾部204を制御して、第nフレームで設定した被写体領域の画像の第(n+1)フレームにおけるサーチ領域を設定し、ステップS403に進む。サーチ領域は、例えば、第nフレームで設定された追尾対象の被写体が存在した領域を中心とした周辺領域としてもよいし、処理時間に余裕があるのであれば、画像全域としてもよい。   In step S402, the CPU controls the subject tracking unit 204 to set a search area in the (n + 1) th frame of the image of the subject area set in the nth frame, and proceeds to step S403. The search area may be, for example, a peripheral area centered on the area where the subject to be tracked set in the nth frame is present, or may be the entire image if the processing time is sufficient.

ステップS403では、CPUは、被写体追尾部204を制御して、ステップS402で設定したサーチ領域で、ステップS401で内部メモリに記憶した追尾対象の被写体領域の画像とのパターンマッチングを行い、ステップS404に進む。パターンマッチングの方法としては、例えば、第nフレームの被写体領域と第(n+1)フレームの被写体探索領域内で画素毎の輝度値の差分和を計算する方法でもよく、また、輝度情報に限らず色情報など他の被写体の情報を使用する方法でもよい。   In step S403, the CPU controls the subject tracking unit 204 to perform pattern matching with the image of the tracking target subject area stored in the internal memory in step S401 in the search area set in step S402, and in step S404. move on. The pattern matching method may be, for example, a method of calculating a difference sum of luminance values for each pixel in the subject area of the nth frame and the subject search area of the (n + 1) th frame, and is not limited to luminance information. A method using information of another subject such as information may be used.

ステップS404では、CPUは、被写体追尾部204を制御して、ステップS403でのパターンマッチングの結果をもとに、第(n+1)フレームでの追尾対象の被写体領域を決定し、図2のステップS305に進む。ここでは、例えば、前記被写体探索領域内で画素毎の輝度値の差分和を計算する方法でパターンマッチングを実行した結果、差分和が一番小さい領域、すなわち、もっとも相関の高い領域を第(n+1)フレームでの追尾対象の被写体領域と決定してもよい。   In step S404, the CPU controls the subject tracking unit 204 to determine the subject area to be tracked in the (n + 1) th frame based on the pattern matching result in step S403, and in step S305 in FIG. Proceed to Here, for example, as a result of performing pattern matching by a method of calculating a difference sum of luminance values for each pixel in the subject search area, an area with the smallest difference sum, that is, an area with the highest correlation is (n + 1). ) It may be determined as a subject area to be tracked in a frame.

図2に戻って、ステップS305では、CPUは、ステップS302の顔検出部202での処理で顔領域を検出できたか否かを判断し、顔領域が検出された場合は、ステップS306に進み、顔領域が検出されない場合は、ステップS307に進む。   Returning to FIG. 2, in step S <b> 305, the CPU determines whether or not the face area has been detected by the process in the face detection unit 202 in step S <b> 302. If the face area is detected, the process proceeds to step S <b> 306. If no face area is detected, the process proceeds to step S307.

ステップS306では、CPUは、ステップS304で被写体領域の追尾を実行した結果、追尾する被写体領域が存在する場合は、ステップS308に進み、追尾する被写体領域が存在しない場合は、ステップS309に進む。   In step S306, as a result of tracking the subject area in step S304, the CPU proceeds to step S308 if there is a subject area to be tracked, and proceeds to step S309 if there is no subject area to be tracked.

ステップS308では、CPUは、ステップS302およびS304で存在が確認された顔領域と追尾対象の被写体領域とが同一であるかどうかを判定する。ここでの判定に際しては、例えば、顔領域と追尾対象の被写体領域の画面内の距離を考慮する。すなわち、被写体追尾部204での追尾対象の被写体領域と、顔検出部202によって検出された顔領域の位置が重複するような場合には、これらが同一であると判定する。   In step S308, the CPU determines whether the face area confirmed to exist in steps S302 and S304 and the subject area to be tracked are the same. In this determination, for example, the distance in the screen between the face area and the subject area to be tracked is considered. That is, when the subject region to be tracked by the subject tracking unit 204 and the position of the face region detected by the face detection unit 202 overlap, it is determined that they are the same.

これは、例えば、被写体の顔が横を向いていたり、下を向いていたりして、顔検出部202によって顔領域を認識することができなかった被写体を被写体追尾部204で追尾対象の被写体として設定していたとする。この場合、この被写体が正面を向くことによって、顔検出部202によって検出された顔領域の位置と、被写体追尾部204での追尾対象の被写体領域の位置とが重なる。   This is because, for example, a subject whose face area could not be recognized by the face detection unit 202 as a subject to be tracked by the subject tracking unit 204 because the face of the subject is facing sideways or facing down. Suppose that it was set. In this case, when the subject faces the front, the position of the face area detected by the face detection unit 202 and the position of the subject area to be tracked by the subject tracking unit 204 overlap.

そして、CPUは、被写体追尾部204にて追尾対象となる被写体領域と顔検出部202によって検出された顔領域とが同一であると判定すると、ステップS309に進み、同一でないと判定すると、ステップS310に進む。   If the CPU determines that the subject area to be tracked by the subject tracking unit 204 is the same as the face area detected by the face detection unit 202, the CPU proceeds to step S309. If the CPU determines that the subject area is not the same, step S310 is performed. Proceed to

ステップS309では、CPUは、画像内で検出された顔領域に被写体枠を表示し、処理を終了する。ここで、ステップS309を実行する条件には、顔領域が存在し、追尾対象の被写体領域が存在しない場合、または、顔領域および追尾対象の被写体領域が存在し、それらが同一の被写体である場合がある。   In step S309, the CPU displays a subject frame in the face area detected in the image and ends the process. Here, the condition for executing step S309 is that there is a face area and no subject area to be tracked, or a face area and a subject area to be tracked are present and they are the same subject. There is.

一方、ステップS307では、CPUは、ステップS304で被写体領域の追尾を実行した結果、追尾する被写体領域が存在する場合は、ステップS310に進み、追尾する被写体領域が存在しない場合は、被写体枠の表示処理を行うことなく、処理を終了する。   On the other hand, in step S307, as a result of tracking the subject area in step S304, if the subject area to be tracked exists, the CPU proceeds to step S310. If the subject area to be tracked does not exist, the CPU displays a subject frame. The process is terminated without performing the process.

ステップS310では、CPUは、画像内の追尾している被写体領域に被写体枠を表示し、処理を終了する。ここで、ステップS310を実行する条件には、顔領域が存在せず、追尾する被写体領域が存在する場合、または、顔領域および追尾する被写体領域が存在し、それらが同一の被写体でない場合がある。なお、本実施形態では、顔領域および追尾する被写体領域が存在し、それらが同一の被写体でない場合は追尾する被写体領域にのみ被写体枠を表示することにしているが、被写体領域だけでなく顔領域にも被写体枠を表示してもよい。   In step S310, the CPU displays a subject frame in the tracked subject area in the image, and ends the process. Here, the condition for executing step S310 is that there is no face area and there is a subject area to be tracked, or there are face areas and a subject area to be tracked that are not the same subject. . In the present embodiment, when there are a face area and a subject area to be tracked and they are not the same subject, the subject frame is displayed only in the subject area to be tracked. Also, a subject frame may be displayed.

次に、図4を参照して、表示特性処理部206により、顔検出部202で特定された顔領域に被写体枠を表示する場合と被写体追尾部204で特定された被写体領域に被写体枠を表示する場合とで枠の追従応答性を切替える処理について説明する。   Next, referring to FIG. 4, the display characteristic processing unit 206 displays a subject frame in the face area specified by the face detection unit 202 and displays the subject frame in the subject area specified by the subject tracking unit 204. A process for switching the follow-up response of the frame in the case of performing the process will be described.

ステップS501では、CPUは、被写体枠が、顔検出部202によって検出された顔領域に表示する被写体枠(以下、顔検出枠という。)か、被写体追尾部204での追尾対象である被写体領域に表示する被写体枠(以下、被写体追尾枠という。)かを判定する。   In step S <b> 501, the CPU sets a subject frame on a subject frame displayed in the face area detected by the face detection unit 202 (hereinafter referred to as a face detection frame) or a subject area that is a tracking target in the subject tracking unit 204. It is determined whether the subject frame is to be displayed (hereinafter referred to as a subject tracking frame).

そして、CPUは、被写体枠が顔検出枠の場合は、ステップS502に進み、被写体追尾枠の場合は、ステップS503に進む。   If the subject frame is a face detection frame, the CPU proceeds to step S502. If the subject frame is a subject tracking frame, the CPU proceeds to step S503.

ステップS502では、CPUは、表示特性処理部206を制御して、顔検出枠に対して顔検出枠用の表示特性を適用し、処理を終了する。   In step S502, the CPU controls the display characteristic processing unit 206 to apply the display characteristics for the face detection frame to the face detection frame, and ends the process.

ステップS503では、CPUは、表示特性処理部206を制御して、被写体追尾枠に対して被写体追尾枠用の表示特性を適用して処理を終了する。   In step S503, the CPU controls the display characteristic processing unit 206 to apply the display characteristics for the subject tracking frame to the subject tracking frame, and ends the process.

次に、顔検出枠および被写体追尾枠の表示特性について説明する。本実施形態では、顔検出部202により検出された顔は一つとしている。   Next, display characteristics of the face detection frame and the subject tracking frame will be described. In the present embodiment, the number of faces detected by the face detection unit 202 is one.

顔検出枠の場合は、顔領域の目や口などのパーツの小さな変化でも顔検出機能を実行した結果に影響を与えることがあり、実際に顔の動きがない場合でも顔領域の位置やサイズなどの検出結果に差が生じる。つまり、顔の検出結果にバラツキがある。このことから、顔の検出結果のバラツキを顔検出枠の表示時に抑えるようにする為に、表示特性としての顔検出枠の追従応答性を低くする。   In the case of the face detection frame, small changes in parts such as eyes and mouth in the face area may affect the result of executing the face detection function, and the position and size of the face area even when there is no actual face movement Differences occur in the detection results. That is, the face detection results vary. For this reason, the tracking response of the face detection frame as a display characteristic is lowered in order to suppress variations in face detection results when displaying the face detection frame.

一方、被写体追尾枠の場合は、被写体追尾方法の一つとして、画像間の被写体周辺領域の相関を取る方法がある。この方法では、被写体領域内の狭い範囲の動きに影響されにくく、被写体の全体的な動きによって追尾結果に影響がでる。このことから、被写体の動きと被写体追尾枠の動きのバラツキは小さい。追尾結果のバラツキが小さい場合には、表示特性としての被写体追尾枠の追従応答性を低くする必要がない為、被写体追尾枠の追従応答性を、顔追尾枠の追従応答性に比較して高くする。   On the other hand, in the case of the subject tracking frame, as one of the subject tracking methods, there is a method of obtaining the correlation of the subject peripheral area between images. In this method, the tracking result is influenced by the overall movement of the subject without being easily influenced by the movement of a narrow range in the subject area. For this reason, the variation in the movement of the subject and the movement of the subject tracking frame is small. When the tracking result variation is small, it is not necessary to lower the tracking response of the subject tracking frame as a display characteristic, so the tracking response of the subject tracking frame is higher than the tracking response of the face tracking frame. To do.

この場合、例えば、顔検出枠と被写体追尾枠は、ともに予め実験等で求めた時定数をもたせてその位置を変化させるものであって、顔検出枠の時定数を大きな値に設定することや、顔検出枠に対してのみ時定数を持たせることが考えられる。   In this case, for example, both the face detection frame and the subject tracking frame have their time constants obtained in advance through experiments or the like to change their positions, and the time constant of the face detection frame can be set to a large value. It is conceivable to give a time constant only to the face detection frame.

以上説明したように、本実施形態では、顔検出部202によって検出された顔領域に表示する顔検出枠の追従応答性を低くし、被写体追尾部204での追尾対象である被写体領域に表示する被写体追尾枠の追従応答性を高くしている。これにより、被写体画像の領域を特定する手段が異なる場合であっても、被写体の動きに追従する枠の動きを見やすくすることができる。   As described above, in this embodiment, the tracking responsiveness of the face detection frame displayed in the face area detected by the face detection unit 202 is lowered, and the tracking is performed in the subject area that is the tracking target in the subject tracking unit 204. The tracking response of the subject tracking frame is increased. This makes it easier to see the movement of the frame following the movement of the subject even if the means for specifying the region of the subject image is different.

(第2の実施形態)
次に、図5〜図7を参照して、本発明の撮像装置の第2の実施形態であるデジタルカメラについて説明する。なお、上記第1の実施形態に対して重複又は相当する部分については、図及び符号を流用して説明する。
(Second Embodiment)
Next, a digital camera which is a second embodiment of the imaging apparatus of the present invention will be described with reference to FIGS. Note that portions that overlap or correspond to the first embodiment will be described with reference to the drawings and symbols.

図5は、顔検出部202及び被写体追尾部204により特定された顔が複数ある場合の顔検出枠および被写体追尾枠の表示処理について説明するためのフローチャート図である。図5での各処理は、図示は省略するが、ROM等に記憶された制御プログラムがRAMにロードされて、CPU等が表示特性処理部206を制御することにより実行される。なお、ここでは、一例として、時系列的に連続した2つのフレーム、即ち、第nフレームおよび第(n+1)フレームでの枠表示について説明する。   FIG. 5 is a flowchart for explaining the display processing of the face detection frame and the subject tracking frame when there are a plurality of faces specified by the face detection unit 202 and the subject tracking unit 204. Each process in FIG. 5 is executed by a control program stored in a ROM or the like being loaded into the RAM and the CPU or the like controlling the display characteristic processing unit 206, although illustration is omitted. Here, as an example, frame display in two frames that are continuous in time series, that is, the nth frame and the (n + 1) th frame will be described.

ステップS601では、CPUは、第nフレームと第(n+1)フレームの被写体領域のX方向及びY方向の変動量並びにサイズの変動量を算出し、ステップS602に進む。   In step S601, the CPU calculates the amount of variation in the X direction and the Y direction and the amount of variation in size of the subject area in the nth frame and the (n + 1) th frame, and proceeds to step S602.

ステップS602〜ステップS604では、CPUは、ステップS601で算出したX方向及びY方向の変動量並びにサイズの変動量を基に枠の表示特性、本実施形態では、枠の動きに応じた枠の追従応答性を算出する。そして、枠の追従応答性が高いほど顔検出部202および被写体追尾部204での処理結果に対して高速で枠を移動させ、追従応答性が低いほど複数のフレームにかけて枠を低速で移動させるようにする。   In steps S602 to S604, the CPU follows the display characteristics of the frame based on the amount of variation in the X direction and the Y direction and the amount of variation of the size calculated in step S601. Responsiveness is calculated. The higher the tracking response of the frame, the faster the frame is moved with respect to the processing results of the face detection unit 202 and the subject tracking unit 204, and the lower the tracking response, the slower the frame is moved over a plurality of frames. To.

図6(a)は顔検出枠の変動量と顔検出枠の追従応答性との関係を示すグラフ図、図6(b)は被写体追尾枠の変動量と被写体追尾枠の追従応答性との関係を示すグラフ図である。図6において、横軸は被写体領域のX方向及びY方向並びにサイズの変動量を表しており、縦軸はそれらの変動量に対応した枠の描画フレーム数を表している。   FIG. 6A is a graph showing the relationship between the variation amount of the face detection frame and the tracking response of the face detection frame, and FIG. 6B shows the variation amount of the subject tracking frame and the tracking response of the subject tracking frame. It is a graph which shows a relationship. In FIG. 6, the horizontal axis represents the amount of variation in the X and Y directions and the size of the subject region, and the vertical axis represents the number of frames drawn corresponding to the amount of variation.

例えば、顔検出部202により検出された顔のX方向の変動量をX_Faceとした場合、X_Face=<dX1のときは、F2フレームにかけて枠を移動させ、X_Face>=dX2のときは、F1(F2>=F1)フレームにかけて枠を移動させる。また、dX1<X_Face<dX2のときは、変動量に応じてF1フレームからF2フレームの間で枠を移動させる。これに対し、被写体追尾部204により決定された追尾対象の被写体領域のX方向の変動量をX_Faceとした場合、X_Face=<dX1のときは、F1フレームにかけて枠を移動させる。X_Face>=dX2のときは、F2(F2>=F1)フレームにかけて枠を移動させる。また、dX1<X_Face<dX2のときは、変動量に応じてF1フレームからF2フレームの間で枠を移動させる。このようにして決定した描画フレーム数をFrame_Xとする(ステップS602)。   For example, assuming that the variation amount in the X direction of the face detected by the face detection unit 202 is X_Face, when X_Face = <dX1, the frame is moved over the F2 frame, and when X_Face> = dX2, F1 (F2 > = F1) Move the frame over the frame. Further, when dX1 <X_Face <dX2, the frame is moved between the F1 frame and the F2 frame according to the variation amount. On the other hand, when the variation amount in the X direction of the subject area to be tracked determined by the subject tracking unit 204 is X_Face, the frame is moved over the F1 frame when X_Face = <dX1. When X_Face> = dX2, the frame is moved over the frame F2 (F2> = F1). Further, when dX1 <X_Face <dX2, the frame is moved between the F1 frame and the F2 frame according to the variation amount. The number of drawing frames determined in this way is set as Frame_X (step S602).

同様に、顔のY方向の変動量に応じて決定した描画フレーム数をFrame_Yとし(ステップS603)、顔のサイズの変動量に応じて決定した描画フレーム数をFrame_Sとする(ステップS604)。また、被写体追尾枠についても、同様にY方向の変動量、サイズの変動量に応じて描画フレーム数を決定する。   Similarly, the number of drawing frames determined according to the variation amount of the face in the Y direction is Frame_Y (step S603), and the number of drawing frames determined according to the variation amount of the face size is Frame_S (step S604). Similarly, for the subject tracking frame, the number of drawing frames is determined according to the amount of variation in the Y direction and the amount of variation in size.

顔検出枠の変動量が大きい場合に枠表示の追従応答性を高くし、被写体追尾枠の変動量が大きい場合に枠表示の追従応答性を低くしているのは次の理由からである。   The reason why the tracking response of the frame display is increased when the variation amount of the face detection frame is large and the tracking response of the frame display is decreased when the variation amount of the subject tracking frame is large is as follows.

即ち、追尾している被写体が画面内で長距離移動した場合、上記第1の実施形態のように枠の追従応答性を高くするのみでは被写体追尾枠が長い距離をすばやく動いてしまうため、被写体追尾枠の動きを追いづらい。そのため、追尾対象が複数存在している場合には、どの被写体追尾枠がどこに移動したか認識することに時間がかかる可能性がある(図7(a))。従って、被写体が画面内で長距離移動した場合には、被写体追尾枠を見失うのを回避する為に枠の追従応答性を低くすることで対応が可能となる(図7(b))。   That is, when the tracked subject moves a long distance in the screen, the subject tracking frame moves quickly over a long distance only by increasing the tracking response of the frame as in the first embodiment. It is difficult to follow the movement of the tracking frame. Therefore, when there are a plurality of tracking targets, it may take time to recognize which subject tracking frame has moved to where (FIG. 7A). Therefore, when the subject moves for a long distance in the screen, it is possible to cope with it by lowering the tracking response of the frame in order to avoid losing sight of the subject tracking frame (FIG. 7B).

一方、顔検出部202により検出された顔の枠表示について、検出されている顔が一つある場合は、長距離移動時には被写体追尾と同様に枠の追従応答性を低くすることで、顔検出枠を画面内から見失いにくくすることが可能となる。   On the other hand, when there is one face detected for the face frame detected by the face detection unit 202, the face detection response is reduced by lowering the frame tracking responsiveness in the case of long-distance movement, as with subject tracking. It becomes possible to make it difficult to lose sight of the frame from the screen.

しかし、顔検出部202により顔が複数個検出された場合には、顔検出枠の変動量が大きいときに追従応答性を低くすると、異なる顔に顔検出枠が表示される可能性があるにも関わらず同じ顔が長距離移動したように顔検出枠が表示されてしまう(図7(c))。このような事態を防ぐ為に、例えば複数の顔が検出された場合には、顔の長距離移動に対して枠の追従応答性を高くする必要がある(図7(d))。   However, when a plurality of faces are detected by the face detection unit 202, the face detection frame may be displayed on a different face if the follow-up response is lowered when the variation amount of the face detection frame is large. Nevertheless, the face detection frame is displayed as if the same face has moved a long distance (FIG. 7C). In order to prevent such a situation, for example, when a plurality of faces are detected, it is necessary to increase the follow-up response of the frame with respect to the long-distance movement of the face (FIG. 7D).

また、枠を表示している顔が直前まで枠表示していた顔と同一かどうかを判定することで、枠の追従応答性を切り替えるようにしてもよい。同一の顔かどうかを判定する方法としては、例えば、第nフレームと第(n+1)フレームの被写体領域のX方向及びY方向並びにサイズの変動量を使用してもよい。また、あらかじめ検出した顔を登録し、検出した顔が登録した顔と一致しているかどうかを判定することが可能な顔認証機能を有している場合には顔認証結果を使用してもよい。   Further, the tracking response of the frame may be switched by determining whether or not the face displaying the frame is the same as the face displayed in the frame until immediately before. As a method for determining whether or not they are the same face, for example, the X direction and the Y direction of the subject region in the nth frame and the (n + 1) th frame and the amount of variation in size may be used. In addition, the face authentication result may be used when a face authentication function capable of registering a face detected in advance and determining whether the detected face matches the registered face is used. .

なお、被写体追尾部204の機能は、あらかじめ設定した被写体のみを追尾する機能なので、顔検出部202の機能のように複数の種類の被写体領域を設定しない為、異なる被写体に枠が移動しにくい。このため、長距離の領域移動があっても同一被写体の動きであるとみなすことが可能である。   Note that since the function of the subject tracking unit 204 is a function of tracking only a preset subject, a plurality of types of subject areas are not set unlike the function of the face detection unit 202, so that the frame does not easily move to different subjects. For this reason, even if there is a long-distance movement, it can be considered that the movement of the same subject.

次に、ステップS605では、CPUは、ステップS602〜S604で算出した枠の描画フレーム数から、顔検出枠および被写体追尾枠のどちらかに応じて実際の枠の描画フレーム数を決定する。   Next, in step S605, the CPU determines the actual number of frames drawn according to either the face detection frame or the subject tracking frame from the number of frames drawn in steps S602 to S604.

例えば、顔検出枠において、X方向及びY方向の差分並びにサイズの変動量から得られる描画フレーム数Frame_X、Frame_Y、Frame_Sを使用すると、これらの3つのうち、一番短い描画フレーム数を実際の枠の描画フレーム数としてもよい。これは、複数の顔がある場合には、上述したように、X方向、Y方向、サイズの変動のうち一種類でも短い描画フレーム数となっていれば、顔領域の変動が大きかったことを表し、過去に枠表示されていた顔と違う顔に枠表示する可能性がある為である。   For example, in the face detection frame, when the number of drawing frames Frame_X, Frame_Y, and Frame_S obtained from the difference between the X direction and the Y direction and the size variation is used, the shortest number of drawing frames among these three is used as the actual frame. It may be the number of drawing frames. This is because when there are a plurality of faces, as described above, if even one type of variation in the X direction, the Y direction, and the size is a short number of drawing frames, the variation in the face area is large. This is because there is a possibility that a frame is displayed on a face different from the face that was displayed in the past.

一方、被写体追尾においては、Frame_X、Frame_Y、Frame_Sを使用すると、これらの3つのうち、一番長い描画フレーム数を実際の枠の描画フレーム数としてもよい。これは、上述したように、被写体領域の変動が大きい場合でも同一被写体の動きである可能性が高いので、枠の追従応答性を低くして表示枠を見失いにくくすることを可能にする為である。   On the other hand, in subject tracking, when Frame_X, Frame_Y, and Frame_S are used, the longest drawing frame number among these three may be used as the actual frame drawing frame number. This is because the possibility that the movement of the same subject is high even when the subject area fluctuates is large, as described above, so that it is possible to reduce the follow-up response of the frame and make it difficult to lose sight of the display frame. is there.

なお、本発明は、上記各実施形態に例示したものに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。   In addition, this invention is not limited to what was illustrated by said each embodiment, In the range which does not deviate from the summary of this invention, it can change suitably.

例えば、上記各実施形態では、顔検出枠と被写体追尾枠とで表示特性を切り替える例として、枠表示の追従応答性を切り替えるようにしているが、これに限定されない。   For example, in each of the above embodiments, as an example of switching the display characteristics between the face detection frame and the subject tracking frame, the tracking response of the frame display is switched. However, the present invention is not limited to this.

例えば、被写体領域の変動量に対してヒステリシスを持たせてもよい。つまり、被写体領域の動きに対して表示枠を更新する閾値を、被写体が静止している状態から動いている状態へ移行する時と、動いている状態から静止している状態へ移行する時とで切り替えるようにしてもよい。   For example, hysteresis may be given to the amount of change in the subject area. In other words, the threshold for updating the display frame with respect to the movement of the subject area is changed when the subject moves from a stationary state to a moving state, and when the subject moves from a moving state to a stationary state. You may make it switch with.

具体的には、被写体が静止している場合は顔検出部202による検出結果や被写体追尾部204による追尾結果のバラツキに対しては被写体が静止しているとみなす閾値を広くし、一度被写体が動いたと判定すれば被写体が静止しているとみなす閾値を狭くする。これにより、被写体の静止時に枠表示の変動を抑えて、さらに被写体が動いている時は被写体表示枠が被写体の動きにすばやく追従しているように表示することが可能となる。   Specifically, when the subject is stationary, the threshold value for determining that the subject is stationary is widened for variations in the detection result by the face detection unit 202 and the tracking result by the subject tracking unit 204. If it is determined that the subject has moved, the threshold value for determining that the subject is stationary is reduced. Thereby, it is possible to suppress a change in the frame display when the subject is stationary, and to display the subject display frame so that it quickly follows the movement of the subject when the subject is moving.

また、顔検出枠および被写体追尾枠のどちらの枠を表示するかに応じてヒステリシスの幅を切り替えるようにしてもよい。これは、上記第1の実施形態で述べたとおり、追尾結果よりも顔検出結果のバラツキの方が大きい為、例えば顔検出枠を表示する場合にはヒステリシスを広く持たせることで検出結果のバラツキを枠表示時に抑えることが可能となる。一方、被写体追尾枠の場合には、追尾結果のバラツキが小さい為、ヒステリシスの幅を狭く持たせても枠表示の変動は小さく、さらに被写体の動きにすばやく追従しているように表示させることが可能となる。   Further, the hysteresis width may be switched depending on which of the face detection frame and the subject tracking frame is displayed. As described in the first embodiment, since the variation in the face detection result is larger than the tracking result, for example, when displaying a face detection frame, the detection result varies by providing a wide hysteresis. Can be suppressed during frame display. On the other hand, in the case of the subject tracking frame, the variation in the tracking result is small, so even if the hysteresis width is narrow, the frame display fluctuation is small, and it can be displayed so that it follows the movement of the subject quickly. It becomes possible.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ(CPU,プロセッサ)にて実行することでも実現できる。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. It can also be realized by executing software (program) acquired via a network or various storage media on a personal computer (CPU, processor).

201 画像処理部
202 顔検出部
203 被写体設定部
204 被写体追尾部
205 EVF表示部
206 表示特性処理部
201 Image processing unit 202 Face detection unit 203 Subject setting unit 204 Subject tracking unit 205 EVF display unit 206 Display characteristic processing unit

Claims (8)

画像データに対して特徴部位の被写体領域を特定する第1の特定手段と、
前記画像データに対して前記第1の特定手段とは異なる方法で前記特徴部位の被写体領域を特定する第2の特定手段と、
前記第1の特定手段により特定された被写体領域及び前記第2の特定手段により特定された被写体領域に識別表示を表示する表示手段と、
前記被写体領域が前記第1の特定手段により特定された被写体領域か前記第2の特定手段により特定された被写体領域かを判断する判断手段と、
該判断手段での判断に基づき、前記表示手段により前記被写体領域に表示する前記識別表示の表示特性を切り替える切替手段と、を備える
ことを特徴とする撮像装置。
First specifying means for specifying a subject region of a characteristic part for image data;
Second specifying means for specifying the subject region of the characteristic part for the image data by a method different from the first specifying means;
Display means for displaying an identification display on the subject area specified by the first specifying means and the subject area specified by the second specifying means;
Determining means for determining whether the subject area is the subject area specified by the first specifying means or the subject area specified by the second specifying means;
An imaging apparatus comprising: switching means for switching a display characteristic of the identification display displayed on the subject area by the display means based on a judgment by the judgment means.
前記第1の特定手段は、顔検出手段である、
ことを特徴とする請求項1に記載の撮像装置。
The first specifying means is a face detecting means;
The imaging apparatus according to claim 1.
前記第2の特定手段は、前記被写体領域の動きを追尾する被写体追尾手段である、
ことを特徴とする請求項1に記載の撮像装置。
The second specifying means is subject tracking means for tracking the movement of the subject area.
The imaging apparatus according to claim 1.
前記識別表示は、被写体枠である、
ことを特徴とする請求項1〜3のいずれか一項に記載の撮像装置。
The identification display is a subject frame.
The imaging apparatus according to any one of claims 1 to 3, wherein
前記表示特性は、前記被写体領域の動きに対する前記識別表示の追従応答性である、
ことを特徴とする請求項1〜4のいずれか一項に記載の撮像装置。
The display characteristic is a follow-up response of the identification display to the movement of the subject area.
The imaging device according to any one of claims 1 to 4, wherein
前記表示特性は、被写体が静止している状態から動いている状態に切り替わるときと、被写体が動いている状態から静止している状態に切り替わるときにおいて、2つの状態を切り替える際の動き量の閾値である、
ことを特徴とする請求項1〜4のいずれか一項に記載の撮像装置。
The display characteristics include a threshold value of a motion amount when switching between two states when the subject is switched from a stationary state to a moving state and when the subject is switched from a moving state to a stationary state. Is,
The imaging device according to any one of claims 1 to 4, wherein
画像データに対して特徴部位の被写体領域を特定する第1の特定ステップと、
前記画像データに対して前記第1の特定ステップとは異なる方法で前記特徴部位の被写体領域を特定する第2の特定ステップと、
前記第1の特定ステップで特定された被写体領域及び前記第2の特定ステップで特定された被写体領域に識別表示を表示する表示ステップと、
前記被写体領域が前記第1の特定ステップで特定された被写体領域か前記第2の特定ステップで特定された被写体領域かを判断する判断ステップと、
該判断ステップでの判断に基づき、前記表示ステップで前記被写体領域に表示する前記識別表示の表示特性を切り替える切替ステップと、を備える
ことを特徴とする撮像装置の制御方法。
A first specifying step of specifying a subject region of a characteristic part for image data;
A second specifying step for specifying the subject region of the characteristic part in a method different from the first specifying step for the image data;
A display step for displaying an identification display on the subject area specified in the first specifying step and the subject area specified in the second specifying step;
A determining step of determining whether the subject area is the subject area specified in the first specifying step or the subject area specified in the second specifying step;
A switching step of switching display characteristics of the identification display displayed in the subject area in the display step based on the determination in the determination step.
画像データに対して特徴部位の被写体領域を特定する第1の特定ステップと、
前記画像データに対して前記第1の特定ステップとは異なる方法で前記特徴部位の被写体領域を特定する第2の特定ステップと、
前記第1の特定ステップで特定された被写体領域及び前記第2の特定ステップで特定された被写体領域に識別表示を表示する表示ステップと、
前記被写体領域が前記第1の特定ステップで特定された被写体領域か前記第2の特定ステップで特定された被写体領域かを判断する判断ステップと、
該判断ステップでの判断に基づき、前記表示ステップで前記被写体領域に表示する前記識別表示の表示特性を切り替える切替ステップと、をコンピュータに実行させる、
ことを特徴とする撮像装置の制御プログラム。
A first specifying step of specifying a subject region of a characteristic part for image data;
A second specifying step for specifying the subject region of the characteristic part in a method different from the first specifying step for the image data;
A display step of displaying an identification display on the subject area specified in the first specifying step and the subject area specified in the second specifying step;
A determining step of determining whether the subject area is the subject area specified in the first specifying step or the subject area specified in the second specifying step;
Based on the determination in the determination step, causing the computer to execute a switching step of switching display characteristics of the identification display displayed in the subject area in the display step.
A control program for an image pickup apparatus.
JP2009172211A 2009-07-23 2009-07-23 Imaging device, control method thereof, and program Active JP5371604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009172211A JP5371604B2 (en) 2009-07-23 2009-07-23 Imaging device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009172211A JP5371604B2 (en) 2009-07-23 2009-07-23 Imaging device, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2011029822A true JP2011029822A (en) 2011-02-10
JP5371604B2 JP5371604B2 (en) 2013-12-18

Family

ID=43638076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009172211A Active JP5371604B2 (en) 2009-07-23 2009-07-23 Imaging device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5371604B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142981A (en) * 2018-04-24 2018-09-13 株式会社ニコン Subject tracking device, imaging device, and subject tracking program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124565A (en) * 2007-11-16 2009-06-04 Casio Comput Co Ltd Imaging apparatus and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124565A (en) * 2007-11-16 2009-06-04 Casio Comput Co Ltd Imaging apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142981A (en) * 2018-04-24 2018-09-13 株式会社ニコン Subject tracking device, imaging device, and subject tracking program

Also Published As

Publication number Publication date
JP5371604B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
EP3024227B1 (en) Image processing apparatus and image processing method
RU2642344C2 (en) Method and device for adjusting and displaying image
JP5925068B2 (en) Video processing apparatus, video processing method, and program
JP4992618B2 (en) Gesture recognition device and gesture recognition method
CN109286755B (en) Information processing apparatus and control method for controlling image capturing apparatus
US20070053614A1 (en) Image processing apparatus and method thereof
WO2016132884A1 (en) Information processing device, method, and program
JP2012137970A (en) Information processing device and method, and program
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP5278576B2 (en) Gesture recognition device, gesture recognition method and program thereof
JP2008009849A (en) Person tracking device
JP2010114752A (en) Device and method of imaging and program
US11402926B2 (en) Ambient light sensing device and method, and interactive device using same
CN109964202B (en) Display control apparatus, display control method, and computer-readable storage medium
KR101503017B1 (en) Motion detecting method and apparatus
JP2018025988A (en) Image processing program, image processing method and image processing device
JP2018113660A (en) Information processing device, information processing method, and system
JP5371604B2 (en) Imaging device, control method thereof, and program
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
US20160267356A1 (en) Image processing apparatus and image processing method of performing image segmentation
JP5834253B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009075926A (en) Moving image face detection device and method
JP2019087136A (en) Screen display control method and screen display control system
JP2014170173A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R151 Written notification of patent or utility model registration

Ref document number: 5371604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151