JP5888986B2 - Image processing apparatus and control method thereof - Google Patents
Image processing apparatus and control method thereof Download PDFInfo
- Publication number
- JP5888986B2 JP5888986B2 JP2012001328A JP2012001328A JP5888986B2 JP 5888986 B2 JP5888986 B2 JP 5888986B2 JP 2012001328 A JP2012001328 A JP 2012001328A JP 2012001328 A JP2012001328 A JP 2012001328A JP 5888986 B2 JP5888986 B2 JP 5888986B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- face
- area
- setting
- control circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、被写体追尾処理の機能を備えた画像処理装置およびその制御方法に関する。 The present invention relates to an image processing apparatus having a subject tracking function and a control method thereof.
従来のデジタルカメラには、動画像中のいずれかのフレーム画像から任意の被写体を追尾対象として選択し、それよりも後のフレーム画像の中から、この追尾対象の被写体の輝度信号や色信号と相関の高い領域を検出することで追尾を行うものがある(特許文献1を参照)。 In a conventional digital camera, an arbitrary subject is selected as a tracking target from any one of the frame images in the moving image, and the luminance signal and color signal of the tracking target subject are selected from the frame images after that. There is one that performs tracking by detecting a region having a high correlation (see Patent Document 1).
また、顔検出機能を搭載したデジタルカメラが従来より知られている。このようなデジタルカメラでは、自動的に認識した顔の位置に基づいて、オートフォーカス処理、自動露光処理、オートホワイトバランス処理等を行い、ユーザに快適な撮影環境を提供している。そして、この顔検出機能を追尾に利用することで、人物の顔が移動したとしても、その人物の顔を追尾できる。例えば、画像から複数の顔が検出された場合には、それよりも前の画像で検出された各々の顔の位置やサイズ、あるいは、蓄積した移動方向から、画像間で同一人物の顔を識別して追尾を行う(特許文献2を参照)。 A digital camera equipped with a face detection function has been known. In such a digital camera, an autofocus process, an automatic exposure process, an auto white balance process, and the like are performed based on the automatically recognized face position to provide a comfortable shooting environment for the user. By using this face detection function for tracking, even if a person's face moves, the person's face can be tracked. For example, when multiple faces are detected from an image, the faces of the same person are identified between the images based on the position and size of each face detected in the previous image or the accumulated moving direction. Tracking is performed (see Patent Document 2).
また、追尾と顔検出の両方の技術を用い、AF枠の範囲内に人物の顔が含まれているか否かを判別し、その判別結果により追尾モードを変更する技術がある。ここで、AF枠の範囲内に人物の顔が含まれている場合には顔検出追尾モードによるAF枠自動追尾の開始を指示し、人物の顔が含まれていない場合には物体追尾モードによるAF枠自動追尾の開始を指示する。(特許文献3を参照)。 Further, there is a technique for determining whether or not a person's face is included in the range of the AF frame by using both tracking and face detection techniques, and changing the tracking mode based on the determination result. Here, when the face of a person is included in the range of the AF frame, the start of AF frame automatic tracking in the face detection tracking mode is instructed. When the face of the person is not included, the object tracking mode is used. Instructs the start of AF frame automatic tracking. (See Patent Document 3).
さらに、タッチパネルを採用し、顔検出機能を備えたデジタルカメラでは、ユーザがタッチパネルを用いて指定した人物の顔を被写体とし、その顔を基準に撮影を行えるようにしたものがある(特許文献4を参照)。 Furthermore, some digital cameras that employ a touch panel and have a face detection function can take a person's face designated by the user using the touch panel as a subject, and perform shooting based on that face (Patent Document 4). See).
これらの技術を用いて、ユーザがタッチパネルで顔以外の物体を指定した場合には、追尾対象と輝度信号や色信号と相関の高い領域を検出する物体追尾を実行し、顔を指定した場合には、顔検出機能を利用した顔追尾を実行することが考えられる。 Using these technologies, when a user specifies an object other than a face on the touch panel, object tracking is performed to detect a tracking target and an area highly correlated with a luminance signal or color signal, and a face is specified. It is conceivable to perform face tracking using a face detection function.
タッチパネルにより直接追尾対象位置を設定する場合は、ユーザが意図する被写体を追尾領域として追尾させることができる。しかしながら、上下左右釦などを用いて追尾対象を指定するために追尾枠位置を移動させる場合、移動中の追尾枠位置近辺で顔検出されると、自動的に顔検出追尾モードに切り替わってしまう。この場合、ユーザが意図する被写体が顔で無い場合も自動的に顔検出追尾モードに切り替わるため、ユーザが指定したい追尾対象位置を設定することができないことがある。 When the tracking target position is directly set by the touch panel, a subject intended by the user can be tracked as a tracking area. However, when the tracking frame position is moved to specify the tracking target using the up / down / left / right buttons, etc., if a face is detected in the vicinity of the moving tracking frame position, the face detection / tracking mode is automatically switched. In this case, even if the subject intended by the user is not a face, the mode automatically switches to the face detection tracking mode, and therefore it may not be possible to set the tracking target position that the user wants to specify.
本発明の目的は、上下左右釦などで追尾枠を設定する場合でも、ユーザの意図通りの被写体を追尾することが可能な画像処理装置を提供することである。 An object of the present invention is to provide an image processing apparatus capable of tracking a subject as intended by a user even when a tracking frame is set with up / down / left / right buttons or the like.
上記課題目的を達成するために、本発明は、複数の画像から構成された動画像から追尾すべき被写体の領域である追尾領域を連続して検出することで追尾を行う画像処理装置において、画像信号に基づく画像とともに、設定されている追尾領域の位置を示す表示を表示する表示手段と、前記追尾領域の位置を示す表示を複数の方向に移動可能な操作部材を含んで構成され、前記表示手段に表示された画像からユーザが位置を指定するための第1の指定手段と、画像信号から顔領域を検出する顔検出手段と、追尾を行う対象としての追尾領域を設定する設定手段であって、前記顔領域に基づいて追尾領域を設定可能な設定手段とを有し、前記設定手段は、前記第1の指定手段を介した操作が行われてから第1の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする。 In order to achieve the above object, the present invention provides an image processing apparatus that performs tracking by continuously detecting a tracking region that is a region of a subject to be tracked from a moving image composed of a plurality of images. A display means for displaying a display indicating the position of the set tracking area together with an image based on the signal, and an operation member capable of moving the display indicating the position of the tracking area in a plurality of directions. A first specifying means for a user to specify a position from an image displayed on the means, a face detecting means for detecting a face area from an image signal, and a setting means for setting a tracking area as an object to be tracked. Setting means capable of setting a tracking area based on the face area, and the setting means until a first predetermined time elapses after an operation through the first designation means is performed. Before And limits the configuration of the tracking area based on the face area.
本発明によれば、上下左右釦などで追尾枠を設定する場合でも、ユーザの意図通りの被写体を追尾することが可能になる。 According to the present invention, it is possible to track a subject as intended by a user even when a tracking frame is set with up / down / left / right buttons.
以下、本発明の実施の形態について、図面を参照しながら説明する。本実施形態では、動画像中でユーザが指定した被写体を追尾する機能と、画像から人物の顔領域を検出する顔検出機能を備えたデジタルカメラ(画像処理装置)を例にあげて説明を行う。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In this embodiment, a digital camera (image processing apparatus) having a function for tracking a subject designated by a user in a moving image and a face detection function for detecting a human face area from an image will be described as an example. .
図1に示すデジタルカメラは、撮影レンズ10、絞り機能を備えるシャッター12、光学像を電気信号(画像信号)に変換する撮像素子14を備える。撮像素子14から撮像時に出力されたアナログ信号は、A/D変換器16によって、ディジタル信号(画像信号)に変換される。
The digital camera shown in FIG. 1 includes a photographing
制御部を構成するメモリ制御回路22及びシステム制御回路50は、タイミング発生回路18を制御する。タイミング発生回路18は、クロック信号や制御信号を撮像素子14、A/D変換器16及びD/A変換器26に供給してコントロールする。
The
メモリ制御回路22は、A/D変換器16、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16からのデータ(画像信号)或いはメモリ制御回路22から出力されたデータ(画像信号)は、画像処理回路20によって所定の画素補間処理や色変換処理が施され、画像表示メモリ24或いはメモリ30に書き込まれる。この画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器26を介して、TFT LCD等から成る表示部28(表示手段)に表示される。この表示部28は、撮像素子14から連続して出力された信号から生成された画像データを、動画像としてリアルタイムで表示することにより、電子ファインダ機能を担う。また、メモリ30は、撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。このメモリ30は、システム制御回路50の作業領域としても使用可能に構成されている。
The
このメモリ30に格納された画像は、圧縮・伸長回路32に読み込まれて、適応離散コサイン変換(ADCT)等により画像データが圧縮処理又は伸長処理される。この圧縮伸長処理後のデータは、メモリ30に書き込まれる。
The image stored in the
また、本実施形態のデジタルカメラは、各種の動作指示を入力するための操作手段としてのシャッタースイッチSW1 62、シャッタースイッチSW2 64、操作部70を備える。操作部70は、例えば、スイッチ、上下左右キー釦、ダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。ここで、操作部70に含まれるタッチパネルは、表示部28と一体的に構成されており、ユーザが表示部28の画面に触れることで、その触れた位置の画面上の座標を示す情報をシステム制御回路50に送信する。
In addition, the digital camera of this embodiment includes a
タイマー130は、撮影時間の生成や経過時間の計測に使用するもので、システム制御回路50によって制御される。追尾指定判定部131は操作部70を監視し、タッチパネルで直接追尾枠が設定されたか否かを判定するものである。
The
また、このデジタルカメラでは、AF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行う。このため、デジタルカメラの画像処理回路20は、撮像された画像データに対して所定の演算処理を行い、得られた演算結果に基づいてシステム制御回路50が露光制御回路40、測距制御回路42を制御する。さらに、画像処理回路20は、撮像した画像データ(画像信号)を用いて所定の演算処理を行い、得られた演算結果に基づいてAWB(オートホワイトバランス)処理を行う。露光制御回路40は、絞り機能を備えるシャッター12を制御し、測距制御回路42は、撮影レンズ10のフォーカシングを制御する。また、システム制御回路50は、撮影レンズ10のズーミングを制御するズーム制御回路44を制御する。
In addition, this digital camera performs AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing. For this reason, the image processing circuit 20 of the digital camera performs predetermined calculation processing on the captured image data, and the
システム制御回路50には、画像処理回路20で処理された画像データや画像表示メモリ24に保存されている画像データの解析を行い画像データ内の顔と思われる領域を検出する、顔検出部101(顔検出手段)が接続されている。顔検出部101は、例えば、画像データ内で人物の目、鼻、口らしき形状のものが所定の位置関係で配置されている領域を顔領域として検出する。顔検出部101は、顔と思われる領域を検出した際に、人間の顔と思われる確率、入力画像データ中の位置及びサイズ等を出力する。また、顔検出部は、検出した顔の各々の特徴点の特徴量を出力することができるように構成されている。
The
システム制御回路50には、画像表示メモリ24やメモリ30に記録された2つの画像に対して輝度情報と色情報の少なくとも一方を基に画像の差分演算を行い、画像間で相関の高い領域を検出する画像比較部102が接続されている。
The
システム制御回路50には、電気的に消去・記録可能なEEPROM等で構成された不揮発性メモリ56が接続されている。また、システム制御回路50には、メモリカード等の外部記録媒体とデータの送受信を行うカードコントローラ90が接続され、該カードコントローラ90を介してメモリカード等の外部記録媒体120が接続されている。
The
システム制御回路50は、不図示のROMに記憶されたプログラムに従って以下に説明する各処理を実行する。システム制御回路50に接続されたシャッタースイッチSW1 62は、不図示のシャッターボタンの操作途中の状態でON指示の信号をシステム制御回路50に出力する。このON信号を受けたシステム制御回路50は、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
The
また、シャッタースイッチSW2 64は、不図示のシャッターボタンの操作完了の状態でON指示の信号をシステム制御回路50に出力する。このON指示の信号を受けたシステム制御回路50は、撮像素子14から読み出した信号をA/D変換器16及びメモリ制御回路22を介してメモリ30に画像データを書き込む本撮影の露光処理の動作開始を指示する。次に、このシステム制御回路50は、画像処理回路20やメモリ制御回路22での演算結果を用いた現像処理の動作開始を指示する。さらに、システム制御回路50は、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行い、外部記録媒体120に画像データを書き込む記録処理の動作開始を指示する。
Further, the
次に、上述のように構成されたデジタルカメラにおける撮影処理について、図2のフローチャートを参照して説明する。 Next, photographing processing in the digital camera configured as described above will be described with reference to the flowchart of FIG.
このデジタルカメラの撮影処理では、デジタルカメラの電源が入って撮影可能状態となると、制御部を構成するメモリ制御回路22及びシステム制御回路50が、撮影処理の動作を開始する。システム制御回路50は、撮像素子14への露光を開始し、連続して生成される画像データを用いて表示部28に動画像をリアルタイムで表示させる。
In this digital camera photographing process, when the digital camera is turned on and ready for photographing, the
この撮影処理では、ステップS201において現在の撮影モードが操作部70に含まれるタッチパネルからのユーザ入力(以後、タッチ入力)あるいは指定手段としての上下左右キー釦(操作部材)操作によるユーザ入力に対応して追尾枠指定が可能な追尾モードかどうかを判断する。本実施形態では、表示部28が動画像を表示している際に、ユーザが表示部28の画面(操作部70に含まれるタッチパネル)に触れる、あるいは操作部70に含まれる設定キー(不図示)を操作することで追尾処理に移行する。なお、追尾処理への移行の操作はこれらに限定されず、設定キー以外の他の所定キー操作により追尾処理へ移行するようにしてもよい。
In this shooting process, in step S201, the current shooting mode corresponds to a user input from the touch panel included in the operation unit 70 (hereinafter referred to as touch input) or a user input by operating the up / down / left / right key button (operation member) as a designation unit. To determine whether or not the tracking mode allows specification of a tracking frame. In the present embodiment, when the
なお、ユーザは追尾処理の実行の可否を操作部70に含まれるメニューボタンで事前に設定することができる。本実施例では、メニューボタンで事前に「顔+追尾優先AFモード」が設定されている場合、追尾処理を実行することが可能になる。システム制御回路50は、追尾処理の実行が可能な「顔+追尾優先AFモード」であると判定した場合(ステップS201でYES)に、ステップS202へ進み、後述する追尾処理のサブフローを実行する。
Note that the user can set in advance whether or not the tracking process can be performed using a menu button included in the
追尾処理(ステップS202)では、ユーザからのタッチ入力、設定キー操作を受け付けると、タッチ入力された位置あるいは所定の位置(ここでは画面中央)を追尾枠位置として画面内の座標に変換する処理を実行する。このとき、デジタルカメラでは、ユーザのタッチ入力に対応した位置に表示中の画面に重畳して枠(指標)を表示することによって、タッチ入力が受け付けられたことを表示するように構成しても良い。 In the tracking process (step S202), when a touch input and a setting key operation are received from the user, a process of converting the touch-input position or a predetermined position (here, the center of the screen) into coordinates within the screen as a tracking frame position. Run. At this time, the digital camera may be configured to display that the touch input has been received by displaying a frame (indicator) superimposed on the screen being displayed at a position corresponding to the user's touch input. good.
さらに、この追尾処理(ステップS202)では、タッチ入力あるいは設定キー操作に基づいて、追尾枠位置における被写体判定を行い、その判定に応じて被写体に合わせた追尾処理を開始して次のステップS203へ進む。なお、追尾処理については、図3のフローチャートを用いて、後に詳述する。 Further, in this tracking process (step S202), subject determination at the tracking frame position is performed based on touch input or setting key operation, and tracking processing according to the subject is started according to the determination, and the process proceeds to the next step S203. move on. The tracking process will be described in detail later using the flowchart of FIG.
ステップS202の追尾処理の後、システム制御回路50は、ステップS203に進み、シャッタースイッチSW1 62が押されなければステップS201に戻る。
After the tracking process in step S202, the
一方、システム制御回路50は、追尾処理の実行が可能な「顔+追尾優先AFモード」でないと判別した場合(ステップS201でNO)、設定されているモードにて主被写体を選択し、シャッタースイッチSW1 62が押されるまで待機する(ステップS203)。「顔+追尾優先AFモード」以外のモードとしては、指定したAF領域による「1点AFモード」や、予め設定された複数のAF領域にかかる被写体の中から至近に位置する被写体を主被写体として選択する「多点自動AFモード」などがある。
On the other hand, if the
次に、システム制御回路50は、シャッタースイッチSW1 62が押されたと判定した場合(ステップS203でYES)に、設定されている主被写体に重みを置いたAF・AE処理(ステップS204)を行う。
Next, when it is determined that the
そして、システム制御回路50は、シャッタースイッチSW2 64が押下されるまでAF・AE処理(ステップS204)を続行して待機する(ステップS205でNO)。なお、この待機状態で、シャッタースイッチSW1 62の押下が解除されると、ステップS201へ戻る。
Then, the
システム制御回路50は、シャッタースイッチSW2 64が押下されたと判定した場合に、ステップS206に進み、撮影を行い、撮影された画像ファイルを外部記録媒体120に記録し、撮影処理を終了する。
If the
次に、図5と図7を用いて、ユーザによる追尾枠指定時における課題を説明する。 Next, with reference to FIGS. 5 and 7, a problem when the tracking frame is designated by the user will be described.
顔の場所と追尾枠位置が一致した(近い)場合に自動で顔位置を追尾枠位置とさせる従来のデジタルカメラにおいて、タッチ入力の場合はタッチされた位置に、追尾処理移行に割り当てられた釦が押下された場合は画面中央に追尾枠が表示される設定とする。 In a conventional digital camera that automatically sets the face position to the tracking frame position when the position of the face and the tracking frame position match (close to each other), in the case of touch input, the button assigned to the tracking process transition to the touched position When is pressed, a tracking frame is displayed at the center of the screen.
例えば、図5(A)のようにタッチ入力がされた場合は、タッチされた位置を追尾領域として設定する。この場合、詳細は後述するが、追尾領域と検出された顔の位置が近いため、顔の位置を追尾領域に設定して、図5(B)のように追尾中の顔領域を枠(指標)で囲って表示する。また、枠(指標)で囲われた人物の顔領域が画面内を移動したときに、図5(C)、(D)のように人物の顔の移動に合わせて枠の表示更新を行う。なお、画面右下の花の位置でタッチ入力された場合は、花の位置と人物の顔の位置が十分離れていれば、花の位置が追尾領域に設定される。一旦追尾領域が設定されても、ユーザにより再度タッチ入力がされた場合は、新たにタッチ入力された位置に基づいて追尾領域が再設定される。 For example, when a touch input is made as shown in FIG. 5A, the touched position is set as a tracking area. In this case, although the details will be described later, since the detected face position is close to the tracking area, the face position is set as the tracking area, and the tracking face area is framed (indexed) as shown in FIG. ). Further, when the face area of the person surrounded by the frame (index) moves within the screen, the display of the frame is updated in accordance with the movement of the person's face as shown in FIGS. When a touch input is made at the position of the flower at the lower right of the screen, the position of the flower is set as the tracking area if the position of the flower is sufficiently away from the position of the person's face. Even if the tracking area is set once, when the touch input is performed again by the user, the tracking area is reset based on the newly input position.
次に、設定キーなどの操作により追尾処理に移行した場合について説明する。図7(M)の表示例の状態で、設定キーなど追尾処理移行に割り当てられた釦が押下されると、図7(N)のように画面中央に追尾枠が表示される。図7(N)では、追尾枠位置は顔の位置から離れている。この状態で上下左右キー釦により右を選択すると、図7(O)のように追尾枠は右に移動する。さらに上下左右キー釦を操作して右下に追尾枠を移動させることで、図7(P)のように追尾枠を花の位置まで移動させることができる。 Next, a case where the process is shifted to the tracking process by an operation of a setting key or the like is described. In the state of the display example in FIG. 7M, when a button assigned to the tracking process transition such as a setting key is pressed, a tracking frame is displayed at the center of the screen as shown in FIG. In FIG. 7N, the tracking frame position is far from the face position. When the right is selected with the up / down / left / right key buttons in this state, the tracking frame moves to the right as shown in FIG. Further, by operating the up / down / left / right key buttons to move the tracking frame to the lower right, the tracking frame can be moved to the position of the flower as shown in FIG.
一方、図7(A)の表示例の状態で、追尾処理移行に割り当てられた釦が押下されると、図7(B)のように中央に追尾枠が表示される。この状態では、追尾枠位置に顔が存在するので、追尾枠位置は自動的に顔位置に設定される。この状態で上下左右キー釦により追尾枠を花の位置まで移動させようとしても、図7(C)の状態において顔の位置が追尾枠に含まれるため、追尾枠位置は図7(D)のように顔の位置に自動変更されることになる。そのため、ユーザが花の位置に追尾枠を設定したい場合、追尾枠を花の位置に移動することができない。 On the other hand, in the state of the display example in FIG. 7A, when the button assigned to the tracking process transition is pressed, a tracking frame is displayed at the center as shown in FIG. 7B. In this state, since the face exists at the tracking frame position, the tracking frame position is automatically set to the face position. Even if an attempt is made to move the tracking frame to the position of the flower with the up / down / left / right key buttons in this state, the position of the face is included in the tracking frame in the state of FIG. 7 (C). Thus, the face position is automatically changed. Therefore, when the user wants to set the tracking frame at the flower position, the tracking frame cannot be moved to the flower position.
また、追尾枠を複数の顔位置間で直接移動する機能(=顔セレクト)を搭載するカメラの場合、追尾モード移行に割り当てられた釦が押下された場合に、複数の顔検出がされてしまうと、上下左右キー釦に対して顔セレクト機能の割り付けが行われる。顔セレクト機能の状態では、上下左右キー釦の操作は、複数の顔の中から顔を選択する操作に限定される。例えば、図7(E)の状態から上下左右キー釦で左を選択すると、図7(F)のように左側の顔に追尾枠が移動する。ここで、図7(E)では、追尾枠の左側に三角のマークを表示し、左側の顔に追尾枠を移動可能であることを示している。さらに、図7(F)の状態から上下左右キー釦で右を選択すると、図7(G)のように右側の顔に追尾枠が移動し、その状態から上下左右キー釦で左を選択すると図7(H)のように左側の顔に追尾枠が移動する。この場合、ユーザが上下左右キー釦の操作により人物の右側にある花に追尾枠を設定しようとしても、顔セレクト機能が実行されている状態では、追尾枠を顔以外に設定できない。 In addition, in the case of a camera equipped with a function (= face selection) for directly moving the tracking frame between a plurality of face positions, a plurality of faces are detected when the button assigned to the tracking mode transition is pressed. Then, the face select function is assigned to the up / down / left / right key buttons. In the state of the face selection function, the operation of the up / down / left / right key buttons is limited to the operation of selecting a face from a plurality of faces. For example, when left is selected with the up / down / left / right key buttons in the state of FIG. 7 (E), the tracking frame moves to the left face as shown in FIG. 7 (F). Here, in FIG. 7E, a triangular mark is displayed on the left side of the tracking frame, indicating that the tracking frame can be moved to the left face. Furthermore, when the right is selected with the up / down / left / right key button in the state of FIG. 7 (F), the tracking frame moves to the right face as shown in FIG. 7 (G), and when the left is selected with the up / down / left / right key button from that state. As shown in FIG. 7H, the tracking frame moves to the left face. In this case, even if the user tries to set a tracking frame on the flower on the right side of the person by operating the up / down / left / right key buttons, the tracking frame cannot be set to other than the face when the face selection function is executed.
これらの課題を解決するため、撮影処理中に実行される、本発明の実施の形態に係る追尾処理について、図3のフローチャートを参照して説明する。このデジタルカメラで行われる追尾処理は、顔以外の物体を主被写体として追尾する物体追尾処理と、画面内に表示中のある特定の人物の顔を主被写体として追尾する顔追尾処理との2つに大別される。 In order to solve these problems, a tracking process according to the embodiment of the present invention that is executed during the photographing process will be described with reference to the flowchart of FIG. There are two types of tracking processing performed by this digital camera: object tracking processing for tracking an object other than a face as a main subject, and face tracking processing for tracking the face of a specific person displayed on the screen as a main subject. It is divided roughly into.
追尾処理が開始されると、システム制御回路50は、ステップS300において、ユーザからの追尾処理移行操作があったかどうか確認を行う。具体的には、タッチ入力又は設定キーの操作が行われたかどうか確認する。システム制御回路50は、新たな追尾処理移行操作が行われていると判定した場合は、ステップS302へ進む。一方、新たな追尾処理移行操作が行われていないと判定した場合は、ステップS301へ進み、追尾の処理中であるか否かを確認する。なお、設定キーが操作された場合は、タイマーのカウントを開始する。
When the tracking process is started, the
ステップS301において、システム制御回路50は、追尾中でないと判定した場合には、図3のフローチャートを終了する。システム制御回路50は、追尾中であると判定した場合には、ステップS312に進み、顔追尾処理がすでに開始されているか否かの判定を行う。
In step S301, when the
システム制御回路50は、ステップS312で顔追尾処理中でないと判定した場合には、後述するステップS309へ進んで顔追尾判定処理を実行する。一方、システム制御回路50は、ステップS312で顔追尾処理がすでに開始されていると判定した場合には、ステップS332へ進み、顔セレクトの次候補選択か否かを判定する。ここでは、複数の顔が検出されている状態での顔追尾中に上下左右キー釦が操作された場合に、顔セレクトの次候補選択と判定する。顔セレクトの次候補選択と判定した場合は、ステップS333へ進み、次候補顔位置情報を取得する。さらにステップS303へ進み、次候補の顔位置を利用し、追尾枠領域の変更をする。一方、ステップS332で顔セレクトの次候補選択でないと判定した場合は、後述するステップS311へ進んで顔追尾処理を実行する。
If it is determined in step S312 that the face tracking process is not in progress, the
ステップS300において、システム制御回路50は、ユーザからの追尾処理移行操作があったと判定した場合に、ステップS302へ進み、追尾座標取得の処理を実行する。ここで、ユーザからの追尾処理移行操作は、ユーザからの追尾枠指定の入力と換言することができる。すなわち、タッチ入力により追尾処理に移行した場合は、タッチされた位置に追尾枠が指定され、設定キーの操作により追尾処理に移行した場合は、所定位置(本実施例では画面中央)に追尾枠が指定されたことになる。このステップS302の追尾座標取得の処理では、操作部70に設けられた追尾枠制御部が、タッチされた位置あるいは画面中央位置を画面上の座標に変換し、その座標を取得してシステム制御回路50へ送信する。
In step S300, when the
次にシステム制御回路50は、ステップS323へ進み、タッチ入力による追尾枠設定か否かを判定する。ステップS323でタッチ入力による追尾枠設定と判定したら、ステップS303へ進む。
Next, the
一方、ステップS323でタッチ入力による追尾枠設定と判定しなかった場合は、ステップS325へ進み、システム制御回路50は、顔検出から得られる顔座標位置情報を取得する。次に、ステップS326で追尾枠座標と顔座標を比較し、顔の位置が追尾枠(所定領域=ここでは画面中央)に含まれるか否かを判定する。顔の位置が追尾枠に含まれない場合はステップS303へ進み、顔の位置が追尾枠に含まれる場合はステップS327へ進む。
On the other hand, if it is not determined in step S323 that the tracking frame is set by touch input, the process proceeds to step S325, and the
システム制御回路50は、ステップS327で、所定時間経過を計測するためのタイマー時間を更新し、ステップS328へ進む。ステップS328において、システム制御回路50は、ステップS302で座標を取得した位置(1回目は画面中央)に表示用の追尾枠領域を設定する。
In step S327, the
ステップS329に進み、システム制御回路50は、画像表示メモリ24に対し、ステップS328で設定した領域に追尾枠表示を更新する。ステップS330へ進み、システム制御回路50は、上下左右キー釦が操作されたか否かを判定する。上下左右キー釦が操作された場合は、ステップS334でタイマーをリセットし、ステップS327へ戻る。一方、上下左右キー釦が操作されなかった場合は、ステップS331へ進み、所定時間が経過するまで上下左右キー釦が操作されたか否かの監視を続ける。上下左右キー釦が操作されずに所定時間が経過した場合(ステップS331でYes)は、ステップS303へ進む。
Proceeding to step S329, the
なお、ステップS334を経由してステップS330に再度進んだ場合、タイマーの所定時間を1回目より長く設定してもよい。なぜなら、ステップS334を経由した場合は、上下左右キー釦操作が行われているため、ユーザは追尾枠を移動させようとしている可能性が高い。そこで、1回目の所定時間(第2の所定時間)より長い所定時間(第1の所定時間)を設定することで、ユーザの上下左右キー釦操作による追尾枠移動をより確実に受け付けることができる。 When the process proceeds again to step S330 via step S334, the predetermined time of the timer may be set longer than the first time. This is because when the process passes through step S334, the up / down / left / right key button operation is performed, and thus the user is likely to move the tracking frame. Therefore, by setting a predetermined time (first predetermined time) longer than the first predetermined time (second predetermined time), it is possible to more reliably accept the tracking frame movement by the user's up / down / left / right key button operation. .
上記説明したように、上下左右キー釦操作から(第1の)所定時間が経過するまでは、顔検出領域に基づく追尾領域の設定を制限する。すなわち、追尾枠内に顔が検出されたとしても、顔の位置に追尾枠を自動変更させない。また、設定キー操作による追尾処理移行から(第2の)所定時間が経過するまでは、追尾枠内に顔が検出されたとしても、顔の位置に追尾枠を自動変更させない。したがって、所定時間が経過するまでの間に上下左右キー釦による操作が行われた場合は、該操作に応じて追尾枠領域が設定され、追尾枠表示が更新される。例えば、図7(I)のような画像が表示されている状態において、設定キー操作により追尾処理に移行すると、図7(J)のように中央に追尾枠が表示される。図7(J)の状態において、設定キー操作による追尾処理移行から(第2の)所定時間の間に、上下左右キー釦により右へ移動するよう操作が行われた場合は、顔の位置に追尾枠が自動変更されることなく、追尾枠を右方向へ移動することができる。さらに、上下左右キー釦の操作から(第1の)所定時間以内に上下左右キー釦を再度操作するのを続けることにより、図7(K)を経て図7(L)のように花の位置へ追尾枠を移動させることが可能になる。 As described above, the setting of the tracking area based on the face detection area is limited until the (first) predetermined time elapses after the up / down / left / right key button operation. That is, even if a face is detected in the tracking frame, the tracking frame is not automatically changed to the position of the face. Further, even if a face is detected in the tracking frame until the (second) predetermined time elapses after the tracking processing shift by the setting key operation, the tracking frame is not automatically changed to the position of the face. Therefore, when an operation with the up / down / left / right key buttons is performed before the predetermined time elapses, the tracking frame area is set according to the operation, and the tracking frame display is updated. For example, in a state where an image as shown in FIG. 7 (I) is displayed, when a tracking process is performed by a setting key operation, a tracking frame is displayed at the center as shown in FIG. 7 (J). In the state of FIG. 7 (J), when an operation is performed to move to the right by the up / down / left / right key button during the (second) predetermined time after the tracking process transition by the setting key operation, the position of the face is set. The tracking frame can be moved in the right direction without being automatically changed. Furthermore, by continuing to operate the up / down / left / right key button again within the (first) predetermined time from the operation of the up / down / left / right key button, the position of the flower as shown in FIG. 7 (L) through FIG. It becomes possible to move the tracking frame.
システム制御回路50は、ステップS323で、タッチ入力による追尾枠設定と判定した場合は、ステップS303の追尾領域を設定する処理へ進む。
If the
タッチ入力による追尾処理移行と判定した場合は、表示画面上で被写体位置を直接指定できるため、上下左右キー釦の操作によって追尾枠位置指定されることを考慮する必要性が低い。そのため、タッチ入力による追尾処理移行の場合は上記のような所定時間経過待ちをしないようにすることで、タッチ入力による表示画面の反応性を向上させることができる。なお、タッチ入力の場合も設定キー操作の場合と同様に所定時間経過待ちをさせるようにしてもよい。 When it is determined that the tracking process shifts by touch input, the subject position can be directly specified on the display screen, so that it is not necessary to consider that the tracking frame position is specified by operating the up / down / left / right key buttons. Therefore, in the case of the tracking process transition by touch input, the reactivity of the display screen by touch input can be improved by not waiting for the elapse of the predetermined time as described above. In the case of touch input, a predetermined time may be awaited as in the case of setting key operation.
ステップS303では、得られた追尾枠座標に基づいて、追尾する被写体の追尾領域を設定する。ここで、システム制御回路50は追尾領域を設定する設定手段として機能する。追尾領域を設定する処理では、画像表示メモリ24に記憶されている表示画像データとタッチされた座標あるいはステップS328で追尾枠設定された位置から表示画像データ上の位置を求める。さらに、この追尾領域を設定する処理では、表示画像データ上の位置周辺の輝度情報から得られるコントラストや、画像の特徴量などを考慮して被写体の追尾領域のサイズを求める。すなわち、タッチされた座標あるいは追尾枠設定された位置を中心として複数のサイズの仮の追尾領域を設定し、コントラストや特徴量が所定の条件を満たす仮の追尾領域の最小サイズとなるものを追尾領域として設定する。
In step S303, the tracking area of the subject to be tracked is set based on the obtained tracking frame coordinates. Here, the
ここで、コントラストや特徴量を所定の条件と比較するのは、これらの値がある程度のレベルに達していないと、他の領域との識別が困難になるためである。また、最小サイズを選択するのは、サイズを大きく設定するほど、その設定した追尾領域の中に追尾対象とする被写体の以外の背景が含まれてしまい、追尾精度が低下してしまう可能性が高くなるためである。 Here, the reason why the contrast and the feature amount are compared with predetermined conditions is that if these values do not reach a certain level, it is difficult to distinguish them from other regions. In addition, the minimum size is selected as the size is set larger, the background other than the subject to be tracked is included in the set tracking area, and the tracking accuracy may decrease. This is because it becomes higher.
ステップS304において、システム制御回路50は、ステップS303で正しく被写体の追尾領域が求められたか否かを判定し、正しく被写体の追尾領域が求められたと判定した場合(ステップS304でYES)はステップS308に進む。
In step S304, the
一方、システム制御回路50は、追尾枠座標周辺の輝度が均一でコントラストが検出できなかった場合や画面一面が同じようなパターンとなった場合、正しく追尾領域が求められないことがある。このような場合(ステップS304でNo)には、ステップS322へ進み、ステップS322の追尾不能の処理として、ユーザに追尾できない被写体である旨表示する等の処理を行い、図3のフローチャートを終了する。
On the other hand, when the brightness around the tracking frame coordinates is uniform and the contrast cannot be detected, or when the screen has a similar pattern, the
システム制御回路50は、ステップS308において、上述のようにして決定した追尾領域の色情報を記憶しておく。ステップS309に進み、システム制御回路50は、顔追尾可能な被写体かどうかの判定処理を行う。顔追尾判定処理については、図4を用いて後述する。
In step S308, the
次に、システム制御回路50は、ステップS310において、ステップS309の顔追尾判定処理において、顔追尾処理が可能と判定された場合に、ステップS311へ進み顔追尾処理を行う。
Next, when it is determined in step S310 that the face tracking process is possible in the face tracking determination process in step S309, the
この顔追尾処理では、システム制御回路50が、画像表示メモリ24の表示画像データと顔検出部101とを用いて、表示中の画面内に存在する顔の領域を求める。
In this face tracking process, the
システム制御回路50は、タッチ入力で追尾領域が設定されてから、または、物体追尾処理で追尾領域が更新されてから、顔追尾処理に初めて移行した際に、ステップS309の顔追尾判定処理で顔追尾可能と判定された顔領域を新たな追尾領域として設定する。
The
また、すでに顔追尾処理中であれば、システム制御回路50は、次の追尾領域となる顔領域を設定する。この場合には、例えば、前回の検出された追尾中の顔領域の位置と現在の表示画像データ上で検出された複数の顔領域との距離や、それぞれの顔領域の移動量や移動方向等から、前回の追尾領域として設定された顔領域と同じと思われる顔領域を設定すればよい。または、システム制御回路50は、図示しない個人認証などの制御モジュールを用いて、前回検出された追尾中の顔領域と現在の顔領域の特徴点や類似性等から顔領域の関連性を検出する。そして、システム制御回路50は、検出した顔領域の関連性から、前回の顔領域と同一と思われる顔領域を特定する等して、次の追尾領域となる顔領域を設定してもよい。
If the face tracking process is already in progress, the
次に、ステップS320へ進み、システム制御回路50は、ユーザがタッチパネル上のGUIボタン等を操作して追尾の終了の指示をしたかどうかを判定する。システム制御回路50は、追尾の終了の指示があったと判定したときは、ステップS321へ進んで追尾終了処理を行う。追尾終了処理において、システム制御回路50は、ユーザに追尾終了を通知した上で、追尾領域を示す枠(指標)の表示を終了させる。
Next, proceeding to step S320, the
ステップS320において、システム制御回路50は、タッチ追尾の終了の指示がないと判定した場合は、図3のフローチャートを終了し、図2のステップS203へと進む。そして、システム制御回路50は、ステップS203でシャッタースイッチSW1 62が押されていなければ、ステップS201を経由し、新たな表示画像データに対して、再び図3に示すフローチャートを実行する。このように、シャッタースイッチSW1 62が押されるまで、これらの処理を繰り返すことで追尾を継続する。
In step S320, if the
次に、図3で前述したステップS310において、顔追尾処理が不可能と判定された場合には、ステップS313に進み、システム制御回路50が輝度情報による物体追尾が可能であるかどうかを判定する。この輝度情報による物体追尾が可能か否かの判定は、例えば、追尾領域を含む周辺領域が追尾領域を更新したときと比較して大きく輝度が変化していないか、追尾領域周辺の輝度が均一になっていないかといった条件に基づいて行う。これらの条件により、輝度情報の相関による物体追尾の精度が低下すると判断した場合は、物体追尾不可能とする。
Next, when it is determined in step S310 described above with reference to FIG. 3 that face tracking processing is impossible, the process proceeds to step S313, and the
システム制御回路50は、上記条件に基づいて輝度情報による物体追尾可能と判断した場合には、ステップS314へ進み、輝度情報を用いた物体追尾の処理を行う。この輝度情報による物体追尾の処理は、現在の画像表示メモリ24の表示画像データと前回追尾領域が設定された表示画像データにおける追尾領域の画像データとを、画像比較部102を用いて相関を検出することにより行う。すなわち、この物体追尾の処理では、前回追尾領域が設定された表示画像データで追尾領域としていた画像データが、現在の表示画像データのどこに移動したかを、それぞれの輝度情報を用いた相関演算により算出する。そして、現在の表示画像データのうち、前回追尾領域が設定された表示画像データで追尾領域としていた画像データと最も相関の高いと判断された領域を、現在のフレーム画像における新たな追尾領域として更新することで物体追尾を行う。
If the
次に、ステップS315へ進み、システム制御回路50は、新たに追尾領域と設定された領域の色情報を記憶して、ステップS320へ進む。ステップS320において、システム制御回路50は、前述したようにユーザによる追尾の終了の指示の有無を判定し、追尾の終了の指示がないと判定したときは、この図3のフローチャートを終了し、図2のステップS203に進む。システム制御回路50は、タッチ追尾の終了の指示があったと判定したときは、ステップS321へ進んで追尾終了処理を行う。このシステム制御回路50は、追尾終了処理において、ユーザに追尾終了を通知した上で、追尾領域を示す枠(指標)の表示を終了させる。
Next, the process proceeds to step S315, and the
次に、前述したステップS313で、システム制御回路50が、輝度情報による物体追尾が可能であるか否かを判定した結果、物体追尾不能と判定した場合には、ステップS316へ進む。ステップS316で、システム制御回路50は、輝度情報での物体追尾が不能と判断された追尾領域に対して、次に色情報を用いた追尾を試みる。このため、システム制御回路50は、前述したステップS308又はステップS315において色情報が記憶されているかを検出する。色情報が記憶されている場合、システム制御回路50は、その色情報を用いて現在の表示画像データと類似した色分布を持つ領域がないか、表示画像データ上で検索する。
Next, when the
次に、ステップS317に進んで、システム制御回路50は、色情報による追尾領域の検索で新たに追尾領域の検索に成功したかどうかを判定する。成功したと判断した場合には、再度追尾可能として、ステップS318に進む。具体的には、システム制御回路50は、記憶した色情報から色相のヒストグラムを生成し、このヒストグラムとの差分が最も小さくなる領域を検出する。そして、その差分が予め定めた閾値以下であった場合には、色情報による追尾領域の検索に成功したと判断し、検出できなかった場合には失敗したと判断する。ステップS318において、システム制御回路50は、検索に成功した領域を新しい追尾領域として設定する。さらにステップS315に進み、システム制御回路50は、新たに追尾領域と設定された領域の色情報を記憶する。
Next, proceeding to step S317, the
一方、前述したステップS317において、システム制御回路50は、色情報による追尾領域の検索で新たな追尾領域の検索に失敗したと判断した場合に、ステップS321に進み、追尾処理を終了する。
On the other hand, when the
次に、前述したステップS309における顔追尾判定処理について、図4を参照しながら説明する。顔追尾判定処理では、システム制御回路50が、現在の追尾領域に対して、顔検出結果に基づく顔追尾処理に切り替えるかどうかの判定を行う。この顔追尾判定処理では、上述したように、顔追尾処理可能と判定された場合に、顔検出結果に基づく追尾を行うことになる。また、この顔追尾判定処理で顔追尾処理が不可能と判定された場合、顔検出部101による顔検出結果を用いずに、現在の追尾領域について輝度情報や色情報に基づく物体追尾処理を実施する。
Next, the face tracking determination process in step S309 described above will be described with reference to FIG. In the face tracking determination process, the
顔追尾判定処理が開始され、ステップS400に進むと、システム制御回路50は、現在の追尾領域の座標を取得する。
When the face tracking determination process is started and the process proceeds to step S400, the
ステップS401に進んで、システム制御回路50は、顔検出部101を制御して、画像表示メモリ24にある現在表示中の表示画像データから表示画像データ上にある人物の顔と思われるすべての領域を検出し、それぞれの領域の座標を取得する。
Proceeding to step S401, the
次に、ステップS402に進んで、システム制御回路50は、顔検出の結果、表示画像データから顔領域が検出できたか否かを判定する。システム制御回路50は、顔領域が検出できなかった場合(ステップS402でNO)、ステップS420へ進んで顔検出回数をカウントアップした後に、ステップS421に進み、顔追尾不可能と判定する。
In step S402, the
一方、システム制御回路50は、顔領域が検出できた場合(ステップS402でYES)、次のステップS403へ進む。ステップS403において、システム制御回路50は、追尾領域と検出されたすべての顔領域との距離をそれぞれ算出する。ステップS404に進み、システム制御回路50は、ステップS403において算出された距離の中から最も追尾領域と近い位置にある最至近顔領域を決定する。
On the other hand, if the face area can be detected (YES in step S402), the
次に、ステップS405に進み、システム制御回路50は、追尾枠指定からの追尾経過時間が所定時間未満か判定する。この追尾経過時間は、追尾枠指定してから追尾を継続して成功している時間のことであり、途中で追尾に失敗した場合にはリセットされる。システム制御回路50は、追尾枠指定からの追尾経過時間が所定時間未満であると判定した場合(ステップS405でYES)、ステップS406に進む。一方、追尾枠指定からの追尾経過時間が所定時間以上であると判定した場合(ステップS405でNO)、システム制御回路50は、ステップS408に進み、顔追尾不可能と判定する。
Next, proceeding to step S405, the
ステップS406において、システム制御回路50は、ステップS404で決定した最至近顔領域と追尾領域との距離が所定の閾値(所定距離)未満であるかを判定する。システム制御回路50は、閾値未満であると判断した場合(ステップS406でYES)、ステップS407へ進み、最至近顔領域での顔追尾可能な場合と判定し、顔追尾判定処理を終了する。
In step S406, the
一方、システム制御回路50は、最至近顔領域との距離が閾値以上であると判断した場合(ステップS406でNO)、ステップS408で顔追尾不能と判定し、この顔追尾判定処理を終了する。これは、ユーザが追尾枠指定した位置と顔領域とが離れているのであれば、ユーザは顔以外のものを追尾枠指定で追尾対象として指定する意図があると考えられるためである。
On the other hand, if the
なお、例えば図6(A)に示すように、タッチ入力による追尾枠領域指定の際、横顔や後ろ向きの顔等が選択され、顔検出できない場合がある。そのような場合でも、その後、図6(B)のように人物の顔が正面を向いて、安定して顔が検出できるようになる場合がある。この場合には、特開2011−35765号公報に記載のような制御によって、図6(C)、(D)のように顔検出結果による顔追尾が可能となる。 For example, as shown in FIG. 6A, when a tracking frame region is specified by touch input, a side face, a face facing backward, or the like may be selected, and face detection may not be performed. Even in such a case, the face of the person faces the front as shown in FIG. 6B, and the face can be detected stably thereafter. In this case, face tracking based on the face detection result can be performed as shown in FIGS. 6C and 6D by control as described in Japanese Patent Application Laid-Open No. 2011-35765.
なお、上記実施形態では、ユーザが追尾対象とする被写体を指定する際、操作部70に含まれるタッチパネル、上下左右キー釦などを用いることを例にあげたが、これに限られるものではない。操作部70に含まれるダイアルや表示上のアイコンによって被写体を指定しても構わない。あるいは、動画像を取り込んだパーソナルコンピュータのアプリケーション上で上述した追尾処理を行う場合であれば、カーソルで追尾対象とする被写体を指定したり、キーボードにて追尾対象とする被写体が存在する画面上の領域を指定するようにしても構わない。
In the above embodiment, when the user designates the subject to be tracked, the touch panel and the up / down / left / right key buttons included in the
また、上記実施形態では、顔検出部101の例として、表示画像データから顔領域を検出する例をあげたが、撮像素子14にて生成された信号から、表示画像データとは別に、表示画像データよりも解像度を低くした顔検出用の画像データを生成しても構わない。
In the above embodiment, as an example of the
また、物体追尾処理の例として、輝度情報と色情報のいずれかを選択し、選択した情報の相関を用いて、新たな画像データから追尾領域を検出する構成を例にあげたが、これに限られるものではない。輝度情報と色情報の両方の相関の総和から新たな追尾領域を求める構成としてもよいし、輝度情報と色情報の一方のみを用いて新たな追尾領域を求めるようにしてもよい。すなわち、画像間の相関の高い領域を検出し続けることで、追尾領域を更新する構成であればよい。 In addition, as an example of object tracking processing, a configuration in which either luminance information or color information is selected and a tracking area is detected from new image data using the correlation of the selected information has been described as an example. It is not limited. A new tracking area may be obtained from the sum of correlations of both luminance information and color information, or a new tracking area may be obtained using only one of luminance information and color information. That is, any configuration may be used as long as the tracking region is updated by continuously detecting a region having a high correlation between images.
さらに、上記実施形態は撮影時に限らず、すでに撮影された動画像に対して、パーソナルコンピュータのアプリケーション上で上述した主被写体の追尾処理を行うように構成しても良い。主被写体を追尾することで、この主被写体を中心とした輝度調整や色調整を動画像に対して行うことが可能となる。デジタルカメラやデジタルビデオカメラにて撮影された動画像を再生する場合でも同様である。 Furthermore, the above-described embodiment is not limited to shooting, and the main subject tracking process described above may be performed on a moving image that has already been shot on an application of a personal computer. By tracking the main subject, it is possible to perform luminance adjustment and color adjustment around the main subject on the moving image. The same applies to the case of playing back a moving image shot with a digital camera or digital video camera.
なお、本発明は上述したこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲で種々の形態を取り得ることは勿論である。また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又はソフトウェアが記憶された各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 Note that the present invention is not limited to these specific embodiments described above, and it is needless to say that the present invention can take various forms without departing from the gist of the present invention. The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media storing software, and the computer of the system or apparatus (or CPU, MPU, or the like). Is a process of reading and executing the program.
18 表示部
20 画像処理回路
50 システム制御回路
70 操作部
101 顔検出部
102 画像比較部
DESCRIPTION OF
Claims (10)
画像信号に基づく画像とともに、設定されている追尾領域の位置を示す表示を表示する表示手段と、
前記追尾領域の位置を示す表示を複数の方向に移動可能な操作部材を含んで構成され、前記表示手段に表示された画像からユーザが位置を指定するための第1の指定手段と、
画像信号から顔領域を検出する顔検出手段と、
追尾を行う対象としての追尾領域を設定する設定手段であって、前記顔領域に基づいて追尾領域を設定可能な設定手段とを有し、
前記設定手段は、前記第1の指定手段を介した操作が行われてから第1の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする画像処理装置。 In an image processing apparatus that performs tracking by continuously detecting a tracking region that is a region of a subject to be tracked from a moving image composed of a plurality of images,
Display means for displaying a display indicating the position of the set tracking area together with an image based on the image signal;
A first designation unit configured to include an operation member capable of moving a display indicating the position of the tracking region in a plurality of directions, and for a user to designate a position from an image displayed on the display unit;
Face detection means for detecting a face area from an image signal;
Setting means for setting a tracking area as a target to be tracked, and setting means capable of setting the tracking area based on the face area;
The setting unit restricts the setting of the tracking region based on the face region from when the operation through the first specifying unit is performed until a first predetermined time elapses. Processing equipment.
前記設定手段は、所定の条件を満たす場合に、前記指示手段を介した操作が行われてから第2の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 An instruction means for the user to instruct the start of tracking;
The setting means restricts the setting of the tracking area based on the face area from when the operation through the instruction means is performed until a second predetermined time elapses when a predetermined condition is satisfied. the image processing apparatus according to any one of claims 1 to 3, wherein.
前記設定手段は、前記第2の指定手段を介して位置を指定された場合、該指定された位置に基づいて追尾領域を設定することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 A second designation means for the user to designate a position by a touch operation from the image displayed on the display means;
The said setting means sets a tracking area | region based on this designated position, when a position is designated via the said 2nd designation means, The any one of Claim 1 thru | or 7 characterized by the above-mentioned. The image processing apparatus described.
画像信号から検出された顔領域の情報を取得する取得ステップと、
追尾を行う対象としての追尾領域を設定する設定ステップであって、前記顔領域に基づいて追尾領域を設定可能な設定ステップとを有し、
前記設定ステップにおいて、前記第1の指定手段を介した操作が行われてから第1の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする画像処理装置の制御方法。 A display means for displaying a display indicating the position of the set tracking area together with an image based on the image signal, and an operation member capable of moving the display indicating the position of the tracking area in a plurality of directions, A first designation means for the user to designate a position from an image displayed on the display means, and a tracking area that is a subject area to be tracked is continuously detected from a moving image composed of a plurality of images. In the control method of the image processing apparatus that performs tracking by
An acquisition step of acquiring information of the face area detected from the image signal;
A setting step for setting a tracking area as a target to be tracked, and a setting step capable of setting a tracking area based on the face area;
In the setting step, the setting of the tracking area based on the face area is limited until the first predetermined time elapses after the operation through the first specifying means is performed. A method for controlling a processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012001328A JP5888986B2 (en) | 2012-01-06 | 2012-01-06 | Image processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012001328A JP5888986B2 (en) | 2012-01-06 | 2012-01-06 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013143578A JP2013143578A (en) | 2013-07-22 |
JP2013143578A5 JP2013143578A5 (en) | 2015-02-26 |
JP5888986B2 true JP5888986B2 (en) | 2016-03-22 |
Family
ID=49039942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012001328A Active JP5888986B2 (en) | 2012-01-06 | 2012-01-06 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5888986B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6579925B2 (en) * | 2015-11-17 | 2019-09-25 | キヤノン株式会社 | Image reproducing apparatus, control method therefor, program, and recording medium |
JP6702746B2 (en) | 2016-02-10 | 2020-06-03 | キヤノン株式会社 | Imaging device, control method thereof, program, and storage medium |
JP7034619B2 (en) * | 2017-07-19 | 2022-03-14 | キヤノン株式会社 | Image pickup device, its control method, and program, and storage medium |
CN117519488B (en) * | 2024-01-05 | 2024-03-29 | 四川中电启明星信息技术有限公司 | Dialogue method and dialogue system of dialogue robot |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4314043B2 (en) * | 2003-03-10 | 2009-08-12 | キヤノン株式会社 | Imaging device |
JP2006251682A (en) * | 2005-03-14 | 2006-09-21 | Fujinon Corp | Automatic focusing system |
JP5474528B2 (en) * | 2009-12-25 | 2014-04-16 | 富士フイルム株式会社 | Auto focus system |
-
2012
- 2012-01-06 JP JP2012001328A patent/JP5888986B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013143578A (en) | 2013-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109076156B (en) | Electronic device and control method thereof | |
JP5361528B2 (en) | Imaging apparatus and program | |
US20120275648A1 (en) | Imaging device and imaging method and program | |
JP5419585B2 (en) | Image processing apparatus, image processing method, and program | |
KR20100082147A (en) | Method for enlarging and changing captured image, and phographed apparatus using the same | |
JP5258399B2 (en) | Image projection apparatus and control method thereof | |
JP2018125612A (en) | Imaging apparatus and control method thereof | |
CN101998056A (en) | Imaging apparatus having autofocus function, and control method for the imaging apparatus | |
KR20170063388A (en) | Electronic device and method for controlling the same | |
US20120002094A1 (en) | Image pickup apparatus for providing reference image and method for providing reference image thereof | |
JP5888986B2 (en) | Image processing apparatus and control method thereof | |
JP2018129765A (en) | Imaging apparatus and control method | |
JP6525809B2 (en) | Focus detection apparatus and control method thereof | |
JP2018036802A (en) | Electronic apparatus and method for controlling the same | |
JP5783696B2 (en) | Imaging apparatus, auto zoom method, and program | |
JP2021021857A (en) | Imaging apparatus and control method thereof | |
JP2017126915A (en) | Imaging apparatus | |
JP7158841B2 (en) | Imaging device, imaging method, program, recording medium, and image processing device | |
JP5328528B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2014017665A (en) | Display control unit, control method for display control unit, program, and recording medium | |
JP2019087924A (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP5067884B2 (en) | Imaging apparatus, control method thereof, and program | |
JP5562479B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019012900A (en) | Imaging control device, control method, program and storage medium | |
JP2015034895A (en) | Imaging device and control method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160216 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5888986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |