JP5888986B2 - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP5888986B2
JP5888986B2 JP2012001328A JP2012001328A JP5888986B2 JP 5888986 B2 JP5888986 B2 JP 5888986B2 JP 2012001328 A JP2012001328 A JP 2012001328A JP 2012001328 A JP2012001328 A JP 2012001328A JP 5888986 B2 JP5888986 B2 JP 5888986B2
Authority
JP
Japan
Prior art keywords
tracking
face
area
setting
control circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012001328A
Other languages
Japanese (ja)
Other versions
JP2013143578A5 (en
JP2013143578A (en
Inventor
佐々木 太
太 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012001328A priority Critical patent/JP5888986B2/en
Publication of JP2013143578A publication Critical patent/JP2013143578A/en
Publication of JP2013143578A5 publication Critical patent/JP2013143578A5/ja
Application granted granted Critical
Publication of JP5888986B2 publication Critical patent/JP5888986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被写体追尾処理の機能を備えた画像処理装置およびその制御方法に関する。   The present invention relates to an image processing apparatus having a subject tracking function and a control method thereof.

従来のデジタルカメラには、動画像中のいずれかのフレーム画像から任意の被写体を追尾対象として選択し、それよりも後のフレーム画像の中から、この追尾対象の被写体の輝度信号や色信号と相関の高い領域を検出することで追尾を行うものがある(特許文献1を参照)。   In a conventional digital camera, an arbitrary subject is selected as a tracking target from any one of the frame images in the moving image, and the luminance signal and color signal of the tracking target subject are selected from the frame images after that. There is one that performs tracking by detecting a region having a high correlation (see Patent Document 1).

また、顔検出機能を搭載したデジタルカメラが従来より知られている。このようなデジタルカメラでは、自動的に認識した顔の位置に基づいて、オートフォーカス処理、自動露光処理、オートホワイトバランス処理等を行い、ユーザに快適な撮影環境を提供している。そして、この顔検出機能を追尾に利用することで、人物の顔が移動したとしても、その人物の顔を追尾できる。例えば、画像から複数の顔が検出された場合には、それよりも前の画像で検出された各々の顔の位置やサイズ、あるいは、蓄積した移動方向から、画像間で同一人物の顔を識別して追尾を行う(特許文献2を参照)。   A digital camera equipped with a face detection function has been known. In such a digital camera, an autofocus process, an automatic exposure process, an auto white balance process, and the like are performed based on the automatically recognized face position to provide a comfortable shooting environment for the user. By using this face detection function for tracking, even if a person's face moves, the person's face can be tracked. For example, when multiple faces are detected from an image, the faces of the same person are identified between the images based on the position and size of each face detected in the previous image or the accumulated moving direction. Tracking is performed (see Patent Document 2).

また、追尾と顔検出の両方の技術を用い、AF枠の範囲内に人物の顔が含まれているか否かを判別し、その判別結果により追尾モードを変更する技術がある。ここで、AF枠の範囲内に人物の顔が含まれている場合には顔検出追尾モードによるAF枠自動追尾の開始を指示し、人物の顔が含まれていない場合には物体追尾モードによるAF枠自動追尾の開始を指示する。(特許文献3を参照)。   Further, there is a technique for determining whether or not a person's face is included in the range of the AF frame by using both tracking and face detection techniques, and changing the tracking mode based on the determination result. Here, when the face of a person is included in the range of the AF frame, the start of AF frame automatic tracking in the face detection tracking mode is instructed. When the face of the person is not included, the object tracking mode is used. Instructs the start of AF frame automatic tracking. (See Patent Document 3).

さらに、タッチパネルを採用し、顔検出機能を備えたデジタルカメラでは、ユーザがタッチパネルを用いて指定した人物の顔を被写体とし、その顔を基準に撮影を行えるようにしたものがある(特許文献4を参照)。   Furthermore, some digital cameras that employ a touch panel and have a face detection function can take a person's face designated by the user using the touch panel as a subject, and perform shooting based on that face (Patent Document 4). See).

これらの技術を用いて、ユーザがタッチパネルで顔以外の物体を指定した場合には、追尾対象と輝度信号や色信号と相関の高い領域を検出する物体追尾を実行し、顔を指定した場合には、顔検出機能を利用した顔追尾を実行することが考えられる。   Using these technologies, when a user specifies an object other than a face on the touch panel, object tracking is performed to detect a tracking target and an area highly correlated with a luminance signal or color signal, and a face is specified. It is conceivable to perform face tracking using a face detection function.

特開2010−124120号公報JP 2010-124120 A 特開2008−271310号公報JP 2008-271310 A 特開2011−27846号公報JP 2011-27846 A 特開2009−10777号公報JP 2009-10777 A

タッチパネルにより直接追尾対象位置を設定する場合は、ユーザが意図する被写体を追尾領域として追尾させることができる。しかしながら、上下左右釦などを用いて追尾対象を指定するために追尾枠位置を移動させる場合、移動中の追尾枠位置近辺で顔検出されると、自動的に顔検出追尾モードに切り替わってしまう。この場合、ユーザが意図する被写体が顔で無い場合も自動的に顔検出追尾モードに切り替わるため、ユーザが指定したい追尾対象位置を設定することができないことがある。   When the tracking target position is directly set by the touch panel, a subject intended by the user can be tracked as a tracking area. However, when the tracking frame position is moved to specify the tracking target using the up / down / left / right buttons, etc., if a face is detected in the vicinity of the moving tracking frame position, the face detection / tracking mode is automatically switched. In this case, even if the subject intended by the user is not a face, the mode automatically switches to the face detection tracking mode, and therefore it may not be possible to set the tracking target position that the user wants to specify.

本発明の目的は、上下左右釦などで追尾枠を設定する場合でも、ユーザの意図通りの被写体を追尾することが可能な画像処理装置を提供することである。   An object of the present invention is to provide an image processing apparatus capable of tracking a subject as intended by a user even when a tracking frame is set with up / down / left / right buttons or the like.

上記課題目的を達成するために、本発明は、複数の画像から構成された動画像から追尾すべき被写体の領域である追尾領域を連続して検出することで追尾を行う画像処理装置において、画像信号に基づく画像とともに、設定されている追尾領域の位置を示す表示を表示する表示手段と、前記追尾領域の位置を示す表示を複数の方向に移動可能な操作部材を含んで構成され、前記表示手段に表示された画像からユーザが位置を指定するための第1の指定手段と、画像信号から顔領域を検出する顔検出手段と、追尾を行う対象としての追尾領域を設定する設定手段であって、前記顔領域に基づいて追尾領域を設定可能な設定手段とを有し、前記設定手段は、前記第1の指定手段を介した操作が行われてから第1の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする。 In order to achieve the above object, the present invention provides an image processing apparatus that performs tracking by continuously detecting a tracking region that is a region of a subject to be tracked from a moving image composed of a plurality of images. A display means for displaying a display indicating the position of the set tracking area together with an image based on the signal, and an operation member capable of moving the display indicating the position of the tracking area in a plurality of directions. A first specifying means for a user to specify a position from an image displayed on the means, a face detecting means for detecting a face area from an image signal, and a setting means for setting a tracking area as an object to be tracked. Setting means capable of setting a tracking area based on the face area, and the setting means until a first predetermined time elapses after an operation through the first designation means is performed. Before And limits the configuration of the tracking area based on the face area.

本発明によれば、上下左右釦などで追尾枠を設定する場合でも、ユーザの意図通りの被写体を追尾することが可能になる。   According to the present invention, it is possible to track a subject as intended by a user even when a tracking frame is set with up / down / left / right buttons.

本発明の実施の形態に係る制御系の構成を示すブロック図である。It is a block diagram which shows the structure of the control system which concerns on embodiment of this invention. 本発明の実施の形態に係る撮影処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the imaging | photography process which concerns on embodiment of this invention. 本発明の実施の形態に係る追尾処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the tracking process which concerns on embodiment of this invention. 本発明の実施の形態に係る顔追尾判定処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the face tracking determination process which concerns on embodiment of this invention. ユーザからのタッチ入力による顔追尾処理を行っているときの、表示画面の変遷を示す画面表示説明図である。It is screen display explanatory drawing which shows the transition of a display screen when performing the face tracking process by the touch input from a user. 本発明の実施の形態に係るデジタルカメラで、ユーザ入力で横顔が指定されたときに、物体追尾処理から顔追尾処理へ移行するときの、表示画面の変遷を示す画面表示説明図である。FIG. 10 is a screen display explanatory diagram showing a transition of a display screen when shifting from an object tracking process to a face tracking process when a profile is designated by a user input in the digital camera according to the embodiment of the present invention. ユーザによる追尾枠指定時における課題と、本発明の実施の形態に係る追尾処理を説明するための画面表示説明図である。It is screen display explanatory drawing for demonstrating the subject at the time of the tracking frame designation | designated by a user, and the tracking process which concerns on embodiment of this invention.

以下、本発明の実施の形態について、図面を参照しながら説明する。本実施形態では、動画像中でユーザが指定した被写体を追尾する機能と、画像から人物の顔領域を検出する顔検出機能を備えたデジタルカメラ(画像処理装置)を例にあげて説明を行う。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In this embodiment, a digital camera (image processing apparatus) having a function for tracking a subject designated by a user in a moving image and a face detection function for detecting a human face area from an image will be described as an example. .

図1に示すデジタルカメラは、撮影レンズ10、絞り機能を備えるシャッター12、光学像を電気信号(画像信号)に変換する撮像素子14を備える。撮像素子14から撮像時に出力されたアナログ信号は、A/D変換器16によって、ディジタル信号(画像信号)に変換される。   The digital camera shown in FIG. 1 includes a photographing lens 10, a shutter 12 having a diaphragm function, and an image sensor 14 that converts an optical image into an electrical signal (image signal). An analog signal output at the time of imaging from the image sensor 14 is converted into a digital signal (image signal) by the A / D converter 16.

制御部を構成するメモリ制御回路22及びシステム制御回路50は、タイミング発生回路18を制御する。タイミング発生回路18は、クロック信号や制御信号を撮像素子14、A/D変換器16及びD/A変換器26に供給してコントロールする。   The memory control circuit 22 and the system control circuit 50 constituting the control unit control the timing generation circuit 18. The timing generation circuit 18 supplies a clock signal and a control signal to the image sensor 14, the A / D converter 16 and the D / A converter 26 for control.

メモリ制御回路22は、A/D変換器16、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16からのデータ(画像信号)或いはメモリ制御回路22から出力されたデータ(画像信号)は、画像処理回路20によって所定の画素補間処理や色変換処理が施され、画像表示メモリ24或いはメモリ30に書き込まれる。この画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器26を介して、TFT LCD等から成る表示部28(表示手段)に表示される。この表示部28は、撮像素子14から連続して出力された信号から生成された画像データを、動画像としてリアルタイムで表示することにより、電子ファインダ機能を担う。また、メモリ30は、撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。このメモリ30は、システム制御回路50の作業領域としても使用可能に構成されている。   The memory control circuit 22 controls the A / D converter 16, the image processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32. The data (image signal) output from the A / D converter 16 or the data (image signal) output from the memory control circuit 22 is subjected to predetermined pixel interpolation processing and color conversion processing by the image processing circuit 20, and the image display memory. 24 or the memory 30. The display image data written in the image display memory 24 is displayed on a display unit 28 (display means) comprising a TFT LCD or the like via a D / A converter 26. The display unit 28 functions as an electronic finder by displaying image data generated from signals continuously output from the image sensor 14 in real time as a moving image. The memory 30 is a memory for storing captured still images and moving images, and has a sufficient storage capacity for storing a predetermined number of still images and moving images for a predetermined time. The memory 30 is configured to be usable as a work area for the system control circuit 50.

このメモリ30に格納された画像は、圧縮・伸長回路32に読み込まれて、適応離散コサイン変換(ADCT)等により画像データが圧縮処理又は伸長処理される。この圧縮伸長処理後のデータは、メモリ30に書き込まれる。   The image stored in the memory 30 is read into the compression / decompression circuit 32, and the image data is compressed or expanded by adaptive discrete cosine transform (ADCT) or the like. The data after the compression / decompression process is written into the memory 30.

また、本実施形態のデジタルカメラは、各種の動作指示を入力するための操作手段としてのシャッタースイッチSW1 62、シャッタースイッチSW2 64、操作部70を備える。操作部70は、例えば、スイッチ、上下左右キー釦、ダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。ここで、操作部70に含まれるタッチパネルは、表示部28と一体的に構成されており、ユーザが表示部28の画面に触れることで、その触れた位置の画面上の座標を示す情報をシステム制御回路50に送信する。   In addition, the digital camera of this embodiment includes a shutter switch SW1 62, a shutter switch SW2 64, and an operation unit 70 as operation means for inputting various operation instructions. The operation unit 70 includes, for example, a single or a combination of a switch, up / down / left / right key buttons, dial, touch panel, pointing by line-of-sight detection, a voice recognition device, and the like. Here, the touch panel included in the operation unit 70 is configured integrally with the display unit 28, and when the user touches the screen of the display unit 28, information indicating coordinates on the screen at the touched position is displayed in the system. It transmits to the control circuit 50.

タイマー130は、撮影時間の生成や経過時間の計測に使用するもので、システム制御回路50によって制御される。追尾指定判定部131は操作部70を監視し、タッチパネルで直接追尾枠が設定されたか否かを判定するものである。   The timer 130 is used for generating the shooting time and measuring the elapsed time, and is controlled by the system control circuit 50. The tracking designation determination unit 131 monitors the operation unit 70 and determines whether or not a tracking frame is set directly on the touch panel.

また、このデジタルカメラでは、AF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行う。このため、デジタルカメラの画像処理回路20は、撮像された画像データに対して所定の演算処理を行い、得られた演算結果に基づいてシステム制御回路50が露光制御回路40、測距制御回路42を制御する。さらに、画像処理回路20は、撮像した画像データ(画像信号)を用いて所定の演算処理を行い、得られた演算結果に基づいてAWB(オートホワイトバランス)処理を行う。露光制御回路40は、絞り機能を備えるシャッター12を制御し、測距制御回路42は、撮影レンズ10のフォーカシングを制御する。また、システム制御回路50は、撮影レンズ10のズーミングを制御するズーム制御回路44を制御する。   In addition, this digital camera performs AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing. For this reason, the image processing circuit 20 of the digital camera performs predetermined calculation processing on the captured image data, and the system control circuit 50 performs the exposure control circuit 40 and the distance measurement control circuit 42 based on the obtained calculation result. To control. Further, the image processing circuit 20 performs predetermined calculation processing using the captured image data (image signal), and performs AWB (auto white balance) processing based on the obtained calculation result. The exposure control circuit 40 controls the shutter 12 having a diaphragm function, and the distance measurement control circuit 42 controls the focusing of the photographing lens 10. Further, the system control circuit 50 controls a zoom control circuit 44 that controls zooming of the taking lens 10.

システム制御回路50には、画像処理回路20で処理された画像データや画像表示メモリ24に保存されている画像データの解析を行い画像データ内の顔と思われる領域を検出する、顔検出部101(顔検出手段)が接続されている。顔検出部101は、例えば、画像データ内で人物の目、鼻、口らしき形状のものが所定の位置関係で配置されている領域を顔領域として検出する。顔検出部101は、顔と思われる領域を検出した際に、人間の顔と思われる確率、入力画像データ中の位置及びサイズ等を出力する。また、顔検出部は、検出した顔の各々の特徴点の特徴量を出力することができるように構成されている。   The system control circuit 50 analyzes the image data processed by the image processing circuit 20 and the image data stored in the image display memory 24 to detect a region that seems to be a face in the image data. (Face detection means) is connected. For example, the face detection unit 101 detects, as a face region, a region in which human eyes, nose, and mouth-like shapes are arranged in a predetermined positional relationship in the image data. When the face detection unit 101 detects a region that seems to be a face, the face detection unit 101 outputs a probability that it is considered to be a human face, a position and size in the input image data, and the like. Further, the face detection unit is configured to output the feature amount of each feature point of the detected face.

システム制御回路50には、画像表示メモリ24やメモリ30に記録された2つの画像に対して輝度情報と色情報の少なくとも一方を基に画像の差分演算を行い、画像間で相関の高い領域を検出する画像比較部102が接続されている。   The system control circuit 50 performs an image difference calculation on the two images recorded in the image display memory 24 and the memory 30 based on at least one of luminance information and color information, and selects a region having a high correlation between the images. An image comparison unit 102 to be detected is connected.

システム制御回路50には、電気的に消去・記録可能なEEPROM等で構成された不揮発性メモリ56が接続されている。また、システム制御回路50には、メモリカード等の外部記録媒体とデータの送受信を行うカードコントローラ90が接続され、該カードコントローラ90を介してメモリカード等の外部記録媒体120が接続されている。   The system control circuit 50 is connected to a nonvolatile memory 56 composed of an electrically erasable / recordable EEPROM or the like. The system control circuit 50 is connected to a card controller 90 that transmits / receives data to / from an external recording medium such as a memory card, and an external recording medium 120 such as a memory card is connected via the card controller 90.

システム制御回路50は、不図示のROMに記憶されたプログラムに従って以下に説明する各処理を実行する。システム制御回路50に接続されたシャッタースイッチSW1 62は、不図示のシャッターボタンの操作途中の状態でON指示の信号をシステム制御回路50に出力する。このON信号を受けたシステム制御回路50は、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。   The system control circuit 50 executes each process described below according to a program stored in a ROM (not shown). The shutter switch SW1 62 connected to the system control circuit 50 outputs an ON instruction signal to the system control circuit 50 in a state in which a shutter button (not shown) is being operated. Upon receiving this ON signal, the system control circuit 50 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-emission) processing.

また、シャッタースイッチSW2 64は、不図示のシャッターボタンの操作完了の状態でON指示の信号をシステム制御回路50に出力する。このON指示の信号を受けたシステム制御回路50は、撮像素子14から読み出した信号をA/D変換器16及びメモリ制御回路22を介してメモリ30に画像データを書き込む本撮影の露光処理の動作開始を指示する。次に、このシステム制御回路50は、画像処理回路20やメモリ制御回路22での演算結果を用いた現像処理の動作開始を指示する。さらに、システム制御回路50は、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行い、外部記録媒体120に画像データを書き込む記録処理の動作開始を指示する。   Further, the shutter switch SW2 64 outputs an ON instruction signal to the system control circuit 50 in a state where the operation of a shutter button (not shown) is completed. Upon receiving this ON instruction signal, the system control circuit 50 performs an exposure process operation of the main photographing in which the signal read from the image sensor 14 is written into the memory 30 via the A / D converter 16 and the memory control circuit 22. Instruct the start. Next, the system control circuit 50 instructs the start of development processing using the calculation results in the image processing circuit 20 and the memory control circuit 22. Furthermore, the system control circuit 50 reads out the image data from the memory 30, compresses it with the compression / decompression circuit 32, and instructs the start of the recording process for writing the image data into the external recording medium 120.

次に、上述のように構成されたデジタルカメラにおける撮影処理について、図2のフローチャートを参照して説明する。   Next, photographing processing in the digital camera configured as described above will be described with reference to the flowchart of FIG.

このデジタルカメラの撮影処理では、デジタルカメラの電源が入って撮影可能状態となると、制御部を構成するメモリ制御回路22及びシステム制御回路50が、撮影処理の動作を開始する。システム制御回路50は、撮像素子14への露光を開始し、連続して生成される画像データを用いて表示部28に動画像をリアルタイムで表示させる。   In this digital camera photographing process, when the digital camera is turned on and ready for photographing, the memory control circuit 22 and the system control circuit 50 constituting the control unit start the photographing process. The system control circuit 50 starts exposure to the image sensor 14 and causes the display unit 28 to display a moving image in real time using continuously generated image data.

この撮影処理では、ステップS201において現在の撮影モードが操作部70に含まれるタッチパネルからのユーザ入力(以後、タッチ入力)あるいは指定手段としての上下左右キー釦(操作部材)操作によるユーザ入力に対応して追尾枠指定が可能な追尾モードかどうかを判断する。本実施形態では、表示部28が動画像を表示している際に、ユーザが表示部28の画面(操作部70に含まれるタッチパネル)に触れる、あるいは操作部70に含まれる設定キー(不図示)を操作することで追尾処理に移行する。なお、追尾処理への移行の操作はこれらに限定されず、設定キー以外の他の所定キー操作により追尾処理へ移行するようにしてもよい。   In this shooting process, in step S201, the current shooting mode corresponds to a user input from the touch panel included in the operation unit 70 (hereinafter referred to as touch input) or a user input by operating the up / down / left / right key button (operation member) as a designation unit. To determine whether or not the tracking mode allows specification of a tracking frame. In the present embodiment, when the display unit 28 displays a moving image, the user touches the screen of the display unit 28 (a touch panel included in the operation unit 70) or a setting key (not shown) included in the operation unit 70. ) To move to the tracking process. The operation for shifting to the tracking process is not limited to these, and the process may be shifted to the tracking process by a predetermined key operation other than the setting key.

なお、ユーザは追尾処理の実行の可否を操作部70に含まれるメニューボタンで事前に設定することができる。本実施例では、メニューボタンで事前に「顔+追尾優先AFモード」が設定されている場合、追尾処理を実行することが可能になる。システム制御回路50は、追尾処理の実行が可能な「顔+追尾優先AFモード」であると判定した場合(ステップS201でYES)に、ステップS202へ進み、後述する追尾処理のサブフローを実行する。   Note that the user can set in advance whether or not the tracking process can be performed using a menu button included in the operation unit 70. In the present embodiment, when the “face + tracking priority AF mode” is set in advance with the menu button, the tracking process can be executed. If the system control circuit 50 determines that the “face + tracking priority AF mode” in which the tracking process can be executed (YES in step S201), the system control circuit 50 proceeds to step S202 and executes a tracking process sub-flow described later.

追尾処理(ステップS202)では、ユーザからのタッチ入力、設定キー操作を受け付けると、タッチ入力された位置あるいは所定の位置(ここでは画面中央)を追尾枠位置として画面内の座標に変換する処理を実行する。このとき、デジタルカメラでは、ユーザのタッチ入力に対応した位置に表示中の画面に重畳して枠(指標)を表示することによって、タッチ入力が受け付けられたことを表示するように構成しても良い。   In the tracking process (step S202), when a touch input and a setting key operation are received from the user, a process of converting the touch-input position or a predetermined position (here, the center of the screen) into coordinates within the screen as a tracking frame position. Run. At this time, the digital camera may be configured to display that the touch input has been received by displaying a frame (indicator) superimposed on the screen being displayed at a position corresponding to the user's touch input. good.

さらに、この追尾処理(ステップS202)では、タッチ入力あるいは設定キー操作に基づいて、追尾枠位置における被写体判定を行い、その判定に応じて被写体に合わせた追尾処理を開始して次のステップS203へ進む。なお、追尾処理については、図3のフローチャートを用いて、後に詳述する。   Further, in this tracking process (step S202), subject determination at the tracking frame position is performed based on touch input or setting key operation, and tracking processing according to the subject is started according to the determination, and the process proceeds to the next step S203. move on. The tracking process will be described in detail later using the flowchart of FIG.

ステップS202の追尾処理の後、システム制御回路50は、ステップS203に進み、シャッタースイッチSW1 62が押されなければステップS201に戻る。   After the tracking process in step S202, the system control circuit 50 proceeds to step S203, and returns to step S201 if the shutter switch SW162 is not pressed.

一方、システム制御回路50は、追尾処理の実行が可能な「顔+追尾優先AFモード」でないと判別した場合(ステップS201でNO)、設定されているモードにて主被写体を選択し、シャッタースイッチSW1 62が押されるまで待機する(ステップS203)。「顔+追尾優先AFモード」以外のモードとしては、指定したAF領域による「1点AFモード」や、予め設定された複数のAF領域にかかる被写体の中から至近に位置する被写体を主被写体として選択する「多点自動AFモード」などがある。   On the other hand, if the system control circuit 50 determines that it is not the “face + tracking priority AF mode” in which the tracking process can be executed (NO in step S201), the system control circuit 50 selects the main subject in the set mode, and the shutter switch Wait until SW1 62 is pressed (step S203). As modes other than the “face + tracking priority AF mode”, a “one-point AF mode” based on a designated AF area, or a subject located closest to a subject in a plurality of preset AF areas is set as a main subject. There is a “multi-point automatic AF mode” to be selected.

次に、システム制御回路50は、シャッタースイッチSW1 62が押されたと判定した場合(ステップS203でYES)に、設定されている主被写体に重みを置いたAF・AE処理(ステップS204)を行う。   Next, when it is determined that the shutter switch SW1 62 has been pressed (YES in step S203), the system control circuit 50 performs AF / AE processing (step S204) in which a weight is set on the set main subject.

そして、システム制御回路50は、シャッタースイッチSW2 64が押下されるまでAF・AE処理(ステップS204)を続行して待機する(ステップS205でNO)。なお、この待機状態で、シャッタースイッチSW1 62の押下が解除されると、ステップS201へ戻る。   Then, the system control circuit 50 continues the AF / AE process (step S204) and waits until the shutter switch SW2 64 is pressed (NO in step S205). In this standby state, when the pressing of the shutter switch SW1 62 is released, the process returns to step S201.

システム制御回路50は、シャッタースイッチSW2 64が押下されたと判定した場合に、ステップS206に進み、撮影を行い、撮影された画像ファイルを外部記録媒体120に記録し、撮影処理を終了する。   If the system control circuit 50 determines that the shutter switch SW264 has been pressed, the system control circuit 50 proceeds to step S206, performs shooting, records the shot image file in the external recording medium 120, and ends the shooting process.

次に、図5と図7を用いて、ユーザによる追尾枠指定時における課題を説明する。   Next, with reference to FIGS. 5 and 7, a problem when the tracking frame is designated by the user will be described.

顔の場所と追尾枠位置が一致した(近い)場合に自動で顔位置を追尾枠位置とさせる従来のデジタルカメラにおいて、タッチ入力の場合はタッチされた位置に、追尾処理移行に割り当てられた釦が押下された場合は画面中央に追尾枠が表示される設定とする。   In a conventional digital camera that automatically sets the face position to the tracking frame position when the position of the face and the tracking frame position match (close to each other), in the case of touch input, the button assigned to the tracking process transition to the touched position When is pressed, a tracking frame is displayed at the center of the screen.

例えば、図5(A)のようにタッチ入力がされた場合は、タッチされた位置を追尾領域として設定する。この場合、詳細は後述するが、追尾領域と検出された顔の位置が近いため、顔の位置を追尾領域に設定して、図5(B)のように追尾中の顔領域を枠(指標)で囲って表示する。また、枠(指標)で囲われた人物の顔領域が画面内を移動したときに、図5(C)、(D)のように人物の顔の移動に合わせて枠の表示更新を行う。なお、画面右下の花の位置でタッチ入力された場合は、花の位置と人物の顔の位置が十分離れていれば、花の位置が追尾領域に設定される。一旦追尾領域が設定されても、ユーザにより再度タッチ入力がされた場合は、新たにタッチ入力された位置に基づいて追尾領域が再設定される。   For example, when a touch input is made as shown in FIG. 5A, the touched position is set as a tracking area. In this case, although the details will be described later, since the detected face position is close to the tracking area, the face position is set as the tracking area, and the tracking face area is framed (indexed) as shown in FIG. ). Further, when the face area of the person surrounded by the frame (index) moves within the screen, the display of the frame is updated in accordance with the movement of the person's face as shown in FIGS. When a touch input is made at the position of the flower at the lower right of the screen, the position of the flower is set as the tracking area if the position of the flower is sufficiently away from the position of the person's face. Even if the tracking area is set once, when the touch input is performed again by the user, the tracking area is reset based on the newly input position.

次に、設定キーなどの操作により追尾処理に移行した場合について説明する。図7(M)の表示例の状態で、設定キーなど追尾処理移行に割り当てられた釦が押下されると、図7(N)のように画面中央に追尾枠が表示される。図7(N)では、追尾枠位置は顔の位置から離れている。この状態で上下左右キー釦により右を選択すると、図7(O)のように追尾枠は右に移動する。さらに上下左右キー釦を操作して右下に追尾枠を移動させることで、図7(P)のように追尾枠を花の位置まで移動させることができる。   Next, a case where the process is shifted to the tracking process by an operation of a setting key or the like is described. In the state of the display example in FIG. 7M, when a button assigned to the tracking process transition such as a setting key is pressed, a tracking frame is displayed at the center of the screen as shown in FIG. In FIG. 7N, the tracking frame position is far from the face position. When the right is selected with the up / down / left / right key buttons in this state, the tracking frame moves to the right as shown in FIG. Further, by operating the up / down / left / right key buttons to move the tracking frame to the lower right, the tracking frame can be moved to the position of the flower as shown in FIG.

一方、図7(A)の表示例の状態で、追尾処理移行に割り当てられた釦が押下されると、図7(B)のように中央に追尾枠が表示される。この状態では、追尾枠位置に顔が存在するので、追尾枠位置は自動的に顔位置に設定される。この状態で上下左右キー釦により追尾枠を花の位置まで移動させようとしても、図7(C)の状態において顔の位置が追尾枠に含まれるため、追尾枠位置は図7(D)のように顔の位置に自動変更されることになる。そのため、ユーザが花の位置に追尾枠を設定したい場合、追尾枠を花の位置に移動することができない。   On the other hand, in the state of the display example in FIG. 7A, when the button assigned to the tracking process transition is pressed, a tracking frame is displayed at the center as shown in FIG. 7B. In this state, since the face exists at the tracking frame position, the tracking frame position is automatically set to the face position. Even if an attempt is made to move the tracking frame to the position of the flower with the up / down / left / right key buttons in this state, the position of the face is included in the tracking frame in the state of FIG. 7 (C). Thus, the face position is automatically changed. Therefore, when the user wants to set the tracking frame at the flower position, the tracking frame cannot be moved to the flower position.

また、追尾枠を複数の顔位置間で直接移動する機能(=顔セレクト)を搭載するカメラの場合、追尾モード移行に割り当てられた釦が押下された場合に、複数の顔検出がされてしまうと、上下左右キー釦に対して顔セレクト機能の割り付けが行われる。顔セレクト機能の状態では、上下左右キー釦の操作は、複数の顔の中から顔を選択する操作に限定される。例えば、図7(E)の状態から上下左右キー釦で左を選択すると、図7(F)のように左側の顔に追尾枠が移動する。ここで、図7(E)では、追尾枠の左側に三角のマークを表示し、左側の顔に追尾枠を移動可能であることを示している。さらに、図7(F)の状態から上下左右キー釦で右を選択すると、図7(G)のように右側の顔に追尾枠が移動し、その状態から上下左右キー釦で左を選択すると図7(H)のように左側の顔に追尾枠が移動する。この場合、ユーザが上下左右キー釦の操作により人物の右側にある花に追尾枠を設定しようとしても、顔セレクト機能が実行されている状態では、追尾枠を顔以外に設定できない。   In addition, in the case of a camera equipped with a function (= face selection) for directly moving the tracking frame between a plurality of face positions, a plurality of faces are detected when the button assigned to the tracking mode transition is pressed. Then, the face select function is assigned to the up / down / left / right key buttons. In the state of the face selection function, the operation of the up / down / left / right key buttons is limited to the operation of selecting a face from a plurality of faces. For example, when left is selected with the up / down / left / right key buttons in the state of FIG. 7 (E), the tracking frame moves to the left face as shown in FIG. 7 (F). Here, in FIG. 7E, a triangular mark is displayed on the left side of the tracking frame, indicating that the tracking frame can be moved to the left face. Furthermore, when the right is selected with the up / down / left / right key button in the state of FIG. 7 (F), the tracking frame moves to the right face as shown in FIG. 7 (G), and when the left is selected with the up / down / left / right key button from that state. As shown in FIG. 7H, the tracking frame moves to the left face. In this case, even if the user tries to set a tracking frame on the flower on the right side of the person by operating the up / down / left / right key buttons, the tracking frame cannot be set to other than the face when the face selection function is executed.

これらの課題を解決するため、撮影処理中に実行される、本発明の実施の形態に係る追尾処理について、図3のフローチャートを参照して説明する。このデジタルカメラで行われる追尾処理は、顔以外の物体を主被写体として追尾する物体追尾処理と、画面内に表示中のある特定の人物の顔を主被写体として追尾する顔追尾処理との2つに大別される。   In order to solve these problems, a tracking process according to the embodiment of the present invention that is executed during the photographing process will be described with reference to the flowchart of FIG. There are two types of tracking processing performed by this digital camera: object tracking processing for tracking an object other than a face as a main subject, and face tracking processing for tracking the face of a specific person displayed on the screen as a main subject. It is divided roughly into.

追尾処理が開始されると、システム制御回路50は、ステップS300において、ユーザからの追尾処理移行操作があったかどうか確認を行う。具体的には、タッチ入力又は設定キーの操作が行われたかどうか確認する。システム制御回路50は、新たな追尾処理移行操作が行われていると判定した場合は、ステップS302へ進む。一方、新たな追尾処理移行操作が行われていないと判定した場合は、ステップS301へ進み、追尾の処理中であるか否かを確認する。なお、設定キーが操作された場合は、タイマーのカウントを開始する。   When the tracking process is started, the system control circuit 50 confirms whether or not there has been a tracking process transition operation from the user in step S300. Specifically, it is confirmed whether touch input or setting key operation has been performed. If the system control circuit 50 determines that a new tracking process transition operation has been performed, the system control circuit 50 proceeds to step S302. On the other hand, if it is determined that a new tracking process transition operation has not been performed, the process proceeds to step S301 to check whether the tracking process is in progress. When the setting key is operated, the timer starts counting.

ステップS301において、システム制御回路50は、追尾中でないと判定した場合には、図3のフローチャートを終了する。システム制御回路50は、追尾中であると判定した場合には、ステップS312に進み、顔追尾処理がすでに開始されているか否かの判定を行う。   In step S301, when the system control circuit 50 determines that tracking is not in progress, the flowchart of FIG. 3 ends. If the system control circuit 50 determines that tracking is in progress, the system control circuit 50 proceeds to step S312, and determines whether or not the face tracking process has already been started.

システム制御回路50は、ステップS312で顔追尾処理中でないと判定した場合には、後述するステップS309へ進んで顔追尾判定処理を実行する。一方、システム制御回路50は、ステップS312で顔追尾処理がすでに開始されていると判定した場合には、ステップS332へ進み、顔セレクトの次候補選択か否かを判定する。ここでは、複数の顔が検出されている状態での顔追尾中に上下左右キー釦が操作された場合に、顔セレクトの次候補選択と判定する。顔セレクトの次候補選択と判定した場合は、ステップS333へ進み、次候補顔位置情報を取得する。さらにステップS303へ進み、次候補の顔位置を利用し、追尾枠領域の変更をする。一方、ステップS332で顔セレクトの次候補選択でないと判定した場合は、後述するステップS311へ進んで顔追尾処理を実行する。   If it is determined in step S312 that the face tracking process is not in progress, the system control circuit 50 proceeds to step S309, which will be described later, and executes the face tracking determination process. On the other hand, if the system control circuit 50 determines in step S312 that the face tracking process has already been started, the system control circuit 50 proceeds to step S332 and determines whether or not it is the next candidate for face selection. Here, when the up / down / left / right key buttons are operated during face tracking in a state where a plurality of faces are detected, it is determined that the next candidate for face selection is selected. If it is determined that the next candidate for face selection is selected, the process proceeds to step S333, and the next candidate face position information is acquired. In step S303, the tracking frame region is changed using the face position of the next candidate. On the other hand, if it is determined in step S332 that the face selection is not the next candidate selection, the process proceeds to step S311 to be described later and a face tracking process is executed.

ステップS300において、システム制御回路50は、ユーザからの追尾処理移行操作があったと判定した場合に、ステップS302へ進み、追尾座標取得の処理を実行する。ここで、ユーザからの追尾処理移行操作は、ユーザからの追尾枠指定の入力と換言することができる。すなわち、タッチ入力により追尾処理に移行した場合は、タッチされた位置に追尾枠が指定され、設定キーの操作により追尾処理に移行した場合は、所定位置(本実施例では画面中央)に追尾枠が指定されたことになる。このステップS302の追尾座標取得の処理では、操作部70に設けられた追尾枠制御部が、タッチされた位置あるいは画面中央位置を画面上の座標に変換し、その座標を取得してシステム制御回路50へ送信する。   In step S300, when the system control circuit 50 determines that there has been a tracking process transition operation from the user, the system control circuit 50 proceeds to step S302 and executes tracking coordinate acquisition processing. Here, the tracking process transition operation from the user can be restated as the input of the tracking frame designation from the user. That is, when the tracking process is performed by touch input, a tracking frame is designated at the touched position, and when the tracking process is performed by the operation of the setting key, the tracking frame is set at a predetermined position (the center of the screen in this embodiment). Is specified. In the tracking coordinate acquisition process in step S302, the tracking frame control unit provided in the operation unit 70 converts the touched position or the screen center position into coordinates on the screen, acquires the coordinates, and obtains the system control circuit. 50.

次にシステム制御回路50は、ステップS323へ進み、タッチ入力による追尾枠設定か否かを判定する。ステップS323でタッチ入力による追尾枠設定と判定したら、ステップS303へ進む。   Next, the system control circuit 50 proceeds to step S323, and determines whether or not the tracking frame is set by touch input. If it is determined in step S323 that the tracking frame is set by touch input, the process proceeds to step S303.

一方、ステップS323でタッチ入力による追尾枠設定と判定しなかった場合は、ステップS325へ進み、システム制御回路50は、顔検出から得られる顔座標位置情報を取得する。次に、ステップS326で追尾枠座標と顔座標を比較し、顔の位置が追尾枠(所定領域=ここでは画面中央)に含まれるか否かを判定する。顔の位置が追尾枠に含まれない場合はステップS303へ進み、顔の位置が追尾枠に含まれる場合はステップS327へ進む。   On the other hand, if it is not determined in step S323 that the tracking frame is set by touch input, the process proceeds to step S325, and the system control circuit 50 acquires face coordinate position information obtained from face detection. Next, in step S326, the tracking frame coordinates and the face coordinates are compared, and it is determined whether or not the face position is included in the tracking frame (predetermined region = the center of the screen here). If the face position is not included in the tracking frame, the process proceeds to step S303. If the face position is included in the tracking frame, the process proceeds to step S327.

システム制御回路50は、ステップS327で、所定時間経過を計測するためのタイマー時間を更新し、ステップS328へ進む。ステップS328において、システム制御回路50は、ステップS302で座標を取得した位置(1回目は画面中央)に表示用の追尾枠領域を設定する。   In step S327, the system control circuit 50 updates the timer time for measuring the elapse of the predetermined time, and proceeds to step S328. In step S328, the system control circuit 50 sets a tracking frame area for display at the position where the coordinates are acquired in step S302 (the first time is the center of the screen).

ステップS329に進み、システム制御回路50は、画像表示メモリ24に対し、ステップS328で設定した領域に追尾枠表示を更新する。ステップS330へ進み、システム制御回路50は、上下左右キー釦が操作されたか否かを判定する。上下左右キー釦が操作された場合は、ステップS334でタイマーをリセットし、ステップS327へ戻る。一方、上下左右キー釦が操作されなかった場合は、ステップS331へ進み、所定時間が経過するまで上下左右キー釦が操作されたか否かの監視を続ける。上下左右キー釦が操作されずに所定時間が経過した場合(ステップS331でYes)は、ステップS303へ進む。   Proceeding to step S329, the system control circuit 50 updates the tracking frame display to the area set at step S328 for the image display memory 24. In step S330, the system control circuit 50 determines whether the up / down / left / right key button has been operated. If the up / down / left / right key button is operated, the timer is reset in step S334, and the process returns to step S327. On the other hand, if the up / down / left / right key button has not been operated, the process proceeds to step S331, and monitoring of whether the up / down / left / right key button has been operated is continued until a predetermined time elapses. If the predetermined time has passed without the up / down / left / right key buttons being operated (Yes in step S331), the process proceeds to step S303.

なお、ステップS334を経由してステップS330に再度進んだ場合、タイマーの所定時間を1回目より長く設定してもよい。なぜなら、ステップS334を経由した場合は、上下左右キー釦操作が行われているため、ユーザは追尾枠を移動させようとしている可能性が高い。そこで、1回目の所定時間(第2の所定時間)より長い所定時間(第1の所定時間)を設定することで、ユーザの上下左右キー釦操作による追尾枠移動をより確実に受け付けることができる。   When the process proceeds again to step S330 via step S334, the predetermined time of the timer may be set longer than the first time. This is because when the process passes through step S334, the up / down / left / right key button operation is performed, and thus the user is likely to move the tracking frame. Therefore, by setting a predetermined time (first predetermined time) longer than the first predetermined time (second predetermined time), it is possible to more reliably accept the tracking frame movement by the user's up / down / left / right key button operation. .

上記説明したように、上下左右キー釦操作から(第1の)所定時間が経過するまでは、顔検出領域に基づく追尾領域の設定を制限する。すなわち、追尾枠内に顔が検出されたとしても、顔の位置に追尾枠を自動変更させない。また、設定キー操作による追尾処理移行から(第2の)所定時間が経過するまでは、追尾枠内に顔が検出されたとしても、顔の位置に追尾枠を自動変更させない。したがって、所定時間が経過するまでの間に上下左右キー釦による操作が行われた場合は、該操作に応じて追尾枠領域が設定され、追尾枠表示が更新される。例えば、図7(I)のような画像が表示されている状態において、設定キー操作により追尾処理に移行すると、図7(J)のように中央に追尾枠が表示される。図7(J)の状態において、設定キー操作による追尾処理移行から(第2の)所定時間の間に、上下左右キー釦により右へ移動するよう操作が行われた場合は、顔の位置に追尾枠が自動変更されることなく、追尾枠を右方向へ移動することができる。さらに、上下左右キー釦の操作から(第1の)所定時間以内に上下左右キー釦を再度操作するのを続けることにより、図7(K)を経て図7(L)のように花の位置へ追尾枠を移動させることが可能になる。   As described above, the setting of the tracking area based on the face detection area is limited until the (first) predetermined time elapses after the up / down / left / right key button operation. That is, even if a face is detected in the tracking frame, the tracking frame is not automatically changed to the position of the face. Further, even if a face is detected in the tracking frame until the (second) predetermined time elapses after the tracking processing shift by the setting key operation, the tracking frame is not automatically changed to the position of the face. Therefore, when an operation with the up / down / left / right key buttons is performed before the predetermined time elapses, the tracking frame area is set according to the operation, and the tracking frame display is updated. For example, in a state where an image as shown in FIG. 7 (I) is displayed, when a tracking process is performed by a setting key operation, a tracking frame is displayed at the center as shown in FIG. 7 (J). In the state of FIG. 7 (J), when an operation is performed to move to the right by the up / down / left / right key button during the (second) predetermined time after the tracking process transition by the setting key operation, the position of the face is set. The tracking frame can be moved in the right direction without being automatically changed. Furthermore, by continuing to operate the up / down / left / right key button again within the (first) predetermined time from the operation of the up / down / left / right key button, the position of the flower as shown in FIG. 7 (L) through FIG. It becomes possible to move the tracking frame.

システム制御回路50は、ステップS323で、タッチ入力による追尾枠設定と判定した場合は、ステップS303の追尾領域を設定する処理へ進む。   If the system control circuit 50 determines in step S323 that the tracking frame is set by touch input, the system control circuit 50 proceeds to the process of setting the tracking area in step S303.

タッチ入力による追尾処理移行と判定した場合は、表示画面上で被写体位置を直接指定できるため、上下左右キー釦の操作によって追尾枠位置指定されることを考慮する必要性が低い。そのため、タッチ入力による追尾処理移行の場合は上記のような所定時間経過待ちをしないようにすることで、タッチ入力による表示画面の反応性を向上させることができる。なお、タッチ入力の場合も設定キー操作の場合と同様に所定時間経過待ちをさせるようにしてもよい。   When it is determined that the tracking process shifts by touch input, the subject position can be directly specified on the display screen, so that it is not necessary to consider that the tracking frame position is specified by operating the up / down / left / right key buttons. Therefore, in the case of the tracking process transition by touch input, the reactivity of the display screen by touch input can be improved by not waiting for the elapse of the predetermined time as described above. In the case of touch input, a predetermined time may be awaited as in the case of setting key operation.

ステップS303では、得られた追尾枠座標に基づいて、追尾する被写体の追尾領域を設定する。ここで、システム制御回路50は追尾領域を設定する設定手段として機能する。追尾領域を設定する処理では、画像表示メモリ24に記憶されている表示画像データとタッチされた座標あるいはステップS328で追尾枠設定された位置から表示画像データ上の位置を求める。さらに、この追尾領域を設定する処理では、表示画像データ上の位置周辺の輝度情報から得られるコントラストや、画像の特徴量などを考慮して被写体の追尾領域のサイズを求める。すなわち、タッチされた座標あるいは追尾枠設定された位置を中心として複数のサイズの仮の追尾領域を設定し、コントラストや特徴量が所定の条件を満たす仮の追尾領域の最小サイズとなるものを追尾領域として設定する。   In step S303, the tracking area of the subject to be tracked is set based on the obtained tracking frame coordinates. Here, the system control circuit 50 functions as setting means for setting the tracking area. In the process of setting the tracking area, the position on the display image data is obtained from the display image data stored in the image display memory 24 and the touched coordinates or the position set in the tracking frame in step S328. Further, in the process of setting the tracking area, the size of the tracking area of the subject is obtained in consideration of the contrast obtained from the luminance information around the position on the display image data, the image feature amount, and the like. In other words, a temporary tracking area of a plurality of sizes is set around the touched coordinates or the position set as the tracking frame, and the tracking and the minimum size of the temporary tracking area that satisfies the predetermined conditions for the contrast and the feature amount are tracked. Set as area.

ここで、コントラストや特徴量を所定の条件と比較するのは、これらの値がある程度のレベルに達していないと、他の領域との識別が困難になるためである。また、最小サイズを選択するのは、サイズを大きく設定するほど、その設定した追尾領域の中に追尾対象とする被写体の以外の背景が含まれてしまい、追尾精度が低下してしまう可能性が高くなるためである。   Here, the reason why the contrast and the feature amount are compared with predetermined conditions is that if these values do not reach a certain level, it is difficult to distinguish them from other regions. In addition, the minimum size is selected as the size is set larger, the background other than the subject to be tracked is included in the set tracking area, and the tracking accuracy may decrease. This is because it becomes higher.

ステップS304において、システム制御回路50は、ステップS303で正しく被写体の追尾領域が求められたか否かを判定し、正しく被写体の追尾領域が求められたと判定した場合(ステップS304でYES)はステップS308に進む。   In step S304, the system control circuit 50 determines whether or not the subject tracking area has been correctly obtained in step S303. If it is determined that the subject tracking area has been correctly obtained (YES in step S304), the system control circuit 50 proceeds to step S308. move on.

一方、システム制御回路50は、追尾枠座標周辺の輝度が均一でコントラストが検出できなかった場合や画面一面が同じようなパターンとなった場合、正しく追尾領域が求められないことがある。このような場合(ステップS304でNo)には、ステップS322へ進み、ステップS322の追尾不能の処理として、ユーザに追尾できない被写体である旨表示する等の処理を行い、図3のフローチャートを終了する。   On the other hand, when the brightness around the tracking frame coordinates is uniform and the contrast cannot be detected, or when the screen has a similar pattern, the system control circuit 50 may not be able to obtain the tracking area correctly. In such a case (No in step S304), the process proceeds to step S322, and as a process incapable of tracking in step S322, a process such as displaying that the subject cannot be tracked to the user is performed, and the flowchart of FIG. .

システム制御回路50は、ステップS308において、上述のようにして決定した追尾領域の色情報を記憶しておく。ステップS309に進み、システム制御回路50は、顔追尾可能な被写体かどうかの判定処理を行う。顔追尾判定処理については、図4を用いて後述する。   In step S308, the system control circuit 50 stores the color information of the tracking area determined as described above. Proceeding to step S309, the system control circuit 50 determines whether or not the subject is capable of face tracking. The face tracking determination process will be described later with reference to FIG.

次に、システム制御回路50は、ステップS310において、ステップS309の顔追尾判定処理において、顔追尾処理が可能と判定された場合に、ステップS311へ進み顔追尾処理を行う。   Next, when it is determined in step S310 that the face tracking process is possible in the face tracking determination process in step S309, the system control circuit 50 proceeds to step S311 and performs the face tracking process.

この顔追尾処理では、システム制御回路50が、画像表示メモリ24の表示画像データと顔検出部101とを用いて、表示中の画面内に存在する顔の領域を求める。   In this face tracking process, the system control circuit 50 uses the display image data in the image display memory 24 and the face detection unit 101 to obtain a face area existing in the screen being displayed.

システム制御回路50は、タッチ入力で追尾領域が設定されてから、または、物体追尾処理で追尾領域が更新されてから、顔追尾処理に初めて移行した際に、ステップS309の顔追尾判定処理で顔追尾可能と判定された顔領域を新たな追尾領域として設定する。   The system control circuit 50 performs the face tracking determination process in step S309 when the tracking area is set by touch input or when the tracking area is updated by the object tracking process and when the system shifts to the face tracking process for the first time. A face area determined to be trackable is set as a new tracking area.

また、すでに顔追尾処理中であれば、システム制御回路50は、次の追尾領域となる顔領域を設定する。この場合には、例えば、前回の検出された追尾中の顔領域の位置と現在の表示画像データ上で検出された複数の顔領域との距離や、それぞれの顔領域の移動量や移動方向等から、前回の追尾領域として設定された顔領域と同じと思われる顔領域を設定すればよい。または、システム制御回路50は、図示しない個人認証などの制御モジュールを用いて、前回検出された追尾中の顔領域と現在の顔領域の特徴点や類似性等から顔領域の関連性を検出する。そして、システム制御回路50は、検出した顔領域の関連性から、前回の顔領域と同一と思われる顔領域を特定する等して、次の追尾領域となる顔領域を設定してもよい。   If the face tracking process is already in progress, the system control circuit 50 sets a face area to be the next tracking area. In this case, for example, the distance between the position of the previously detected face area being tracked and a plurality of face areas detected on the current display image data, the amount of movement and the direction of movement of each face area, etc. Therefore, a face area that is considered to be the same as the face area set as the previous tracking area may be set. Alternatively, the system control circuit 50 uses a control module such as personal authentication (not shown) to detect the relationship between the face area detected last time and the feature points and similarities between the current face area and the face area. . Then, the system control circuit 50 may set a face area to be the next tracking area by specifying a face area that seems to be the same as the previous face area from the relevance of the detected face area.

次に、ステップS320へ進み、システム制御回路50は、ユーザがタッチパネル上のGUIボタン等を操作して追尾の終了の指示をしたかどうかを判定する。システム制御回路50は、追尾の終了の指示があったと判定したときは、ステップS321へ進んで追尾終了処理を行う。追尾終了処理において、システム制御回路50は、ユーザに追尾終了を通知した上で、追尾領域を示す枠(指標)の表示を終了させる。   Next, proceeding to step S320, the system control circuit 50 determines whether the user has issued an instruction to end tracking by operating a GUI button or the like on the touch panel. When the system control circuit 50 determines that there is an instruction to end tracking, the system control circuit 50 proceeds to step S321 and performs tracking end processing. In the tracking end process, the system control circuit 50 notifies the user of the end of tracking and then ends the display of the frame (index) indicating the tracking area.

ステップS320において、システム制御回路50は、タッチ追尾の終了の指示がないと判定した場合は、図3のフローチャートを終了し、図2のステップS203へと進む。そして、システム制御回路50は、ステップS203でシャッタースイッチSW1 62が押されていなければ、ステップS201を経由し、新たな表示画像データに対して、再び図3に示すフローチャートを実行する。このように、シャッタースイッチSW1 62が押されるまで、これらの処理を繰り返すことで追尾を継続する。   In step S320, if the system control circuit 50 determines that there is no instruction to end touch tracking, it ends the flowchart of FIG. 3 and proceeds to step S203 of FIG. If the shutter switch SW1 62 is not pressed in step S203, the system control circuit 50 executes the flowchart shown in FIG. 3 again for the new display image data via step S201. In this way, the tracking is continued by repeating these processes until the shutter switch SW1 62 is pressed.

次に、図3で前述したステップS310において、顔追尾処理が不可能と判定された場合には、ステップS313に進み、システム制御回路50が輝度情報による物体追尾が可能であるかどうかを判定する。この輝度情報による物体追尾が可能か否かの判定は、例えば、追尾領域を含む周辺領域が追尾領域を更新したときと比較して大きく輝度が変化していないか、追尾領域周辺の輝度が均一になっていないかといった条件に基づいて行う。これらの条件により、輝度情報の相関による物体追尾の精度が低下すると判断した場合は、物体追尾不可能とする。   Next, when it is determined in step S310 described above with reference to FIG. 3 that face tracking processing is impossible, the process proceeds to step S313, and the system control circuit 50 determines whether or not object tracking based on luminance information is possible. . The determination of whether or not object tracking is possible based on this luminance information is, for example, whether the surrounding area including the tracking area has not changed significantly compared to when the tracking area is updated, or the luminance around the tracking area is uniform. It is based on the condition whether it is not. If it is determined that the accuracy of object tracking due to the correlation of luminance information is reduced due to these conditions, the object tracking is impossible.

システム制御回路50は、上記条件に基づいて輝度情報による物体追尾可能と判断した場合には、ステップS314へ進み、輝度情報を用いた物体追尾の処理を行う。この輝度情報による物体追尾の処理は、現在の画像表示メモリ24の表示画像データと前回追尾領域が設定された表示画像データにおける追尾領域の画像データとを、画像比較部102を用いて相関を検出することにより行う。すなわち、この物体追尾の処理では、前回追尾領域が設定された表示画像データで追尾領域としていた画像データが、現在の表示画像データのどこに移動したかを、それぞれの輝度情報を用いた相関演算により算出する。そして、現在の表示画像データのうち、前回追尾領域が設定された表示画像データで追尾領域としていた画像データと最も相関の高いと判断された領域を、現在のフレーム画像における新たな追尾領域として更新することで物体追尾を行う。   If the system control circuit 50 determines that object tracking based on the luminance information is possible based on the above condition, the system control circuit 50 proceeds to step S314 and performs object tracking processing using the luminance information. In the object tracking processing based on the luminance information, the image comparison unit 102 detects a correlation between the display image data in the current image display memory 24 and the image data in the tracking area in the display image data in which the previous tracking area is set. To do. That is, in this object tracking process, the image data that has been set as the tracking area in the display image data in which the previous tracking area is set is moved to the current display image data by correlation calculation using each luminance information. calculate. Then, among the current display image data, the area that is determined to have the highest correlation with the image data that was the tracking area in the display image data that was previously set as the tracking area is updated as a new tracking area in the current frame image To track the object.

次に、ステップS315へ進み、システム制御回路50は、新たに追尾領域と設定された領域の色情報を記憶して、ステップS320へ進む。ステップS320において、システム制御回路50は、前述したようにユーザによる追尾の終了の指示の有無を判定し、追尾の終了の指示がないと判定したときは、この図3のフローチャートを終了し、図2のステップS203に進む。システム制御回路50は、タッチ追尾の終了の指示があったと判定したときは、ステップS321へ進んで追尾終了処理を行う。このシステム制御回路50は、追尾終了処理において、ユーザに追尾終了を通知した上で、追尾領域を示す枠(指標)の表示を終了させる。   Next, the process proceeds to step S315, and the system control circuit 50 stores the color information of the area newly set as the tracking area, and proceeds to step S320. In step S320, the system control circuit 50 determines the presence / absence of a tracking end instruction from the user as described above. When it is determined that there is no tracking end instruction, the system control circuit 50 ends the flowchart of FIG. The process proceeds to step S203 of step 2. When the system control circuit 50 determines that there is an instruction to end touch tracking, the system control circuit 50 proceeds to step S321 and performs tracking end processing. In the tracking end process, the system control circuit 50 notifies the user of the tracking end, and then ends the display of the frame (index) indicating the tracking area.

次に、前述したステップS313で、システム制御回路50が、輝度情報による物体追尾が可能であるか否かを判定した結果、物体追尾不能と判定した場合には、ステップS316へ進む。ステップS316で、システム制御回路50は、輝度情報での物体追尾が不能と判断された追尾領域に対して、次に色情報を用いた追尾を試みる。このため、システム制御回路50は、前述したステップS308又はステップS315において色情報が記憶されているかを検出する。色情報が記憶されている場合、システム制御回路50は、その色情報を用いて現在の表示画像データと類似した色分布を持つ領域がないか、表示画像データ上で検索する。   Next, when the system control circuit 50 determines in step S313 described above whether or not the object tracking based on the luminance information is possible, and if it is determined that the object tracking is not possible, the process proceeds to step S316. In step S316, the system control circuit 50 next attempts to use the color information for the tracking area in which it is determined that the object tracking with the luminance information is impossible. Therefore, the system control circuit 50 detects whether color information is stored in step S308 or step S315 described above. When color information is stored, the system control circuit 50 uses the color information to search the display image data for an area having a color distribution similar to that of the current display image data.

次に、ステップS317に進んで、システム制御回路50は、色情報による追尾領域の検索で新たに追尾領域の検索に成功したかどうかを判定する。成功したと判断した場合には、再度追尾可能として、ステップS318に進む。具体的には、システム制御回路50は、記憶した色情報から色相のヒストグラムを生成し、このヒストグラムとの差分が最も小さくなる領域を検出する。そして、その差分が予め定めた閾値以下であった場合には、色情報による追尾領域の検索に成功したと判断し、検出できなかった場合には失敗したと判断する。ステップS318において、システム制御回路50は、検索に成功した領域を新しい追尾領域として設定する。さらにステップS315に進み、システム制御回路50は、新たに追尾領域と設定された領域の色情報を記憶する。   Next, proceeding to step S317, the system control circuit 50 determines whether or not a new tracking area has been successfully searched by searching for a tracking area based on color information. If it is determined that the operation has succeeded, the tracking is enabled again, and the process proceeds to step S318. Specifically, the system control circuit 50 generates a hue histogram from the stored color information, and detects a region where the difference from the histogram is the smallest. If the difference is less than or equal to a predetermined threshold, it is determined that the tracking area search by the color information has succeeded, and if it cannot be detected, it is determined that the search has failed. In step S318, the system control circuit 50 sets a region that has been successfully searched as a new tracking region. In step S315, the system control circuit 50 stores the color information of the area newly set as the tracking area.

一方、前述したステップS317において、システム制御回路50は、色情報による追尾領域の検索で新たな追尾領域の検索に失敗したと判断した場合に、ステップS321に進み、追尾処理を終了する。   On the other hand, when the system control circuit 50 determines in step S317 described above that the search for the new tracking area has failed in the search for the tracking area based on the color information, the process proceeds to step S321, and the tracking process ends.

次に、前述したステップS309における顔追尾判定処理について、図4を参照しながら説明する。顔追尾判定処理では、システム制御回路50が、現在の追尾領域に対して、顔検出結果に基づく顔追尾処理に切り替えるかどうかの判定を行う。この顔追尾判定処理では、上述したように、顔追尾処理可能と判定された場合に、顔検出結果に基づく追尾を行うことになる。また、この顔追尾判定処理で顔追尾処理が不可能と判定された場合、顔検出部101による顔検出結果を用いずに、現在の追尾領域について輝度情報や色情報に基づく物体追尾処理を実施する。   Next, the face tracking determination process in step S309 described above will be described with reference to FIG. In the face tracking determination process, the system control circuit 50 determines whether to switch to the face tracking process based on the face detection result for the current tracking area. In this face tracking determination process, as described above, when it is determined that the face tracking process is possible, tracking based on the face detection result is performed. If it is determined that the face tracking process is impossible in this face tracking determination process, the object tracking process based on the luminance information and the color information is performed for the current tracking area without using the face detection result by the face detection unit 101. To do.

顔追尾判定処理が開始され、ステップS400に進むと、システム制御回路50は、現在の追尾領域の座標を取得する。   When the face tracking determination process is started and the process proceeds to step S400, the system control circuit 50 acquires the coordinates of the current tracking area.

ステップS401に進んで、システム制御回路50は、顔検出部101を制御して、画像表示メモリ24にある現在表示中の表示画像データから表示画像データ上にある人物の顔と思われるすべての領域を検出し、それぞれの領域の座標を取得する。   Proceeding to step S401, the system control circuit 50 controls the face detection unit 101, and from the currently displayed display image data in the image display memory 24, all areas that are considered to be human faces on the display image data. Is detected, and the coordinates of each region are obtained.

次に、ステップS402に進んで、システム制御回路50は、顔検出の結果、表示画像データから顔領域が検出できたか否かを判定する。システム制御回路50は、顔領域が検出できなかった場合(ステップS402でNO)、ステップS420へ進んで顔検出回数をカウントアップした後に、ステップS421に進み、顔追尾不可能と判定する。   In step S402, the system control circuit 50 determines whether a face area has been detected from the display image data as a result of face detection. If the face area cannot be detected (NO in step S402), the system control circuit 50 proceeds to step S420 and counts up the number of face detections, and then proceeds to step S421 to determine that face tracking is impossible.

一方、システム制御回路50は、顔領域が検出できた場合(ステップS402でYES)、次のステップS403へ進む。ステップS403において、システム制御回路50は、追尾領域と検出されたすべての顔領域との距離をそれぞれ算出する。ステップS404に進み、システム制御回路50は、ステップS403において算出された距離の中から最も追尾領域と近い位置にある最至近顔領域を決定する。   On the other hand, if the face area can be detected (YES in step S402), the system control circuit 50 proceeds to the next step S403. In step S403, the system control circuit 50 calculates the distance between the tracking area and all the detected face areas. Proceeding to step S404, the system control circuit 50 determines the closest face area located closest to the tracking area from the distances calculated in step S403.

次に、ステップS405に進み、システム制御回路50は、追尾枠指定からの追尾経過時間が所定時間未満か判定する。この追尾経過時間は、追尾枠指定してから追尾を継続して成功している時間のことであり、途中で追尾に失敗した場合にはリセットされる。システム制御回路50は、追尾枠指定からの追尾経過時間が所定時間未満であると判定した場合(ステップS405でYES)、ステップS406に進む。一方、追尾枠指定からの追尾経過時間が所定時間以上であると判定した場合(ステップS405でNO)、システム制御回路50は、ステップS408に進み、顔追尾不可能と判定する。   Next, proceeding to step S405, the system control circuit 50 determines whether the tracking elapsed time from the tracking frame designation is less than a predetermined time. This elapsed tracking time is a time during which tracking is continued after the tracking frame is specified, and is reset when tracking fails midway. If the system control circuit 50 determines that the tracking elapsed time from the tracking frame designation is less than the predetermined time (YES in step S405), the process proceeds to step S406. On the other hand, when it is determined that the elapsed tracking time from the tracking frame designation is equal to or longer than the predetermined time (NO in step S405), the system control circuit 50 proceeds to step S408 and determines that face tracking is impossible.

ステップS406において、システム制御回路50は、ステップS404で決定した最至近顔領域と追尾領域との距離が所定の閾値(所定距離)未満であるかを判定する。システム制御回路50は、閾値未満であると判断した場合(ステップS406でYES)、ステップS407へ進み、最至近顔領域での顔追尾可能な場合と判定し、顔追尾判定処理を終了する。   In step S406, the system control circuit 50 determines whether the distance between the closest face area and the tracking area determined in step S404 is less than a predetermined threshold (predetermined distance). If the system control circuit 50 determines that it is less than the threshold (YES in step S406), the system control circuit 50 proceeds to step S407, determines that face tracking is possible in the closest face area, and ends the face tracking determination processing.

一方、システム制御回路50は、最至近顔領域との距離が閾値以上であると判断した場合(ステップS406でNO)、ステップS408で顔追尾不能と判定し、この顔追尾判定処理を終了する。これは、ユーザが追尾枠指定した位置と顔領域とが離れているのであれば、ユーザは顔以外のものを追尾枠指定で追尾対象として指定する意図があると考えられるためである。   On the other hand, if the system control circuit 50 determines that the distance to the closest face area is equal to or greater than the threshold (NO in step S406), it determines that face tracking is impossible in step S408, and ends this face tracking determination process. This is because if the position specified by the user and the face area are separated from each other, the user is considered to have an intention to specify an object other than the face as a tracking target by specifying the tracking frame.

なお、例えば図6(A)に示すように、タッチ入力による追尾枠領域指定の際、横顔や後ろ向きの顔等が選択され、顔検出できない場合がある。そのような場合でも、その後、図6(B)のように人物の顔が正面を向いて、安定して顔が検出できるようになる場合がある。この場合には、特開2011−35765号公報に記載のような制御によって、図6(C)、(D)のように顔検出結果による顔追尾が可能となる。   For example, as shown in FIG. 6A, when a tracking frame region is specified by touch input, a side face, a face facing backward, or the like may be selected, and face detection may not be performed. Even in such a case, the face of the person faces the front as shown in FIG. 6B, and the face can be detected stably thereafter. In this case, face tracking based on the face detection result can be performed as shown in FIGS. 6C and 6D by control as described in Japanese Patent Application Laid-Open No. 2011-35765.

なお、上記実施形態では、ユーザが追尾対象とする被写体を指定する際、操作部70に含まれるタッチパネル、上下左右キー釦などを用いることを例にあげたが、これに限られるものではない。操作部70に含まれるダイアルや表示上のアイコンによって被写体を指定しても構わない。あるいは、動画像を取り込んだパーソナルコンピュータのアプリケーション上で上述した追尾処理を行う場合であれば、カーソルで追尾対象とする被写体を指定したり、キーボードにて追尾対象とする被写体が存在する画面上の領域を指定するようにしても構わない。   In the above embodiment, when the user designates the subject to be tracked, the touch panel and the up / down / left / right key buttons included in the operation unit 70 are used as an example. However, the present invention is not limited to this. The subject may be designated by a dial included in the operation unit 70 or an icon on the display. Alternatively, if the tracking process described above is performed on an application of a personal computer that has captured a moving image, the subject to be tracked is specified with the cursor, or the subject to be tracked with the keyboard is present on the screen. An area may be designated.

また、上記実施形態では、顔検出部101の例として、表示画像データから顔領域を検出する例をあげたが、撮像素子14にて生成された信号から、表示画像データとは別に、表示画像データよりも解像度を低くした顔検出用の画像データを生成しても構わない。   In the above embodiment, as an example of the face detection unit 101, an example in which a face area is detected from display image data has been described. However, a display image is separated from display image data from a signal generated by the image sensor 14. Image data for face detection with a resolution lower than that of the data may be generated.

また、物体追尾処理の例として、輝度情報と色情報のいずれかを選択し、選択した情報の相関を用いて、新たな画像データから追尾領域を検出する構成を例にあげたが、これに限られるものではない。輝度情報と色情報の両方の相関の総和から新たな追尾領域を求める構成としてもよいし、輝度情報と色情報の一方のみを用いて新たな追尾領域を求めるようにしてもよい。すなわち、画像間の相関の高い領域を検出し続けることで、追尾領域を更新する構成であればよい。   In addition, as an example of object tracking processing, a configuration in which either luminance information or color information is selected and a tracking area is detected from new image data using the correlation of the selected information has been described as an example. It is not limited. A new tracking area may be obtained from the sum of correlations of both luminance information and color information, or a new tracking area may be obtained using only one of luminance information and color information. That is, any configuration may be used as long as the tracking region is updated by continuously detecting a region having a high correlation between images.

さらに、上記実施形態は撮影時に限らず、すでに撮影された動画像に対して、パーソナルコンピュータのアプリケーション上で上述した主被写体の追尾処理を行うように構成しても良い。主被写体を追尾することで、この主被写体を中心とした輝度調整や色調整を動画像に対して行うことが可能となる。デジタルカメラやデジタルビデオカメラにて撮影された動画像を再生する場合でも同様である。   Furthermore, the above-described embodiment is not limited to shooting, and the main subject tracking process described above may be performed on a moving image that has already been shot on an application of a personal computer. By tracking the main subject, it is possible to perform luminance adjustment and color adjustment around the main subject on the moving image. The same applies to the case of playing back a moving image shot with a digital camera or digital video camera.

なお、本発明は上述したこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲で種々の形態を取り得ることは勿論である。また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又はソフトウェアが記憶された各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   Note that the present invention is not limited to these specific embodiments described above, and it is needless to say that the present invention can take various forms without departing from the gist of the present invention. The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media storing software, and the computer of the system or apparatus (or CPU, MPU, or the like). Is a process of reading and executing the program.

18 表示部
20 画像処理回路
50 システム制御回路
70 操作部
101 顔検出部
102 画像比較部
DESCRIPTION OF SYMBOLS 18 Display part 20 Image processing circuit 50 System control circuit 70 Operation part 101 Face detection part 102 Image comparison part

Claims (10)

複数の画像から構成された動画像から追尾すべき被写体の領域である追尾領域を連続して検出することで追尾を行う画像処理装置において、
画像信号に基づく画像とともに、設定されている追尾領域の位置を示す表示を表示する表示手段と、
前記追尾領域の位置を示す表示を複数の方向に移動可能な操作部材を含んで構成され、前記表示手段に表示された画像からユーザが位置を指定するための第1の指定手段と、
画像信号から顔領域を検出する顔検出手段と、
追尾を行う対象としての追尾領域を設定する設定手段であって、前記顔領域に基づいて追尾領域を設定可能な設定手段とを有し、
前記設定手段は、前記第1の指定手段を介した操作が行われてから第1の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする画像処理装置。
In an image processing apparatus that performs tracking by continuously detecting a tracking region that is a region of a subject to be tracked from a moving image composed of a plurality of images,
Display means for displaying a display indicating the position of the set tracking area together with an image based on the image signal;
A first designation unit configured to include an operation member capable of moving a display indicating the position of the tracking region in a plurality of directions, and for a user to designate a position from an image displayed on the display unit;
Face detection means for detecting a face area from an image signal;
Setting means for setting a tracking area as a target to be tracked, and setting means capable of setting the tracking area based on the face area;
The setting unit restricts the setting of the tracking region based on the face region from when the operation through the first specifying unit is performed until a first predetermined time elapses. Processing equipment.
前記設定手段は、前記第1の指定手段を介した操作が行われてから前記第1の所定時間が経過するまでの間、前記第1の指定手段を介した操作を受け付けるとともに、当該操作によって指定された位置に基づいて前記追尾領域を設定することを特徴とする請求項1に記載の画像処理装置。   The setting means receives an operation via the first designation means from when the operation via the first designation means is performed until the first predetermined time elapses. The image processing apparatus according to claim 1, wherein the tracking area is set based on a designated position. 前記設定手段は、前記第1の指定手段の操作が行われてから前記第1の所定時間経過した後で、設定されている追尾領域と前記顔領域との距離が所定距離より小さい場合、前記顔領域の情報に基づいて追尾領域を設定することを特徴とする請求項1又は2に記載の画像処理装置。 The setting means, when a distance between the set tracking area and the face area is smaller than a predetermined distance after the first predetermined time has elapsed since the operation of the first specifying means, the image processing apparatus according to claim 1 or 2, characterized in that to set the tracking area based on information of the face area. ユーザが追尾開始を指示するための指示手段をさらに有し、
前記設定手段は、所定の条件を満たす場合に、前記指示手段を介した操作が行われてから第2の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
An instruction means for the user to instruct the start of tracking;
The setting means restricts the setting of the tracking area based on the face area from when the operation through the instruction means is performed until a second predetermined time elapses when a predetermined condition is satisfied. the image processing apparatus according to any one of claims 1 to 3, wherein.
前記所定の条件は、前記顔領域が所定領域に含まれることであることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the predetermined condition is that the face area is included in the predetermined area. 前記所定領域は、前記指示手段を介した操作が行われた際に設定される追尾領域であることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 5 , wherein the predetermined area is a tracking area that is set when an operation is performed via the instruction unit. 前記第1の所定時間は、前記第2の所定時間より長いことを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。 The first predetermined time, the image processing apparatus according to any one of claims 4 to 6, wherein longer than the second predetermined time. 前記表示手段に表示された画像からユーザがタッチ操作により位置を指定するための第2の指定手段をさらに有し、
前記設定手段は、前記第2の指定手段を介して位置を指定された場合、該指定された位置に基づいて追尾領域を設定することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
A second designation means for the user to designate a position by a touch operation from the image displayed on the display means;
The said setting means sets a tracking area | region based on this designated position, when a position is designated via the said 2nd designation means, The any one of Claim 1 thru | or 7 characterized by the above-mentioned. The image processing apparatus described.
前記設定手段は、前記第2の指定手段を介して指定された位置に基づく追尾領域と前記顔領域との距離が所定距離より小さい場合、前記顔領域の情報に基づいて追尾領域を設定することを特徴とする請求項に記載の画像処理装置。 The setting means sets the tracking area based on the information of the face area when the distance between the tracking area based on the position designated via the second designation means and the face area is smaller than a predetermined distance. The image processing apparatus according to claim 8 . 画像信号に基づく画像とともに、設定されている追尾領域の位置を示す表示を表示する表示手段と、前記追尾領域の位置を示す表示を複数の方向に移動可能な操作部材を含んで構成され、前記表示手段に表示された画像からユーザが位置を指定するための第1の指定手段を有し、複数の画像から構成された動画像から追尾すべき被写体の領域である追尾領域を連続して検出することで追尾を行う画像処理装置の制御方法において、
画像信号から検出された顔領域の情報を取得する取得ステップと、
追尾を行う対象としての追尾領域を設定する設定ステップであって、前記顔領域に基づいて追尾領域を設定可能な設定ステップとを有し、
前記設定ステップにおいて、前記第1の指定手段を介した操作が行われてから第1の所定時間が経過するまでの間、前記顔領域に基づく追尾領域の設定を制限することを特徴とする画像処理装置の制御方法。
A display means for displaying a display indicating the position of the set tracking area together with an image based on the image signal, and an operation member capable of moving the display indicating the position of the tracking area in a plurality of directions, A first designation means for the user to designate a position from an image displayed on the display means, and a tracking area that is a subject area to be tracked is continuously detected from a moving image composed of a plurality of images. In the control method of the image processing apparatus that performs tracking by
An acquisition step of acquiring information of the face area detected from the image signal;
A setting step for setting a tracking area as a target to be tracked, and a setting step capable of setting a tracking area based on the face area;
In the setting step, the setting of the tracking area based on the face area is limited until the first predetermined time elapses after the operation through the first specifying means is performed. A method for controlling a processing apparatus.
JP2012001328A 2012-01-06 2012-01-06 Image processing apparatus and control method thereof Active JP5888986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012001328A JP5888986B2 (en) 2012-01-06 2012-01-06 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012001328A JP5888986B2 (en) 2012-01-06 2012-01-06 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013143578A JP2013143578A (en) 2013-07-22
JP2013143578A5 JP2013143578A5 (en) 2015-02-26
JP5888986B2 true JP5888986B2 (en) 2016-03-22

Family

ID=49039942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012001328A Active JP5888986B2 (en) 2012-01-06 2012-01-06 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5888986B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6579925B2 (en) * 2015-11-17 2019-09-25 キヤノン株式会社 Image reproducing apparatus, control method therefor, program, and recording medium
JP6702746B2 (en) 2016-02-10 2020-06-03 キヤノン株式会社 Imaging device, control method thereof, program, and storage medium
JP7034619B2 (en) * 2017-07-19 2022-03-14 キヤノン株式会社 Image pickup device, its control method, and program, and storage medium
CN117519488B (en) * 2024-01-05 2024-03-29 四川中电启明星信息技术有限公司 Dialogue method and dialogue system of dialogue robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4314043B2 (en) * 2003-03-10 2009-08-12 キヤノン株式会社 Imaging device
JP2006251682A (en) * 2005-03-14 2006-09-21 Fujinon Corp Automatic focusing system
JP5474528B2 (en) * 2009-12-25 2014-04-16 富士フイルム株式会社 Auto focus system

Also Published As

Publication number Publication date
JP2013143578A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
CN109076156B (en) Electronic device and control method thereof
JP5361528B2 (en) Imaging apparatus and program
US20120275648A1 (en) Imaging device and imaging method and program
JP5419585B2 (en) Image processing apparatus, image processing method, and program
KR20100082147A (en) Method for enlarging and changing captured image, and phographed apparatus using the same
JP5258399B2 (en) Image projection apparatus and control method thereof
JP2018125612A (en) Imaging apparatus and control method thereof
CN101998056A (en) Imaging apparatus having autofocus function, and control method for the imaging apparatus
KR20170063388A (en) Electronic device and method for controlling the same
US20120002094A1 (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP5888986B2 (en) Image processing apparatus and control method thereof
JP2018129765A (en) Imaging apparatus and control method
JP6525809B2 (en) Focus detection apparatus and control method thereof
JP2018036802A (en) Electronic apparatus and method for controlling the same
JP5783696B2 (en) Imaging apparatus, auto zoom method, and program
JP2021021857A (en) Imaging apparatus and control method thereof
JP2017126915A (en) Imaging apparatus
JP7158841B2 (en) Imaging device, imaging method, program, recording medium, and image processing device
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2019087924A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5067884B2 (en) Imaging apparatus, control method thereof, and program
JP5562479B2 (en) Image processing apparatus, image processing method, and program
JP2019012900A (en) Imaging control device, control method, program and storage medium
JP2015034895A (en) Imaging device and control method for the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160216

R151 Written notification of patent or utility model registration

Ref document number: 5888986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151