JP4912117B2 - Imaging device with tracking function - Google Patents

Imaging device with tracking function Download PDF

Info

Publication number
JP4912117B2
JP4912117B2 JP2006292171A JP2006292171A JP4912117B2 JP 4912117 B2 JP4912117 B2 JP 4912117B2 JP 2006292171 A JP2006292171 A JP 2006292171A JP 2006292171 A JP2006292171 A JP 2006292171A JP 4912117 B2 JP4912117 B2 JP 4912117B2
Authority
JP
Japan
Prior art keywords
tracking
area
face
tracking target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006292171A
Other languages
Japanese (ja)
Other versions
JP2008109552A (en
Inventor
晶彦 山田
日出人 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006292171A priority Critical patent/JP4912117B2/en
Publication of JP2008109552A publication Critical patent/JP2008109552A/en
Application granted granted Critical
Publication of JP4912117B2 publication Critical patent/JP4912117B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特定の追跡対象を追跡する機能を備えた撮像装置に関する。   The present invention relates to an imaging apparatus having a function of tracking a specific tracking target.

撮像装置を用いて静止画像や動画像を撮影する際、通常、ファインダー又は付属の小型ディスプレイにて被写体を確認しながら構図を調整する。しかしながら、ファインダーや付属の小型ディスプレイに表示される被写体は小さいため、被写体の映り具合などを十分に確認しづらい。これを考慮して、下記特許文献1では、撮影時に被写体としての人物の顔を拡大表示する手法が開示されている。   When taking a still image or a moving image using an imaging device, the composition is usually adjusted while checking the subject with a finder or an attached small display. However, since the subject displayed on the viewfinder and the attached small display is small, it is difficult to sufficiently check the subject's reflection. In consideration of this, Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for enlarging and displaying a human face as a subject at the time of shooting.

しかしながら、動画像を撮影する場合には、着目している被写体やそれ以外の物体が撮影領域内で動くため、被写体の位置確認が困難となる場合がある。こういった場合には、被写体を見逃してフレームアウトさせてしまうことがある。或いは、それを防ぐために撮影者が注意深く被写体を目視で追跡する必要があり、撮影者に多大な負担をかける。   However, when shooting a moving image, it may be difficult to confirm the position of the subject because the subject of interest and other objects move within the shooting region. In such cases, the subject may be missed and out of frame. Alternatively, in order to prevent this, it is necessary for the photographer to carefully track the subject visually, which places a great burden on the photographer.

特開2005−318515号公報JP 2005-318515 A

目視での追跡を代行する技術として画像解析による自動追跡技術も開発されている。これを利用すれば、被写体のフレームアウトの防止や撮影者の負担軽減が図られるが、撮影領域内には、追跡対象となる候補が複数存在することが多く、そのような場合、真に追跡すべき対象が不明となって撮影者の意図した追跡が実行されない場合がある。   An automatic tracking technique based on image analysis has been developed as a technique for substituting visual tracking. This can be used to prevent frame out of the subject and reduce the burden on the photographer, but there are often multiple candidates to be tracked in the shooting area. In some cases, the subject to be identified is unknown and tracking that the photographer intended is not performed.

また、撮影画像を表示する表示画面が小さい場合、単に、自動追跡するだけでは被写体の映り具合などを確認しずらいという問題もある。   Further, when the display screen for displaying the photographed image is small, there is a problem that it is difficult to check the appearance of the subject simply by automatically tracking.

また、自動追跡すべき被写体がフレームアウトしてしまった場合、従来は、その被写体の実空間における位置を撮影者が目視で確認し、その目視の結果に基づいて、撮像装置1をパン操作などして再度のフレームインを図るしかなかった。この場合、撮影者の観察対象が、表示画面と実空間との間で行き来することになり、この間に構図が乱れてしまうという問題がある。   When the subject to be automatically tracked out of the frame, conventionally, the photographer visually confirms the position of the subject in the real space, and pans the imaging device 1 based on the result of the visual inspection. Then I had to try again. In this case, there is a problem that the photographer's observation target goes back and forth between the display screen and the real space, and the composition is disturbed during this time.

上記の問題点に鑑み、本発明は、追跡対象候補が複数ある場合でも追跡処理を有効に機能させる追跡機能付き撮像装置を提供することを目的とする。
また本発明は、追跡対象の確認の容易化に寄与することを他の目的とする。
また本発明は、追跡対象が撮影領域外に出てしまった場合における構図の再調整の容易化に寄与することを他の目的とする。
In view of the above problems, an object of the present invention is to provide an imaging device with a tracking function that allows a tracking process to function effectively even when there are a plurality of tracking target candidates.
Another object of the present invention is to contribute to facilitating confirmation of a tracking target.
Another object of the present invention is to contribute to facilitating readjustment of the composition when the tracking target is out of the imaging region.

本発明に係る追跡機能付き撮像装置は、順次撮影を行うことによって、時系列で並ぶ撮影画像を得る撮像手段と、前記撮影画像を表示可能な表示手段と、前記撮影画像の中から1又は2以上の追跡対象候補を検出する追跡対象候補検出手段と、2以上の前記追跡対象候補が検出された際、その2以上の前記追跡対象候補の中の1つを追跡対象として選択する追跡対象選択手段と、前記追跡対象の選択後、時系列で並ぶ前記撮影画像間において前記追跡対象を追跡する追跡手段と、を備えたことを特徴とする。   The imaging device with a tracking function according to the present invention sequentially captures an image capturing unit that obtains captured images arranged in time series, a display unit that can display the captured image, and one or two of the captured images. Tracking target candidate detecting means for detecting the above tracking target candidates, and tracking target selection for selecting one of the two or more tracking target candidates as a tracking target when two or more tracking target candidates are detected And tracking means for tracking the tracking target between the captured images arranged in time series after the tracking target is selected.

追跡対象選択手段を備えることにより、追跡対象候補が複数存在する場合でも1つの追跡対象が選択され、その追跡対象を追跡することが可能となる。   By providing the tracking target selection unit, even when there are a plurality of tracking target candidates, one tracking target is selected, and the tracking target can be tracked.

具体的には、外部操作によって、或いは、選択対象候補が人物である場合は顔認識処理などによって、追跡対象を特定すればよい。   Specifically, the tracking target may be specified by an external operation or by face recognition processing when the selection target candidate is a person.

また例えば、前記表示手段は、表示画面上に全体画像表示エリアを設けて、時系列で並ぶ前記撮影画像の全体画像を動画像として前記全体画像表示エリアに表示すると共に、前記表示画面上に、別途、追跡対象表示エリアを設けて、該追跡対象表示エリアに前記追跡対象を含む画像を拡大表示する。   Further, for example, the display means provides an entire image display area on the display screen, displays the entire image of the captured images arranged in time series in the entire image display area as a moving image, and on the display screen, Separately, a tracking target display area is provided, and an image including the tracking target is enlarged and displayed in the tracking target display area.

これにより、全体画像を確認しながら、追跡対象の映り具合などを詳細に且つ容易に確認することができる。   Thereby, it is possible to confirm in detail and easily the appearance of the tracking target while confirming the entire image.

また、具体的には例えば、前記撮影画像の中から人物の顔を検出する顔検出手段を更に備え、前記追跡対象候補検出手段は、前記顔検出手段の検出結果を基に、前記撮影画像の中の各人物を前記追跡対象候補として検出し、前記追跡対象として選択された人物を、追跡対象人物と呼んだ場合、前記追跡手段は、前記追跡対象人物の一部又は全部を含む領域を追跡領域として設定し、前記追跡領域を追跡することによって前記追跡対象を追跡する。   Further, specifically, for example, it further includes a face detection unit that detects a human face from the captured image, and the tracking target candidate detection unit is configured to detect the captured image based on the detection result of the face detection unit. When each person is detected as the tracking target candidate and the person selected as the tracking target is called a tracking target person, the tracking unit tracks a region including a part or all of the tracking target person. The tracking object is tracked by setting as a region and tracking the tracking region.

より具体的には例えば、前記顔検出手段は、前記撮影画像の中から、前記追跡対象人物の顔を含む領域を顔領域として抽出し、前記追跡領域は、第1、第2、・・・及び第nの要素追跡領域から形成され(nは2以上の整数)、第1の要素追跡領域は、前記顔領域とされ、前記追跡手段は、前記追跡対象人物の顔の、前記撮影画像上の大きさ及び位置に基づき、前記第1の要素追跡領域としての前記顔領域を基準として他の要素追跡領域を設定し、これによって前記追跡領域を設定する。   More specifically, for example, the face detection unit extracts an area including the face of the person to be tracked from the captured image as a face area, and the tracking area includes first, second,. And the n-th element tracking area (n is an integer equal to or greater than 2), the first element tracking area is the face area, and the tracking means is on the captured image of the face of the tracking target person. Based on the size and position of the other element tracking area, another element tracking area is set with reference to the face area as the first element tracking area, thereby setting the tracking area.

更に例えば、前記追跡手段は、前記大きさ及び位置だけでなく、前記撮影画像内における前記追跡対象人物の顔の傾き、前記撮影画像内における前記追跡対象人物の顔の向き、及び、当該撮像装置の傾き、の少なくとも1つをも参照して、前記追跡領域を設定する。   Further, for example, the tracking means includes not only the size and position but also the inclination of the face of the tracking target person in the captured image, the orientation of the face of the tracking target person in the captured image, and the imaging apparatus. The tracking area is set with reference to at least one of the inclinations.

顔の傾きなどをも考慮した上で追跡領域を設定することにより、追跡領域の最適化が図られ、追跡の安定化が期待される。   By setting the tracking area in consideration of the inclination of the face and the like, the tracking area is optimized and the tracking is expected to be stabilized.

また例えば、前記追跡手段は、前記追跡対象の選択後、追跡に必要な追跡用パラメータを自動的に設定して、設定した前記追跡用パラメータに応じた情報を前記表示手段に表示させ、当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行う。   Further, for example, after the tracking target is selected, the tracking unit automatically sets a tracking parameter necessary for tracking, displays information according to the set tracking parameter on the display unit, and performs the imaging The apparatus further includes an operation unit that accepts an external operation, and the tracking parameter automatically set by the tracking unit can be changed by a predetermined operation on the operation unit, and the tracking unit When the change is made by the operation, the tracking target is tracked according to the tracking parameter after the change.

また例えば、前記追跡手段は、前記追跡対象の選択後、追跡に必要な追跡用パラメータを自動的に設定して、設定した前記追跡用パラメータに応じた情報を前記表示手段に表示させ、前記追跡用パラメータは、前記追跡領域を定める情報を含み、当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、
前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行う。
Further, for example, after the tracking target is selected, the tracking unit automatically sets a tracking parameter necessary for tracking, causes the display unit to display information according to the set tracking parameter, and the tracking unit The parameter for use includes information defining the tracking area, and the imaging apparatus further includes an operation unit that accepts an external operation, and the tracking parameter that is automatically set by the tracking unit corresponds to the operation unit. It can be changed by a predetermined operation,
When the change is made by the predetermined operation, the tracking unit tracks the tracking target according to the changed tracking parameter.

また例えば、前記表示手段は、前記全体画像表示エリアにおいて、前記追跡対象の表示位置を基準とした所定位置に所定の追跡マークを表示する。   Further, for example, the display means displays a predetermined tracking mark at a predetermined position on the basis of the display position of the tracking target in the entire image display area.

追跡マークを表示することにより、撮影領域内における追跡対象の位置の確認が容易となる。   Displaying the tracking mark facilitates confirmation of the position of the tracking target in the imaging region.

また例えば、前記追跡手段は、各撮影画像から前記追跡対象の移動軌跡を求めて記憶し、前記追跡対象が撮影領域外へ出た場合、前記移動軌跡に基づいて前記追跡対象が位置する方向を推測して、推測した前記方向に応じた報知を行う。   Further, for example, the tracking unit obtains and stores a movement trajectory of the tracking target from each captured image, and when the tracking target goes out of the imaging area, the tracking unit determines a direction in which the tracking target is located based on the moving trajectory. It estimates and performs notification according to the estimated direction.

これにより、追跡対象が撮影領域外に出てしまった場合における構図の再調整が容易となる。   This facilitates readjustment of the composition when the tracking target goes out of the imaging area.

また例えば、前記追跡手段は、各撮影画像から前記追跡対象の移動軌跡を求めて記憶し、前記追跡対象が撮影領域外へ出た場合、前記移動軌跡に基づいて前記追跡対象が位置する方向を推測し、その後、推測した前記方向に応じた探索領域を各撮影画像内に定義して、前記探索領域内において前記追跡対象を探索する。   Further, for example, the tracking unit obtains and stores a movement trajectory of the tracking target from each captured image, and when the tracking target goes out of the imaging area, the tracking unit determines a direction in which the tracking target is located based on the moving trajectory. Then, a search area corresponding to the estimated direction is defined in each captured image, and the tracking target is searched in the search area.

これにより、追跡対象が撮影領域外に出てしまった後の、探索処理の演算負荷が軽減される。   Thereby, the calculation load of the search process after the tracking target has moved out of the imaging region is reduced.

本発明によれば、追跡対象候補が複数ある場合でも有効な追跡が可能である。   According to the present invention, effective tracking is possible even when there are a plurality of tracking target candidates.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、動画像(及び静止画像)を撮影可能なデジタルビデオカメラである。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital video camera that can capture moving images (and still images).

撮像装置1は、撮像部11と、AFE(Analog Front End)12と、制御部13と、顔検出部14と、表示部15と、記録媒体16と、操作部17と、傾きセンサ18と、を備えている。   The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a control unit 13, a face detection unit 14, a display unit 15, a recording medium 16, an operation unit 17, an inclination sensor 18, It has.

撮像部11は、光学系と、絞りと、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子と、光学系や絞りを制御するためのドライバ(全て不図示)と、を有している。ドライバは、制御部13からの制御信号に基づいて、光学系のズーム倍率や焦点距離、及び、絞りの開度を制御する。撮像素子は、光学系及び絞りを介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。   The imaging unit 11 includes an optical system, an aperture, an imaging device such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and a driver (all not shown) for controlling the optical system and the aperture. And have. The driver controls the zoom magnification and focal length of the optical system and the aperture of the diaphragm based on a control signal from the control unit 13. The image sensor photoelectrically converts an optical image representing a subject incident through the optical system and the diaphragm, and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12.

AFE12は、撮像部11(撮像素子)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、制御部13に出力する。   The AFE 12 amplifies the analog signal output from the imaging unit 11 (imaging device), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the control unit 13.

制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部としても機能する。制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」ともいう)を表す映像信号を生成する。   The control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and also functions as a video signal processing unit. Based on the output signal of the AFE 12, the control unit 13 generates a video signal representing an image captured by the imaging unit 11 (hereinafter also referred to as “captured image”).

撮像部11により、所定のフレーム周期(例えば、1/60秒の周期)にて、順次、撮影が行われ、所定のフレーム周期にて順次得られる静止画像(即ち、撮影画像)によって動画像が形成される。   The imaging unit 11 sequentially captures images in a predetermined frame cycle (for example, 1/60 second cycle), and a moving image is generated by still images (that is, captured images) sequentially obtained in a predetermined frame cycle. It is formed.

顔検出部14は、各撮影画像の中から人物の顔を検出して、顔を含む顔領域を抽出する。画像中に含まれる顔を検出する手法として様々な手法が知られており、顔検出部14は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のように撮影画像から肌色領域を抽出することによって顔(顔領域)を検出しても良いし、特開2006−211139号公報、特開2006−72770号公報又は上記特許文献1に記載の手法を用いて顔(顔領域)を検出しても良い。   The face detection unit 14 detects a person's face from each captured image, and extracts a face area including the face. Various methods are known as methods for detecting a face included in an image, and the face detection unit 14 can employ any method. For example, a face (face area) may be detected by extracting a skin color area from a photographed image as in the technique described in Japanese Patent Application Laid-Open No. 2000-105819, or Japanese Patent Application Laid-Open No. 2006-21139 and Japanese Patent Application Laid-Open No. 2006. A face (face area) may be detected using the technique described in Japanese Patent No. -72770 or the above-mentioned Patent Document 1.

典型的には例えば、入力画像(即ち、撮影画像)内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。類似判定は、顔であるか否かを識別するのに有効な特徴量を抽出することによって行う。特徴量は、水平エッジ、垂直エッジ、右斜めエッジ、左斜めエッジ等である。   Typically, for example, the similarity between both images is determined by comparing the image of the region of interest set in the input image (that is, the captured image) with a reference face image having a predetermined image size. Based on this, it is detected whether or not a face is included in the region of interest (whether or not the region of interest is a face region). The similarity determination is performed by extracting a feature amount effective for identifying whether the face is a face. The feature amount is a horizontal edge, a vertical edge, a right diagonal edge, a left diagonal edge, or the like.

入力画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。   In the input image, the region of interest is shifted in the horizontal direction or the vertical direction pixel by pixel. Then, the image of the region of interest after the shift is compared with the reference face image, the similarity between both images is determined again, and the same detection is performed. In this way, the region of interest is updated and set, for example, while being shifted pixel by pixel from the upper left to the lower right of the input image.

また、入力画像(即ち、撮影画像)を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。   Further, the input image (that is, the photographed image) is reduced at a certain rate, and the same face detection process is performed on the reduced image. By repeating such processing, a face of any size can be detected from the input image.

また、顔検出部14は、各撮影画像内における顔の傾きをも検出可能に構成されている。例えば、入力画像(即ち、撮影画像)を回転させ、回転後の画像に対して上述と同様の顔検出処理を行うことにより、傾いた顔を検出可能であると共に顔の傾き(傾き角度)を検出することができる。ここにおける顔の傾きとは、撮影画像の垂直方向に対する顔の傾きを意味する(詳細は後述)。   Further, the face detection unit 14 is configured to be able to detect the inclination of the face in each captured image. For example, by rotating an input image (that is, a photographed image) and performing face detection processing similar to the above on the rotated image, a tilted face can be detected and the tilt (tilt angle) of the face can be detected. Can be detected. The face inclination in this case means the inclination of the face with respect to the vertical direction of the captured image (details will be described later).

顔検出部14は、更に、各撮影画像における顔の向きも併せて検出する。即ち例えば、顔検出部14は、各撮影画像において検出された顔が、正面顔(正面から見た顔)であるのか、或いは、横顔(横から見た顔)であるのかを区別して検出可能である。顔の向きを検出する手法として様々な手法が提案されており、顔検出部14は何れの手法をも採用可能である。   The face detection unit 14 further detects the orientation of the face in each captured image. That is, for example, the face detection unit 14 can detect whether a face detected in each captured image is a front face (face viewed from the front) or a side face (face viewed from the side). It is. Various methods have been proposed for detecting the orientation of the face, and the face detection unit 14 can employ any method.

例えば、特開平10−307923号公報に記載の手法のように、撮影画像の中から、目、鼻、口等の顔部品を順番に見つけていって画像中の顔の位置を検出し、顔部品の投影データに基づいて顔の向きを検出する。   For example, as in the technique described in Japanese Patent Laid-Open No. 10-307923, face parts such as eyes, nose and mouth are found in order from a photographed image, and the position of the face in the image is detected. The face orientation is detected based on the projection data of the part.

或いは例えば、特開2006−72770号公報に記載の手法を用いてもよい。この手法では、1つの正面顔を左側半分(以下、左顔という)と右側半分(以下、右顔という)とに分けて考え、学習処理を介して左顔に関するパラメータと右顔に関するパラメータを生成しておく。顔検出時には、撮影画像内の注目領域を左右に分割し、各分割領域と、上記2つのパラメータの内の対応するパラメータとの類似度を算出する。そして、一方又は双方の類似度が閾値以上の時に、注目領域が顔領域であると判別する。更に、各分割領域に対する類似度の大小関係から顔の向きを検出する。   Alternatively, for example, a method described in JP 2006-72770 A may be used. In this method, one front face is divided into a left half (hereinafter referred to as a left face) and a right half (hereinafter referred to as a right face), and parameters related to the left face and right face are generated through a learning process. Keep it. At the time of face detection, the attention area in the captured image is divided into left and right, and the similarity between each divided area and the corresponding parameter of the two parameters is calculated. Then, when one or both of the similarities are equal to or greater than the threshold, it is determined that the attention area is a face area. Furthermore, the orientation of the face is detected from the magnitude relationship of the similarity to each divided region.

顔検出部14による顔検出結果は、制御部13に伝達される。顔検出結果には、各撮影画像上における「顔の大きさ、顔の位置、顔の傾き及び顔の向き」が含まれる。   The face detection result by the face detection unit 14 is transmitted to the control unit 13. The face detection result includes “face size, face position, face tilt, and face orientation” on each captured image.

表示部15は、液晶ディスプレイパネル等から成る表示装置であり、制御部13の制御の下、現フレーム(或いは直前のフレーム)にて撮影された画像や記録媒体16に記録されている画像などを表示する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、制御部13による制御の下、撮影画像などを記憶する。操作部17は、シャッタボタン及び所謂十字キー(何れも不図示)等から成り、外部からの操作を受け付ける。操作部17に対する操作内容は、制御部13に伝達される。   The display unit 15 is a display device composed of a liquid crystal display panel or the like, and displays an image taken in the current frame (or immediately preceding frame) or an image recorded on the recording medium 16 under the control of the control unit 13. indicate. The recording medium 16 is a non-volatile memory such as an SD (Secure Digital) memory card, and stores captured images and the like under the control of the control unit 13. The operation unit 17 includes a shutter button, a so-called cross key (both not shown), and the like, and accepts an operation from the outside. The operation content for the operation unit 17 is transmitted to the control unit 13.

傾きセンサ18は、鉛直線に対する撮像装置1の傾きを検出する。例えば、水平線を撮影した時における撮影画像上の水平線が撮影画像上の水平方向(水平ライン)と合致する状態を基準状態とする。この基準状態において撮像装置1は傾いていないものとし(即ち、傾きは0度であるとし)、傾きセンサ18は、この基準状態からの撮像装置1の傾きを検出する。この傾きの角度を表す傾きデータは制御部13に伝達される。尚、撮影画像からエッジ成分を抽出することによって撮影画像内の水平線を検出し、この水平線の検出結果から撮影装置1の傾きを検出するようにしてもよい。   The tilt sensor 18 detects the tilt of the imaging device 1 with respect to the vertical line. For example, the state where the horizontal line on the captured image when the horizontal line is captured matches the horizontal direction (horizontal line) on the captured image is set as the reference state. In this reference state, the imaging apparatus 1 is not inclined (that is, the inclination is 0 degree), and the inclination sensor 18 detects the inclination of the imaging apparatus 1 from this reference state. The inclination data representing the inclination angle is transmitted to the control unit 13. Note that a horizontal line in the captured image may be detected by extracting an edge component from the captured image, and the inclination of the image capturing apparatus 1 may be detected from the detection result of the horizontal line.

撮像装置1は、特徴的な機能として、追跡対象を追跡しつつ撮影を行う追跡撮影機能を備える。追跡撮影機能は、撮像装置1の動作モードの1つである追跡撮影モードにおいて実現される。他の動作モードから追跡撮影モードへの移行は、操作部17に対する操作によって実現される。   The imaging device 1 includes a tracking imaging function that performs imaging while tracking a tracking target as a characteristic function. The tracking imaging function is realized in a tracking imaging mode that is one of operation modes of the imaging apparatus 1. The transition from the other operation mode to the tracking shooting mode is realized by an operation on the operation unit 17.

追跡撮影モードにおいては、所定のフレーム周期(例えば、1/60秒の周期)にて、順次、撮影が行われ、所定のフレーム周期にて順次得られる各撮影画像は、操作部17に備えられた録画ボタン(不図示)に対する操作に応じて、記録媒体16に記録される。各撮影画像を得るためのフレームは、フレーム周期が経過するごとに、第1、第2、・・・、第(n−1)、第n番目のフレーム、・・・、の順番で訪れるものとする(nは、2以上の整数)。各フレームにおける撮影画像を、以下、「フレーム画像」とも呼ぶ。第1番目のフレームで得られたフレーム画像、第2番目のフレームで得られたフレーム画像、・・・、第(n−1)番目のフレームで得られたフレーム画像、第n番目のフレームで得られたフレーム画像は、時系列で並んでいる。   In the tracking shooting mode, shooting is sequentially performed in a predetermined frame period (for example, 1/60 second period), and each captured image sequentially obtained in the predetermined frame period is provided in the operation unit 17. It is recorded on the recording medium 16 in response to an operation on a recording button (not shown). The frames for obtaining each photographed image are visited in the order of the first, second,..., (N−1) th, nth frame,. (N is an integer of 2 or more). Hereinafter, the captured image in each frame is also referred to as a “frame image”. Frame image obtained in the first frame, frame image obtained in the second frame,..., Frame image obtained in the (n−1) th frame, in the nth frame The obtained frame images are arranged in time series.

以下、追跡撮影機能について詳細に説明する。図2は、追跡撮影機能を実現するための追跡処理部20の機能ブロック図である。但し、図2に示す追跡処理部20のみによって追跡撮影機能は実現されるのではなく、追跡撮影機能を実現するにあたり、図1に示す他の部位の機能も利用される。追跡処理部20は、自動追跡されるべき追跡対象の候補を検出する追跡対象候補検出部21、追跡対象候補の中から1つの追跡対象を選択する追跡対象選択部22及び追跡対象を自動追跡する追跡部23を備え、それらは、制御部13によって実現される。追跡部23には、自動追跡に必要な追跡用パラメータを設定するパラメータ設定部24、及び、追跡対象の移動軌跡を記憶する移動軌跡記憶部25が含まれる。図2に示す各部位には、顔検出部14による顔検出結果が伝達される。   Hereinafter, the tracking shooting function will be described in detail. FIG. 2 is a functional block diagram of the tracking processing unit 20 for realizing the tracking imaging function. However, the tracking imaging function is not realized only by the tracking processing unit 20 shown in FIG. 2, and the functions of other parts shown in FIG. 1 are also used in realizing the tracking imaging function. The tracking processing unit 20 automatically tracks a tracking target candidate detecting unit 21 that detects a tracking target candidate to be automatically tracked, a tracking target selecting unit 22 that selects one tracking target from the tracking target candidates, and a tracking target. The tracking unit 23 is provided, and these are realized by the control unit 13. The tracking unit 23 includes a parameter setting unit 24 that sets parameters for tracking necessary for automatic tracking, and a movement locus storage unit 25 that stores a movement locus of a tracking target. The face detection result by the face detection unit 14 is transmitted to each part shown in FIG.

図3に、追跡撮影モードにおける動作の流れを示す。追跡撮影モードにおける動作は、追跡用設定動作と、追跡動作と、追跡対象探索動作と、に大別される。   FIG. 3 shows an operation flow in the tracking imaging mode. Operations in the tracking shooting mode are roughly classified into a tracking setting operation, a tracking operation, and a tracking object search operation.

最初に、ステップS1において追跡用設定動作が行われ、ステップS2の追跡動作は追跡用設定動作が完了した後に実行される。そして、追跡動作中に追跡対象がフレームアウトした場合、ステップS3の分岐処理を介してステップS4に移行し、追跡対象探索動作が実行される。追跡対象がフレームアウトしていない場合は、ステップS2の追跡動作が継続実行される。追跡対象が一旦フレームアウトしてから再度フレームインし、ステップS4の追跡対象探索動作によって追跡対象が見つかると、再度、ステップS2の追跡動作が行われる。   First, a tracking setting operation is performed in step S1, and the tracking operation in step S2 is executed after the tracking setting operation is completed. When the tracking target is out of frame during the tracking operation, the process proceeds to step S4 via the branching process of step S3, and the tracking target search operation is executed. If the tracking target is not out of frame, the tracking operation in step S2 is continued. Once the tracking target is out of the frame and then framed in again, when the tracking target is found by the tracking target search operation in step S4, the tracking operation in step S2 is performed again.

尚、追跡対象に着目した場合において、フレームアウトとは追跡対象が撮影領域内から撮影領域外に出ることを意味する。これとは逆に、追跡対象が撮影領域外から撮影領域内に入ることを、フレームインという。撮像部11は、撮影領域内に収まる被写体を撮影する。   In the case where attention is paid to the tracking target, the frame out means that the tracking target goes out of the shooting area from the shooting area. On the contrary, when the tracking target enters the imaging area from outside the imaging area is called frame-in. The imaging unit 11 captures a subject that falls within the imaging area.

図4は、追跡撮影モードにおける、表示部15の表示画面の表示エリア分割例を表す。符号50は、表示部15の表示画面を表している。より具体的には、符号50が付された実線の四角枠は、表示部15の表示画面における全表示エリアを表している。その全表示エリアは、全体画像表示エリアAR1と、追跡対象表示エリアAR2と、付加情報表示エリアAR3と、その他のエリアと、に分割される。全体画像表示エリアAR1、追跡対象表示エリアAR2及び付加情報表示エリアAR3を、以下、夫々、表示エリアAR1、表示エリアAR2及び表示エリアAR3と略記する。   FIG. 4 illustrates a display area division example of the display screen of the display unit 15 in the tracking shooting mode. Reference numeral 50 represents a display screen of the display unit 15. More specifically, a solid square frame denoted by reference numeral 50 represents the entire display area on the display screen of the display unit 15. The entire display area is divided into an entire image display area AR1, a tracking target display area AR2, an additional information display area AR3, and other areas. The entire image display area AR1, the tracking target display area AR2, and the additional information display area AR3 are hereinafter abbreviated as a display area AR1, a display area AR2, and a display area AR3, respectively.

表示エリアAR1は矩形領域であり、図4において該矩形領域には斜線が施されている。表示エリアAR2は、表示エリアAR1に隣接する矩形領域である。表示エリアAR3は、表示エリアAR1を取り囲むように設けられたドーナツ状領域である。   The display area AR1 is a rectangular area, and the rectangular area is hatched in FIG. The display area AR2 is a rectangular area adjacent to the display area AR1. The display area AR3 is a donut-shaped region provided so as to surround the display area AR1.

図1の制御部13又は図2の追跡処理部20は、表示部15の表示内容を制御する表示制御部としての機能をも備え、表示部15の表示画面上に画像を表示するための領域の定義、その領域に画像を表示させる処理など、表示に必要な制御を行う。   The control unit 13 in FIG. 1 or the tracking processing unit 20 in FIG. 2 also has a function as a display control unit that controls the display content of the display unit 15, and is an area for displaying an image on the display screen of the display unit 15. Control necessary for display, such as the definition of the image and the process of displaying an image in that area.

[追跡用設定動作]
まず、追跡用設定動作について説明する。追跡用設定動作を実行する期間を追跡用設定期間と呼ぶ。図5は、追跡用設定期間における、表示部15の表示画面50の表示例を示す。追跡用設定期間においては、順次生成される各フレーム画像の全体画像が動画像として表示エリアAR1に表示される。尚、図5及び人物を含む画像を示す後述の各図において、図示の簡略化上、人物の下半身の図示を省略する場合がある。また、追跡用設定期間において、表示エリアAR3(図4参照)は利用されない。
[Setting operation for tracking]
First, the tracking setting operation will be described. A period during which the tracking setting operation is executed is referred to as a tracking setting period. FIG. 5 shows a display example of the display screen 50 of the display unit 15 in the tracking setting period. In the tracking setting period, the entire image of each frame image that is sequentially generated is displayed as a moving image in the display area AR1. In addition, in FIG. 5 and each drawing described later showing an image including a person, illustration of the lower half of the person may be omitted for simplification of illustration. Further, the display area AR3 (see FIG. 4) is not used during the tracking setting period.

図1の顔検出部14は、各フレーム画像に対して上述の顔検出を実施し、図2の追跡対象検出部21は、顔検出結果に基づきつつ各フレーム画像の中から追跡対象候補を検出する。撮影領域内に位置する人物が、追跡対象候補となる。今、図5に示す如く、撮影領域内に3人の人物が位置しているものとする。この場合は、顔検出によって3人分の顔領域が特定され、その3人の人物が、第1、第2及び第3の追跡対象候補となる。   The face detection unit 14 in FIG. 1 performs the above-described face detection on each frame image, and the tracking target detection unit 21 in FIG. 2 detects a tracking target candidate from each frame image based on the face detection result. To do. A person located in the shooting area is a tracking target candidate. Now, as shown in FIG. 5, it is assumed that three persons are located in the imaging region. In this case, face areas for three persons are specified by face detection, and the three persons become first, second, and third tracking target candidates.

図2の追跡対象選択部22は、第1、第2及び第3の追跡対象候補を囲む四角枠61、62及び63を、表示エリアAR1内に表示する。今の例のように複数の追跡対象候補がある場合、予め定められた規則に則って、まず1つの追跡対象候補が表示エリアAR2に拡大表示される。ここで、「表示エリアAR2に拡大表示する」とは、表示エリアAR1内と表示エリアAR2内で共通の画像を表示した際、表示エリアAR2内での該画像の表示サイズを表示エリアAR1内でのそれよりも大きくすることを意味する。   The tracking target selection unit 22 in FIG. 2 displays square frames 61, 62, and 63 surrounding the first, second, and third tracking target candidates in the display area AR1. When there are a plurality of tracking target candidates as in this example, one tracking target candidate is first enlarged and displayed in the display area AR2 in accordance with a predetermined rule. Here, “enlarged display in display area AR2” means that when a common image is displayed in display area AR1 and display area AR2, the display size of the image in display area AR2 is displayed in display area AR1. It means to be bigger than that.

例えば、まず、第1の追跡対象候補を囲む四角枠61内の画像が、表示エリアAR2内に拡大表示される。この状態で、操作部17に所定の対象切替操作を行うと、表示エリアAR2内に拡大表示される画像は、第2の追跡対象候補を囲む四角枠62内の画像に切り替わる。同様に、所定の対象切替操作を実施するたびに、表示エリアAR2内に拡大表示される画像が、第3の追跡対象候補を囲む四角枠63内の画像、第1の追跡対象候補を囲む四角枠61内の画像、・・・に切り替わる。撮影者は、表示エリアAR2に拡大表示される追跡対象候補と撮影者が追跡しようとする人物とが合致するまで、上記の対象切替操作を行う。   For example, first, an image in the square frame 61 surrounding the first tracking target candidate is enlarged and displayed in the display area AR2. In this state, when a predetermined target switching operation is performed on the operation unit 17, the image displayed in an enlarged manner in the display area AR2 is switched to an image in the square frame 62 surrounding the second tracking target candidate. Similarly, every time a predetermined target switching operation is performed, an image that is enlarged and displayed in the display area AR2 is an image within the rectangular frame 63 that surrounds the third tracking target candidate, and a square that surrounds the first tracking target candidate. The image in the frame 61 is switched to. The photographer performs the above-described target switching operation until the tracking target candidate enlarged and displayed in the display area AR2 matches the person to be tracked by the photographer.

第1の追跡対象候補を囲む四角枠61内の画像が表示エリアAR2内に拡大表示されている状態において、操作部17に所定の追跡対象決定操作が施された場合、図2の追跡対象選択部22は、第1の追跡対象候補を追跡対象として選択する。同様に、第2の追跡対象候補を囲む四角枠62内の画像が表示エリアAR2内に拡大表示されている状態において、操作部17に所定の追跡対象決定操作が施された場合、図2の追跡対象選択部22は、第2の追跡対象候補を追跡対象として選択する。第3の追跡対象候補についても同様である。   When a predetermined tracking target determination operation is performed on the operation unit 17 in a state where the image in the square frame 61 surrounding the first tracking target candidate is enlarged and displayed in the display area AR2, the tracking target selection in FIG. The unit 22 selects the first tracking target candidate as the tracking target. Similarly, when a predetermined tracking target determination operation is performed on the operation unit 17 in a state where the image in the square frame 62 surrounding the second tracking target candidate is enlarged and displayed in the display area AR2, FIG. The tracking target selection unit 22 selects the second tracking target candidate as a tracking target. The same applies to the third tracking target candidate.

尚、追跡対象候補が複数存在する場合を例示したが、撮影領域内に人物が1人しかいない場合は、検出される追跡対象候補の個数は勿論1となる。   In addition, although the case where there are a plurality of tracking target candidates is illustrated, when there is only one person in the imaging region, the number of tracking target candidates detected is, of course, one.

また、操作部17に対する操作によって複数の追跡対象候補から1つの追跡対象を選択する例を示したが、顔認識処理などの人物特定手段を用いて複数の追跡対象候補から追跡対象を自動的に選択するようにしてもよい。顔認識の手法として様々な手法が知られており、その何れの手法をも利用可能である。   In addition, an example in which one tracking target is selected from a plurality of tracking target candidates by an operation on the operation unit 17 has been described. However, a tracking target is automatically selected from a plurality of tracking target candidates using a person specifying unit such as a face recognition process. You may make it select. Various methods are known as face recognition methods, and any of them can be used.

一般的な顔認識の手法を簡単に説明する。この手法では、追跡対象として選択されるべき人物の顔を事前に撮影して、その人物の顔を登録しておく。具体的には、その人物の顔の画像から顔辞書データを作成しておく。そして、追跡用設定期間におけるフレーム画像から各顔領域を切り出し、切り出された顔領域の画像の夫々と顔辞書データにて表される顔画像と間でパターンマッチングを行うことにより、フレーム画像内の何れの顔が登録された人物の顔であるかを判断する。その判断に基づき、登録された人物の顔に対応する追跡対象候補を追跡対象として選択する。   A general face recognition method will be briefly described. In this method, a face of a person to be selected as a tracking target is photographed in advance and the face of the person is registered. Specifically, face dictionary data is created from the face image of the person. Then, each face area is cut out from the frame image in the tracking setting period, and pattern matching is performed between each of the cut out face area images and the face image represented by the face dictionary data. It is determined which face is a registered person's face. Based on the determination, a tracking target candidate corresponding to the registered person's face is selected as a tracking target.

図6は、追跡対象が選択された直後における、表示画面50の表示例を表す。追跡対象を囲む追跡対象枠64が表示エリアAR1内に表示され、表示エリアAR2内に追跡対象枠64内の画像、即ち、追跡対象を含む画像が拡大表示される。表示エリアAR3内の表示内容については追跡動作及び追跡対象探索動作の説明と併せて後述する。   FIG. 6 shows a display example of the display screen 50 immediately after the tracking target is selected. A tracking target frame 64 surrounding the tracking target is displayed in the display area AR1, and an image in the tracking target frame 64, that is, an image including the tracking target is enlarged and displayed in the display area AR2. The display contents in the display area AR3 will be described later together with the description of the tracking operation and the tracking target search operation.

今、図5の四角枠61内に表示された人物(第1の追跡対象候補)が追跡対象として選択されたとする。また、追跡対象として選択された人物を、以下、追跡対象人物と呼ぶ。以下の説明において、顔、顔の向き、顔の傾き、上半身及び下半身などの、顔又は人体に関する記述は、特に記述しない限り、全て追跡対象人物に関する記述である。   Now, assume that the person (first tracking target candidate) displayed in the square frame 61 of FIG. 5 is selected as the tracking target. The person selected as the tracking target is hereinafter referred to as a tracking target person. In the following description, all the descriptions regarding the face or the human body such as the face, the orientation of the face, the inclination of the face, the upper body, and the lower body are descriptions regarding the tracking target person unless otherwise specified.

追跡対象が選択されると、図2のパラメータ設定部24は、顔検出部14にて検出された追跡対象人物の、撮影画像上における「顔の大きさ、顔の傾き及び顔の向き」と、傾きセンサ18からの傾きデータと、に基づいて、追跡対象を自動追跡するために必要な追跡用パラメータを自動的に設定する。「顔の大きさ、顔の傾き及び顔の向き」を特定するに当たり、撮影画像上の顔の位置も参照される。設定した追跡用パラメータの内容は、表示エリアAR2に反映される。自動的に設定された追跡用パラメータは、操作部17に対するパラメータ選択操作によって変更可能であるが、変更がなされるまでの間は、変更前の追跡用パラメータを用いて追跡動作が行われる。   When the tracking target is selected, the parameter setting unit 24 in FIG. 2 reads “the size of the face, the tilt of the face, and the orientation of the face” of the tracking target person detected by the face detection unit 14 on the captured image. Based on the inclination data from the inclination sensor 18, tracking parameters necessary for automatically tracking the tracking target are automatically set. In specifying the “face size, face inclination, and face orientation”, the position of the face on the captured image is also referred to. The contents of the set tracking parameters are reflected in the display area AR2. The automatically set tracking parameters can be changed by a parameter selection operation on the operation unit 17. Until the change is made, a tracking operation is performed using the tracking parameters before the change.

パラメータ設定部24による追跡用パラメータの自動設定手法について説明する。本実施形態では、追跡用パラメータが8種類ある場合を例示する。異なる種類間の追跡用パラメータを区別するべく、便宜上、8種類の追跡用パラメータを、追跡用パラメータPR1、PR2、PR3、PR4、PR5、PR6、PR7及びPR8と表記して区別する。 A method for automatically setting tracking parameters by the parameter setting unit 24 will be described. In the present embodiment, a case where there are eight types of tracking parameters is illustrated. For the sake of convenience, the eight types of tracking parameters are represented as tracking parameters PR 1 , PR 2 , PR 3 , PR 4 , PR 5 , PR 6 , PR 7 and PR 8 in order to distinguish between different types of tracking parameters. To distinguish.

まず、追跡用パラメータPR1に着目した説明を行う。追跡用パラメータPR1は、「追跡対象人物が顔を傾けることなく撮像装置1に対して正面を向いて直立しており且つ撮像装置1が傾いていない状態」に対応している。尚、追跡対象人物は水平線に平行な地面上に位置するものとする。 First, an explanation will be given focusing on the tracking parameter PR 1 . The tracking parameter PR 1 corresponds to “a state in which the person to be tracked stands upright with respect to the imaging apparatus 1 without tilting his / her face and the imaging apparatus 1 is not tilted”. It is assumed that the person to be tracked is located on the ground parallel to the horizontal line.

図7(a)は、追跡用パラメータとして追跡用パラメータPR1が設定されている場合における、表示エリアAR2の表示画像を表す。図7(b)は、追跡用パラメータPR1に対応する領域設定を表す図である。 7 (a) is, in the case where the tracking parameter PR 1 is set as a tracking parameter, representing a display image of the display area AR2. FIG. 7B is a diagram illustrating region setting corresponding to the tracking parameter PR 1 .

今、追跡対象人物の、撮影画像上における顔の幅及び顔の高さを、夫々、Wf及びHfで表す。顔の幅Wfは、例えば、おおむね左右の頬の両端間の距離とされ、顔の高さHfは、例えば、おおむね顔の顎の下端から眉毛の上端までの距離とされる。顔の幅Wf及び顔の高さHfは、顔検出部14の顔検出結果から算出される。   Now, the width of the face and the height of the face on the captured image of the person to be tracked are represented by Wf and Hf, respectively. The face width Wf is, for example, the distance between both ends of the left and right cheeks, and the face height Hf is, for example, the distance from the lower end of the jaw of the face to the upper end of the eyebrows. The face width Wf and the face height Hf are calculated from the face detection result of the face detection unit 14.

顔の幅方向と顔の高さ方向は直交し、「Wf×Hf」で表される矩形領域を顔領域とする。顔の幅方向をX軸にとり且つ顔の高さ方向をY軸にとったXY座標系を撮影画像内に定義し、顔領域としての矩形領域の角の1つを、このXY座標系の原点Oと一致させて考える。追跡用パラメータPR1におけるX軸方向は撮影画像の水平方向と一致する。この場合、XY座標系において、追跡対象人物の顔領域は、4つの点(0,0)、(Wf,0)、(0,−Hf)及び(Wf,−Hf)にて囲まれる矩形領域となる。図7(b)において、符号71は、追跡対象人物の顔領域を表す。 The width direction of the face and the height direction of the face are orthogonal to each other, and a rectangular area represented by “Wf × Hf” is defined as the face area. An XY coordinate system in which the width direction of the face is taken as the X axis and the height direction of the face is taken as the Y axis is defined in the photographed image, and one corner of the rectangular area as the face area is defined as the origin of the XY coordinate system. Think of it as O. The X-axis direction in the tracking parameter PR 1 matches the horizontal direction of the captured image. In this case, in the XY coordinate system, the face area of the tracking target person is a rectangular area surrounded by four points (0, 0), (Wf, 0), (0, −Hf), and (Wf, −Hf). It becomes. In FIG. 7B, reference numeral 71 represents the face area of the person to be tracked.

そして、顔領域に隣接してY軸の正方向に、矩形領域である顔上部領域を定義する。図7(b)において、紙面上方がY軸の正方向に一致する。図7(b)において、符号72は、追跡対象人物の顔上部領域を表す。顔上部領域としての矩形領域の幅及び高さは、夫々、α1・Wf及びα2・Hfで表される。α1及びα2は、予め定められた定数である。また、顔領域としての矩形領域の上辺(X軸方向に平行であって且つY軸の正側の辺)と顔上部領域としての矩形領域の下辺(X軸方向に平行であって且つY軸の負側の辺)は合致する。 Then, an upper face area which is a rectangular area is defined in the positive direction of the Y axis adjacent to the face area. In FIG. 7B, the upper side of the drawing coincides with the positive direction of the Y axis. In FIG. 7B, reference numeral 72 represents an upper face area of the person to be tracked. The width and height of the rectangular area as the upper face area are represented by α 1 · Wf and α 2 · Hf, respectively. α 1 and α 2 are predetermined constants. In addition, the upper side of the rectangular area as the face area (parallel to the X axis direction and the positive side of the Y axis) and the lower side of the rectangular area as the upper face area (parallel to the X axis direction and Y axis) The negative side of) matches.

また、顔領域に隣接してY軸の負方向に、矩形領域である上半身領域を定義する。図7(b)において、符号73は、追跡対象人物の上半身領域を表す。上半身領域としての矩形領域の幅及び高さは、夫々、β1・Wf及びβ2・Hfで表される。β1及びβ2は、予め定められた定数である。また、顔領域としての矩形領域の下辺と上半身領域としての矩形領域の上辺は合致する。 In addition, an upper body region that is a rectangular region is defined in the negative direction of the Y axis adjacent to the face region. In FIG. 7B, reference numeral 73 represents the upper body area of the person to be tracked. The width and height of the rectangular area as the upper body area are represented by β 1 · Wf and β 2 · Hf, respectively. β 1 and β 2 are predetermined constants. The lower side of the rectangular area as the face area matches the upper side of the rectangular area as the upper body area.

更に、上半身領域に隣接してY軸の負方向に、矩形領域である下半身領域を定義する。図7(b)において、符号74は、追跡対象人物の下半身領域を表す。下半身領域としての矩形領域の幅及び高さは、夫々、γ1・Wf及びγ2・Hfで表される。γ1及びγ2は、予め定められた定数である。また、上半身領域としての矩形領域の下辺と下半身領域としての矩形領域の上辺は合致する。 Further, a lower body region that is a rectangular region is defined adjacent to the upper body region in the negative direction of the Y axis. In FIG. 7B, reference numeral 74 represents a lower body area of the person to be tracked. The width and height of the rectangular region as the lower body region are represented by γ 1 · Wf and γ 2 · Hf, respectively. γ 1 and γ 2 are predetermined constants. The lower side of the rectangular area as the upper body area matches the upper side of the rectangular area as the lower body area.

また、顔領域71、顔上部領域72、上半身領域73及び下半身領域74の各中心は、図8に示す如く、Y軸に平行な直線75上にのる。   Further, the centers of the face area 71, the upper face area 72, the upper body area 73, and the lower body area 74 are on a straight line 75 parallel to the Y axis, as shown in FIG.

追跡用パラメータPR1を適用した場合、図7(a)に示す如く、表示エリアAR2には、追跡対象人物が拡大表示されると共に顔領域71、顔上部領域72、上半身領域73及び下半身領域74の各外形が表示され、更に、4つの追跡基準目印M1〜M4が表示される。追跡基準目印M1は顔領域71の略中央、追跡基準目印M2は顔上部領域72の略中央、追跡基準目印M3は上半身領域73の略中央に配置される。追跡基準目印M4は、下半身領域74の中央上方よりに配置される。 When the tracking parameter PR 1 is applied, as shown in FIG. 7A, the tracking target person is enlarged and displayed in the display area AR2, and the face area 71, the upper face area 72, the upper body area 73, and the lower body area 74 are displayed. Are displayed, and four tracking reference marks M1 to M4 are further displayed. The tracking reference mark M1 is arranged in the approximate center of the face area 71, the tracking reference mark M2 is arranged in the approximate center of the upper face area 72, and the tracking reference mark M3 is arranged in the approximate center of the upper body area 73. The tracking reference mark M4 is disposed from above the center of the lower body region 74.

尚、図6及び後述の一部の図(図18等)において、追跡対象人物の下半身並びに下半身領域及びそれに対応する追跡基準目印の図示を省略している。また、表示エリアAR2に、図7(a)に示されるような、顔領域、顔上部領域、上半身領域及び下半身領域の各外形を表示するか否かは任意である。図6及び後述の一部の図(図18等)は、これらの各外形が表示されない場合を例示している。   In FIG. 6 and some of the drawings described later (FIG. 18, etc.), the lower body and lower body region of the person to be tracked and the tracking reference mark corresponding thereto are not shown. Further, whether or not to display the outer shapes of the face area, the upper face area, the upper body area, and the lower body area as shown in FIG. 7A is arbitrary in the display area AR2. FIG. 6 and some drawings described later (FIG. 18 and the like) exemplify a case where these external shapes are not displayed.

パラメータ設定部24は、追跡対象人物の顔の向き及び顔の傾き、並びに、撮像装置1の傾きに応じて、8種類の追跡用パラメータPR1〜PR8の中から自動的に1種類の追跡用パラメータを選択する。撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いておらず、且つ、撮像装置1も傾いていない時、8種類の追跡用パラメータPR1〜PR8の中から自動的に追跡用パラメータPR1が選択され、上述のような領域設定が行われる。撮像装置1に対する顔の向きが正面である場合、撮影画像上において顔は正面顔として表れ、撮像装置1に対する顔の向きが横向きである場合、撮影画像上において顔は横顔として表れる。 Parameter setting unit 24, the inclination of the orientation and the face of the face of the tracking target person, and, depending on the inclination of the imaging apparatus 1, automatically one track among the eight tracking parameters PR 1 to PR 8 Select the parameters. When the orientation of the face with respect to the imaging device 1 is the front, the face is not tilted, and the imaging device 1 is not tilted, the eight types of tracking parameters PR 1 to PR 8 are automatically selected. The tracking parameter PR 1 is selected, and the region setting as described above is performed. When the face orientation with respect to the imaging device 1 is the front, the face appears as a front face on the captured image, and when the face orientation with respect to the imaging device 1 is the landscape orientation, the face appears as a profile on the captured image.

顔が傾いている場合などにおいては、異なる種類の追跡用パラメータが選択及び設定される。図9に、8種類の追跡用パラメータPR1〜PR8の特性を表として表す。尚、図9において、撮像装置1の傾きは、カメラ傾きと表記されている。 When the face is tilted, different types of tracking parameters are selected and set. FIG. 9 shows the characteristics of the eight types of tracking parameters PR 1 to PR 8 as a table. In FIG. 9, the tilt of the imaging device 1 is expressed as camera tilt.

撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いており、且つ、撮像装置1が傾いていない時、自動的に追跡用パラメータPR2が選択される。
撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いており、且つ、撮像装置1も同一方向に傾いている時、自動的に追跡用パラメータPR3が選択される。
撮像装置1に対する顔の向きが横向きであって、且つ、顔が傾いておらず、且つ、撮像装置1も傾いていない時、自動的に追跡用パラメータPR4が選択される。
撮像装置1に対する顔の向きが横向きであって、且つ、顔が傾いており、且つ、撮像装置1が傾いていない時、自動的に追跡用パラメータPR5が選択される。
撮像装置1に対する顔の向きが横向きであって、且つ、顔が傾いており、且つ、撮像装置1も同一方向に傾いている時、自動的に追跡用パラメータPR6が選択される。
A orientation front of the face with respect to the imaging apparatus 1, and is inclined face, and, when the imaging apparatus 1 is not inclined, automatically tracking parameters PR 2 is selected.
A orientation front of the face with respect to the imaging apparatus 1, and is inclined face, and, when even the imaging device 1 is inclined in the same direction, automatically tracking parameter PR 3 is selected.
When the orientation of the face with respect to the imaging device 1 is horizontal, the face is not tilted, and the imaging device 1 is not tilted, the tracking parameter PR 4 is automatically selected.
When the orientation of the face with respect to the imaging device 1 is landscape, the face is tilted, and the imaging device 1 is not tilted, the tracking parameter PR 5 is automatically selected.
When the orientation of the face with respect to the imaging device 1 is horizontal, the face is tilted, and the imaging device 1 is also tilted in the same direction, the tracking parameter PR 6 is automatically selected.

ここで、顔の傾きとは、撮影画像の垂直方向に対する顔の傾きを意味している。従って、顔の幅方向が撮影画像の水平方向と一致する場合は、顔は傾いておらず、顔の幅方向が撮影画像の水平方向と一致しない場合は、顔は傾いている、と考える。   Here, the tilt of the face means the tilt of the face with respect to the vertical direction of the captured image. Therefore, when the width direction of the face matches the horizontal direction of the captured image, the face is not inclined, and when the width direction of the face does not match the horizontal direction of the captured image, the face is inclined.

追跡用パラメータPR7又はPR8は、自動的には選択されず、操作部17に対するパラメータ選択操作によって選択されうる。
追跡用パラメータPR7は、顔の向きが正面であって、且つ、撮影画像の垂直方向に対して顔は傾いていないものの、上半身に対して顔が傾いているような場合に適している。
追跡用パラメータPR8は、追跡対象人物が撮像装置1に対して横を向き且つ足を伸ばして座っているような場合に適している。
The tracking parameter PR 7 or PR 8 is not automatically selected but can be selected by a parameter selection operation on the operation unit 17.
The tracking parameter PR 7 is suitable when the face is in front and the face is not inclined with respect to the vertical direction of the photographed image, but the face is inclined with respect to the upper body.
The tracking parameter PR 8 is suitable when the person to be tracked is sitting sideways with the legs extended with respect to the imaging apparatus 1.

追跡用パラメータPR7は、撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いておらず、且つ、撮像装置1が傾いている時に適しているとも言えるため、そのような時に、自動的に追跡用パラメータPR7が選択されるようにしてもよい。 The tracking parameter PR 7 can be said to be suitable when the orientation of the face with respect to the imaging apparatus 1 is the front, the face is not tilted, and the imaging apparatus 1 is tilted. The tracking parameter PR 7 may be automatically selected.

図10(a)、図11(a)、図12(a)、図13(a)、図14(a)、図15(a)及び図16(a)は、追跡用パラメータとして、それぞれ追跡用パラメータPR2、PR3、PR4、PR5、PR6、PR7及びPR8が設定されている場合における、表示エリアAR2の表示画像を表す。図10(b)、図11(b)、図12(b)、図13(b)、図14(b)、図15(b)及び図16(b)は、それぞれ、追跡用パラメータPR2、PR3、PR4、PR5、PR6、PR7及びPR8に対応する領域設定を表す図である。 FIGS. 10 (a), 11 (a), 12 (a), 13 (a), 14 (a), 15 (a), and 16 (a) are tracked as tracking parameters, respectively. in the case of use parameter PR 2, PR 3, PR 4 , PR 5, PR 6, PR 7 and PR 8 are set, representing a display image of the display area AR2. FIG. 10 (b), the FIG. 11 (b), the FIG. 12 (b), the FIG. 13 (b), the FIG. 14 (b), the FIG. 15 (b) and FIG. 16 (b), respectively, tracking parameters PR 2 , PR 3 , PR 4 , PR 5 , PR 6 , PR 7, and PR 8 are diagrams representing region settings.

顔領域、顔上部領域、上半身領域及び下半身領域の各形状は、追跡用パラメータPR1〜PR8間において共通している。また、顔領域、顔上部領域、上半身領域及び下半身領域の各外形及びそれらに対応する各追跡基準目印を表示エリアAR2に表示する点も、追跡用パラメータPR1〜PR8間において共通している。但し、追跡用パラメータPR2〜PR8は、主に下記の点で追跡用パラメータPR1と異なる(特に記述しない点に関しては、基本的に、追跡用パラメータPR1と同様である)。 Each shape of the face region, the upper face region, the upper body region, and the lower body region is common among the tracking parameters PR 1 to PR 8 . The tracking parameters PR 1 to PR 8 are also common in that the outlines of the face area, the upper face area, the upper body area, the lower body area, and the tracking reference marks corresponding thereto are displayed in the display area AR2. . However, the tracking parameters PR 2 to PR 8 are different from the tracking parameter PR 1 mainly in the following points (unless otherwise described, they are basically the same as the tracking parameter PR 1 ).

図10(a)及び(b)に対応する追跡用パラメータPR2においては、顔の傾き角度に応じて、顔領域に対し上半身領域及び下半身領域が傾けられる。この結果、顔上部領域と顔領域の各中心を結ぶ直線と、上半身領域及び下半身領域の各中心を結ぶ直線は、一致せず且つ平行とならない。 In FIG. 10 (a) and (b) corresponding to the tracking parameters PR 2, in accordance with the inclination angle of the face, upper body region and the lower body region is inclined with respect to the face region. As a result, the straight line connecting the centers of the upper face region and the face region and the straight line connecting the centers of the upper body region and the lower body region do not match and are not parallel.

また、表示エリアAR2内における各追跡基準目印の表示位置は、顔領域、顔上部領域、上半身領域及び下半身領域の位置関係に応じて定まる。このため、追跡用パラメータPR1における各追跡基準目印の表示位置と、追跡用パラメータPR2におけるそれとは異なる(図7(a)と図10(a)を参照)。これは、他の追跡用パラメータにおいても同様である。 Further, the display position of each tracking reference mark in the display area AR2 is determined according to the positional relationship between the face area, the upper face area, the upper body area, and the lower body area. For this reason, the display position of each tracking reference mark in the tracking parameter PR 1 is different from that in the tracking parameter PR 2 (see FIG. 7A and FIG. 10A). The same applies to other tracking parameters.

図11(a)及び(b)に対応する追跡用パラメータPR3においては、撮影画像内に定義されるX軸及びY軸が撮像装置1の傾き角度に応じて傾けられる。これにより、X軸方向は撮影画像の水平方向と平行ではなくなる。 In the tracking parameter PR 3 corresponding to FIGS. 11A and 11B, the X axis and the Y axis defined in the captured image are tilted according to the tilt angle of the imaging apparatus 1. As a result, the X-axis direction is not parallel to the horizontal direction of the captured image.

横顔に対応する追跡用パラメータPR4〜PR6及びPR8においては、顔の幅の定義が異なり、それらにおいて、顔の幅は、おおむね鼻の頂点から後頭部までの距離とされる。また、横顔に対応する追跡用パラメータPR4〜PR6及びPR8における定数α1、α2、β1、β2、γ1及びγ2の値を、正面顔に対応する追跡用パラメータPR1等におけるそれらと異ならせても良い。 In the tracking parameters PR 4 to PR 6 and PR 8 corresponding to the side face, the definition of the face width is different, and the face width is generally the distance from the apex of the nose to the back of the head. In addition, the values of the constants α 1 , α 2 , β 1 , β 2 , γ 1, and γ 2 in the tracking parameters PR 4 to PR 6 and PR 8 corresponding to the side face are set as the tracking parameter PR 1 corresponding to the front face. It may be different from those in etc.

図13(a)及び(b)に対応する追跡用パラメータPR5においては、顔の傾き角度(顔のうつむき角度)に応じて、顔領域に対し上半身領域及び下半身領域が傾けられる。 In the tracking parameter PR 5 corresponding to FIGS. 13A and 13B, the upper body region and the lower body region are tilted with respect to the face region in accordance with the tilt angle of the face (face depression angle).

図14(a)及び(b)に対応する追跡用パラメータPR6においては、撮影画像内に定義されるX軸及びY軸が撮像装置1の傾き角度に応じて傾けられる。 In the tracking parameter PR 6 corresponding to FIGS. 14A and 14B, the X axis and the Y axis defined in the captured image are tilted according to the tilt angle of the imaging apparatus 1.

図15(a)及び(b)に対応する追跡用パラメータPR7においては、上半身に対する顔の傾き角度に応じて、顔領域に対し上半身領域及び下半身領域が傾けられる。 In the tracking parameter PR 7 corresponding to FIGS. 15A and 15B, the upper body region and the lower body region are tilted with respect to the face region according to the tilt angle of the face with respect to the upper body.

図16(a)及び(b)に対応する追跡用パラメータPR8においては、下半身領域が上半身領域に対して90度傾けられる。 In the tracking parameter PR 8 corresponding to FIGS. 16A and 16B, the lower body region is inclined 90 degrees with respect to the upper body region.

このように、パラメータ設定部24は、追跡対象人物の顔の、撮影画像上の大きさ及び位置に基づき、顔検出部14によって抽出された顔領域を基準として、顔上部領域、上半身領域及び下半身領域を設定する。これらの設定内容は、追跡用パラメータの一部を成す。そして、追跡動作によって追跡されるべき追跡領域は、設定された顔領域、顔上部領域、上半身領域及び下半身領域を組み合わせた領域である。   As described above, the parameter setting unit 24 uses the face area extracted by the face detection unit 14 based on the size and position of the face of the person to be tracked on the captured image as a reference, the upper face area, the upper body area, and the lower body area. Set the area. These settings are part of the tracking parameters. The tracking area to be tracked by the tracking operation is a combination of the set face area, upper face area, upper body area, and lower body area.

また、上述の如く、追跡領域(特に、それに含まれる上半身領域及び下半身領域)は、顔の大きさ及び位置だけでなく、顔の傾き、顔の向き及び撮像装置1の傾きにも応じて、設定される。これにより、理想的には、設定された上半身領域内及び下半身領域内(及び顔上部領域内)に、夫々、撮影画像上における上半身及び下半身(及び顔上部)が収まることになり、追跡動作において安定した追跡が実現される。   Further, as described above, the tracking area (in particular, the upper body area and the lower body area included in the tracking area) depends not only on the size and position of the face, but also on the face inclination, the face direction, and the inclination of the imaging device 1. Is set. As a result, ideally, the upper body and lower body (and upper face) on the photographed image are accommodated in the set upper body area and lower body area (and the upper face area), respectively. Stable tracking is realized.

尚、8種類の追跡用パラメータを例示したが、「顔の傾き、顔の向き及び撮像装置1の傾き」に応じて、より細かく追跡用パラメータを細分化することも可能である。この場合、追跡用パラメータの種類は9種類以上となる。但し、追跡用パラメータの種類を7種類以下とすることも可能である。また、「顔の傾き、顔の向き及び撮像装置1の傾き」の全てを参照して追跡領域を設定することが望ましいが、処理の簡素化等を目的として、それらの一部又は全部の参照を省略することも可能である。   Although eight types of tracking parameters are illustrated, it is possible to subdivide the tracking parameters in more detail according to “face inclination, face orientation, and imaging apparatus 1 inclination”. In this case, there are nine or more types of tracking parameters. However, the number of tracking parameters can be seven or less. In addition, it is desirable to set the tracking area by referring to all of “face inclination, face orientation, and imaging apparatus 1 inclination”, but for the purpose of simplifying the processing, a part or all of them are referred to. Can be omitted.

パラメータ設定部24が自動的に設定した追跡用パラメータが適切ではないと撮影者が判断した場合は、上述したように、操作部17に対するパラメータ選択操作によって追跡用パラメータを変更することができる。例えば、撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いておらず、且つ、撮像装置1も傾いていないにも関わらず、追跡用パラメータPR3が自動選択されて図11(a)に示すような表示がなされた場合は、撮影者がパラメータ選択操作を行えばよい。これにより、他の追跡用パラメータに対応する情報(上半身領域の外形や追跡基準目印など)が表示エリアAR2内に表示される。この操作を繰り返し、適切な追跡用パラメータ(今の場合、PR1)に応じた情報が表示された時点で、撮影者は、操作部17に対して所定の選択決定操作を行う。この後は、選択決定操作がなされた時点の追跡用パラメータに従った追跡動作がなされる。 When the photographer determines that the tracking parameter automatically set by the parameter setting unit 24 is not appropriate, the tracking parameter can be changed by the parameter selection operation on the operation unit 17 as described above. For example, the tracking parameter PR 3 is automatically selected even though the face direction with respect to the imaging device 1 is the front, the face is not tilted, and the imaging device 1 is not tilted. When the display as shown in (a) is made, the photographer may perform a parameter selection operation. As a result, information corresponding to other tracking parameters (such as the outer shape of the upper body region and the tracking reference mark) is displayed in the display area AR2. This operation is repeated, and when information corresponding to an appropriate tracking parameter (in this case, PR 1 ) is displayed, the photographer performs a predetermined selection determination operation on the operation unit 17. Thereafter, a tracking operation is performed according to the tracking parameters at the time when the selection determination operation is performed.

[追跡動作]
次に、追跡動作について設定する。パラメータ設定部24が自動的に設定した追跡用パラメータに対して変更が加えられなかった場合は、その追跡用パラメータが設定された時点から該追跡用パラメータに従った追跡動作が開始され、上述のパラメータ選択操作による追跡用パラメータの変更を介して選択決定操作があった場合は、その選択決定操作があった時点から変更後の追跡用パラメータに従った追跡動作が開始される。
[Tracking operation]
Next, the tracking operation is set. When the tracking parameter automatically set by the parameter setting unit 24 is not changed, the tracking operation according to the tracking parameter is started from the time when the tracking parameter is set. When the selection determination operation is performed through the change of the tracking parameter by the parameter selection operation, the tracking operation according to the changed tracking parameter is started from the time when the selection determination operation is performed.

追跡動作では、追跡用パラメータにて定まる追跡領域(追跡領域内の画像)を追跡する。より具体的には、追跡部23は、追跡領域を形成する4つの領域(顔上部領域、顔領域、上半身領域及び下半身領域)の夫々を追跡ブロックとして捉え、追跡ブロックごとに、追跡ブロック(追跡ブロック内の画像)の追跡を行う。尚、顔上部領域の一部、顔領域の一部、上半身領域の一部及び下半身領域の一部を、夫々、追跡ブロックとして捉えるようにしても良い。   In the tracking operation, a tracking area (an image in the tracking area) determined by the tracking parameters is tracked. More specifically, the tracking unit 23 regards each of the four regions (upper face region, face region, upper body region, and lower body region) forming the tracking region as a tracking block, and the tracking block (tracking) for each tracking block. Track the image in the block). Note that a part of the upper face area, a part of the face area, a part of the upper body area, and a part of the lower body area may each be regarded as a tracking block.

1つの追跡ブロックを追跡する手法として、様々な手法が公知又は周知となっており、追跡部23は、それらの何れの手法をも採用可能である。一般的な手法を、図17を参照して簡単に説明する。この手法は、画像マッチング法の一種であり、ブロックマッチング法とも呼ばれる。   Various methods are known or known as a method for tracking one tracking block, and the tracking unit 23 can employ any of these methods. A general method will be briefly described with reference to FIG. This method is a kind of image matching method and is also called a block matching method.

図17(a)において、符号100は、第(n−1)フレーム画像を表し、符号101は、第(n−1)フレーム画像における着目した追跡ブロックを表す。図17(b)において、符号110は、第nフレーム画像を表し、符号111は、第nフレーム画像における着目した候補ブロックを表し、符号112は、候補ブロック111が位置しうる探索ブロックを表す。尚、第(n−1)フレーム画像及び第nフレーム画像とは、夫々、第(n−1)番目のフレームの撮影によって得られたフレーム画像及び第n番目のフレームの撮影によって得られたフレーム画像を指す。   In FIG. 17A, reference numeral 100 represents an (n−1) th frame image, and reference numeral 101 represents a tracking block of interest in the (n−1) th frame image. In FIG. 17B, reference numeral 110 represents an nth frame image, reference numeral 111 represents a candidate block of interest in the nth frame image, and reference numeral 112 represents a search block in which the candidate block 111 can be located. The (n-1) th frame image and the nth frame image are a frame image obtained by photographing the (n-1) th frame and a frame obtained by photographing the nth frame, respectively. Refers to the image.

追跡部23は、追跡ブロック101と候補ブロック111との間の相関値を算出する。この際、候補ブロック111は、探索ブロック112内で水平方向又は垂直方向に1画素ずつ移動させられ、その移動の度に相関値が算出される。相関値は、例えば、追跡ブロック101と候補ブロック111との間における、各画素の輝度差の絶対値の総和とされる。この相関値は、一般的にSAD(Sum of Absolute Difference)と呼ばれる。勿論、輝度差の2乗和(Sum of Squared Differece)などによって相関値を求めてもよい。   The tracking unit 23 calculates a correlation value between the tracking block 101 and the candidate block 111. At this time, the candidate block 111 is moved one pixel at a time in the horizontal direction or the vertical direction in the search block 112, and a correlation value is calculated for each movement. The correlation value is, for example, the sum of absolute values of the luminance differences between the pixels between the tracking block 101 and the candidate block 111. This correlation value is generally called SAD (Sum of Absolute Difference). Of course, the correlation value may be obtained from the sum of squares of luminance difference (Sum of Squared Differece) or the like.

相関値は、追跡ブロック101の画像と候補ブロック111の画像との間の相関が高いほど小さくなる。従って、相関値が最も小さくなる候補ブロック111の位置を求めれば、追跡ブロック101が、第nフレーム画像内のどこに位置しているかを求めることができる共に、第(n−1)と第nフレーム画像間の追跡ブロック101の動きベクトルが求まる。隣接するフレーム間で動きベクトルを繰り返し求め、動きベクトルに応じて追跡ブロックを逐次移動させることにより、追跡ブロック内に収まる移動物体を追跡することができる。   The correlation value decreases as the correlation between the image of the tracking block 101 and the image of the candidate block 111 increases. Accordingly, if the position of the candidate block 111 having the smallest correlation value is obtained, it can be determined where the tracking block 101 is located in the nth frame image, and the (n−1) th and nth frames are obtained. A motion vector of the tracking block 101 between images is obtained. By repeatedly obtaining a motion vector between adjacent frames and sequentially moving the tracking block according to the motion vector, it is possible to track a moving object that falls within the tracking block.

ところで上述したように、追跡部23は、追跡領域を形成する4つの領域(顔上部領域、顔領域、上半身領域及び下半身領域)の夫々を追跡ブロックとして捉える。このため、追跡ブロックごとに、追跡ブロックの追跡を行うための相関値演算を行う。そして、相関値演算の結果に基づいて、各追跡ブロックの有効性を判断するようにしている。例えば、ある期間において鳥が追跡対象人物の顔の前を横切った場合、その期間中、顔領域を追跡ブロックとして算出された相関値の最小値は比較的大きな値をとる(或いは相関値分布が異常となる)。このような場合、顔領域についての追跡ブロックを無効とし、他の有効な追跡ブロックについて算出された動きベクトルから顔領域の位置を推定することにより、追跡領域全体の追跡を継続するようにする。このように処理することにより、追跡対象人物の一部が一時的に他の物体によって遮られるような状況においても、安定した追跡が可能となる。   By the way, as described above, the tracking unit 23 regards each of the four regions (upper face region, face region, upper body region, and lower body region) forming the tracking region as a tracking block. For this reason, the correlation value calculation for tracking a tracking block is performed for every tracking block. Then, the effectiveness of each tracking block is determined based on the result of the correlation value calculation. For example, when a bird crosses the face of a person to be tracked in a certain period, the minimum correlation value calculated with the face area as a tracking block during that period takes a relatively large value (or the correlation value distribution is Abnormal). In such a case, the tracking block for the face area is invalidated, and the position of the face area is estimated from the motion vectors calculated for other effective tracking blocks, so that the tracking of the entire tracking area is continued. By processing in this way, stable tracking is possible even in a situation where a part of the tracking target person is temporarily blocked by another object.

図18は、追跡動作中における表示画面50の表示内容を示す。追跡動作中、表示エリアAR1に、順次生成される各フレーム画像の全体画像が動画像として表示される。表示エリアAR1内に追跡対象を囲むように表示された追跡対象枠64は、画像内の追跡対象の移動に追従して表示エリアAR1内を移動する。そして、追跡動作中、追跡対象を含む画像、即ち、追跡領域を含む画像が、表示エリアAR2に拡大表示される。   FIG. 18 shows the display content of the display screen 50 during the tracking operation. During the tracking operation, the entire image of each frame image generated sequentially is displayed as a moving image in the display area AR1. The tracking target frame 64 displayed so as to surround the tracking target in the display area AR1 moves in the display area AR1 following the movement of the tracking target in the image. During the tracking operation, an image including the tracking target, that is, an image including the tracking area is enlarged and displayed in the display area AR2.

上述したように、図2の追跡部23は、各フレーム画像において追跡領域がどこに位置しているかを逐次追跡することにより、追跡対象の追跡を行う。従って、追跡対象の所定位置(例えば、上半身領域の追跡基準目印(図7(a)においてM3))を連続的につなげることによって、追跡動作中における追跡対象の移動軌跡が定まる。この移動軌跡は、図2の移動軌跡記憶部25に、順次、更新記憶される。図18の表示エリアAR1内に表示される矢印65の向きは、この移動軌跡に基づく、直近の数〜数十フレームにおける追跡対象の移動の向きを表す。この矢印65をも参照しつつ、撮影者がパン操作などを行うことによって、追跡対象人物のフレームアウトが未然に防がれる。   As described above, the tracking unit 23 in FIG. 2 tracks the tracking target by sequentially tracking where the tracking region is located in each frame image. Therefore, by continuously connecting a predetermined position of the tracking target (for example, the tracking reference mark (M3 in FIG. 7A) of the upper body region), the movement trajectory of the tracking target during the tracking operation is determined. The movement trajectory is sequentially updated and stored in the movement trajectory storage unit 25 of FIG. The direction of the arrow 65 displayed in the display area AR1 in FIG. 18 represents the direction of movement of the tracking target in the last several to several tens of frames based on this movement trajectory. By referring to this arrow 65 as well, the photographer performs a panning operation or the like, thereby preventing the tracking target person from being out of frame.

表示エリアAR3は、8つの追跡支援表示エリア121〜128に分割され、その8つの追跡支援表示エリア121〜128は、夫々、表示エリアAR2の、上、下、左、右、左斜め上、左斜め下、右斜め上及び右斜め下に配置される。原則として、8つの追跡支援表示エリア121〜128内の画像は、全て基準色のべた塗り画像とされる。   The display area AR3 is divided into eight tracking support display areas 121 to 128, and the eight tracking support display areas 121 to 128 are respectively above, below, left, right, diagonally left above, and left of the display area AR2. It is arranged diagonally below, diagonally right above and diagonally below right. In principle, all the images in the eight tracking support display areas 121 to 128 are solid images of the reference color.

追跡動作中、追跡対象がフレームアウトしそうになると、追跡部23は警告報知を実施する。具体的には、図19に示す如く、追跡部23は、各フレーム画像131内に所定のフレーム警告領域132を定義し、追跡領域の一部がフレーム警告領域132と重なった場合に、警告報知を実施する。警告報知は、表示部15による映像出力又は音声出力部(不図示)による音声出力によって行われる。視覚または聴覚等に対する報知を撮影者に与える。これにより、追跡対象のフレームアウトが未然に防止されると共に、フレームアウトを防止するために必要な撮影者の負担を軽減することができる。図19において、フレーム警告領域132は、ロの字状の斜線領域に対応し、それはフレーム画像131の周辺部に設けられる。   When the tracking target is about to be out of frame during the tracking operation, the tracking unit 23 performs warning notification. Specifically, as shown in FIG. 19, the tracking unit 23 defines a predetermined frame warning area 132 in each frame image 131, and issues a warning notification when a part of the tracking area overlaps the frame warning area 132. To implement. The warning notification is performed by video output by the display unit 15 or audio output by an audio output unit (not shown). Give the photographer visual or auditory alerts. This prevents the tracking target from being out of the frame and reduces the burden on the photographer necessary to prevent the out of frame. In FIG. 19, a frame warning area 132 corresponds to a square-shaped hatched area, which is provided in the periphery of the frame image 131.

図20に、警告報知を実施している最中における、表示画面50の表示例を示す。警告報知の例として、以下に第1〜第4警告報知を示す。追跡部23は、警告報知として、第1〜第4警告報知の一部又は全部を実施する。尚、これらの報知手法は、様々に変形可能であることはいうまでもない。   FIG. 20 shows a display example of the display screen 50 during warning notification. As examples of warning notifications, first to fourth warning notifications are shown below. The tracking unit 23 performs part or all of the first to fourth warning notifications as warning notifications. Needless to say, these notification methods can be variously modified.

第1警告報知では、画像上における追跡対象の位置及び動きの向きに応じて、何れかの追跡支援表示エリア内の表示内容を変化させる。例えば、追跡対象が撮影画像の左側に向かって移動していて撮影画像の左方向にフレームアウトしそうになったとき、図20に示す如く、表示エリアAR2の左に位置する追跡支援表示エリア123の表示色を、上記の基準色と異ならせる。
第2警告報知では、画像上における追跡対象の位置及び動きの向きに応じて、撮像装置1をパン又はチルトさせるべき方向を表示画面50上に表示する。例えば、追跡対象が撮影画像の左側に向かって移動していて撮影画像の左方向にフレームアウトしそうになったとき、図20に示す如く、表示画面50上に左向きの矢印141を表示する。
第3警告報知では、警告報知の実施前との対比において、追跡対象枠64の表示色を変化させる。
第4警告報知では、撮像装置1に備えられた音声出力部(不図示)から、所定の警告音を出力させる。
In the first warning notification, the display content in any of the tracking support display areas is changed according to the position of the tracking target on the image and the direction of movement. For example, when the tracking target is moving toward the left side of the captured image and is about to be out of the frame in the left direction of the captured image, as shown in FIG. 20, the tracking support display area 123 located to the left of the display area AR2 is displayed. The display color is made different from the reference color.
In the second warning notification, the direction in which the imaging apparatus 1 should be panned or tilted is displayed on the display screen 50 in accordance with the position of the tracking target on the image and the direction of movement. For example, when the tracking target is moving toward the left side of the captured image and the frame is about to be left out of the captured image, a left-pointing arrow 141 is displayed on the display screen 50 as shown in FIG.
In the third warning notification, the display color of the tracking target frame 64 is changed in comparison with before the warning notification is performed.
In the fourth warning notification, a predetermined warning sound is output from a sound output unit (not shown) provided in the imaging apparatus 1.

[追跡対象探索動作]
追跡動作において追跡していた追跡対象がフレームアウトしてしまうと、追跡対象探索動作が実行される。
[Tracking target search operation]
When the tracking target tracked in the tracking operation is out of frame, the tracking target search operation is executed.

追跡対象探索動作において、追跡部23は、図2の移動軌跡記憶部25に記憶された、追跡対象の移動軌跡を参照して追跡対象が位置する方向を推測し、その推測結果に応じて、その方向を撮影者に知らしめるための再フレームイン支援報知(以下、単に「支援報知」という)を行う。これにより、再度のフレームインが支援され、撮影者にとって構図の再調整が容易となる。支援報知は、警告報知と同様、表示部15による映像出力又は音声出力部(不図示)による音声出力によって行われる。   In the tracking target search operation, the tracking unit 23 estimates the direction in which the tracking target is located with reference to the tracking track of the tracking target stored in the moving track storage unit 25 of FIG. 2, and according to the estimation result, Re-frame-in support notification (hereinafter simply referred to as “support notification”) is performed to inform the photographer of the direction. Thus, the second frame-in is supported, and the photographer can easily readjust the composition. Support notification is performed by video output by the display unit 15 or audio output by an audio output unit (not shown), similar to the warning notification.

例えば、追跡対象が撮影画像の左側に向かって移動してゆき撮影画像の左方向にフレームアウトした場合、その内容を表す移動軌跡に基づいて、追跡部23は、追跡対象が撮像装置1の左方向に位置すると推測し、左方向を示す支援報知を行う。   For example, when the tracking target moves toward the left side of the photographed image and frames out to the left of the photographed image, the tracking unit 23 determines that the tracking target is the left of the imaging device 1 based on the movement trajectory representing the content. It is assumed that it is located in the direction, and the support notification indicating the left direction is performed.

図21及び図22の夫々に、追跡対象探索動作を実行している最中における、表示画面50の表示例を示す。支援報知の例として、以下に第1〜第3支援報知を示す。追跡部23は、支援報知として、第1〜第3支援報知の一部又は全部を実施する。尚、これらの報知手法は、様々に変形可能であることはいうまでもない。   Each of FIGS. 21 and 22 shows a display example of the display screen 50 during execution of the tracking target search operation. As examples of support notification, first to third support notifications are shown below. The tracking unit 23 performs part or all of the first to third support notifications as support notifications. Needless to say, these notification methods can be variously modified.

第1支援報知では、追跡対象の位置の推測方向に応じて、何れかの追跡支援表示エリア内の表示内容を変化させる。例えば、追跡対象が撮像装置1の左方向に位置すると推測した場合、図21に示す如く、表示エリアAR2の左に位置する追跡支援表示エリア123の表示色を、上記の基準色と異ならせる。
第2支援報知では、追跡対象の位置の推測方向に応じて、追跡対象を再度フレームインさせるために撮像装置1をパン又はチルトさせるべき方向を、表示画面50上に表示する。この方向は、追跡対象の位置の推測方向と一致する。例えば、追跡対象が撮像装置1の左方向に位置すると推測した場合、図21に示す如く表示画面50上に左向きの矢印142を表示する、或いは、図22に示す如く追跡支援表示エリア123内に左向きの矢印151を表示する。
第3支援報知では、撮像装置1に備えられた音声出力部(不図示)から、追跡対象の位置の推測方向を伝えるための音声を出力させる。
In the first support notification, the display content in one of the tracking support display areas is changed according to the estimated direction of the position of the tracking target. For example, when it is estimated that the tracking target is located in the left direction of the imaging apparatus 1, as shown in FIG. 21, the display color of the tracking support display area 123 located to the left of the display area AR2 is made different from the reference color.
In the second support notification, a direction in which the imaging device 1 should be panned or tilted to frame in the tracking target again is displayed on the display screen 50 in accordance with the estimated direction of the position of the tracking target. This direction coincides with the estimated direction of the position of the tracking target. For example, when it is estimated that the tracking target is located in the left direction of the imaging apparatus 1, a left-pointing arrow 142 is displayed on the display screen 50 as shown in FIG. 21, or in the tracking support display area 123 as shown in FIG. A leftward arrow 151 is displayed.
In the third support notification, a sound for transmitting the estimated direction of the position of the tracking target is output from a sound output unit (not shown) provided in the imaging device 1.

尚、図21又は図22に示す表示画面50の表示エリアAR2には、追跡動作中に追跡していた追跡対象の拡大画像が静止画像として表示される。但し、この表示を行わないようにしても構わない。   In addition, in the display area AR2 of the display screen 50 shown in FIG. 21 or FIG. 22, an enlarged image of the tracking target tracked during the tracking operation is displayed as a still image. However, this display may not be performed.

また、追跡対象探索動作を実行する期間(以下、探索期間という)において、追跡部23は、各フレーム画像と追跡動作中に記憶した追跡領域の画像との画像マッチングを行うことにより、各フレーム画像内に再度含まれうる追跡対象を探索する。この際、動きベクトルを算出することによって各フレーム画像内の動き領域を特定し、その動き領域内に対してのみ探索を実行するようにしてもよい。   Further, in a period during which the tracking target search operation is performed (hereinafter referred to as a search period), the tracking unit 23 performs image matching between each frame image and the image of the tracking area stored during the tracking operation, thereby each frame image. Search for a tracking target that can be included again. At this time, a motion region in each frame image may be specified by calculating a motion vector, and a search may be executed only within the motion region.

また、探索期間における各フレーム画像に対して、追跡対象の位置の推測方向に応じた探索領域を定義し、その探索領域内のみを探索する(或いは、その探索領域内を重点的に探索する)ようにしてもよい。これにより、探索に必要な演算処理量が軽減される。   For each frame image in the search period, a search area corresponding to the estimated direction of the position of the tracking target is defined, and only the search area is searched (or the search area is searched intensively). You may do it. This reduces the amount of calculation processing required for the search.

これについて、図23を参照して、より具体的に説明する。図23において、符号161は、探索期間における各フレーム画像を表し、符号162が付された矩形領域は、各フレーム画像内に定義された探索領域を表す。探索領域162は、フレーム画像163の全体領域よりも小さく、追跡対象の位置の推測方向に応じた位置に設けられる。例えば、追跡対象が撮像装置1の左方向に位置すると推測した場合、撮像装置1に対するパン操作などによって、追跡対象はフレーム画像の左側から再度フレームインする可能性が高い。従って、この場合、図23に示す如く、探索領域162はフレーム画像の左側に設けられる。   This will be described more specifically with reference to FIG. In FIG. 23, reference numeral 161 represents each frame image in the search period, and a rectangular area denoted by reference numeral 162 represents a search area defined in each frame image. The search area 162 is smaller than the entire area of the frame image 163 and is provided at a position corresponding to the estimated direction of the position of the tracking target. For example, when it is estimated that the tracking target is located in the left direction of the imaging apparatus 1, the tracking target is highly likely to be framed in again from the left side of the frame image due to a pan operation on the imaging apparatus 1 or the like. Therefore, in this case, as shown in FIG. 23, the search area 162 is provided on the left side of the frame image.

そして、探索期間において、追跡部23は、各フレーム画像の探索領域内の画像と追跡動作中に記憶した追跡領域の画像との画像マッチングを行う。即ち、画像マッチングによって、探索領域内に追跡対象が存在するか否かを探索する(探索領域外では探索しない)。画像マッチングの手法としては、図17を用いて説明した手法と同様の手法を用いればよく、相関演算によって算出した相関値に基づいて探索領域内に追跡対象が存在するか否かの判断を行うと共に、追跡対象が存在する場合は、その相関値に基づいてフレーム画像内における追跡対象の位置を特定する。追跡対象の位置が特定された後は、上述の追跡動作を再開する。   In the search period, the tracking unit 23 performs image matching between the image in the search area of each frame image and the image of the tracking area stored during the tracking operation. That is, it is searched by image matching whether there is a tracking target in the search area (not searched outside the search area). As an image matching method, a method similar to the method described with reference to FIG. 17 may be used, and it is determined whether or not a tracking target exists in the search region based on the correlation value calculated by the correlation calculation. At the same time, when the tracking target exists, the position of the tracking target in the frame image is specified based on the correlation value. After the position of the tracking target is specified, the above tracking operation is resumed.

<<変形等>>
上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
As modifications or annotations of the above-described embodiment, notes 1 to 5 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
追跡対象を追跡する際、追跡領域を形成する4つの領域(顔上部領域、顔領域、上半身領域及び下半身領域)の夫々を追跡ブロックとして捉え、追跡ブロックごとに、追跡ブロック(追跡ブロック内の画像)の追跡を行うと述べたが、この際、追跡精度を上げるべく、追跡ブロック外の画像データをも参照して追跡処理を実行するようにしてもよい。例えば、顔領域の近傍に顔領域を挟むように2つの追跡参照領域を設け、これらの追跡参照領域の画像データをも参照して追跡を行うようにする。追跡領域と追跡参照領域との位置関係は、顔の傾きなどに応じて変化しうる。
[Note 1]
When tracking the tracking target, each of the four areas (the upper face area, the face area, the upper body area, and the lower body area) forming the tracking area is regarded as a tracking block, and a tracking block (an image in the tracking block) is detected for each tracking block. In this case, the tracking process may be executed with reference to image data outside the tracking block in order to improve tracking accuracy. For example, two tracking reference areas are provided so as to sandwich the face area in the vicinity of the face area, and tracking is performed with reference to image data of these tracking reference areas. The positional relationship between the tracking area and the tracking reference area can change according to the inclination of the face.

[注釈2]
図6等に示す追跡対象枠64は、追跡対象を表す追跡マークとして表示されるものであり、それの形状や表示の仕方を様々に変更することが可能である。例えば、表示エリアAR1内において、追跡対象の表示位置の近傍に矢印などを追跡マークとして表示するようにしてもよい。要は、追跡対象が他の被写体と区別して視認されるように、表示エリアAR1内において、追跡対象の表示位置を基準とした所定位置に何からの追跡マークを表示すればよい。また、追跡マーク(追跡対象枠64)の表示を、操作部17に対する所定操作によって消すことも可能である。
[Note 2]
The tracking target frame 64 shown in FIG. 6 and the like is displayed as a tracking mark representing the tracking target, and the shape and display method can be variously changed. For example, an arrow or the like may be displayed as a tracking mark in the vicinity of the tracking target display position in the display area AR1. In short, what is necessary is just to display the tracking mark from a predetermined position in the display area AR1 based on the display position of the tracking target so that the tracking target is visually recognized separately from other subjects. Further, the display of the tracking mark (tracking target frame 64) can be erased by a predetermined operation on the operation unit 17.

[注釈3]
上述の実施形態では、追跡領域内に追跡対象人物の人体の全部が含まれうるが、追跡領域内に追跡対象人物の人体の全部が含まれている必要はない。即ち、追跡領域は、追跡対象人物の全部又は一部を含む。
[Note 3]
In the above-described embodiment, the entire human body of the tracking target person may be included in the tracking area, but it is not necessary that the entire human body of the tracking target person is included in the tracking area. That is, the tracking area includes all or part of the tracking target person.

[注釈4]
追跡領域は、4つの領域(即ち、顔上部領域、顔領域、上半身領域及び下半身領域)から形成されると上述したが、4つの領域の内、1以上の領域を追跡領域から省くこともできる。例えば、下半身領域を省き、顔上部領域、顔領域及び上半身領域によって追跡領域を形成するようにしてもよい。
[Note 4]
Although the tracking area is described as being formed of four areas (ie, the upper face area, the face area, the upper body area, and the lower body area), one or more of the four areas can be omitted from the tracking area. . For example, the lower body area may be omitted, and the tracking area may be formed by the upper face area, the face area, and the upper body area.

[注釈5]
また、図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図1の顔検出部14と図2の追跡処理部20とによって実現される機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Note 5]
In addition, the imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, the functions realized by the face detection unit 14 in FIG. 1 and the tracking processing unit 20 in FIG. 2 can be realized by hardware, software, or a combination of hardware and software.

ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、図1の顔検出部14と図2の追跡処理部20にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしてもよい。   When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. Also, all or part of the functions realized by the face detection unit 14 in FIG. 1 and the tracking processing unit 20 in FIG. 2 are described as a program, and the program is executed on a program execution device (for example, a computer). May implement all or part of the functions.

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態に係る追跡撮影機能を実現するための追跡処理部の機能ブロック図である。It is a functional block diagram of the tracking process part for implement | achieving the tracking imaging | photography function which concerns on embodiment of this invention. 図2の追跡処理部が有効に機能する追跡撮影モードにおける、動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement in the tracking imaging | photography mode in which the tracking process part of FIG. 2 functions effectively. 追跡撮影モードにおける、図1の表示部の表示画面の表示エリア分割例を示す図である。It is a figure which shows the example of a display area division of the display screen of the display part of FIG. 1 in tracking imaging | photography mode. 追跡用設定期間における、表示画面の表示例を示す図である。It is a figure which shows the example of a display screen displayed in the setting period for tracking. 追跡対象が選択された直後における、表示画面の表示例を示す図である。It is a figure which shows the example of a display of a display screen immediately after a tracking object is selected. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR1)を説明するための図である。Is a diagram for explaining the tracking parameters set by the parameter setting unit of FIG. 2 (PR 1). 図2のパラメータ設定部によって設定される追跡用パラメータ(PR1)を説明するための図である。Is a diagram for explaining the tracking parameters set by the parameter setting unit of FIG. 2 (PR 1). 図2のパラメータ設定部によって設定される追跡用パラメータの種類を説明するための図である。It is a figure for demonstrating the kind of parameter for tracking set by the parameter setting part of FIG. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR2)を説明するための図である。It is a diagram for explaining the tracking parameters (PR 2) set by the parameter setting unit of FIG. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR3)を説明するための図である。It is a diagram for explaining the tracking parameters (PR 3) set by the parameter setting unit of FIG. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR4)を説明するための図である。Is a diagram for explaining the tracking parameters set by the parameter setting unit of FIG. 2 (PR 4). 図2のパラメータ設定部によって設定される追跡用パラメータ(PR5)を説明するための図である。It is a diagram for explaining the tracking parameters (PR 5) set by the parameter setting unit of FIG. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR6)を説明するための図である。It is a diagram for explaining the tracking parameters (PR 6) set by the parameter setting unit of FIG. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR7)を説明するための図である。It is a diagram for explaining the tracking parameters (PR 7) which is set by the parameter setting unit of FIG. 図2のパラメータ設定部によって設定される追跡用パラメータ(PR8)を説明するための図である。It is a diagram for explaining the tracking parameters (PR 8) set by the parameter setting unit of FIG. 図2の追跡部による画像追跡手法を説明するための図である。It is a figure for demonstrating the image tracking method by the tracking part of FIG. 追跡動作中における、表示画面の表示例を示す図である。It is a figure which shows the example of a display of a display screen during tracking operation | movement. 各フレーム画像内に定義されるフレーム警告領域を示す図である。It is a figure which shows the frame warning area | region defined in each frame image. 警告報知を実施している最中における、表示画面の表示例を示す図である。It is a figure which shows the example of a display of a display screen in the middle of implementing warning alerting | reporting. 追跡対象探索動作の実行中における、表示画面の表示例を示す図である。It is a figure which shows the example of a display screen during execution of tracking object search operation | movement. 追跡対象探索動作の実行中における、表示画面の表示例を示す図である。It is a figure which shows the example of a display screen during execution of tracking object search operation | movement. 追跡対象探索動作の実行中において各フレーム画像内に定義される探索領域を示す図である。It is a figure which shows the search area | region defined in each frame image during execution of tracking object search operation | movement.

符号の説明Explanation of symbols

1 撮像装置
11 撮像部
12 AFE
13 制御部
14 顔検出部
15 表示部
16 記録媒体
17 操作部
18 傾きセンサ
20 追跡処理部
21 追跡対象候補検出部
22 追跡対象選択部
23 追跡部
24 パラメータ設定部
25 移動軌跡記憶部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 12 AFE
DESCRIPTION OF SYMBOLS 13 Control part 14 Face detection part 15 Display part 16 Recording medium 17 Operation part 18 Inclination sensor 20 Tracking process part 21 Tracking object candidate detection part 22 Tracking object selection part 23 Tracking part 24 Parameter setting part 25 Moving trace memory | storage part

Claims (8)

順次撮影を行うことによって、時系列で並ぶ撮影画像を得る撮像手段と、
前記撮影画像を表示可能な表示手段と、
前記撮影画像の中から人物の顔を検出する顔検出手段と、
前記顔検出手段の検出結果を基に、前記撮影画像の中から1又は2以上の人物を追跡対象候補として検出する追跡対象候補検出手段と、
2以上の追跡対象候補が検出された際、そのうちの1を追跡対象人物として選択する追跡対象選択手段と、
前記追跡対象人物の選択後、時系列で並ぶ前記撮影画像間において前記追跡対象人物を追跡する追跡手段と、を備え、
前記顔検出手段は、前記追跡対象人物の顔を含む領域を顔領域として抽出し、
前記追跡手段は、前記追跡対象人物の一部又は全部を含む領域を追跡領域として設定し、
該追跡領域は、第1、第2、・・・及び第n(nは2以上の整数)の要素追跡領域から形成されており、
前記追跡手段は、第1の要素追跡領域を前記顔領域として設定すると共に、前記顔領域の、前記撮影画像上の大きさ及び位置に基づき、前記第1の要素追跡領域としての前記顔領域を基準として他の要素追跡領域を設定し、これらの要素追跡領域を個別に追跡することによって前記追跡対象人物を追跡する
ことを特徴とする追跡機能付き撮像装置。
Imaging means for obtaining captured images arranged in time series by sequentially capturing;
Display means capable of displaying the captured image;
Face detection means for detecting a human face from the captured image;
Based on the detection result of the face detection means, tracking target candidate detection means for detecting one or more persons as tracking target candidates from the captured image;
A tracking target selection means for selecting one of the tracking target candidates as a tracking target person when two or more tracking target candidates are detected;
Tracking means for tracking the tracking target person between the captured images arranged in time series after the selection of the tracking target person,
The face detection means extracts an area including the face of the person to be tracked as a face area,
The tracking means sets an area including a part or all of the tracking target person as a tracking area,
The tracking region is formed of first, second,..., And nth (n is an integer of 2 or more) element tracking regions,
The tracking unit sets a first element tracking area as the face area, and sets the face area as the first element tracking area based on the size and position of the face area on the captured image. An imaging apparatus with a tracking function , wherein other element tracking areas are set as a reference, and the tracking target person is tracked by individually tracking these element tracking areas .
前記表示手段は、表示画面上に全体画像表示エリアを設けて、時系列で並ぶ前記撮影画像の全体画像を動画像として前記全体画像表示エリアに表示すると共に、前記表示画面上に、別途、追跡対象表示エリアを設けて、該追跡対象表示エリアに前記追跡対象を含む画像を拡大表示する
ことを特徴とする請求項1に記載の追跡機能付き撮像装置。
The display means provides a whole image display area on the display screen, displays the whole image of the captured images arranged in time series in the whole image display area as a moving image, and separately tracks on the display screen. 2. The imaging device with a tracking function according to claim 1, wherein a target display area is provided, and an image including the tracking target is enlarged and displayed in the tracking target display area.
前記表示手段は、前記全体画像表示エリアにおいて、前記追跡対象の表示位置を基準とした所定位置に所定の追跡マークを表示するThe display means displays a predetermined tracking mark at a predetermined position on the basis of the display position of the tracking target in the entire image display area.
ことを特徴とする請求項2に記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 2.
前記追跡手段は、前記大きさ及び位置だけでなく、前記撮影画像内における前記追跡対象人物の顔の傾き、前記撮影画像内における前記追跡対象人物の顔の向き、及び、当該撮像装置の傾き、の少なくとも1つをも参照して、前記追跡領域を設定するThe tracking means includes not only the size and position, but also the inclination of the face of the tracking target person in the captured image, the orientation of the face of the tracking target person in the captured image, and the inclination of the imaging device, The tracking area is set with reference to at least one of
ことを特徴とする請求項1〜3のいずれかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to any one of claims 1 to 3.
前記追跡手段は、前記追跡対象の選択後、追跡に必要な追跡用パラメータを自動的に設定して、設定した前記追跡用パラメータに応じた情報を前記表示手段に表示させ、The tracking unit automatically sets a tracking parameter necessary for tracking after selecting the tracking target, and causes the display unit to display information according to the set tracking parameter,
当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、The imaging apparatus further includes an operation unit that receives an operation from the outside,
前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、The tracking parameter automatically set by the tracking unit can be changed by a predetermined operation on the operation unit,
前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行うWhen the change is made by the predetermined operation, the tracking unit tracks the tracking target according to the changed tracking parameter.
ことを特徴とする請求項1〜請求項4の何れかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 1, wherein the imaging device has a tracking function.
前記追跡手段は、前記追跡対象の選択後、追跡に必要な追跡用パラメータを自動的に設定して、設定した前記追跡用パラメータに応じた情報を前記表示手段に表示させ、The tracking unit automatically sets a tracking parameter necessary for tracking after selecting the tracking target, and causes the display unit to display information according to the set tracking parameter,
前記追跡用パラメータは、前記追跡領域を定める情報を含み、The tracking parameter includes information defining the tracking area,
当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、The imaging apparatus further includes an operation unit that receives an operation from the outside,
前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、The tracking parameter automatically set by the tracking unit can be changed by a predetermined operation on the operation unit,
前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行うWhen the change is made by the predetermined operation, the tracking unit tracks the tracking target according to the changed tracking parameter.
ことを特徴とする請求項1〜請求項4の何れかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 1, wherein the imaging device has a tracking function.
前記追跡手段は、各撮影画像から前記追跡対象の移動軌跡を求めて記憶し、前記追跡対象が撮影領域外へ出た場合、前記移動軌跡に基づいて前記追跡対象が位置する方向を推測して、推測した前記方向に応じた報知を行うThe tracking unit obtains and stores a movement trajectory of the tracking target from each captured image, and estimates the direction in which the tracking target is located based on the moving trajectory when the tracking target goes out of the imaging region. , Notification according to the estimated direction
ことを特徴とする請求項1〜請求項6の何れかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 1, wherein the imaging device has a tracking function.
前記追跡手段は、各撮影画像から前記追跡対象の移動軌跡を求めて記憶し、前記追跡対象が撮影領域外へ出た場合、前記移動軌跡に基づいて前記追跡対象が位置する方向を推測し、その後、推測した前記方向に応じた探索領域を各撮影画像内に定義して、前記探索領域内において前記追跡対象を探索するThe tracking means obtains and stores a movement trajectory of the tracking target from each captured image, and when the tracking target goes out of the imaging area, estimates a direction in which the tracking target is located based on the moving trajectory, Thereafter, a search area corresponding to the estimated direction is defined in each captured image, and the tracking target is searched in the search area.
ことを特徴とする請求項1〜請求項7の何れかに記載の追跡機能付き撮像装置。The imaging apparatus with a tracking function according to claim 1, wherein the imaging apparatus has a tracking function.
JP2006292171A 2006-10-27 2006-10-27 Imaging device with tracking function Expired - Fee Related JP4912117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006292171A JP4912117B2 (en) 2006-10-27 2006-10-27 Imaging device with tracking function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006292171A JP4912117B2 (en) 2006-10-27 2006-10-27 Imaging device with tracking function

Publications (2)

Publication Number Publication Date
JP2008109552A JP2008109552A (en) 2008-05-08
JP4912117B2 true JP4912117B2 (en) 2012-04-11

Family

ID=39442517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006292171A Expired - Fee Related JP4912117B2 (en) 2006-10-27 2006-10-27 Imaging device with tracking function

Country Status (1)

Country Link
JP (1) JP4912117B2 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5113669B2 (en) * 2008-08-19 2013-01-09 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP5293139B2 (en) * 2008-09-05 2013-09-18 株式会社リコー Imaging apparatus, imaging method, program, and recording medium
JP5084696B2 (en) 2008-10-27 2012-11-28 三洋電機株式会社 Image processing apparatus, image processing method, and electronic apparatus
JP2010130281A (en) * 2008-11-27 2010-06-10 Hoya Corp Imaging device
JP2010237872A (en) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd Device, method and program for detecting person area
JP5384172B2 (en) * 2009-04-03 2014-01-08 富士フイルム株式会社 Auto focus system
JP5424779B2 (en) * 2009-08-24 2014-02-26 キヤノン株式会社 Imaging apparatus, imaging method, and program
JP5657235B2 (en) * 2009-11-10 2015-01-21 オリンパスイメージング株式会社 Image capturing apparatus and image capturing method
US10645344B2 (en) * 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
JP5683898B2 (en) * 2010-10-22 2015-03-11 オリンパスイメージング株式会社 TRACKING DEVICE AND TRACKING METHOD
JP5814557B2 (en) * 2011-02-07 2015-11-17 キヤノン株式会社 Image display control device, imaging device, display control method, and control program
KR101289087B1 (en) * 2011-11-03 2013-08-07 인텔 코오퍼레이션 Face detection method, apparatus, and computer-readable recording medium for executing the method
JP5963525B2 (en) * 2012-04-27 2016-08-03 キヤノン株式会社 Recognition device, control method thereof, control program, imaging device and display device
JP6033044B2 (en) * 2012-11-06 2016-11-30 キヤノン株式会社 Image display apparatus, control method thereof, control program, and imaging apparatus
US9240164B2 (en) * 2013-02-27 2016-01-19 Honeywell International Inc. Apparatus and method for providing a pan and zoom display for a representation of a process system
CA2904251A1 (en) 2013-03-08 2014-09-12 Denso Wave Incorporated Apparatus and method of monitoring moving objects
CN105308955A (en) 2013-03-08 2016-02-03 株式会社电装 Device and method for monitoring moving entity
CN104144289B (en) * 2013-05-10 2018-02-06 华为技术有限公司 Photographic method and device
US9591211B2 (en) * 2013-05-10 2017-03-07 Huawei Technologies Co., Ltd. Photographing method and apparatus
KR101648786B1 (en) * 2014-12-05 2016-08-30 삼성에스디에스 주식회사 Method of object recognition
JP6933178B2 (en) 2018-03-29 2021-09-08 京セラドキュメントソリューションズ株式会社 Control device, surveillance system, surveillance camera control method and surveillance program
EP4130842A4 (en) * 2020-03-31 2024-05-15 Evident Corp Microscope system, projection unit, and egg testing assistance method
CN114697525B (en) * 2020-12-29 2023-06-06 华为技术有限公司 Method for determining tracking target and electronic equipment
JP7460561B2 (en) 2021-02-03 2024-04-02 ソニーセミコンダクタソリューションズ株式会社 Imaging device and image processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580248A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd Automatic focusing device
JP2000148980A (en) * 1998-11-12 2000-05-30 Fuji Photo Film Co Ltd Image processing method, image processor and recording medium
JP4746295B2 (en) * 2003-08-25 2011-08-10 富士フイルム株式会社 Digital camera and photographing method
JP4489608B2 (en) * 2004-03-31 2010-06-23 富士フイルム株式会社 DIGITAL STILL CAMERA, IMAGE REPRODUCTION DEVICE, FACE IMAGE DISPLAY DEVICE, AND CONTROL METHOD THEREOF
JP2006101186A (en) * 2004-09-29 2006-04-13 Nikon Corp Camera
JP4830650B2 (en) * 2005-07-05 2011-12-07 オムロン株式会社 Tracking device

Also Published As

Publication number Publication date
JP2008109552A (en) 2008-05-08

Similar Documents

Publication Publication Date Title
JP4912117B2 (en) Imaging device with tracking function
JP3989523B2 (en) Automatic photographing method and apparatus
JP5810296B2 (en) Image display device and image display method
JP5206095B2 (en) Composition determination apparatus, composition determination method, and program
US8472667B2 (en) Editing apparatus and method
US20130235086A1 (en) Electronic zoom device, electronic zoom method, and program
JP2005210217A (en) Stereoscopic camera
JP2009194644A (en) Image processor, image processing method and image pick-up device
KR102529479B1 (en) Control apparatus, control method, and storage medium
JP4872396B2 (en) Image editing apparatus, image editing method, and image editing program
JP6635764B2 (en) Imaging device, control method thereof, and control program
JP5142825B2 (en) Image display device and image display method
JP2008281385A (en) Image processing device
JP2009089220A (en) Imaging apparatus
JP4702015B2 (en) Image display apparatus and program
JP2008211534A (en) Face detecting device
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2011205517A (en) Image processing apparatus
JP2011211757A (en) Electronic zoom apparatus, electronic zoom method, and program
JP6545229B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP6672082B2 (en) Imaging device, imaging method, and program
US9865070B2 (en) Panoramic stitched image memory texture writing
JP2005267005A (en) Image data processing apparatus and program
JP6137009B2 (en) Image processing apparatus, image processing method, program, and camera
US20220417427A1 (en) Image processing apparatus that retouches and displays picked-up image, image processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees