JP4912117B2 - Imaging device with tracking function - Google Patents
Imaging device with tracking function Download PDFInfo
- Publication number
- JP4912117B2 JP4912117B2 JP2006292171A JP2006292171A JP4912117B2 JP 4912117 B2 JP4912117 B2 JP 4912117B2 JP 2006292171 A JP2006292171 A JP 2006292171A JP 2006292171 A JP2006292171 A JP 2006292171A JP 4912117 B2 JP4912117 B2 JP 4912117B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- area
- face
- tracking target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 107
- 238000001514 detection method Methods 0.000 claims description 40
- 230000000875 corresponding Effects 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 3
- 210000000746 body regions Anatomy 0.000 description 24
- 238000000034 method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 239000000203 mixture Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000003287 optical Effects 0.000 description 5
- 210000001331 Nose Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000003467 Cheek Anatomy 0.000 description 1
- 210000004709 Eyebrows Anatomy 0.000 description 1
- 210000003128 Head Anatomy 0.000 description 1
- 210000001847 Jaw Anatomy 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000003491 Skin Anatomy 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Description
本発明は、特定の追跡対象を追跡する機能を備えた撮像装置に関する。 The present invention relates to an imaging apparatus having a function of tracking a specific tracking target.
撮像装置を用いて静止画像や動画像を撮影する際、通常、ファインダー又は付属の小型ディスプレイにて被写体を確認しながら構図を調整する。しかしながら、ファインダーや付属の小型ディスプレイに表示される被写体は小さいため、被写体の映り具合などを十分に確認しづらい。これを考慮して、下記特許文献1では、撮影時に被写体としての人物の顔を拡大表示する手法が開示されている。 When taking a still image or a moving image using an imaging device, the composition is usually adjusted while checking the subject with a finder or an attached small display. However, since the subject displayed on the viewfinder and the attached small display is small, it is difficult to sufficiently check the subject's reflection. In consideration of this, Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for enlarging and displaying a human face as a subject at the time of shooting.
しかしながら、動画像を撮影する場合には、着目している被写体やそれ以外の物体が撮影領域内で動くため、被写体の位置確認が困難となる場合がある。こういった場合には、被写体を見逃してフレームアウトさせてしまうことがある。或いは、それを防ぐために撮影者が注意深く被写体を目視で追跡する必要があり、撮影者に多大な負担をかける。 However, when shooting a moving image, it may be difficult to confirm the position of the subject because the subject of interest and other objects move within the shooting region. In such cases, the subject may be missed and out of frame. Alternatively, in order to prevent this, it is necessary for the photographer to carefully track the subject visually, which places a great burden on the photographer.
目視での追跡を代行する技術として画像解析による自動追跡技術も開発されている。これを利用すれば、被写体のフレームアウトの防止や撮影者の負担軽減が図られるが、撮影領域内には、追跡対象となる候補が複数存在することが多く、そのような場合、真に追跡すべき対象が不明となって撮影者の意図した追跡が実行されない場合がある。 An automatic tracking technique based on image analysis has been developed as a technique for substituting visual tracking. This can be used to prevent frame out of the subject and reduce the burden on the photographer, but there are often multiple candidates to be tracked in the shooting area. In some cases, the subject to be identified is unknown and tracking that the photographer intended is not performed.
また、撮影画像を表示する表示画面が小さい場合、単に、自動追跡するだけでは被写体の映り具合などを確認しずらいという問題もある。 Further, when the display screen for displaying the photographed image is small, there is a problem that it is difficult to check the appearance of the subject simply by automatically tracking.
また、自動追跡すべき被写体がフレームアウトしてしまった場合、従来は、その被写体の実空間における位置を撮影者が目視で確認し、その目視の結果に基づいて、撮像装置1をパン操作などして再度のフレームインを図るしかなかった。この場合、撮影者の観察対象が、表示画面と実空間との間で行き来することになり、この間に構図が乱れてしまうという問題がある。
When the subject to be automatically tracked out of the frame, conventionally, the photographer visually confirms the position of the subject in the real space, and pans the
上記の問題点に鑑み、本発明は、追跡対象候補が複数ある場合でも追跡処理を有効に機能させる追跡機能付き撮像装置を提供することを目的とする。
また本発明は、追跡対象の確認の容易化に寄与することを他の目的とする。
また本発明は、追跡対象が撮影領域外に出てしまった場合における構図の再調整の容易化に寄与することを他の目的とする。
In view of the above problems, an object of the present invention is to provide an imaging device with a tracking function that allows a tracking process to function effectively even when there are a plurality of tracking target candidates.
Another object of the present invention is to contribute to facilitating confirmation of a tracking target.
Another object of the present invention is to contribute to facilitating readjustment of the composition when the tracking target is out of the imaging region.
本発明に係る追跡機能付き撮像装置は、順次撮影を行うことによって、時系列で並ぶ撮影画像を得る撮像手段と、前記撮影画像を表示可能な表示手段と、前記撮影画像の中から1又は2以上の追跡対象候補を検出する追跡対象候補検出手段と、2以上の前記追跡対象候補が検出された際、その2以上の前記追跡対象候補の中の1つを追跡対象として選択する追跡対象選択手段と、前記追跡対象の選択後、時系列で並ぶ前記撮影画像間において前記追跡対象を追跡する追跡手段と、を備えたことを特徴とする。 The imaging device with a tracking function according to the present invention sequentially captures an image capturing unit that obtains captured images arranged in time series, a display unit that can display the captured image, and one or two of the captured images. Tracking target candidate detecting means for detecting the above tracking target candidates, and tracking target selection for selecting one of the two or more tracking target candidates as a tracking target when two or more tracking target candidates are detected And tracking means for tracking the tracking target between the captured images arranged in time series after the tracking target is selected.
追跡対象選択手段を備えることにより、追跡対象候補が複数存在する場合でも1つの追跡対象が選択され、その追跡対象を追跡することが可能となる。 By providing the tracking target selection unit, even when there are a plurality of tracking target candidates, one tracking target is selected, and the tracking target can be tracked.
具体的には、外部操作によって、或いは、選択対象候補が人物である場合は顔認識処理などによって、追跡対象を特定すればよい。 Specifically, the tracking target may be specified by an external operation or by face recognition processing when the selection target candidate is a person.
また例えば、前記表示手段は、表示画面上に全体画像表示エリアを設けて、時系列で並ぶ前記撮影画像の全体画像を動画像として前記全体画像表示エリアに表示すると共に、前記表示画面上に、別途、追跡対象表示エリアを設けて、該追跡対象表示エリアに前記追跡対象を含む画像を拡大表示する。 Further, for example, the display means provides an entire image display area on the display screen, displays the entire image of the captured images arranged in time series in the entire image display area as a moving image, and on the display screen, Separately, a tracking target display area is provided, and an image including the tracking target is enlarged and displayed in the tracking target display area.
これにより、全体画像を確認しながら、追跡対象の映り具合などを詳細に且つ容易に確認することができる。 Thereby, it is possible to confirm in detail and easily the appearance of the tracking target while confirming the entire image.
また、具体的には例えば、前記撮影画像の中から人物の顔を検出する顔検出手段を更に備え、前記追跡対象候補検出手段は、前記顔検出手段の検出結果を基に、前記撮影画像の中の各人物を前記追跡対象候補として検出し、前記追跡対象として選択された人物を、追跡対象人物と呼んだ場合、前記追跡手段は、前記追跡対象人物の一部又は全部を含む領域を追跡領域として設定し、前記追跡領域を追跡することによって前記追跡対象を追跡する。 Further, specifically, for example, it further includes a face detection unit that detects a human face from the captured image, and the tracking target candidate detection unit is configured to detect the captured image based on the detection result of the face detection unit. When each person is detected as the tracking target candidate and the person selected as the tracking target is called a tracking target person, the tracking unit tracks a region including a part or all of the tracking target person. The tracking object is tracked by setting as a region and tracking the tracking region.
より具体的には例えば、前記顔検出手段は、前記撮影画像の中から、前記追跡対象人物の顔を含む領域を顔領域として抽出し、前記追跡領域は、第1、第2、・・・及び第nの要素追跡領域から形成され(nは2以上の整数)、第1の要素追跡領域は、前記顔領域とされ、前記追跡手段は、前記追跡対象人物の顔の、前記撮影画像上の大きさ及び位置に基づき、前記第1の要素追跡領域としての前記顔領域を基準として他の要素追跡領域を設定し、これによって前記追跡領域を設定する。 More specifically, for example, the face detection unit extracts an area including the face of the person to be tracked from the captured image as a face area, and the tracking area includes first, second,. And the n-th element tracking area (n is an integer equal to or greater than 2), the first element tracking area is the face area, and the tracking means is on the captured image of the face of the tracking target person. Based on the size and position of the other element tracking area, another element tracking area is set with reference to the face area as the first element tracking area, thereby setting the tracking area.
更に例えば、前記追跡手段は、前記大きさ及び位置だけでなく、前記撮影画像内における前記追跡対象人物の顔の傾き、前記撮影画像内における前記追跡対象人物の顔の向き、及び、当該撮像装置の傾き、の少なくとも1つをも参照して、前記追跡領域を設定する。 Further, for example, the tracking means includes not only the size and position but also the inclination of the face of the tracking target person in the captured image, the orientation of the face of the tracking target person in the captured image, and the imaging apparatus. The tracking area is set with reference to at least one of the inclinations.
顔の傾きなどをも考慮した上で追跡領域を設定することにより、追跡領域の最適化が図られ、追跡の安定化が期待される。 By setting the tracking area in consideration of the inclination of the face and the like, the tracking area is optimized and the tracking is expected to be stabilized.
また例えば、前記追跡手段は、前記追跡対象の選択後、追跡に必要な追跡用パラメータを自動的に設定して、設定した前記追跡用パラメータに応じた情報を前記表示手段に表示させ、当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行う。 Further, for example, after the tracking target is selected, the tracking unit automatically sets a tracking parameter necessary for tracking, displays information according to the set tracking parameter on the display unit, and performs the imaging The apparatus further includes an operation unit that accepts an external operation, and the tracking parameter automatically set by the tracking unit can be changed by a predetermined operation on the operation unit, and the tracking unit When the change is made by the operation, the tracking target is tracked according to the tracking parameter after the change.
また例えば、前記追跡手段は、前記追跡対象の選択後、追跡に必要な追跡用パラメータを自動的に設定して、設定した前記追跡用パラメータに応じた情報を前記表示手段に表示させ、前記追跡用パラメータは、前記追跡領域を定める情報を含み、当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、
前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行う。
Further, for example, after the tracking target is selected, the tracking unit automatically sets a tracking parameter necessary for tracking, causes the display unit to display information according to the set tracking parameter, and the tracking unit The parameter for use includes information defining the tracking area, and the imaging apparatus further includes an operation unit that accepts an external operation, and the tracking parameter that is automatically set by the tracking unit corresponds to the operation unit. It can be changed by a predetermined operation,
When the change is made by the predetermined operation, the tracking unit tracks the tracking target according to the changed tracking parameter.
また例えば、前記表示手段は、前記全体画像表示エリアにおいて、前記追跡対象の表示位置を基準とした所定位置に所定の追跡マークを表示する。 Further, for example, the display means displays a predetermined tracking mark at a predetermined position on the basis of the display position of the tracking target in the entire image display area.
追跡マークを表示することにより、撮影領域内における追跡対象の位置の確認が容易となる。 Displaying the tracking mark facilitates confirmation of the position of the tracking target in the imaging region.
また例えば、前記追跡手段は、各撮影画像から前記追跡対象の移動軌跡を求めて記憶し、前記追跡対象が撮影領域外へ出た場合、前記移動軌跡に基づいて前記追跡対象が位置する方向を推測して、推測した前記方向に応じた報知を行う。 Further, for example, the tracking unit obtains and stores a movement trajectory of the tracking target from each captured image, and when the tracking target goes out of the imaging area, the tracking unit determines a direction in which the tracking target is located based on the moving trajectory. It estimates and performs notification according to the estimated direction.
これにより、追跡対象が撮影領域外に出てしまった場合における構図の再調整が容易となる。 This facilitates readjustment of the composition when the tracking target goes out of the imaging area.
また例えば、前記追跡手段は、各撮影画像から前記追跡対象の移動軌跡を求めて記憶し、前記追跡対象が撮影領域外へ出た場合、前記移動軌跡に基づいて前記追跡対象が位置する方向を推測し、その後、推測した前記方向に応じた探索領域を各撮影画像内に定義して、前記探索領域内において前記追跡対象を探索する。 Further, for example, the tracking unit obtains and stores a movement trajectory of the tracking target from each captured image, and when the tracking target goes out of the imaging area, the tracking unit determines a direction in which the tracking target is located based on the moving trajectory. Then, a search area corresponding to the estimated direction is defined in each captured image, and the tracking target is searched in the search area.
これにより、追跡対象が撮影領域外に出てしまった後の、探索処理の演算負荷が軽減される。 Thereby, the calculation load of the search process after the tracking target has moved out of the imaging region is reduced.
本発明によれば、追跡対象候補が複数ある場合でも有効な追跡が可能である。 According to the present invention, effective tracking is possible even when there are a plurality of tracking target candidates.
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.
図1は、本発明の実施の形態に係る撮像装置1の全体ブロック図である。撮像装置1は、動画像(及び静止画像)を撮影可能なデジタルビデオカメラである。
FIG. 1 is an overall block diagram of an
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、制御部13と、顔検出部14と、表示部15と、記録媒体16と、操作部17と、傾きセンサ18と、を備えている。
The
撮像部11は、光学系と、絞りと、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子と、光学系や絞りを制御するためのドライバ(全て不図示)と、を有している。ドライバは、制御部13からの制御信号に基づいて、光学系のズーム倍率や焦点距離、及び、絞りの開度を制御する。撮像素子は、光学系及び絞りを介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。
The
AFE12は、撮像部11(撮像素子)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換する。AFE12は、このデジタル信号を、順次、制御部13に出力する。
The AFE 12 amplifies the analog signal output from the imaging unit 11 (imaging device), and converts the amplified analog signal into a digital signal. The AFE 12 sequentially outputs this digital signal to the
制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等を備え、映像信号処理部としても機能する。制御部13は、AFE12の出力信号に基づいて、撮像部11によって撮影された画像(以下、「撮影画像」ともいう)を表す映像信号を生成する。
The
撮像部11により、所定のフレーム周期(例えば、1/60秒の周期)にて、順次、撮影が行われ、所定のフレーム周期にて順次得られる静止画像(即ち、撮影画像)によって動画像が形成される。
The
顔検出部14は、各撮影画像の中から人物の顔を検出して、顔を含む顔領域を抽出する。画像中に含まれる顔を検出する手法として様々な手法が知られており、顔検出部14は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のように撮影画像から肌色領域を抽出することによって顔(顔領域)を検出しても良いし、特開2006−211139号公報、特開2006−72770号公報又は上記特許文献1に記載の手法を用いて顔(顔領域)を検出しても良い。
The
典型的には例えば、入力画像(即ち、撮影画像)内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。類似判定は、顔であるか否かを識別するのに有効な特徴量を抽出することによって行う。特徴量は、水平エッジ、垂直エッジ、右斜めエッジ、左斜めエッジ等である。 Typically, for example, the similarity between both images is determined by comparing the image of the region of interest set in the input image (that is, the captured image) with a reference face image having a predetermined image size. Based on this, it is detected whether or not a face is included in the region of interest (whether or not the region of interest is a face region). The similarity determination is performed by extracting a feature amount effective for identifying whether the face is a face. The feature amount is a horizontal edge, a vertical edge, a right diagonal edge, a left diagonal edge, or the like.
入力画像において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。 In the input image, the region of interest is shifted in the horizontal direction or the vertical direction pixel by pixel. Then, the image of the region of interest after the shift is compared with the reference face image, the similarity between both images is determined again, and the same detection is performed. In this way, the region of interest is updated and set, for example, while being shifted pixel by pixel from the upper left to the lower right of the input image.
また、入力画像(即ち、撮影画像)を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。 Further, the input image (that is, the photographed image) is reduced at a certain rate, and the same face detection process is performed on the reduced image. By repeating such processing, a face of any size can be detected from the input image.
また、顔検出部14は、各撮影画像内における顔の傾きをも検出可能に構成されている。例えば、入力画像(即ち、撮影画像)を回転させ、回転後の画像に対して上述と同様の顔検出処理を行うことにより、傾いた顔を検出可能であると共に顔の傾き(傾き角度)を検出することができる。ここにおける顔の傾きとは、撮影画像の垂直方向に対する顔の傾きを意味する(詳細は後述)。
Further, the
顔検出部14は、更に、各撮影画像における顔の向きも併せて検出する。即ち例えば、顔検出部14は、各撮影画像において検出された顔が、正面顔(正面から見た顔)であるのか、或いは、横顔(横から見た顔)であるのかを区別して検出可能である。顔の向きを検出する手法として様々な手法が提案されており、顔検出部14は何れの手法をも採用可能である。
The
例えば、特開平10−307923号公報に記載の手法のように、撮影画像の中から、目、鼻、口等の顔部品を順番に見つけていって画像中の顔の位置を検出し、顔部品の投影データに基づいて顔の向きを検出する。 For example, as in the technique described in Japanese Patent Laid-Open No. 10-307923, face parts such as eyes, nose and mouth are found in order from a photographed image, and the position of the face in the image is detected. The face orientation is detected based on the projection data of the part.
或いは例えば、特開2006−72770号公報に記載の手法を用いてもよい。この手法では、1つの正面顔を左側半分(以下、左顔という)と右側半分(以下、右顔という)とに分けて考え、学習処理を介して左顔に関するパラメータと右顔に関するパラメータを生成しておく。顔検出時には、撮影画像内の注目領域を左右に分割し、各分割領域と、上記2つのパラメータの内の対応するパラメータとの類似度を算出する。そして、一方又は双方の類似度が閾値以上の時に、注目領域が顔領域であると判別する。更に、各分割領域に対する類似度の大小関係から顔の向きを検出する。 Alternatively, for example, a method described in JP 2006-72770 A may be used. In this method, one front face is divided into a left half (hereinafter referred to as a left face) and a right half (hereinafter referred to as a right face), and parameters related to the left face and right face are generated through a learning process. Keep it. At the time of face detection, the attention area in the captured image is divided into left and right, and the similarity between each divided area and the corresponding parameter of the two parameters is calculated. Then, when one or both of the similarities are equal to or greater than the threshold, it is determined that the attention area is a face area. Furthermore, the orientation of the face is detected from the magnitude relationship of the similarity to each divided region.
顔検出部14による顔検出結果は、制御部13に伝達される。顔検出結果には、各撮影画像上における「顔の大きさ、顔の位置、顔の傾き及び顔の向き」が含まれる。
The face detection result by the
表示部15は、液晶ディスプレイパネル等から成る表示装置であり、制御部13の制御の下、現フレーム(或いは直前のフレーム)にて撮影された画像や記録媒体16に記録されている画像などを表示する。記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリであり、制御部13による制御の下、撮影画像などを記憶する。操作部17は、シャッタボタン及び所謂十字キー(何れも不図示)等から成り、外部からの操作を受け付ける。操作部17に対する操作内容は、制御部13に伝達される。
The
傾きセンサ18は、鉛直線に対する撮像装置1の傾きを検出する。例えば、水平線を撮影した時における撮影画像上の水平線が撮影画像上の水平方向(水平ライン)と合致する状態を基準状態とする。この基準状態において撮像装置1は傾いていないものとし(即ち、傾きは0度であるとし)、傾きセンサ18は、この基準状態からの撮像装置1の傾きを検出する。この傾きの角度を表す傾きデータは制御部13に伝達される。尚、撮影画像からエッジ成分を抽出することによって撮影画像内の水平線を検出し、この水平線の検出結果から撮影装置1の傾きを検出するようにしてもよい。
The
撮像装置1は、特徴的な機能として、追跡対象を追跡しつつ撮影を行う追跡撮影機能を備える。追跡撮影機能は、撮像装置1の動作モードの1つである追跡撮影モードにおいて実現される。他の動作モードから追跡撮影モードへの移行は、操作部17に対する操作によって実現される。
The
追跡撮影モードにおいては、所定のフレーム周期(例えば、1/60秒の周期)にて、順次、撮影が行われ、所定のフレーム周期にて順次得られる各撮影画像は、操作部17に備えられた録画ボタン(不図示)に対する操作に応じて、記録媒体16に記録される。各撮影画像を得るためのフレームは、フレーム周期が経過するごとに、第1、第2、・・・、第(n−1)、第n番目のフレーム、・・・、の順番で訪れるものとする(nは、2以上の整数)。各フレームにおける撮影画像を、以下、「フレーム画像」とも呼ぶ。第1番目のフレームで得られたフレーム画像、第2番目のフレームで得られたフレーム画像、・・・、第(n−1)番目のフレームで得られたフレーム画像、第n番目のフレームで得られたフレーム画像は、時系列で並んでいる。
In the tracking shooting mode, shooting is sequentially performed in a predetermined frame period (for example, 1/60 second period), and each captured image sequentially obtained in the predetermined frame period is provided in the
以下、追跡撮影機能について詳細に説明する。図2は、追跡撮影機能を実現するための追跡処理部20の機能ブロック図である。但し、図2に示す追跡処理部20のみによって追跡撮影機能は実現されるのではなく、追跡撮影機能を実現するにあたり、図1に示す他の部位の機能も利用される。追跡処理部20は、自動追跡されるべき追跡対象の候補を検出する追跡対象候補検出部21、追跡対象候補の中から1つの追跡対象を選択する追跡対象選択部22及び追跡対象を自動追跡する追跡部23を備え、それらは、制御部13によって実現される。追跡部23には、自動追跡に必要な追跡用パラメータを設定するパラメータ設定部24、及び、追跡対象の移動軌跡を記憶する移動軌跡記憶部25が含まれる。図2に示す各部位には、顔検出部14による顔検出結果が伝達される。
Hereinafter, the tracking shooting function will be described in detail. FIG. 2 is a functional block diagram of the
図3に、追跡撮影モードにおける動作の流れを示す。追跡撮影モードにおける動作は、追跡用設定動作と、追跡動作と、追跡対象探索動作と、に大別される。 FIG. 3 shows an operation flow in the tracking imaging mode. Operations in the tracking shooting mode are roughly classified into a tracking setting operation, a tracking operation, and a tracking object search operation.
最初に、ステップS1において追跡用設定動作が行われ、ステップS2の追跡動作は追跡用設定動作が完了した後に実行される。そして、追跡動作中に追跡対象がフレームアウトした場合、ステップS3の分岐処理を介してステップS4に移行し、追跡対象探索動作が実行される。追跡対象がフレームアウトしていない場合は、ステップS2の追跡動作が継続実行される。追跡対象が一旦フレームアウトしてから再度フレームインし、ステップS4の追跡対象探索動作によって追跡対象が見つかると、再度、ステップS2の追跡動作が行われる。 First, a tracking setting operation is performed in step S1, and the tracking operation in step S2 is executed after the tracking setting operation is completed. When the tracking target is out of frame during the tracking operation, the process proceeds to step S4 via the branching process of step S3, and the tracking target search operation is executed. If the tracking target is not out of frame, the tracking operation in step S2 is continued. Once the tracking target is out of the frame and then framed in again, when the tracking target is found by the tracking target search operation in step S4, the tracking operation in step S2 is performed again.
尚、追跡対象に着目した場合において、フレームアウトとは追跡対象が撮影領域内から撮影領域外に出ることを意味する。これとは逆に、追跡対象が撮影領域外から撮影領域内に入ることを、フレームインという。撮像部11は、撮影領域内に収まる被写体を撮影する。
In the case where attention is paid to the tracking target, the frame out means that the tracking target goes out of the shooting area from the shooting area. On the contrary, when the tracking target enters the imaging area from outside the imaging area is called frame-in. The
図4は、追跡撮影モードにおける、表示部15の表示画面の表示エリア分割例を表す。符号50は、表示部15の表示画面を表している。より具体的には、符号50が付された実線の四角枠は、表示部15の表示画面における全表示エリアを表している。その全表示エリアは、全体画像表示エリアAR1と、追跡対象表示エリアAR2と、付加情報表示エリアAR3と、その他のエリアと、に分割される。全体画像表示エリアAR1、追跡対象表示エリアAR2及び付加情報表示エリアAR3を、以下、夫々、表示エリアAR1、表示エリアAR2及び表示エリアAR3と略記する。
FIG. 4 illustrates a display area division example of the display screen of the
表示エリアAR1は矩形領域であり、図4において該矩形領域には斜線が施されている。表示エリアAR2は、表示エリアAR1に隣接する矩形領域である。表示エリアAR3は、表示エリアAR1を取り囲むように設けられたドーナツ状領域である。 The display area AR1 is a rectangular area, and the rectangular area is hatched in FIG. The display area AR2 is a rectangular area adjacent to the display area AR1. The display area AR3 is a donut-shaped region provided so as to surround the display area AR1.
図1の制御部13又は図2の追跡処理部20は、表示部15の表示内容を制御する表示制御部としての機能をも備え、表示部15の表示画面上に画像を表示するための領域の定義、その領域に画像を表示させる処理など、表示に必要な制御を行う。
The
[追跡用設定動作]
まず、追跡用設定動作について説明する。追跡用設定動作を実行する期間を追跡用設定期間と呼ぶ。図5は、追跡用設定期間における、表示部15の表示画面50の表示例を示す。追跡用設定期間においては、順次生成される各フレーム画像の全体画像が動画像として表示エリアAR1に表示される。尚、図5及び人物を含む画像を示す後述の各図において、図示の簡略化上、人物の下半身の図示を省略する場合がある。また、追跡用設定期間において、表示エリアAR3(図4参照)は利用されない。
[Setting operation for tracking]
First, the tracking setting operation will be described. A period during which the tracking setting operation is executed is referred to as a tracking setting period. FIG. 5 shows a display example of the
図1の顔検出部14は、各フレーム画像に対して上述の顔検出を実施し、図2の追跡対象検出部21は、顔検出結果に基づきつつ各フレーム画像の中から追跡対象候補を検出する。撮影領域内に位置する人物が、追跡対象候補となる。今、図5に示す如く、撮影領域内に3人の人物が位置しているものとする。この場合は、顔検出によって3人分の顔領域が特定され、その3人の人物が、第1、第2及び第3の追跡対象候補となる。
The
図2の追跡対象選択部22は、第1、第2及び第3の追跡対象候補を囲む四角枠61、62及び63を、表示エリアAR1内に表示する。今の例のように複数の追跡対象候補がある場合、予め定められた規則に則って、まず1つの追跡対象候補が表示エリアAR2に拡大表示される。ここで、「表示エリアAR2に拡大表示する」とは、表示エリアAR1内と表示エリアAR2内で共通の画像を表示した際、表示エリアAR2内での該画像の表示サイズを表示エリアAR1内でのそれよりも大きくすることを意味する。
The tracking
例えば、まず、第1の追跡対象候補を囲む四角枠61内の画像が、表示エリアAR2内に拡大表示される。この状態で、操作部17に所定の対象切替操作を行うと、表示エリアAR2内に拡大表示される画像は、第2の追跡対象候補を囲む四角枠62内の画像に切り替わる。同様に、所定の対象切替操作を実施するたびに、表示エリアAR2内に拡大表示される画像が、第3の追跡対象候補を囲む四角枠63内の画像、第1の追跡対象候補を囲む四角枠61内の画像、・・・に切り替わる。撮影者は、表示エリアAR2に拡大表示される追跡対象候補と撮影者が追跡しようとする人物とが合致するまで、上記の対象切替操作を行う。
For example, first, an image in the
第1の追跡対象候補を囲む四角枠61内の画像が表示エリアAR2内に拡大表示されている状態において、操作部17に所定の追跡対象決定操作が施された場合、図2の追跡対象選択部22は、第1の追跡対象候補を追跡対象として選択する。同様に、第2の追跡対象候補を囲む四角枠62内の画像が表示エリアAR2内に拡大表示されている状態において、操作部17に所定の追跡対象決定操作が施された場合、図2の追跡対象選択部22は、第2の追跡対象候補を追跡対象として選択する。第3の追跡対象候補についても同様である。
When a predetermined tracking target determination operation is performed on the
尚、追跡対象候補が複数存在する場合を例示したが、撮影領域内に人物が1人しかいない場合は、検出される追跡対象候補の個数は勿論1となる。 In addition, although the case where there are a plurality of tracking target candidates is illustrated, when there is only one person in the imaging region, the number of tracking target candidates detected is, of course, one.
また、操作部17に対する操作によって複数の追跡対象候補から1つの追跡対象を選択する例を示したが、顔認識処理などの人物特定手段を用いて複数の追跡対象候補から追跡対象を自動的に選択するようにしてもよい。顔認識の手法として様々な手法が知られており、その何れの手法をも利用可能である。
In addition, an example in which one tracking target is selected from a plurality of tracking target candidates by an operation on the
一般的な顔認識の手法を簡単に説明する。この手法では、追跡対象として選択されるべき人物の顔を事前に撮影して、その人物の顔を登録しておく。具体的には、その人物の顔の画像から顔辞書データを作成しておく。そして、追跡用設定期間におけるフレーム画像から各顔領域を切り出し、切り出された顔領域の画像の夫々と顔辞書データにて表される顔画像と間でパターンマッチングを行うことにより、フレーム画像内の何れの顔が登録された人物の顔であるかを判断する。その判断に基づき、登録された人物の顔に対応する追跡対象候補を追跡対象として選択する。 A general face recognition method will be briefly described. In this method, a face of a person to be selected as a tracking target is photographed in advance and the face of the person is registered. Specifically, face dictionary data is created from the face image of the person. Then, each face area is cut out from the frame image in the tracking setting period, and pattern matching is performed between each of the cut out face area images and the face image represented by the face dictionary data. It is determined which face is a registered person's face. Based on the determination, a tracking target candidate corresponding to the registered person's face is selected as a tracking target.
図6は、追跡対象が選択された直後における、表示画面50の表示例を表す。追跡対象を囲む追跡対象枠64が表示エリアAR1内に表示され、表示エリアAR2内に追跡対象枠64内の画像、即ち、追跡対象を含む画像が拡大表示される。表示エリアAR3内の表示内容については追跡動作及び追跡対象探索動作の説明と併せて後述する。
FIG. 6 shows a display example of the
今、図5の四角枠61内に表示された人物(第1の追跡対象候補)が追跡対象として選択されたとする。また、追跡対象として選択された人物を、以下、追跡対象人物と呼ぶ。以下の説明において、顔、顔の向き、顔の傾き、上半身及び下半身などの、顔又は人体に関する記述は、特に記述しない限り、全て追跡対象人物に関する記述である。
Now, assume that the person (first tracking target candidate) displayed in the
追跡対象が選択されると、図2のパラメータ設定部24は、顔検出部14にて検出された追跡対象人物の、撮影画像上における「顔の大きさ、顔の傾き及び顔の向き」と、傾きセンサ18からの傾きデータと、に基づいて、追跡対象を自動追跡するために必要な追跡用パラメータを自動的に設定する。「顔の大きさ、顔の傾き及び顔の向き」を特定するに当たり、撮影画像上の顔の位置も参照される。設定した追跡用パラメータの内容は、表示エリアAR2に反映される。自動的に設定された追跡用パラメータは、操作部17に対するパラメータ選択操作によって変更可能であるが、変更がなされるまでの間は、変更前の追跡用パラメータを用いて追跡動作が行われる。
When the tracking target is selected, the
パラメータ設定部24による追跡用パラメータの自動設定手法について説明する。本実施形態では、追跡用パラメータが8種類ある場合を例示する。異なる種類間の追跡用パラメータを区別するべく、便宜上、8種類の追跡用パラメータを、追跡用パラメータPR1、PR2、PR3、PR4、PR5、PR6、PR7及びPR8と表記して区別する。
A method for automatically setting tracking parameters by the
まず、追跡用パラメータPR1に着目した説明を行う。追跡用パラメータPR1は、「追跡対象人物が顔を傾けることなく撮像装置1に対して正面を向いて直立しており且つ撮像装置1が傾いていない状態」に対応している。尚、追跡対象人物は水平線に平行な地面上に位置するものとする。
First, an explanation will be given focusing on the tracking parameter PR 1 . The tracking parameter PR 1 corresponds to “a state in which the person to be tracked stands upright with respect to the
図7(a)は、追跡用パラメータとして追跡用パラメータPR1が設定されている場合における、表示エリアAR2の表示画像を表す。図7(b)は、追跡用パラメータPR1に対応する領域設定を表す図である。 7 (a) is, in the case where the tracking parameter PR 1 is set as a tracking parameter, representing a display image of the display area AR2. FIG. 7B is a diagram illustrating region setting corresponding to the tracking parameter PR 1 .
今、追跡対象人物の、撮影画像上における顔の幅及び顔の高さを、夫々、Wf及びHfで表す。顔の幅Wfは、例えば、おおむね左右の頬の両端間の距離とされ、顔の高さHfは、例えば、おおむね顔の顎の下端から眉毛の上端までの距離とされる。顔の幅Wf及び顔の高さHfは、顔検出部14の顔検出結果から算出される。
Now, the width of the face and the height of the face on the captured image of the person to be tracked are represented by Wf and Hf, respectively. The face width Wf is, for example, the distance between both ends of the left and right cheeks, and the face height Hf is, for example, the distance from the lower end of the jaw of the face to the upper end of the eyebrows. The face width Wf and the face height Hf are calculated from the face detection result of the
顔の幅方向と顔の高さ方向は直交し、「Wf×Hf」で表される矩形領域を顔領域とする。顔の幅方向をX軸にとり且つ顔の高さ方向をY軸にとったXY座標系を撮影画像内に定義し、顔領域としての矩形領域の角の1つを、このXY座標系の原点Oと一致させて考える。追跡用パラメータPR1におけるX軸方向は撮影画像の水平方向と一致する。この場合、XY座標系において、追跡対象人物の顔領域は、4つの点(0,0)、(Wf,0)、(0,−Hf)及び(Wf,−Hf)にて囲まれる矩形領域となる。図7(b)において、符号71は、追跡対象人物の顔領域を表す。
The width direction of the face and the height direction of the face are orthogonal to each other, and a rectangular area represented by “Wf × Hf” is defined as the face area. An XY coordinate system in which the width direction of the face is taken as the X axis and the height direction of the face is taken as the Y axis is defined in the photographed image, and one corner of the rectangular area as the face area is defined as the origin of the XY coordinate system. Think of it as O. The X-axis direction in the tracking parameter PR 1 matches the horizontal direction of the captured image. In this case, in the XY coordinate system, the face area of the tracking target person is a rectangular area surrounded by four points (0, 0), (Wf, 0), (0, −Hf), and (Wf, −Hf). It becomes. In FIG. 7B,
そして、顔領域に隣接してY軸の正方向に、矩形領域である顔上部領域を定義する。図7(b)において、紙面上方がY軸の正方向に一致する。図7(b)において、符号72は、追跡対象人物の顔上部領域を表す。顔上部領域としての矩形領域の幅及び高さは、夫々、α1・Wf及びα2・Hfで表される。α1及びα2は、予め定められた定数である。また、顔領域としての矩形領域の上辺(X軸方向に平行であって且つY軸の正側の辺)と顔上部領域としての矩形領域の下辺(X軸方向に平行であって且つY軸の負側の辺)は合致する。
Then, an upper face area which is a rectangular area is defined in the positive direction of the Y axis adjacent to the face area. In FIG. 7B, the upper side of the drawing coincides with the positive direction of the Y axis. In FIG. 7B,
また、顔領域に隣接してY軸の負方向に、矩形領域である上半身領域を定義する。図7(b)において、符号73は、追跡対象人物の上半身領域を表す。上半身領域としての矩形領域の幅及び高さは、夫々、β1・Wf及びβ2・Hfで表される。β1及びβ2は、予め定められた定数である。また、顔領域としての矩形領域の下辺と上半身領域としての矩形領域の上辺は合致する。
In addition, an upper body region that is a rectangular region is defined in the negative direction of the Y axis adjacent to the face region. In FIG. 7B,
更に、上半身領域に隣接してY軸の負方向に、矩形領域である下半身領域を定義する。図7(b)において、符号74は、追跡対象人物の下半身領域を表す。下半身領域としての矩形領域の幅及び高さは、夫々、γ1・Wf及びγ2・Hfで表される。γ1及びγ2は、予め定められた定数である。また、上半身領域としての矩形領域の下辺と下半身領域としての矩形領域の上辺は合致する。
Further, a lower body region that is a rectangular region is defined adjacent to the upper body region in the negative direction of the Y axis. In FIG. 7B,
また、顔領域71、顔上部領域72、上半身領域73及び下半身領域74の各中心は、図8に示す如く、Y軸に平行な直線75上にのる。
Further, the centers of the
追跡用パラメータPR1を適用した場合、図7(a)に示す如く、表示エリアAR2には、追跡対象人物が拡大表示されると共に顔領域71、顔上部領域72、上半身領域73及び下半身領域74の各外形が表示され、更に、4つの追跡基準目印M1〜M4が表示される。追跡基準目印M1は顔領域71の略中央、追跡基準目印M2は顔上部領域72の略中央、追跡基準目印M3は上半身領域73の略中央に配置される。追跡基準目印M4は、下半身領域74の中央上方よりに配置される。
When the tracking parameter PR 1 is applied, as shown in FIG. 7A, the tracking target person is enlarged and displayed in the display area AR2, and the
尚、図6及び後述の一部の図(図18等)において、追跡対象人物の下半身並びに下半身領域及びそれに対応する追跡基準目印の図示を省略している。また、表示エリアAR2に、図7(a)に示されるような、顔領域、顔上部領域、上半身領域及び下半身領域の各外形を表示するか否かは任意である。図6及び後述の一部の図(図18等)は、これらの各外形が表示されない場合を例示している。 In FIG. 6 and some of the drawings described later (FIG. 18, etc.), the lower body and lower body region of the person to be tracked and the tracking reference mark corresponding thereto are not shown. Further, whether or not to display the outer shapes of the face area, the upper face area, the upper body area, and the lower body area as shown in FIG. 7A is arbitrary in the display area AR2. FIG. 6 and some drawings described later (FIG. 18 and the like) exemplify a case where these external shapes are not displayed.
パラメータ設定部24は、追跡対象人物の顔の向き及び顔の傾き、並びに、撮像装置1の傾きに応じて、8種類の追跡用パラメータPR1〜PR8の中から自動的に1種類の追跡用パラメータを選択する。撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いておらず、且つ、撮像装置1も傾いていない時、8種類の追跡用パラメータPR1〜PR8の中から自動的に追跡用パラメータPR1が選択され、上述のような領域設定が行われる。撮像装置1に対する顔の向きが正面である場合、撮影画像上において顔は正面顔として表れ、撮像装置1に対する顔の向きが横向きである場合、撮影画像上において顔は横顔として表れる。
顔が傾いている場合などにおいては、異なる種類の追跡用パラメータが選択及び設定される。図9に、8種類の追跡用パラメータPR1〜PR8の特性を表として表す。尚、図9において、撮像装置1の傾きは、カメラ傾きと表記されている。
When the face is tilted, different types of tracking parameters are selected and set. FIG. 9 shows the characteristics of the eight types of tracking parameters PR 1 to PR 8 as a table. In FIG. 9, the tilt of the
撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いており、且つ、撮像装置1が傾いていない時、自動的に追跡用パラメータPR2が選択される。
撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いており、且つ、撮像装置1も同一方向に傾いている時、自動的に追跡用パラメータPR3が選択される。
撮像装置1に対する顔の向きが横向きであって、且つ、顔が傾いておらず、且つ、撮像装置1も傾いていない時、自動的に追跡用パラメータPR4が選択される。
撮像装置1に対する顔の向きが横向きであって、且つ、顔が傾いており、且つ、撮像装置1が傾いていない時、自動的に追跡用パラメータPR5が選択される。
撮像装置1に対する顔の向きが横向きであって、且つ、顔が傾いており、且つ、撮像装置1も同一方向に傾いている時、自動的に追跡用パラメータPR6が選択される。
A orientation front of the face with respect to the
A orientation front of the face with respect to the
When the orientation of the face with respect to the
When the orientation of the face with respect to the
When the orientation of the face with respect to the
ここで、顔の傾きとは、撮影画像の垂直方向に対する顔の傾きを意味している。従って、顔の幅方向が撮影画像の水平方向と一致する場合は、顔は傾いておらず、顔の幅方向が撮影画像の水平方向と一致しない場合は、顔は傾いている、と考える。 Here, the tilt of the face means the tilt of the face with respect to the vertical direction of the captured image. Therefore, when the width direction of the face matches the horizontal direction of the captured image, the face is not inclined, and when the width direction of the face does not match the horizontal direction of the captured image, the face is inclined.
追跡用パラメータPR7又はPR8は、自動的には選択されず、操作部17に対するパラメータ選択操作によって選択されうる。
追跡用パラメータPR7は、顔の向きが正面であって、且つ、撮影画像の垂直方向に対して顔は傾いていないものの、上半身に対して顔が傾いているような場合に適している。
追跡用パラメータPR8は、追跡対象人物が撮像装置1に対して横を向き且つ足を伸ばして座っているような場合に適している。
The tracking parameter PR 7 or PR 8 is not automatically selected but can be selected by a parameter selection operation on the
The tracking parameter PR 7 is suitable when the face is in front and the face is not inclined with respect to the vertical direction of the photographed image, but the face is inclined with respect to the upper body.
The tracking parameter PR 8 is suitable when the person to be tracked is sitting sideways with the legs extended with respect to the
追跡用パラメータPR7は、撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いておらず、且つ、撮像装置1が傾いている時に適しているとも言えるため、そのような時に、自動的に追跡用パラメータPR7が選択されるようにしてもよい。
The tracking parameter PR 7 can be said to be suitable when the orientation of the face with respect to the
図10(a)、図11(a)、図12(a)、図13(a)、図14(a)、図15(a)及び図16(a)は、追跡用パラメータとして、それぞれ追跡用パラメータPR2、PR3、PR4、PR5、PR6、PR7及びPR8が設定されている場合における、表示エリアAR2の表示画像を表す。図10(b)、図11(b)、図12(b)、図13(b)、図14(b)、図15(b)及び図16(b)は、それぞれ、追跡用パラメータPR2、PR3、PR4、PR5、PR6、PR7及びPR8に対応する領域設定を表す図である。
FIGS. 10 (a), 11 (a), 12 (a), 13 (a), 14 (a), 15 (a), and 16 (a) are tracked as tracking parameters, respectively. in the case of use parameter PR 2, PR 3, PR 4 , PR 5, PR 6,
顔領域、顔上部領域、上半身領域及び下半身領域の各形状は、追跡用パラメータPR1〜PR8間において共通している。また、顔領域、顔上部領域、上半身領域及び下半身領域の各外形及びそれらに対応する各追跡基準目印を表示エリアAR2に表示する点も、追跡用パラメータPR1〜PR8間において共通している。但し、追跡用パラメータPR2〜PR8は、主に下記の点で追跡用パラメータPR1と異なる(特に記述しない点に関しては、基本的に、追跡用パラメータPR1と同様である)。 Each shape of the face region, the upper face region, the upper body region, and the lower body region is common among the tracking parameters PR 1 to PR 8 . The tracking parameters PR 1 to PR 8 are also common in that the outlines of the face area, the upper face area, the upper body area, the lower body area, and the tracking reference marks corresponding thereto are displayed in the display area AR2. . However, the tracking parameters PR 2 to PR 8 are different from the tracking parameter PR 1 mainly in the following points (unless otherwise described, they are basically the same as the tracking parameter PR 1 ).
図10(a)及び(b)に対応する追跡用パラメータPR2においては、顔の傾き角度に応じて、顔領域に対し上半身領域及び下半身領域が傾けられる。この結果、顔上部領域と顔領域の各中心を結ぶ直線と、上半身領域及び下半身領域の各中心を結ぶ直線は、一致せず且つ平行とならない。 In FIG. 10 (a) and (b) corresponding to the tracking parameters PR 2, in accordance with the inclination angle of the face, upper body region and the lower body region is inclined with respect to the face region. As a result, the straight line connecting the centers of the upper face region and the face region and the straight line connecting the centers of the upper body region and the lower body region do not match and are not parallel.
また、表示エリアAR2内における各追跡基準目印の表示位置は、顔領域、顔上部領域、上半身領域及び下半身領域の位置関係に応じて定まる。このため、追跡用パラメータPR1における各追跡基準目印の表示位置と、追跡用パラメータPR2におけるそれとは異なる(図7(a)と図10(a)を参照)。これは、他の追跡用パラメータにおいても同様である。 Further, the display position of each tracking reference mark in the display area AR2 is determined according to the positional relationship between the face area, the upper face area, the upper body area, and the lower body area. For this reason, the display position of each tracking reference mark in the tracking parameter PR 1 is different from that in the tracking parameter PR 2 (see FIG. 7A and FIG. 10A). The same applies to other tracking parameters.
図11(a)及び(b)に対応する追跡用パラメータPR3においては、撮影画像内に定義されるX軸及びY軸が撮像装置1の傾き角度に応じて傾けられる。これにより、X軸方向は撮影画像の水平方向と平行ではなくなる。
In the tracking parameter PR 3 corresponding to FIGS. 11A and 11B, the X axis and the Y axis defined in the captured image are tilted according to the tilt angle of the
横顔に対応する追跡用パラメータPR4〜PR6及びPR8においては、顔の幅の定義が異なり、それらにおいて、顔の幅は、おおむね鼻の頂点から後頭部までの距離とされる。また、横顔に対応する追跡用パラメータPR4〜PR6及びPR8における定数α1、α2、β1、β2、γ1及びγ2の値を、正面顔に対応する追跡用パラメータPR1等におけるそれらと異ならせても良い。 In the tracking parameters PR 4 to PR 6 and PR 8 corresponding to the side face, the definition of the face width is different, and the face width is generally the distance from the apex of the nose to the back of the head. In addition, the values of the constants α 1 , α 2 , β 1 , β 2 , γ 1, and γ 2 in the tracking parameters PR 4 to PR 6 and PR 8 corresponding to the side face are set as the tracking parameter PR 1 corresponding to the front face. It may be different from those in etc.
図13(a)及び(b)に対応する追跡用パラメータPR5においては、顔の傾き角度(顔のうつむき角度)に応じて、顔領域に対し上半身領域及び下半身領域が傾けられる。 In the tracking parameter PR 5 corresponding to FIGS. 13A and 13B, the upper body region and the lower body region are tilted with respect to the face region in accordance with the tilt angle of the face (face depression angle).
図14(a)及び(b)に対応する追跡用パラメータPR6においては、撮影画像内に定義されるX軸及びY軸が撮像装置1の傾き角度に応じて傾けられる。
In the tracking parameter PR 6 corresponding to FIGS. 14A and 14B, the X axis and the Y axis defined in the captured image are tilted according to the tilt angle of the
図15(a)及び(b)に対応する追跡用パラメータPR7においては、上半身に対する顔の傾き角度に応じて、顔領域に対し上半身領域及び下半身領域が傾けられる。 In the tracking parameter PR 7 corresponding to FIGS. 15A and 15B, the upper body region and the lower body region are tilted with respect to the face region according to the tilt angle of the face with respect to the upper body.
図16(a)及び(b)に対応する追跡用パラメータPR8においては、下半身領域が上半身領域に対して90度傾けられる。 In the tracking parameter PR 8 corresponding to FIGS. 16A and 16B, the lower body region is inclined 90 degrees with respect to the upper body region.
このように、パラメータ設定部24は、追跡対象人物の顔の、撮影画像上の大きさ及び位置に基づき、顔検出部14によって抽出された顔領域を基準として、顔上部領域、上半身領域及び下半身領域を設定する。これらの設定内容は、追跡用パラメータの一部を成す。そして、追跡動作によって追跡されるべき追跡領域は、設定された顔領域、顔上部領域、上半身領域及び下半身領域を組み合わせた領域である。
As described above, the
また、上述の如く、追跡領域(特に、それに含まれる上半身領域及び下半身領域)は、顔の大きさ及び位置だけでなく、顔の傾き、顔の向き及び撮像装置1の傾きにも応じて、設定される。これにより、理想的には、設定された上半身領域内及び下半身領域内(及び顔上部領域内)に、夫々、撮影画像上における上半身及び下半身(及び顔上部)が収まることになり、追跡動作において安定した追跡が実現される。
Further, as described above, the tracking area (in particular, the upper body area and the lower body area included in the tracking area) depends not only on the size and position of the face, but also on the face inclination, the face direction, and the inclination of the
尚、8種類の追跡用パラメータを例示したが、「顔の傾き、顔の向き及び撮像装置1の傾き」に応じて、より細かく追跡用パラメータを細分化することも可能である。この場合、追跡用パラメータの種類は9種類以上となる。但し、追跡用パラメータの種類を7種類以下とすることも可能である。また、「顔の傾き、顔の向き及び撮像装置1の傾き」の全てを参照して追跡領域を設定することが望ましいが、処理の簡素化等を目的として、それらの一部又は全部の参照を省略することも可能である。
Although eight types of tracking parameters are illustrated, it is possible to subdivide the tracking parameters in more detail according to “face inclination, face orientation, and
パラメータ設定部24が自動的に設定した追跡用パラメータが適切ではないと撮影者が判断した場合は、上述したように、操作部17に対するパラメータ選択操作によって追跡用パラメータを変更することができる。例えば、撮像装置1に対する顔の向きが正面であって、且つ、顔が傾いておらず、且つ、撮像装置1も傾いていないにも関わらず、追跡用パラメータPR3が自動選択されて図11(a)に示すような表示がなされた場合は、撮影者がパラメータ選択操作を行えばよい。これにより、他の追跡用パラメータに対応する情報(上半身領域の外形や追跡基準目印など)が表示エリアAR2内に表示される。この操作を繰り返し、適切な追跡用パラメータ(今の場合、PR1)に応じた情報が表示された時点で、撮影者は、操作部17に対して所定の選択決定操作を行う。この後は、選択決定操作がなされた時点の追跡用パラメータに従った追跡動作がなされる。
When the photographer determines that the tracking parameter automatically set by the
[追跡動作]
次に、追跡動作について設定する。パラメータ設定部24が自動的に設定した追跡用パラメータに対して変更が加えられなかった場合は、その追跡用パラメータが設定された時点から該追跡用パラメータに従った追跡動作が開始され、上述のパラメータ選択操作による追跡用パラメータの変更を介して選択決定操作があった場合は、その選択決定操作があった時点から変更後の追跡用パラメータに従った追跡動作が開始される。
[Tracking operation]
Next, the tracking operation is set. When the tracking parameter automatically set by the
追跡動作では、追跡用パラメータにて定まる追跡領域(追跡領域内の画像)を追跡する。より具体的には、追跡部23は、追跡領域を形成する4つの領域(顔上部領域、顔領域、上半身領域及び下半身領域)の夫々を追跡ブロックとして捉え、追跡ブロックごとに、追跡ブロック(追跡ブロック内の画像)の追跡を行う。尚、顔上部領域の一部、顔領域の一部、上半身領域の一部及び下半身領域の一部を、夫々、追跡ブロックとして捉えるようにしても良い。
In the tracking operation, a tracking area (an image in the tracking area) determined by the tracking parameters is tracked. More specifically, the
1つの追跡ブロックを追跡する手法として、様々な手法が公知又は周知となっており、追跡部23は、それらの何れの手法をも採用可能である。一般的な手法を、図17を参照して簡単に説明する。この手法は、画像マッチング法の一種であり、ブロックマッチング法とも呼ばれる。
Various methods are known or known as a method for tracking one tracking block, and the
図17(a)において、符号100は、第(n−1)フレーム画像を表し、符号101は、第(n−1)フレーム画像における着目した追跡ブロックを表す。図17(b)において、符号110は、第nフレーム画像を表し、符号111は、第nフレーム画像における着目した候補ブロックを表し、符号112は、候補ブロック111が位置しうる探索ブロックを表す。尚、第(n−1)フレーム画像及び第nフレーム画像とは、夫々、第(n−1)番目のフレームの撮影によって得られたフレーム画像及び第n番目のフレームの撮影によって得られたフレーム画像を指す。
In FIG. 17A,
追跡部23は、追跡ブロック101と候補ブロック111との間の相関値を算出する。この際、候補ブロック111は、探索ブロック112内で水平方向又は垂直方向に1画素ずつ移動させられ、その移動の度に相関値が算出される。相関値は、例えば、追跡ブロック101と候補ブロック111との間における、各画素の輝度差の絶対値の総和とされる。この相関値は、一般的にSAD(Sum of Absolute Difference)と呼ばれる。勿論、輝度差の2乗和(Sum of Squared Differece)などによって相関値を求めてもよい。
The
相関値は、追跡ブロック101の画像と候補ブロック111の画像との間の相関が高いほど小さくなる。従って、相関値が最も小さくなる候補ブロック111の位置を求めれば、追跡ブロック101が、第nフレーム画像内のどこに位置しているかを求めることができる共に、第(n−1)と第nフレーム画像間の追跡ブロック101の動きベクトルが求まる。隣接するフレーム間で動きベクトルを繰り返し求め、動きベクトルに応じて追跡ブロックを逐次移動させることにより、追跡ブロック内に収まる移動物体を追跡することができる。
The correlation value decreases as the correlation between the image of the
ところで上述したように、追跡部23は、追跡領域を形成する4つの領域(顔上部領域、顔領域、上半身領域及び下半身領域)の夫々を追跡ブロックとして捉える。このため、追跡ブロックごとに、追跡ブロックの追跡を行うための相関値演算を行う。そして、相関値演算の結果に基づいて、各追跡ブロックの有効性を判断するようにしている。例えば、ある期間において鳥が追跡対象人物の顔の前を横切った場合、その期間中、顔領域を追跡ブロックとして算出された相関値の最小値は比較的大きな値をとる(或いは相関値分布が異常となる)。このような場合、顔領域についての追跡ブロックを無効とし、他の有効な追跡ブロックについて算出された動きベクトルから顔領域の位置を推定することにより、追跡領域全体の追跡を継続するようにする。このように処理することにより、追跡対象人物の一部が一時的に他の物体によって遮られるような状況においても、安定した追跡が可能となる。
By the way, as described above, the
図18は、追跡動作中における表示画面50の表示内容を示す。追跡動作中、表示エリアAR1に、順次生成される各フレーム画像の全体画像が動画像として表示される。表示エリアAR1内に追跡対象を囲むように表示された追跡対象枠64は、画像内の追跡対象の移動に追従して表示エリアAR1内を移動する。そして、追跡動作中、追跡対象を含む画像、即ち、追跡領域を含む画像が、表示エリアAR2に拡大表示される。
FIG. 18 shows the display content of the
上述したように、図2の追跡部23は、各フレーム画像において追跡領域がどこに位置しているかを逐次追跡することにより、追跡対象の追跡を行う。従って、追跡対象の所定位置(例えば、上半身領域の追跡基準目印(図7(a)においてM3))を連続的につなげることによって、追跡動作中における追跡対象の移動軌跡が定まる。この移動軌跡は、図2の移動軌跡記憶部25に、順次、更新記憶される。図18の表示エリアAR1内に表示される矢印65の向きは、この移動軌跡に基づく、直近の数〜数十フレームにおける追跡対象の移動の向きを表す。この矢印65をも参照しつつ、撮影者がパン操作などを行うことによって、追跡対象人物のフレームアウトが未然に防がれる。
As described above, the
表示エリアAR3は、8つの追跡支援表示エリア121〜128に分割され、その8つの追跡支援表示エリア121〜128は、夫々、表示エリアAR2の、上、下、左、右、左斜め上、左斜め下、右斜め上及び右斜め下に配置される。原則として、8つの追跡支援表示エリア121〜128内の画像は、全て基準色のべた塗り画像とされる。
The display area AR3 is divided into eight tracking
追跡動作中、追跡対象がフレームアウトしそうになると、追跡部23は警告報知を実施する。具体的には、図19に示す如く、追跡部23は、各フレーム画像131内に所定のフレーム警告領域132を定義し、追跡領域の一部がフレーム警告領域132と重なった場合に、警告報知を実施する。警告報知は、表示部15による映像出力又は音声出力部(不図示)による音声出力によって行われる。視覚または聴覚等に対する報知を撮影者に与える。これにより、追跡対象のフレームアウトが未然に防止されると共に、フレームアウトを防止するために必要な撮影者の負担を軽減することができる。図19において、フレーム警告領域132は、ロの字状の斜線領域に対応し、それはフレーム画像131の周辺部に設けられる。
When the tracking target is about to be out of frame during the tracking operation, the
図20に、警告報知を実施している最中における、表示画面50の表示例を示す。警告報知の例として、以下に第1〜第4警告報知を示す。追跡部23は、警告報知として、第1〜第4警告報知の一部又は全部を実施する。尚、これらの報知手法は、様々に変形可能であることはいうまでもない。
FIG. 20 shows a display example of the
第1警告報知では、画像上における追跡対象の位置及び動きの向きに応じて、何れかの追跡支援表示エリア内の表示内容を変化させる。例えば、追跡対象が撮影画像の左側に向かって移動していて撮影画像の左方向にフレームアウトしそうになったとき、図20に示す如く、表示エリアAR2の左に位置する追跡支援表示エリア123の表示色を、上記の基準色と異ならせる。
第2警告報知では、画像上における追跡対象の位置及び動きの向きに応じて、撮像装置1をパン又はチルトさせるべき方向を表示画面50上に表示する。例えば、追跡対象が撮影画像の左側に向かって移動していて撮影画像の左方向にフレームアウトしそうになったとき、図20に示す如く、表示画面50上に左向きの矢印141を表示する。
第3警告報知では、警告報知の実施前との対比において、追跡対象枠64の表示色を変化させる。
第4警告報知では、撮像装置1に備えられた音声出力部(不図示)から、所定の警告音を出力させる。
In the first warning notification, the display content in any of the tracking support display areas is changed according to the position of the tracking target on the image and the direction of movement. For example, when the tracking target is moving toward the left side of the captured image and is about to be out of the frame in the left direction of the captured image, as shown in FIG. 20, the tracking
In the second warning notification, the direction in which the
In the third warning notification, the display color of the
In the fourth warning notification, a predetermined warning sound is output from a sound output unit (not shown) provided in the
[追跡対象探索動作]
追跡動作において追跡していた追跡対象がフレームアウトしてしまうと、追跡対象探索動作が実行される。
[Tracking target search operation]
When the tracking target tracked in the tracking operation is out of frame, the tracking target search operation is executed.
追跡対象探索動作において、追跡部23は、図2の移動軌跡記憶部25に記憶された、追跡対象の移動軌跡を参照して追跡対象が位置する方向を推測し、その推測結果に応じて、その方向を撮影者に知らしめるための再フレームイン支援報知(以下、単に「支援報知」という)を行う。これにより、再度のフレームインが支援され、撮影者にとって構図の再調整が容易となる。支援報知は、警告報知と同様、表示部15による映像出力又は音声出力部(不図示)による音声出力によって行われる。
In the tracking target search operation, the
例えば、追跡対象が撮影画像の左側に向かって移動してゆき撮影画像の左方向にフレームアウトした場合、その内容を表す移動軌跡に基づいて、追跡部23は、追跡対象が撮像装置1の左方向に位置すると推測し、左方向を示す支援報知を行う。
For example, when the tracking target moves toward the left side of the photographed image and frames out to the left of the photographed image, the
図21及び図22の夫々に、追跡対象探索動作を実行している最中における、表示画面50の表示例を示す。支援報知の例として、以下に第1〜第3支援報知を示す。追跡部23は、支援報知として、第1〜第3支援報知の一部又は全部を実施する。尚、これらの報知手法は、様々に変形可能であることはいうまでもない。
Each of FIGS. 21 and 22 shows a display example of the
第1支援報知では、追跡対象の位置の推測方向に応じて、何れかの追跡支援表示エリア内の表示内容を変化させる。例えば、追跡対象が撮像装置1の左方向に位置すると推測した場合、図21に示す如く、表示エリアAR2の左に位置する追跡支援表示エリア123の表示色を、上記の基準色と異ならせる。
第2支援報知では、追跡対象の位置の推測方向に応じて、追跡対象を再度フレームインさせるために撮像装置1をパン又はチルトさせるべき方向を、表示画面50上に表示する。この方向は、追跡対象の位置の推測方向と一致する。例えば、追跡対象が撮像装置1の左方向に位置すると推測した場合、図21に示す如く表示画面50上に左向きの矢印142を表示する、或いは、図22に示す如く追跡支援表示エリア123内に左向きの矢印151を表示する。
第3支援報知では、撮像装置1に備えられた音声出力部(不図示)から、追跡対象の位置の推測方向を伝えるための音声を出力させる。
In the first support notification, the display content in one of the tracking support display areas is changed according to the estimated direction of the position of the tracking target. For example, when it is estimated that the tracking target is located in the left direction of the
In the second support notification, a direction in which the
In the third support notification, a sound for transmitting the estimated direction of the position of the tracking target is output from a sound output unit (not shown) provided in the
尚、図21又は図22に示す表示画面50の表示エリアAR2には、追跡動作中に追跡していた追跡対象の拡大画像が静止画像として表示される。但し、この表示を行わないようにしても構わない。
In addition, in the display area AR2 of the
また、追跡対象探索動作を実行する期間(以下、探索期間という)において、追跡部23は、各フレーム画像と追跡動作中に記憶した追跡領域の画像との画像マッチングを行うことにより、各フレーム画像内に再度含まれうる追跡対象を探索する。この際、動きベクトルを算出することによって各フレーム画像内の動き領域を特定し、その動き領域内に対してのみ探索を実行するようにしてもよい。
Further, in a period during which the tracking target search operation is performed (hereinafter referred to as a search period), the
また、探索期間における各フレーム画像に対して、追跡対象の位置の推測方向に応じた探索領域を定義し、その探索領域内のみを探索する(或いは、その探索領域内を重点的に探索する)ようにしてもよい。これにより、探索に必要な演算処理量が軽減される。 For each frame image in the search period, a search area corresponding to the estimated direction of the position of the tracking target is defined, and only the search area is searched (or the search area is searched intensively). You may do it. This reduces the amount of calculation processing required for the search.
これについて、図23を参照して、より具体的に説明する。図23において、符号161は、探索期間における各フレーム画像を表し、符号162が付された矩形領域は、各フレーム画像内に定義された探索領域を表す。探索領域162は、フレーム画像163の全体領域よりも小さく、追跡対象の位置の推測方向に応じた位置に設けられる。例えば、追跡対象が撮像装置1の左方向に位置すると推測した場合、撮像装置1に対するパン操作などによって、追跡対象はフレーム画像の左側から再度フレームインする可能性が高い。従って、この場合、図23に示す如く、探索領域162はフレーム画像の左側に設けられる。
This will be described more specifically with reference to FIG. In FIG. 23,
そして、探索期間において、追跡部23は、各フレーム画像の探索領域内の画像と追跡動作中に記憶した追跡領域の画像との画像マッチングを行う。即ち、画像マッチングによって、探索領域内に追跡対象が存在するか否かを探索する(探索領域外では探索しない)。画像マッチングの手法としては、図17を用いて説明した手法と同様の手法を用いればよく、相関演算によって算出した相関値に基づいて探索領域内に追跡対象が存在するか否かの判断を行うと共に、追跡対象が存在する場合は、その相関値に基づいてフレーム画像内における追跡対象の位置を特定する。追跡対象の位置が特定された後は、上述の追跡動作を再開する。
In the search period, the
<<変形等>>
上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
As modifications or annotations of the above-described embodiment, notes 1 to 5 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
追跡対象を追跡する際、追跡領域を形成する4つの領域(顔上部領域、顔領域、上半身領域及び下半身領域)の夫々を追跡ブロックとして捉え、追跡ブロックごとに、追跡ブロック(追跡ブロック内の画像)の追跡を行うと述べたが、この際、追跡精度を上げるべく、追跡ブロック外の画像データをも参照して追跡処理を実行するようにしてもよい。例えば、顔領域の近傍に顔領域を挟むように2つの追跡参照領域を設け、これらの追跡参照領域の画像データをも参照して追跡を行うようにする。追跡領域と追跡参照領域との位置関係は、顔の傾きなどに応じて変化しうる。
[Note 1]
When tracking the tracking target, each of the four areas (the upper face area, the face area, the upper body area, and the lower body area) forming the tracking area is regarded as a tracking block, and a tracking block (an image in the tracking block) is detected for each tracking block. In this case, the tracking process may be executed with reference to image data outside the tracking block in order to improve tracking accuracy. For example, two tracking reference areas are provided so as to sandwich the face area in the vicinity of the face area, and tracking is performed with reference to image data of these tracking reference areas. The positional relationship between the tracking area and the tracking reference area can change according to the inclination of the face.
[注釈2]
図6等に示す追跡対象枠64は、追跡対象を表す追跡マークとして表示されるものであり、それの形状や表示の仕方を様々に変更することが可能である。例えば、表示エリアAR1内において、追跡対象の表示位置の近傍に矢印などを追跡マークとして表示するようにしてもよい。要は、追跡対象が他の被写体と区別して視認されるように、表示エリアAR1内において、追跡対象の表示位置を基準とした所定位置に何からの追跡マークを表示すればよい。また、追跡マーク(追跡対象枠64)の表示を、操作部17に対する所定操作によって消すことも可能である。
[Note 2]
The
[注釈3]
上述の実施形態では、追跡領域内に追跡対象人物の人体の全部が含まれうるが、追跡領域内に追跡対象人物の人体の全部が含まれている必要はない。即ち、追跡領域は、追跡対象人物の全部又は一部を含む。
[Note 3]
In the above-described embodiment, the entire human body of the tracking target person may be included in the tracking area, but it is not necessary that the entire human body of the tracking target person is included in the tracking area. That is, the tracking area includes all or part of the tracking target person.
[注釈4]
追跡領域は、4つの領域(即ち、顔上部領域、顔領域、上半身領域及び下半身領域)から形成されると上述したが、4つの領域の内、1以上の領域を追跡領域から省くこともできる。例えば、下半身領域を省き、顔上部領域、顔領域及び上半身領域によって追跡領域を形成するようにしてもよい。
[Note 4]
Although the tracking area is described as being formed of four areas (ie, the upper face area, the face area, the upper body area, and the lower body area), one or more of the four areas can be omitted from the tracking area. . For example, the lower body area may be omitted, and the tracking area may be formed by the upper face area, the face area, and the upper body area.
[注釈5]
また、図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図1の顔検出部14と図2の追跡処理部20とによって実現される機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Note 5]
In addition, the
ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、図1の顔検出部14と図2の追跡処理部20にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
When the
1 撮像装置
11 撮像部
12 AFE
13 制御部
14 顔検出部
15 表示部
16 記録媒体
17 操作部
18 傾きセンサ
20 追跡処理部
21 追跡対象候補検出部
22 追跡対象選択部
23 追跡部
24 パラメータ設定部
25 移動軌跡記憶部
DESCRIPTION OF
DESCRIPTION OF
Claims (8)
前記撮影画像を表示可能な表示手段と、
前記撮影画像の中から人物の顔を検出する顔検出手段と、
前記顔検出手段の検出結果を基に、前記撮影画像の中から1又は2以上の人物を追跡対象候補として検出する追跡対象候補検出手段と、
2以上の追跡対象候補が検出された際、そのうちの1を追跡対象人物として選択する追跡対象選択手段と、
前記追跡対象人物の選択後、時系列で並ぶ前記撮影画像間において前記追跡対象人物を追跡する追跡手段と、を備え、
前記顔検出手段は、前記追跡対象人物の顔を含む領域を顔領域として抽出し、
前記追跡手段は、前記追跡対象人物の一部又は全部を含む領域を追跡領域として設定し、
該追跡領域は、第1、第2、・・・及び第n(nは2以上の整数)の要素追跡領域から形成されており、
前記追跡手段は、第1の要素追跡領域を前記顔領域として設定すると共に、前記顔領域の、前記撮影画像上の大きさ及び位置に基づき、前記第1の要素追跡領域としての前記顔領域を基準として他の要素追跡領域を設定し、これらの要素追跡領域を個別に追跡することによって前記追跡対象人物を追跡する
ことを特徴とする追跡機能付き撮像装置。 Imaging means for obtaining captured images arranged in time series by sequentially capturing;
Display means capable of displaying the captured image;
Face detection means for detecting a human face from the captured image;
Based on the detection result of the face detection means, tracking target candidate detection means for detecting one or more persons as tracking target candidates from the captured image;
A tracking target selection means for selecting one of the tracking target candidates as a tracking target person when two or more tracking target candidates are detected;
Tracking means for tracking the tracking target person between the captured images arranged in time series after the selection of the tracking target person,
The face detection means extracts an area including the face of the person to be tracked as a face area,
The tracking means sets an area including a part or all of the tracking target person as a tracking area,
The tracking region is formed of first, second,..., And nth (n is an integer of 2 or more) element tracking regions,
The tracking unit sets a first element tracking area as the face area, and sets the face area as the first element tracking area based on the size and position of the face area on the captured image. An imaging apparatus with a tracking function , wherein other element tracking areas are set as a reference, and the tracking target person is tracked by individually tracking these element tracking areas .
ことを特徴とする請求項1に記載の追跡機能付き撮像装置。 The display means provides a whole image display area on the display screen, displays the whole image of the captured images arranged in time series in the whole image display area as a moving image, and separately tracks on the display screen. 2. The imaging device with a tracking function according to claim 1, wherein a target display area is provided, and an image including the tracking target is enlarged and displayed in the tracking target display area.
ことを特徴とする請求項2に記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 2.
ことを特徴とする請求項1〜3のいずれかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to any one of claims 1 to 3.
当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、The imaging apparatus further includes an operation unit that receives an operation from the outside,
前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、The tracking parameter automatically set by the tracking unit can be changed by a predetermined operation on the operation unit,
前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行うWhen the change is made by the predetermined operation, the tracking unit tracks the tracking target according to the changed tracking parameter.
ことを特徴とする請求項1〜請求項4の何れかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 1, wherein the imaging device has a tracking function.
前記追跡用パラメータは、前記追跡領域を定める情報を含み、The tracking parameter includes information defining the tracking area,
当該撮像装置は、外部からの操作を受け付ける操作手段を更に備え、The imaging apparatus further includes an operation unit that receives an operation from the outside,
前記追跡手段によって自動的に設定された前記追跡用パラメータは、前記操作手段に対する所定操作によって変更可能であり、The tracking parameter automatically set by the tracking unit can be changed by a predetermined operation on the operation unit,
前記追跡手段は、前記所定操作によって変更がなされた場合は、変更後の前記追跡用パラメータに従って前記追跡対象の追跡を行うWhen the change is made by the predetermined operation, the tracking unit tracks the tracking target according to the changed tracking parameter.
ことを特徴とする請求項1〜請求項4の何れかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 1, wherein the imaging device has a tracking function.
ことを特徴とする請求項1〜請求項6の何れかに記載の追跡機能付き撮像装置。The imaging device with a tracking function according to claim 1, wherein the imaging device has a tracking function.
ことを特徴とする請求項1〜請求項7の何れかに記載の追跡機能付き撮像装置。The imaging apparatus with a tracking function according to claim 1, wherein the imaging apparatus has a tracking function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006292171A JP4912117B2 (en) | 2006-10-27 | 2006-10-27 | Imaging device with tracking function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006292171A JP4912117B2 (en) | 2006-10-27 | 2006-10-27 | Imaging device with tracking function |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008109552A JP2008109552A (en) | 2008-05-08 |
JP4912117B2 true JP4912117B2 (en) | 2012-04-11 |
Family
ID=39442517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006292171A Expired - Fee Related JP4912117B2 (en) | 2006-10-27 | 2006-10-27 | Imaging device with tracking function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4912117B2 (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5113669B2 (en) * | 2008-08-19 | 2013-01-09 | キヤノン株式会社 | Imaging apparatus, control method thereof, and program |
JP5293139B2 (en) * | 2008-09-05 | 2013-09-18 | 株式会社リコー | Imaging apparatus, imaging method, program, and recording medium |
JP5084696B2 (en) | 2008-10-27 | 2012-11-28 | 三洋電機株式会社 | Image processing apparatus, image processing method, and electronic apparatus |
JP2010130281A (en) * | 2008-11-27 | 2010-06-10 | Hoya Corp | Imaging device |
JP2010237872A (en) * | 2009-03-30 | 2010-10-21 | Sogo Keibi Hosho Co Ltd | Device, method and program for detecting person area |
JP5384172B2 (en) * | 2009-04-03 | 2014-01-08 | 富士フイルム株式会社 | Auto focus system |
JP5424779B2 (en) * | 2009-08-24 | 2014-02-26 | キヤノン株式会社 | Imaging apparatus, imaging method, and program |
JP5657235B2 (en) * | 2009-11-10 | 2015-01-21 | オリンパスイメージング株式会社 | Image capturing apparatus and image capturing method |
US10645344B2 (en) * | 2010-09-10 | 2020-05-05 | Avigilion Analytics Corporation | Video system with intelligent visual display |
JP5683898B2 (en) * | 2010-10-22 | 2015-03-11 | オリンパスイメージング株式会社 | TRACKING DEVICE AND TRACKING METHOD |
JP5814557B2 (en) | 2011-02-07 | 2015-11-17 | キヤノン株式会社 | Image display control device, imaging device, display control method, and control program |
KR101289087B1 (en) | 2011-11-03 | 2013-08-07 | 인텔 코오퍼레이션 | Face detection method, apparatus, and computer-readable recording medium for executing the method |
JP5963525B2 (en) * | 2012-04-27 | 2016-08-03 | キヤノン株式会社 | Recognition device, control method thereof, control program, imaging device and display device |
JP6033044B2 (en) * | 2012-11-06 | 2016-11-30 | キヤノン株式会社 | Image display apparatus, control method thereof, control program, and imaging apparatus |
US9240164B2 (en) | 2013-02-27 | 2016-01-19 | Honeywell International Inc. | Apparatus and method for providing a pan and zoom display for a representation of a process system |
CA2904235A1 (en) | 2013-03-08 | 2014-09-12 | Denso Wave Incorporated | Apparatus and method for monitoring moving objects |
CN105247856A (en) | 2013-03-08 | 2016-01-13 | 株式会社电装 | Device and method for monitoring moving entity |
CN104144289B (en) * | 2013-05-10 | 2018-02-06 | 华为技术有限公司 | Photographic method and device |
US9591211B2 (en) * | 2013-05-10 | 2017-03-07 | Huawei Technologies Co., Ltd. | Photographing method and apparatus |
KR101648786B1 (en) * | 2014-12-05 | 2016-08-30 | 삼성에스디에스 주식회사 | Method of object recognition |
JP6933178B2 (en) | 2018-03-29 | 2021-09-08 | 京セラドキュメントソリューションズ株式会社 | Control device, surveillance system, surveillance camera control method and surveillance program |
EP4130842A1 (en) * | 2020-03-31 | 2023-02-08 | Evident Corporation | Microscope system, projection unit, and egg testing assistance method |
CN114697525A (en) * | 2020-12-29 | 2022-07-01 | 华为技术有限公司 | Method for determining tracking target and electronic equipment |
JP2022119005A (en) * | 2021-02-03 | 2022-08-16 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device and image processing method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0580248A (en) * | 1991-09-19 | 1993-04-02 | Ricoh Co Ltd | Automatic focusing device |
JP2000148980A (en) * | 1998-11-12 | 2000-05-30 | Fuji Photo Film Co Ltd | Image processing method, image processor and recording medium |
JP4746295B2 (en) * | 2003-08-25 | 2011-08-10 | 富士フイルム株式会社 | Digital camera and photographing method |
JP4489608B2 (en) * | 2004-03-31 | 2010-06-23 | 富士フイルム株式会社 | DIGITAL STILL CAMERA, IMAGE REPRODUCTION DEVICE, FACE IMAGE DISPLAY DEVICE, AND CONTROL METHOD THEREOF |
JP2006101186A (en) * | 2004-09-29 | 2006-04-13 | Nikon Corp | Camera |
JP4830650B2 (en) * | 2005-07-05 | 2011-12-07 | オムロン株式会社 | Tracking device |
-
2006
- 2006-10-27 JP JP2006292171A patent/JP4912117B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008109552A (en) | 2008-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4912117B2 (en) | Imaging device with tracking function | |
JP3989523B2 (en) | Automatic photographing method and apparatus | |
JP5206095B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP5810296B2 (en) | Image display device and image display method | |
US8472667B2 (en) | Editing apparatus and method | |
US20130235086A1 (en) | Electronic zoom device, electronic zoom method, and program | |
JP2005210217A (en) | Stereoscopic camera | |
JP4872396B2 (en) | Image editing apparatus, image editing method, and image editing program | |
JP2008281385A (en) | Image processing device | |
JP5142825B2 (en) | Image display device and image display method | |
JP2009089220A (en) | Imaging apparatus | |
JP6635764B2 (en) | Imaging device, control method thereof, and control program | |
JP4702015B2 (en) | Image display apparatus and program | |
JP5132705B2 (en) | Image processing device | |
JP2005267005A (en) | Image data processing apparatus and program | |
JP2008211534A (en) | Face detecting device | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2011211757A (en) | Electronic zoom apparatus, electronic zoom method, and program | |
JP6545229B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM | |
JP6672082B2 (en) | Imaging device, imaging method, and program | |
US9865070B2 (en) | Panoramic stitched image memory texture writing | |
KR102529479B1 (en) | Control apparatus, control method, and storage medium | |
JP2017098851A (en) | Display control method, display control program and information processing device | |
US20220417427A1 (en) | Image processing apparatus that retouches and displays picked-up image, image processing method, and storage medium | |
JP6525693B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111220 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120117 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |