JP2016081095A - Subject tracking device, control method thereof, image-capturing device, display device, and program - Google Patents

Subject tracking device, control method thereof, image-capturing device, display device, and program Download PDF

Info

Publication number
JP2016081095A
JP2016081095A JP2014208508A JP2014208508A JP2016081095A JP 2016081095 A JP2016081095 A JP 2016081095A JP 2014208508 A JP2014208508 A JP 2014208508A JP 2014208508 A JP2014208508 A JP 2014208508A JP 2016081095 A JP2016081095 A JP 2016081095A
Authority
JP
Japan
Prior art keywords
subject
histogram
tracking
image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014208508A
Other languages
Japanese (ja)
Inventor
良介 辻
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014208508A priority Critical patent/JP2016081095A/en
Publication of JP2016081095A publication Critical patent/JP2016081095A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the performance of tracking a subject.SOLUTION: The present invention is a subject tracking device for tracking a targeted subject from successively supplied images, the subject tracking device having: histogram matching means for collating a histogram expressing an object to be tracked and the histogram of the subregion of a supplied image, changing the subregion to be collated, and outputting a plurality of high-ranking similarities as found by collation and subregion position information; and similar object region registration means for registering, as a similarity object region, a subregion indicating a second rank or following similarity higher than a prescribed threshold that exists at a position away from the position of a subregion indicating a first rank similarity as collated by the histogram matching means. The histogram matching means does not include the region registered by the similar object region registration means in the outputted plurality of high-ranking similarities and subregion position information.SELECTED DRAWING: Figure 2

Description

本発明は、被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラムに関する。   The present invention relates to a subject tracking device, a control method thereof, an imaging device, a display device, and a program.

時系列的に供給される画像から特定の被写体を抽出し、その抽出した被写体を追跡する技術は非常に有用であり、例えば、動画像における人間の顔領域や人体領域の特定に利用されている。このような技術は、例えば、通信会議、マン・マシン・インターフェース、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。   A technique for extracting a specific subject from an image supplied in time series and tracking the extracted subject is very useful. For example, it is used for specifying a human face region or a human body region in a moving image. . Such techniques can be used in many areas, for example, teleconferencing, man-machine interface, security, monitor systems for tracking any subject, image compression, etc.

また、デジタルスチルカメラやデジタルビデオカメラでは、タッチパネルなどを用いて指定された撮像画像に含まれる任意の被写体を抽出及び追跡して、かかる被写体に対する焦点状態や露出状態を最適化する技術が提案されている(特許文献1及び2参照)。   For digital still cameras and digital video cameras, a technique for extracting and tracking an arbitrary subject included in a captured image specified by using a touch panel or the like and optimizing a focus state and an exposure state for the subject is proposed. (See Patent Documents 1 and 2).

特許文献1には、撮像画像に含まれる顔の位置を検出(抽出)及び追跡し、かかる顔に対して、焦点を合わせると共に最適な露出で撮像する撮像装置が開示されている。特許文献2には、テンプレートマッチングを用いて、特定の被写体を自動で追跡する技術が開示されている。ここで、テンプレートマッチングとは、特定の被写体(追跡対象)を含む画像領域を切り出した部分画像をテンプレート画像として登録し、テンプレート画像と最も類似度が高いまたは相違度が低い領域を画像内において推定し、特定の被写体を追跡する手法である。   Patent Document 1 discloses an imaging apparatus that detects (extracts) and tracks the position of a face included in a captured image, focuses the face, and captures an image with an optimal exposure. Patent Document 2 discloses a technique for automatically tracking a specific subject using template matching. Here, with template matching, a partial image obtained by cutting out an image area including a specific subject (tracking target) is registered as a template image, and an area having the highest similarity or the lowest dissimilarity with the template image is estimated in the image. In this method, a specific subject is tracked.

なお、テンプレートマッチングでは、タッチパネルなどの入力インターフェイスを用いて画像に含まれる任意の領域を指定し、かかる領域を基準としてテンプレート画像が登録される。   In template matching, an arbitrary area included in the image is designated using an input interface such as a touch panel, and the template image is registered with the area as a reference.

特開2005−318554号公報JP 2005-318554 A 特開2001−60269号公報JP 2001-60269 A

テンプレートマッチングでは、画像データを評価尺度として用いる。テンプレート画像と探索する画像とにおいて、姿勢変化など被写体の見えの変化が大きい場合には、正しい領域を推定できないという課題がある。この課題に対して、マッチングの評価尺度に画像データそのものではなくヒストグラムを利用する方法がある。被写体を示す情報を画像データからヒストグラムに変換することで、曖昧性を持たせ被写体の姿勢変動にロバストな被写体追跡が実現できる。   In template matching, image data is used as an evaluation scale. There is a problem that a correct region cannot be estimated when there is a large change in the appearance of the subject such as a change in posture between the template image and the image to be searched. To solve this problem, there is a method of using a histogram instead of image data itself as a matching evaluation scale. By converting the information indicating the subject from image data into a histogram, subject tracking that is ambiguous and robust to changes in posture of the subject can be realized.

一方で、ヒストグラムに基づくマッチングでは、特徴量に曖昧性を持たせているため、類似対象との識別ができず類似対象を誤って追跡してしまうことがある。特に、類似対象が存在するシーンにおいて、追跡対象が隠蔽されたタイミングで誤りが発生する可能性が高い。   On the other hand, in the matching based on the histogram, since the feature amount is made ambiguous, the similar object cannot be identified and the similar object may be tracked erroneously. In particular, in a scene where a similar target exists, there is a high possibility that an error will occur at the timing when the tracking target is concealed.

本発明は、上述した課題に鑑みてなされたものであり、ヒストグラムの類似性に基づく被写体追跡方法において、類似対象を誤って追跡してしまうことを軽減できる被写体追跡装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a subject tracking device that can reduce erroneous tracking of a similar target in a subject tracking method based on similarity of histograms. To do.

上記の目的を達成するために、本発明は、逐次供給される画像から目的とする被写体を追跡する被写体追跡装置であって、前記画像から目的とする被写体を示す部分領域の画素値のヒストグラムを登録するヒストグラム登録手段と、前記ヒストグラム登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域の画素値のヒストグラムと照合し、照合する部分領域を変化させ、照合による類似度が高い上位複数の類似度と部分領域の位置情報を出力するヒストグラムマッチング手段と、前記ヒストグラムマッチング手段による第1位の類似度を示す部分領域の位置と離れた位置に所定閾値以上の第2位以降の類似度を示す部分領域が存在した場合に、当領域を類似対象領域として登録する類似対象領域登録手段を有し、前記ヒストグラムマッチング手段は、出力する上位複数の類似度と部分領域の位置情報に、前記類似対象領域登録手段により登録されている領域を含めないことを特徴とする。   In order to achieve the above object, the present invention provides a subject tracking device that tracks a target subject from sequentially supplied images, and includes a histogram of pixel values of a partial region indicating the target subject from the image. Using the histogram registration means to be registered and the histogram registered by the histogram registration means, the histogram of the pixel value of the partial area of the supplied image is collated, the partial area to be collated is changed, and the similarity by collation is high Histogram matching means for outputting a plurality of upper similarities and position information of the partial area, and a position separated from the position of the partial area indicating the first degree of similarity by the histogram matching means at the second and subsequent positions above a predetermined threshold When there is a partial region indicating the similarity, the similar target region registration means for registering the region as a similar target region, Strike grams matching means, the position information of the upper plurality of similarity and the partial area to output, is characterized by not including the area registered by the similar target area registering means.

本発明の被写体追跡装置によれば、類似対象が存在する場合に誤って追跡してしまう頻度を軽減させ、被写体追跡の性能を向上させることができる。   According to the subject tracking device of the present invention, it is possible to reduce the frequency of erroneous tracking when a similar target exists, and to improve subject tracking performance.

第1の実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on 1st Embodiment. 第1の実施形態に係る被写体追跡の構成を示すブロック図である。It is a block diagram which shows the structure of the subject tracking which concerns on 1st Embodiment. 第1の実施形態に係るヒストグラムマッチングを説明する図である。It is a figure explaining the histogram matching which concerns on 1st Embodiment. 第1の実施形態に係る追跡状態判別の状態とその遷移を説明する図である。It is a figure explaining the state of the tracking state discrimination | determination concerning 1st Embodiment, and its transition. 第1の実施形態に係る類似対象領域の登録を説明する図である。It is a figure explaining registration of the similar object field concerning a 1st embodiment. 第1の実施形態に係る被写体追跡処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the subject tracking process which concerns on 1st Embodiment.

以下、この発明の実施の形態について図を参照して説明するが、この発明は以下の実施の形態に限定されない。また、この発明の実施の形態は発明の好ましい形態を示すものであり、発明の範囲を限定するものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments. The embodiments of the present invention show preferred modes of the invention and do not limit the scope of the invention.

[実施例1]
図1は撮像装置100の構成を示す概略ブロック図である。撮像装置100は、本実施形態では、被写体の画像を撮像するデジタルカメラとして具現化される。また、撮像装置100は、時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置としても機能する。撮像光学系101と、撮像素子102と、アナログ信号処理部103と、A/D変換部104と、制御部105と、画像処理部106と、表示部107と、記録部108と、被写体指定部109と、被写体追跡部110とを有する。
[Example 1]
FIG. 1 is a schematic block diagram illustrating the configuration of the imaging apparatus 100. In this embodiment, the imaging apparatus 100 is embodied as a digital camera that captures an image of a subject. The imaging device 100 also functions as a subject tracking device that tracks subjects included in images that are sequentially supplied in time series. Imaging optical system 101, imaging device 102, analog signal processing unit 103, A / D conversion unit 104, control unit 105, image processing unit 106, display unit 107, recording unit 108, subject specifying unit 109 and a subject tracking unit 110.

図1を参照するに、被写体の像を表す光は、撮像光学系101によって集光され、CCDイメージセンサやCMOSイメージセンサなどで構成された撮像素子102に入射する。撮像素子102は、入射する光の強度に応じた電気信号を画素単位で出力する(即ち、撮像光学系101によって形成された被写体の像を光電変換する)。ここで、撮像素子102から出力される電気信号は、撮像素子102で撮像された被写体の像を示すアナログの画像信号である。   Referring to FIG. 1, light representing an image of a subject is collected by an imaging optical system 101 and is incident on an imaging device 102 configured by a CCD image sensor, a CMOS image sensor, or the like. The image sensor 102 outputs an electrical signal corresponding to the intensity of incident light in units of pixels (that is, photoelectrically converts an image of a subject formed by the imaging optical system 101). Here, the electrical signal output from the image sensor 102 is an analog image signal indicating an image of a subject imaged by the image sensor 102.

撮像素子102から出力された映像信号は、アナログ信号処理部103において相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104においてデジタルデータの形式に変換され、制御部105及び画像処理部106に入力される。制御部105は、CPUやマイクロコントローラなどであり、撮像装置100の動作を中央制御する。具体的には、制御部105は、ROMに記憶されたプログラムコードをRAMの作業領域に展開して順次実行することで、撮像装置100の各部を制御する。   The video signal output from the image sensor 102 is subjected to analog signal processing such as correlated double sampling (CDS) in the analog signal processing unit 103. The video signal output from the analog signal processing unit 103 is converted into a digital data format by the A / D conversion unit 104 and input to the control unit 105 and the image processing unit 106. The control unit 105 is a CPU, a microcontroller, or the like, and centrally controls the operation of the imaging apparatus 100. Specifically, the control unit 105 controls each unit of the imaging apparatus 100 by developing the program code stored in the ROM in the work area of the RAM and sequentially executing the program code.

画像処理部106においては、入力されたデジタル形式の映像信号に対して、ガンマ補正、ホワイトバランス処理などの画像処理が行われる。なお、画像処理部106は、通常の画像処理に加え、後述する被写体追跡部110から供給される画像中の被写体領域に関する情報を用いた画像処理を行う機能も有する。   The image processing unit 106 performs image processing such as gamma correction and white balance processing on the input digital video signal. In addition to the normal image processing, the image processing unit 106 also has a function of performing image processing using information related to a subject area in an image supplied from a subject tracking unit 110 described later.

画像処理部106から出力された映像信号は、表示部107に送られる。表示部107は、例えばLCDや有機ELディスプレイであり、映像信号を表示する。撮像装置100は、撮像素子102で時系列的に逐次撮像した画像を表示部107に逐次表示させることで、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、被写体追跡部110によって追跡している被写体を含む被写体領域を矩形などで表示する。   The video signal output from the image processing unit 106 is sent to the display unit 107. The display unit 107 is, for example, an LCD or an organic EL display, and displays a video signal. The imaging apparatus 100 can cause the display unit 107 to function as an electronic viewfinder (EVF) by sequentially displaying images sequentially captured in time series by the imaging element 102 on the display unit 107. Further, the subject area including the subject tracked by the subject tracking unit 110 is displayed in a rectangle or the like.

また、画像処理部106から出力された映像信号は、記録媒体108、例えば着脱可能なメモリーカードに記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インターフェイスにより通信可能に接続された外部装置(いずれも図示しない)であってもよい。被写体指定部109は、例えば、タッチパネルやボタンなどを含む入力インターフェイスである。ユーザ(撮像者)は、被写体指定部109を介して、画像に含まれる任意の被写体を追跡対象に指定することが可能である。   The video signal output from the image processing unit 106 is recorded on a recording medium 108, for example, a removable memory card. Note that the recording destination of the video signal may be the built-in memory of the imaging apparatus 100 or an external apparatus (both not shown) that are communicably connected via a communication interface. The subject designation unit 109 is an input interface including, for example, a touch panel and buttons. A user (imager) can designate an arbitrary subject included in the image as a tracking target via the subject designation unit 109.

被写体追跡部110は、画像処理部106から時系列的に順次供給される(即ち、撮像された時刻の異なる)画像(画像信号)に含まれる被写体を追跡する。被写体追跡部110は、ヒストグラムの類似性に基づき被写体を追跡する。類似対象を誤って追跡する問題を軽減するための手段を有する。被写体追跡部110の詳細は後述する。   The subject tracking unit 110 tracks subjects included in images (image signals) that are sequentially supplied from the image processing unit 106 in time series (that is, taken at different times). The subject tracking unit 110 tracks a subject based on the similarity of histograms. It has means to alleviate the problem of tracking similar objects in error. Details of the subject tracking unit 110 will be described later.

制御部105は、撮像素子102で撮像する際の焦点状況や露出状況などの撮像条件を制御する。具体的には、制御部105は、A/D変換部104から出力された映像信号に基づいて、撮像レンズ101の焦点制御機構や露出制御機構(いずれも図示しない)を制御する。例えば、焦点制御機構は撮像レンズ101を光軸方向へ駆動させるアクチュエータなどであり、露出制御機構は絞りやシャッタを駆動させるアクチュエータなどである。   The control unit 105 controls image capturing conditions such as a focus state and an exposure state when the image sensor 102 captures an image. Specifically, the control unit 105 controls a focus control mechanism and an exposure control mechanism (neither shown) of the imaging lens 101 based on the video signal output from the A / D conversion unit 104. For example, the focus control mechanism is an actuator that drives the imaging lens 101 in the optical axis direction, and the exposure control mechanism is an actuator that drives an aperture or a shutter.

制御部105は、この焦点制御機構や露出制御機構の制御に、被写体追跡部110から供給された被写体領域の情報を用いることができる。具体的には、被写体領域のコントラスト値を用いた焦点制御や、被写体領域の輝度値を用いた露出制御を行う。したがって、撮像装置100では、撮像画像における特定の被写体領域を考慮した撮像処理を行うことができる。また、制御部105は、撮像素子102の出力タイミングや出力画素など、撮像素子102の読み出し制御も行う。   The control unit 105 can use the subject area information supplied from the subject tracking unit 110 for the control of the focus control mechanism and the exposure control mechanism. Specifically, focus control using the contrast value of the subject area and exposure control using the brightness value of the subject area are performed. Therefore, the imaging apparatus 100 can perform imaging processing in consideration of a specific subject area in the captured image. The control unit 105 also performs readout control of the image sensor 102 such as output timing and output pixels of the image sensor 102.

被写体追跡部110に関して詳細を説明する。図2に被写体追跡110の構成を示すブロック図を示す。ヒストグラム登録部201は、画像処理部106から供給される画像データから被写体指定部109によって指定された位置情報に基づき、目的とする被写体を示す部分領域を推定し、当該部分領域の画素値のヒストグラムを登録する。この登録されたヒストグラムが追跡対象を表現する被写体モデルとなる。また、被写体指定部109による指定に限らず、顔検出など特定の被写体検出部(図示しない)を有し、検出された被写体領域に基づいて、ヒストグラムを登録する構成としても良い。   Details of the subject tracking unit 110 will be described. FIG. 2 is a block diagram showing the configuration of the subject tracking 110. The histogram registration unit 201 estimates a partial region indicating the target subject from the image data supplied from the image processing unit 106 based on the position information designated by the subject designation unit 109, and a histogram of pixel values of the partial region. Register. The registered histogram is a subject model that expresses the tracking target. Further, the configuration is not limited to the designation by the subject designation unit 109, and a specific subject detection unit (not shown) such as face detection may be provided, and a histogram may be registered based on the detected subject area.

ヒストグラムマッチング部202では、画像処理部106から供給される画像データから得られる部分領域のヒストグラムと、ヒストグラム登録部201により登録されたヒストグラムとを照合する。照合する部分領域を変化させ、照合による類似度が高い上位複数の類似度と部分領域の位置情報を出力する。ヒストグラムマッチングの詳細に関して図3を用いて説明する。図3の(a)は、ヒストグラムマッチングにおける被写体モデルの例を示す。301は目的とする追跡対象の領域を示す画像であり、この画像の画素データから生成するヒストグラムを特徴量として扱う。302は301の特徴量を表現したものである。特徴量は、輝度信号のM階調のヒストグラムとすると、下記式で表現される。   The histogram matching unit 202 collates the histogram of the partial area obtained from the image data supplied from the image processing unit 106 with the histogram registered by the histogram registration unit 201. The partial area to be collated is changed, and a plurality of similarities with high similarity by collation and position information of the partial area are output. Details of the histogram matching will be described with reference to FIG. FIG. 3A shows an example of a subject model in histogram matching. Reference numeral 301 denotes an image showing a target region to be tracked, and a histogram generated from pixel data of this image is handled as a feature amount. 302 represents the feature quantity 301. The feature amount is expressed by the following expression when the luminance signal is an M-gradation histogram.

図3の(b)は、追跡対象を探索する画像の情報を示す。303はマッチング処理を行う範囲の画像を示す。探索画像における座標は、(x,y)で表現する。304は、マッチングの評価値を取得するための部分領域である。部分領域304から生成される特徴量を305で示す。特徴量は、被写体モデルと同様に輝度信号のM階調のヒストグラムとすると、下記式で表現される。   FIG. 3B shows image information for searching for a tracking target. Reference numeral 303 denotes an image in a range where matching processing is performed. The coordinates in the search image are expressed by (x, y). Reference numeral 304 denotes a partial area for acquiring a matching evaluation value. A feature amount generated from the partial region 304 is indicated by 305. The feature amount is expressed by the following expression when the luminance signal is an M-gradation histogram of the luminance signal as in the subject model.

被写体モデルと部分領域とのヒストグラムの類似性を評価する演算方法として、Bhattacharyya係数を用いる。Bhattacharyya係数は、下記式により算出される。   A Bhattacharyya coefficient is used as a calculation method for evaluating the histogram similarity between the subject model and the partial region. The Bhattacharyya coefficient is calculated by the following formula.

部分領域304を探索範囲303の左上から順に1画素ずつずらしながら、Bhattacharyya係数D(x,y)を演算する。演算されたD(x,y)が最大値を示す座標(x,y)が最も類似した位置を示す。つまり、最大値を示す位置が探索画像において目的とする追跡対象が存在する可能性の高い位置となる。   The Bhattacharyya coefficient D (x, y) is calculated while shifting the partial area 304 one pixel at a time from the upper left of the search range 303. The coordinate (x, y) where the calculated D (x, y) has the maximum value indicates the most similar position. That is, the position showing the maximum value is a position where there is a high possibility that the target tracking target exists in the search image.

上述した説明では、特徴量として輝度信号の1次元の情報を用いる例を示したが、明度・色相・彩度の信号など3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてBhattacharyya係数に関して説明したが、ヒストグラムインタセクションなど異なる演算方法を用いても良い。   In the above description, an example in which one-dimensional information of a luminance signal is used as a feature amount has been described, but three-dimensional information such as a lightness / hue / saturation signal may be treated as a feature amount. Further, although the Bhattacharyya coefficient has been described as a method of calculating the matching evaluation value, a different calculation method such as a histogram intersection may be used.

ヒストグラムマッチング部202より出力される類似度の最大値に基づき、追跡状態判別部203において追跡の状態判別が行われる。追跡状態判別部203における追跡の状態と状態遷移に関して図4を用いて説明する。図4の401、402、403は追跡状態を示し、401は追跡対象が見つかっている状態、402は追跡対象のオクルージョンやフレームアウトにより追跡対象を一時的に見失っている状態、403は追跡を終了する状態を示す。追跡開始時は401の状態となり、ヒストグラムマッチング部202による類似度の最大値が所定の閾値よりも低ければ402の状態に遷移する。   Based on the maximum value of the similarity output from the histogram matching unit 202, the tracking state determination unit 203 performs tracking state determination. The tracking state and state transition in the tracking state determination unit 203 will be described with reference to FIG. 4, 401, 402, and 403 indicate the tracking state, 401 is a state in which the tracking target is found, 402 is a state in which the tracking target is temporarily lost due to occlusion or frame out of the tracking target, and 403 ends the tracking Indicates the state to be performed. When tracking starts, the state is 401. If the maximum value of similarity by the histogram matching unit 202 is lower than a predetermined threshold, the state transitions to state 402.

402の状態において、ヒストグラムマッチング部202による類似度の最大値が所定の閾値よりも高ければ401の状態に遷移する。402の状態において、402の経過時間が所定の時間以上であれば403の状態に遷移して追跡を終了する。追跡の状態とともにヒストグラムマッチング部202より出力される類似度の最大値を示す部分領域を制御部105、画像処理部106に供給する。制御部105、画像処理部106では、追跡状態が401の見つかっている状態であれば、被写体領域の情報を用いた制御や処理を行う。   In the state 402, if the maximum value of the similarity by the histogram matching unit 202 is higher than a predetermined threshold value, the state transitions to the state 401. In the state 402, if the elapsed time 402 is equal to or longer than a predetermined time, the state transitions to the state 403 and the tracking is finished. A partial area indicating the maximum value of similarity output from the histogram matching unit 202 together with the tracking state is supplied to the control unit 105 and the image processing unit 106. The control unit 105 and the image processing unit 106 perform control and processing using information on the subject area if the tracking state is a state where 401 is found.

ヒストグラムマッチング部202より出力される情報は、類似対象領域登録部204にも供給される。類似対象領域登録部204では、類似度の最大値だけではなく、上位複数の類似度と部分領域の位置情報を取得する。ヒストグラムマッチングでは、数式3に示したように評価尺度がヒストグラムの類似性であるため、テンプレートマッチングのような画素パターンの類似性よりも特徴が曖昧であり、被写体の見えの変化にロバストな一方で、類似対象と誤りを引き起こしやすい。   Information output from the histogram matching unit 202 is also supplied to the similar target region registration unit 204. The similar target area registration unit 204 acquires not only the maximum similarity value but also a plurality of similarities and position information of partial areas. In the histogram matching, since the evaluation scale is the similarity of the histogram as shown in Equation 3, the feature is more ambiguous than the similarity of the pixel pattern like the template matching, and it is robust to the change in the appearance of the subject. , Prone to errors with similar objects.

そこで、類似対象領域登録部204において、第1位の類似度を示す部分領域の位置と離れた位置に所定閾値以上の第2位以降の類似度を示す部分領域が存在した場合に、当領域を類似対象領域として登録する。次フレーム以降のヒストグラムマッチング部202の出力情報から、この類似対象として登録された領域を除外する。これにより、誤った領域を追跡してしまう問題の発生確率を低下させることができる。   Therefore, in the similar target area registration unit 204, when there is a partial area indicating the second or higher similarity that is equal to or greater than the predetermined threshold at a position away from the position of the partial area indicating the first similarity, this area Are registered as similar target areas. The region registered as a similar target is excluded from the output information of the histogram matching unit 202 from the next frame onward. Thereby, it is possible to reduce the probability of occurrence of a problem of tracking an erroneous area.

図5を用いて類似対象領域の登録に関して説明する。図5の横軸は類似度算出における部分領域の位置を示し、縦軸は算出された類似度を示す。501の波形がヒストグラムマッチング部202の演算結果となる。被写体追跡では、2次元画像を処理対象とするため、位置は2次元で表現されるが、説明簡易化のため図5は位置情報を1次元として表現している。502は類似度の最大値を示す。503は類似度が高いと判断する閾値を示す。503は固定値でもあっても、最大値502の相対値によって決定される値であってもよい。   Registration of the similar target area will be described with reference to FIG. The horizontal axis in FIG. 5 indicates the position of the partial region in the similarity calculation, and the vertical axis indicates the calculated similarity. The waveform 501 is the calculation result of the histogram matching unit 202. In subject tracking, since a two-dimensional image is a processing target, the position is expressed in two dimensions, but in order to simplify the explanation, FIG. 5 shows the position information as one dimension. Reference numeral 502 denotes the maximum value of similarity. Reference numeral 503 denotes a threshold value for determining that the similarity is high. 503 may be a fixed value or a value determined by a relative value of the maximum value 502.

最大値よりも離れた位置であって、類似度の高い504に示す範囲を類似対象領域として登録する。505の範囲では、類似度は高いが最大値を示す位置と近いので類似対象領域として登録しない。   A range indicated by reference numeral 504 having a high degree of similarity is registered as a similar target region at a position farther from the maximum value. In the range of 505, since the similarity is high but close to the position showing the maximum value, it is not registered as a similar target area.

類似対象領域登録部204により登録された情報は、所定の期間保持する。言い換えると、所定期間後は削除する。ただし、後述する条件に該当する場合は、この限りではない。追跡状態判別部203において、追跡対象を一時的に見失っている場合は、類似対象領域登録部204の登録情報を更新しない。つまり、追加登録や登録情報の削除を行わない。これは、誤った領域(追跡対象を示す領域)を類似対象領域として登録すること、登録情報の削除により、誤った領域(追跡対象とは異なる領域)を追跡対象として推定してしまうことを防ぐためである。   The information registered by the similar target area registration unit 204 is retained for a predetermined period. In other words, it is deleted after a predetermined period. However, this does not apply when the conditions described later are met. In the tracking state determination unit 203, when the tracking target is temporarily lost, the registration information of the similar target region registration unit 204 is not updated. That is, no additional registration or registration information is deleted. This prevents registration of an incorrect region (region indicating a tracking target) as a similar target region, and estimation of an erroneous region (region different from the tracking target) due to deletion of registration information. Because.

また、被写体追跡における追跡対象の位置と、類似対象領域として登録されている領域の位置が近い場合は、当該登録情報を削除する。これは、類似対象と判断していた領域とが追跡対象である可能性が高まったためである。また、画像全体が動いたか否かを判別する動き判別部(図示しない)を更に有し、動き判別部により画像全体が動いたと判別された場合は、類似対象領域として登録されている情報を削除する。   If the position of the tracking target in subject tracking is close to the position of the area registered as the similar target area, the registration information is deleted. This is because the possibility that the area determined to be a similar target is a tracking target has increased. In addition, a motion determination unit (not shown) for determining whether or not the entire image has moved is included. When the motion determination unit determines that the entire image has moved, information registered as a similar target region is deleted. To do.

これは画像全体が動いた場合は、保持している類似対象領域の信頼性が低下するためである。動き判別としては、画像全体のフレーム間差分に基づく方法や撮像装置のジャイロ信号に基づく方法など多種の方法やその組み合わせがある。   This is because when the entire image moves, the reliability of the similar target area that is held decreases. As the motion determination, there are various methods such as a method based on a difference between frames of the entire image, a method based on a gyro signal of an imaging device, and a combination thereof.

被写体追跡部110の処理の流れを図6のフローチャートを用いて説明する。まず、画像処理部106より画像が被写体追跡部110の入力画像として供給される(S601)。この入力画像と画像被写体指定部109の情報に基づき追跡対象の領域を決定する(S602)。その領域に基づき、ヒストグラム登録部201において、ヒストグラムマッチングの被写体モデルであるヒストグラムを登録する(S603)。   The processing flow of the subject tracking unit 110 will be described with reference to the flowchart of FIG. First, an image is supplied from the image processing unit 106 as an input image of the subject tracking unit 110 (S601). A tracking target area is determined based on the input image and information of the image subject specifying unit 109 (S602). Based on the region, the histogram registration unit 201 registers a histogram which is a subject model for histogram matching (S603).

次いで、画像処理部106より画像が被写体追跡部110の入力画像として供給される(S604)。S604の入力画像は被写体追跡部110の探索画像を示し、S601とS604の画像は時刻の異なる画像である。S604の画像に基づき、ヒストグラムマッチング部202において、類似度の算出を行う(S605)。算出された類似度において、類似対象領域登録部204に登録されている領域に属する位置は、ヒストグラムマッチング部202の出力情報から除外する(S606)。つまり、類似対象領域登録部204に登録されている位置が、類似度が最大値を示す位置となることはない。   Next, an image is supplied from the image processing unit 106 as an input image of the subject tracking unit 110 (S604). The input image of S604 indicates a search image of the subject tracking unit 110, and the images of S601 and S604 are images having different times. Based on the image of S604, the histogram matching unit 202 calculates the similarity (S605). In the calculated similarity, a position belonging to an area registered in the similarity target area registration unit 204 is excluded from the output information of the histogram matching unit 202 (S606). That is, the position registered in the similar target area registration unit 204 is not the position where the similarity is the maximum value.

次いで、追跡状態判別部203において現在の追跡状態やストグラムマッチング部202の出力情報である類似度の最大値から追跡状態を決定する(S607)。追跡状態や状態遷移の条件は上述した図4を用いた説明と同様とする。追跡状態において追跡対象が見つかっている状態(図4の401の状態)であれば(S608でYESと判定)、類似対象領域登録部204において、類似対象領域の登録判定を行う(S609)。第1位の類似度を示す部分領域の位置と離れた位置に所定閾値以上の第2位以降の類似度を示す部分領域が存在した場合に、当領域を類似対象領域として登録する。   Next, the tracking state determination unit 203 determines the tracking state from the current tracking state and the maximum value of the similarity that is the output information of the strut matching unit 202 (S607). The tracking state and state transition conditions are the same as those described with reference to FIG. If the tracking target is found in the tracking state (the state 401 in FIG. 4) (YES in S608), the similar target region registration unit 204 determines registration of the similar target region (S609). If there is a partial area that shows a second or higher similarity that is equal to or greater than a predetermined threshold at a position that is distant from the position of the partial area that shows the first similarity, this area is registered as a similarity target area.

次いで、登録されている類似対象領域の経過時間に基づく策上判定を行う(S610)。登録時に、領域情報とともに現在時刻を記憶しておき、経過時間が所定時間以上となれば、その登録領域を削除する。また、類似対象領域の追跡位置に基づく削除判定を行う(S611)。被写体追跡における追跡対象の位置と、類似対象領域として登録されている領域の位置が近い場合は、その登録情報を削除する。被写体追跡における追跡対象の位置とは、ヒストグラムマッチング部202による出力される類似度が最大となる位置を示す。また、類似対象領域の画像全体の動き判別に基づく削除判定を行う(S612)。   Next, a policy determination based on the elapsed time of the registered similar target area is performed (S610). At the time of registration, the current time is stored together with the area information, and if the elapsed time exceeds a predetermined time, the registered area is deleted. Further, deletion determination based on the tracking position of the similar target area is performed (S611). When the position of the tracking target in the subject tracking is close to the position of the area registered as the similar target area, the registration information is deleted. The position of the tracking target in the subject tracking indicates a position where the similarity output by the histogram matching unit 202 is maximized. In addition, deletion determination based on movement determination of the entire image of the similar target region is performed (S612).

所定の閾値以上の動きが検出されれば、類似対象領域の登録情報の全てを削除する。次いで、S604に戻り、逐次供給される画像に基づき繰り返し処理が実行される。追跡状態が追跡対象を一時的に見失っている状態(図4の402の状態)であれば(S608でNOと判定され、S613でYESと判定)、類似対象領域の画像全体の動き判別に基づく削除判定を行う(S612)。つまり、追跡対象が見つかっている状態(図4の401の状態)であれば、S609からS612の類似対象領域の更新処理を行い、追跡対象を一時的に見失っている状態(図4の402の状態)であれば、S612の類似対象領域の更新処理のみを行う。   If a motion equal to or greater than a predetermined threshold is detected, all the registration information of the similar target area is deleted. Next, the process returns to S604, and the iterative process is executed based on the sequentially supplied images. If the tracking state is a state in which the tracking target is temporarily lost (state 402 in FIG. 4) (NO in S608 and YES in S613), it is based on the motion determination of the entire image of the similar target region. Deletion determination is performed (S612). In other words, if the tracking target is found (the state 401 in FIG. 4), the similar target region update process from S609 to S612 is performed, and the tracking target is temporarily lost (see 402 in FIG. 4). State), only the update processing of the similar target area in S612 is performed.

類似対象領域の更新処理が完了すれば、S604に戻り、逐次供給される画像に基づき繰り返し処理が実行される。追跡状態が追跡処理を終了する状態(図4の403の状態)であれば(S608でNOと判定され、S613でNOと判定)、追跡処理を終了する。追跡処理を終了すれば、類似対象領域の登録情報は削除する。   When the similar target region update process is completed, the process returns to S604, and the iterative process is executed based on the sequentially supplied images. If the tracking state is a state in which the tracking process is finished (state of 403 in FIG. 4) (NO in S608, NO in S613), the tracking process is terminated. When the tracking process is finished, the registration information of the similar target area is deleted.

以上により、類似対象が存在する場合に誤って追跡してしまう頻度を軽減させ、被写体追跡の性能を向上させることができる。   As described above, the frequency of erroneous tracking when there is a similar target can be reduced, and the performance of subject tracking can be improved.

[他の実施形態]
上述した実施形態では撮像装置に被写体追跡装置を適用した場合を例示したが、被写体追跡装置を適用する機器は撮像装置に限定しない。例えば、外部機器や記録媒体などから供給される画像(再生データ)を表示する表示装置に被写体追跡を行う被写体追跡装置を適用してもよい。この表示装置では、再生データを被写体追跡処理のデータとし、被写体追跡処理が行われることとなる。この表示装置におけるマイクロコントローラなどの制御部は、被写体追跡処理により抽出された被写体の情報(画像中の被写体の位置、大きさなど)に基づいて、画像を表示する際の表示条件を制御する。
[Other Embodiments]
In the above-described embodiment, the case where the subject tracking device is applied to the imaging device is illustrated, but the device to which the subject tracking device is applied is not limited to the imaging device. For example, a subject tracking device that performs subject tracking may be applied to a display device that displays an image (reproduction data) supplied from an external device or a recording medium. In this display device, the reproduction data is used as subject tracking processing data, and subject tracking processing is performed. A control unit such as a microcontroller in the display device controls display conditions for displaying an image based on subject information (position, size, etc. of the subject in the image) extracted by subject tracking processing.

具体的には、画像中の被写体の位置に枠などの被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合いなどの制御を行う。また、上述した実施の形態における記述は、一例を示すものであり、これに限定するものではない。上述した実施の形態における構成及び動作に関しては、適宜変更が可能である。   Specifically, information indicating a subject such as a frame is superimposed on the position of the subject in the image, and the brightness and color of the display image are controlled according to the brightness and color information of the subject portion. Moreover, the description in embodiment mentioned above shows an example, and is not limited to this. The configuration and operation in the embodiment described above can be changed as appropriate.

上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。   The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、磁気記憶媒体、光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium, an optical / magneto-optical storage medium, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers.

つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。   That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention. In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer.

さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

100 撮像装置、101 撮像レンズ、102 撮像素子、
103 アナログ信号処理部、104 A/D変換部、105 制御部、
106 画像処理部、107 表示部、108 記憶媒体、109 被写体指定部、
110 被写体追跡部、201 ヒストグラム登録部、
202 ヒストグラムマッチング部、203 追跡状態判別部、
204 類似対象領域登録部
100 imaging device, 101 imaging lens, 102 imaging device,
103 analog signal processing unit, 104 A / D conversion unit, 105 control unit,
106 image processing unit, 107 display unit, 108 storage medium, 109 subject designation unit,
110 subject tracking unit, 201 histogram registration unit,
202 Histogram matching unit, 203 tracking state determination unit,
204 Similar target area registration section

Claims (9)

逐次供給される画像から目的とする被写体を追跡する被写体追跡装置であって、
前記画像から目的とする被写体を示す部分領域の画素値のヒストグラムを登録するヒストグラム登録手段と、
前記ヒストグラム登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域の画素値のヒストグラムと照合し、照合する部分領域を変化させ、照合による類似度が高い上位複数の類似度と部分領域の位置情報を出力するヒストグラムマッチング手段と、
前記ヒストグラムマッチング手段による第1位の類似度を示す部分領域の位置と離れた位置に所定閾値以上の第2位以降の類似度を示す部分領域が存在した場合に、当領域を類似対象領域として登録する類似対象領域登録手段を有し、
前記ヒストグラムマッチング手段は、出力する上位複数の類似度と部分領域の位置情報に、
前記類似対象領域登録手段により登録されている領域を含めないことを特徴とする被写体追跡装置。
A subject tracking device that tracks a target subject from sequentially supplied images,
A histogram registration means for registering a histogram of pixel values of a partial area indicating a target subject from the image;
The histogram registered by the histogram registration means is used to collate with a histogram of pixel values of the partial area of the supplied image, change the partial area to be collated, and a plurality of similarities and parts with high similarity by collation Histogram matching means for outputting position information of the area;
When there is a partial region indicating the second and subsequent similarities equal to or higher than a predetermined threshold at a position apart from the position of the partial region indicating the first similarities by the histogram matching means, this region is set as the similarity target region. It has similar target area registration means to register,
The histogram matching means outputs a plurality of upper similarities and partial area position information to be output.
An object tracking apparatus, wherein an area registered by the similar target area registration means is not included.
前記類似対象領域登録手段により登録された情報は、所定の期間保持することを特徴する請求項1に記載の被写体追跡装置。   The subject tracking device according to claim 1, wherein the information registered by the similar target region registration unit is held for a predetermined period. 被写体追跡において、追跡対象を見つけている状態と一時的に見失っている状態かを判別する追跡状態判別手段を更に有し、前記追跡状態判別手段において、追跡対象を一時的に見失っている場合は、前記類似対象領域登録手段の情報を更新しないことを特徴とする請求項2に記載の被写体追跡装置。   In tracking the subject, it further comprises a tracking state determining means for determining whether the tracking target is found and a state in which the tracking target is temporarily lost, and when the tracking target is temporarily lost in the tracking state determining means, The subject tracking device according to claim 2, wherein the information of the similar target area registration unit is not updated. 被写体追跡における追跡対象の位置と、前記類似対象領域登録手段により登録されている領域の位置が近い場合は、当該登録情報を削除することを特徴とする請求項2又は請求項3に記載の被写体追跡装置。   4. The subject according to claim 2, wherein the registration information is deleted when the location of the subject to be tracked in subject tracking is close to the location of the region registered by the similar target region registering unit. 5. Tracking device. 逐次供給される画像において、画像全体が動いたか否かを判別する動き判別手段を更に有し、前記動き判別手段により画像全体が動いたと判別された場合は、前記前記類似対象領域登録手段により登録されている情報を削除することを特徴とする請求項2乃至請求項4の何れか一項に記載の被写体追跡装置。   In the sequentially supplied images, the image processing apparatus further includes a motion determination unit that determines whether or not the entire image has moved. When the motion determination unit determines that the entire image has moved, registration is performed by the similarity target region registration unit. 5. The subject tracking apparatus according to claim 2, wherein the recorded information is deleted. 6. 撮像した画像を逐次供給する撮像手段と、
請求項1乃至請求項5の何れか一項に記載の被写体追跡装置と、
前記撮像手段が撮像する際の撮像条件を、前記被写体追跡装置が出力する被写体の情報に応じて制御する制御手段と、
を備えることを特徴とする撮像装置。
Imaging means for sequentially supplying captured images;
The subject tracking device according to any one of claims 1 to 5,
Control means for controlling imaging conditions when the imaging means captures images in accordance with subject information output by the subject tracking device;
An imaging apparatus comprising:
逐次供給される画像を表示する表示手段と、
請求項1乃至請求項5の何れか一項に記載の被写体追跡装置と、
前記表示手段が表示する表示条件を、前記被写体追跡装置が出力する被写体の情報に応じて制御する制御手段と、
を備えることを特徴とする表示装置。
Display means for displaying sequentially supplied images;
The subject tracking device according to any one of claims 1 to 5,
Control means for controlling display conditions displayed by the display means in accordance with subject information output by the subject tracking device;
A display device comprising:
逐次供給される画像から目的とする被写体を追跡する被写体追跡装置の制御方法であって、
前記画像から目的とする被写体を示す部分領域の画素値のヒストグラムを登録するヒストグラム登録工程と、
前記ヒストグラム登録工程により登録されたヒストグラムを用いて、供給された画像の部分領域の画素値のヒストグラムと照合し、照合する部分領域を変化させ、照合による類似度が高い上位複数の類似度と部分領域の位置情報を出力するヒストグラムマッチング工程と、
前記ヒストグラムマッチング工程による第1位の類似度を示す部分領域の位置と離れた位置に所定閾値以上の第2位以降の類似度を示す部分領域が存在した場合に、当領域を類似対象領域として登録する類似対象領域登録工程を有し、
前記ヒストグラムマッチング工程は、出力する上位複数の類似度と部分領域の位置情報に、
前記類似対象領域登録工程により登録されている領域を含めないことを特徴とする被写体追跡装置の制御方法。
A method of controlling a subject tracking device that tracks a target subject from sequentially supplied images,
A histogram registration step of registering a histogram of pixel values of a partial region indicating a target subject from the image;
Using the histogram registered in the histogram registration step, the pixel value histogram of the partial area of the supplied image is collated, the partial area to be collated is changed, and a plurality of similarities and parts having high similarity by collation are high A histogram matching step for outputting region position information;
When there is a partial area indicating the second and subsequent similarities equal to or higher than a predetermined threshold at a position away from the position of the partial area indicating the first similarities in the histogram matching step, this area is set as a similar target area. It has a similar target area registration process to register,
In the histogram matching step, the plurality of similarities to be output and the position information of the partial areas are
A method for controlling a subject tracking apparatus, wherein the region registered in the similar target region registration step is not included.
請求項8に記載の被写体追跡装置の制御方法の各工程をコンピュータに実行させるためのプログラム。 The program for making a computer perform each process of the control method of the to-be-photographed object tracking apparatus of Claim 8.
JP2014208508A 2014-10-10 2014-10-10 Subject tracking device, control method thereof, image-capturing device, display device, and program Pending JP2016081095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014208508A JP2016081095A (en) 2014-10-10 2014-10-10 Subject tracking device, control method thereof, image-capturing device, display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014208508A JP2016081095A (en) 2014-10-10 2014-10-10 Subject tracking device, control method thereof, image-capturing device, display device, and program

Publications (1)

Publication Number Publication Date
JP2016081095A true JP2016081095A (en) 2016-05-16

Family

ID=55956278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014208508A Pending JP2016081095A (en) 2014-10-10 2014-10-10 Subject tracking device, control method thereof, image-capturing device, display device, and program

Country Status (1)

Country Link
JP (1) JP2016081095A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2578191A (en) * 2018-10-14 2020-04-22 Adobe Inc Automatic and interactive animation driven by change-based heuristics
KR102294391B1 (en) * 2020-07-20 2021-08-25 영남대학교 산학협력단 Method for object detection and apparatus for executing the method
WO2022195837A1 (en) * 2021-03-19 2022-09-22 株式会社日立国際電気 Image analysis device, image analysis system, and image analysis method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2578191A (en) * 2018-10-14 2020-04-22 Adobe Inc Automatic and interactive animation driven by change-based heuristics
GB2578191B (en) * 2018-10-14 2021-03-10 Adobe Inc Automatic and interactive animation driven by change-based heuristics
AU2019216672B2 (en) * 2018-10-14 2021-09-16 Adobe Inc. Auto animate: interactive animation driven by change based heuristics
KR102294391B1 (en) * 2020-07-20 2021-08-25 영남대학교 산학협력단 Method for object detection and apparatus for executing the method
WO2022195837A1 (en) * 2021-03-19 2022-09-22 株式会社日立国際電気 Image analysis device, image analysis system, and image analysis method

Similar Documents

Publication Publication Date Title
JP5159515B2 (en) Image processing apparatus and control method thereof
JP5219795B2 (en) Subject tracking device, control method thereof, imaging device, display device, and program
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP6961797B2 (en) Methods and devices for blurring preview photos and storage media
JP5959923B2 (en) Detection device, control method thereof, control program, imaging device and display device
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
CN107707871B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US10270977B2 (en) Imaging apparatus and a method of tracking a subject in the imaging apparatus
JP2014128002A (en) Subject area tracking device and method therefor and program
JP6924064B2 (en) Image processing device and its control method, and image pickup device
JP5147670B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2013232060A (en) Image recognition device, control method and control program of the same, and imaging device and display device
JP2016081095A (en) Subject tracking device, control method thereof, image-capturing device, display device, and program
JP5167236B2 (en) Subject tracking device and control method thereof
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP5451364B2 (en) Subject tracking device and control method thereof
JP6555940B2 (en) Subject tracking device, imaging device, and method for controlling subject tracking device
JP2009009206A (en) Extraction method of outline inside image and image processor therefor
JP5222429B2 (en) Subject tracking device and control method thereof
JP7034781B2 (en) Image processing equipment, image processing methods, and programs
JP5247419B2 (en) Imaging apparatus and subject tracking method
JP2014044525A (en) Subject recognition device and control method thereof, imaging device, display device, and program
JP5323243B2 (en) Image processing apparatus and control method thereof