JP2011138226A - Object tracking device, method for controlling the same and program - Google Patents
Object tracking device, method for controlling the same and program Download PDFInfo
- Publication number
- JP2011138226A JP2011138226A JP2009296382A JP2009296382A JP2011138226A JP 2011138226 A JP2011138226 A JP 2011138226A JP 2009296382 A JP2009296382 A JP 2009296382A JP 2009296382 A JP2009296382 A JP 2009296382A JP 2011138226 A JP2011138226 A JP 2011138226A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- region
- bias
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、被写体追跡装置、被写体追跡装置の制御方法及びプログラムに関する。 The present invention relates to a subject tracking device, a method for controlling the subject tracking device, and a program.
時系列的に供給される画像から特定の被写体を抽出し、その抽出した被写体を追跡する技術は非常に有用であり、例えば、動画像における人間の顔領域や人体領域の特定に利用されている。このような技術は、例えば、通信会議、マン・マシン・インターフェース、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。 A technique for extracting a specific subject from an image supplied in time series and tracking the extracted subject is very useful. For example, it is used for specifying a human face region or a human body region in a moving image. . Such techniques can be used in many areas, for example, teleconferencing, man-machine interface, security, monitor systems for tracking any subject, image compression, etc.
また、デジタルスチルカメラやデジタルビデオカメラでは、タッチパネルなどを用いて指定された撮像画像に含まれる任意の被写体を抽出及び追跡して、かかる被写体に対する焦点状態や露出状態を最適化する技術が提案されている(特許文献1及び2参照)。例えば、特許文献1には、撮像画像に含まれる顔の位置を検出(抽出)及び追跡し、かかる顔に対して、焦点を合わせると共に最適な露出で撮像する撮像装置が開示されている。特許文献2には、テンプレートマッチングを用いて、特定の被写体を自動で追跡する技術が開示されている。ここで、テンプレートマッチングとは、特定の被写体(追跡対象)を含む画像領域を切り出した部分画像を基準画像(テンプレート画像)として登録し、基準画像と最も相関度が高い領域を画像内において推定し、特定の被写体を追跡する手法である。なお、テンプレートマッチングでは、タッチパネルなどの入力インタフェースを用いて画像に含まれる任意の領域を指定し、かかる領域を基準として基準画像が登録される。 For digital still cameras and digital video cameras, a technique for extracting and tracking an arbitrary subject included in a captured image specified by using a touch panel or the like and optimizing a focus state and an exposure state for the subject is proposed. (See Patent Documents 1 and 2). For example, Patent Document 1 discloses an imaging apparatus that detects (extracts) and tracks the position of a face included in a captured image, focuses the face, and captures an image with optimal exposure. Patent Document 2 discloses a technique for automatically tracking a specific subject using template matching. Here, template matching refers to registering a partial image obtained by cutting out an image area including a specific subject (tracking target) as a reference image (template image), and estimating an area having the highest correlation with the reference image in the image. This is a method of tracking a specific subject. In template matching, an arbitrary area included in an image is designated using an input interface such as a touch panel, and a reference image is registered using the area as a reference.
しかしながら、テンプレートマッチングでは、基準画像の登録の際に指定された領域が追跡対象の中心(重心)からずれていた場合に、背景などの追跡対象とは異なる画素が基準画像に含まれてしまう。このような基準画像を用いた場合、追跡対象とは異なる画素の影響によって、追跡対象ではなく、誤った領域を追跡してしまうことがある。 However, in template matching, when the region specified at the time of registration of the reference image is shifted from the center (center of gravity) of the tracking target, pixels different from the tracking target such as the background are included in the reference image. When such a reference image is used, an incorrect area may be tracked instead of the tracking target due to the influence of pixels different from the tracking target.
また、基準画像の登録の際に指定された領域が追跡対象の中心からずれていない場合であっても、追跡対象の時系列的な見え方が大きく変化していると、追跡対象の中心からずれた位置の領域を被写体領域として抽出してしまうことがある。特に、抽出される被写体領域に基づいて基準画像を逐次更新する場合には、追跡対象の中心からずれた位置の領域を被写体領域として抽出すると、追跡対象とは異なる画素が基準画像に含まれてしまうため、誤った領域を追跡してしまう可能性が高くなる。 In addition, even if the area specified when registering the reference image is not deviated from the center of the tracking target, if the time-series appearance of the tracking target has changed significantly, A region at a shifted position may be extracted as a subject region. In particular, when the reference image is sequentially updated based on the extracted subject area, if a region at a position shifted from the center of the tracking target is extracted as the subject area, pixels different from the tracking target are included in the reference image. Therefore, there is a high possibility that an erroneous area will be tracked.
そこで、本発明は、このような従来技術の課題に鑑みてなされ、被写体領域の追跡精度を向上させることができる新たな技術を提供することを例示的目的とする。 Therefore, the present invention has been made in view of the above-described problems of the conventional technique, and an object of the present invention is to provide a new technique capable of improving the tracking accuracy of the subject area.
上記目的を達成するために、本発明の一側面としての被写体追跡装置は、時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置であって、前記画像のうちn番目(nは自然数)に供給される画像から、当該画像に含まれる被写体を指定する指定手段と、前記被写体に対応する被写体領域を前記画像から抽出するための基準画像を登録する登録手段と、前記画像の、前記基準画像との相関度が最も高い領域を前記被写体領域として抽出する領域抽出手段と、前記n番目に供給される画像については前記指定手段によって指定された被写体を含む被写体領域に含まれる特徴画素を抽出し、前記画像のうちn+1番目以降に供給される画像については前記領域抽出手段によって抽出された前記被写体領域に含まれる特徴画素を抽出して、前記被写体領域における前記特徴画素の分布の偏りを検出する偏り検出手段と、前記偏り検出手段によって検出された前記被写体領域における前記特徴画素の分布の偏りが小さくなるように、前記被写体領域の位置を補正する補正手段と、を有し、前記偏り検出手段は、前記n番目に供給される画像における前記特徴画素の分布の偏りを検出する際よりも、前記n+1番目以降に供給される画像における前記特徴画素の分布の偏りを検出する際において、前記特徴画素の分布の偏りを判定する基準を緩く設定することを特徴とする。 In order to achieve the above object, a subject tracking device according to one aspect of the present invention is a subject tracking device that tracks a subject included in images sequentially supplied in time series, and is an nth ( n is a natural number), a designation unit that designates a subject included in the image, a registration unit that registers a reference image for extracting a subject area corresponding to the subject from the image, and the image A region extracting unit that extracts a region having the highest degree of correlation with the reference image as the subject region, and the n-th supplied image is included in the subject region including the subject specified by the specifying unit. Feature pixels are extracted, and the feature pixels included in the subject region extracted by the region extraction unit are extracted for the images supplied after the (n + 1) th of the images. A bias detection unit that detects a bias in the distribution of the feature pixels in the subject region, and the subject region so that the bias in the distribution of the feature pixels in the subject region detected by the bias detection unit is reduced. Correction means for correcting the position of the image, and the deviation detection means is supplied after the (n + 1) th as compared to when detecting the deviation of the distribution of the feature pixels in the nth supplied image. In detecting the deviation of the distribution of the feature pixels in the image, a criterion for determining the deviation of the distribution of the feature pixels is set loosely.
本発明の更なる目的又はその他の側面は、以下、添付図面を参照して説明される好ましい実施形態によって明らかにされるであろう。 Further objects and other aspects of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.
本発明によれば、例えば、被写体領域の追跡精度を向上させる新たな技術を提供することができる。 According to the present invention, for example, a new technique for improving the tracking accuracy of the subject area can be provided.
以下、添付図面を参照して、本発明の好適な実施の形態について説明する。なお、各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. In addition, in each figure, the same reference number is attached | subjected about the same member and the overlapping description is abbreviate | omitted.
図1は、撮像装置100の構成を示す概略ブロック図である。撮像装置100は、本実施形態では、被写体の画像を撮像するデジタルカメラとして具現化される。また、撮像装置100は、時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置としても機能する。撮像光学系101と、撮像素子102と、アナログ信号処理部103と、A/D変換部104と、制御部105と、画像処理部106と、表示部107と、記録部108と、被写体指定部109と、被写体追跡部110とを有する。
FIG. 1 is a schematic block diagram illustrating a configuration of the
図1を参照するに、被写体の像を表す光は、撮像光学系101によって集光され、CCDイメージセンサやCMOSイメージセンサなどで構成された撮像素子102に入射する。撮像素子102は、入射する光の強度に応じた電気信号を画素単位で出力する(即ち、撮像光学系101によって形成された被写体の像を光電変換する)。ここで、撮像素子102から出力される電気信号は、撮像素子102で撮像された被写体の像を示すアナログの画像信号である。
Referring to FIG. 1, light representing an image of a subject is collected by an imaging
撮像素子102から出力された画像信号は、アナログ信号処理部103において、相関二重サンプリング(CDS)などのアナログ信号処理が施される。アナログ信号処理部103から出力された画像信号は、A/D変換部104において、デジタル形式に変換され、制御部105及び画像処理部106に入力される。
The analog
制御部105は、CPU(Central Processing Unit)やマイクロコントローラなどで構成され、撮像装置100の動作を制御する。具体的には、制御部105は、ROM(Read Only Memory)に記憶されたプログラムコードをRAM(Random Access Memory)の作業領域に展開して順次実行することで、撮像装置100の各部を制御する。
The
制御部105は、例えば、画像を撮像する際の焦点状態や露出状態などを含む撮像条件を制御する。具体的には、制御部105は、A/D変換部104から出力される画像信号に基づいて、焦点調整機構や露出調整機構を制御する。なお、焦点調整機構は、撮像光学系101に含まれるレンズを光軸方向に駆動するアクチュエータなどを含み、露出調整機構は、撮像光学系101に含まれる絞りやシャッタなどを駆動するアクチュエータなどを含む。なお、制御部105は、焦点調整機構や露出調整機構を制御する際に、後述する被写体追跡部110による被写体の追跡の結果(被写体領域の情報)を用いることができる。具体的には、制御部105は、被写体領域のコントラスト値を用いた焦点制御や被写体領域の輝度値を用いた露出制御を行う。これにより、撮像装置100は、画像に含まれる特定の被写体(被写体領域)を考慮した撮像処理を行うことができる。また、制御部105は、撮像素子102の読み出し制御(撮像素子102の出力タイミングや出力画素などの制御)も行う。
For example, the
画像処理部106は、A/D変換部104から入力されたデジタル形式の画像信号に対して、ガンマ補正やホワイトバランス処理などの画像処理を施す。なお、画像処理部106は、通常の画像処理に加えて、後述する被写体追跡部110から供給される被写体領域に関する情報を用いた画像処理を施す機能も有する。
The
画像処理部106から出力された画像信号は、表示部107に入力される。表示部107は、例えば、LCDや有機ELディスプレイで構成され、画像処理部106から入力される画像信号に対応する画像を表示する。撮像装置100においては、撮像素子102で時系列的に順次撮像される画像(画像信号に対応する画像)を表示部107に順次表示させることによって、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、表示部107は、被写体追跡部110によって追跡している被写体を含む被写体領域の位置なども表示する。
The image signal output from the
画像処理部106から出力された画像信号は、記録部108にも入力される。記録部108は、画像処理部106からの画像信号を、例えば、磁気テープ、光ディスク、メモリカードなどの記録媒体に記録する。なお、画像信号を記録する記録媒体は、撮像装置100に内蔵された記録媒体であってもよいし、通信インタフェースを介して通信可能に接続された外部の記録媒体であってもよい。
The image signal output from the
被写体指定部109は、例えば、タッチパネルやボタンなどを含む入力インタフェースである。ユーザ(撮像者)は、被写体指定部109を介して、画像に含まれる任意の被写体を追跡対象に指定することが可能である。
The
被写体追跡部110は、画像処理部106から時系列的に順次供給される(即ち、撮像された時刻の異なる)画像(画像信号)に含まれる被写体を追跡する。被写体追跡部110は、テンプレートマッチングを用いて、被写体指定部109によって指定された被写体を追跡する。被写体追跡部110は、本実施形態では、登録部111と、取得部112と、領域抽出部113と、偏り検出部114と、補正部115とを含む。
The
登録部111は、画像処理部106から時系列的に順次供給される画像から追跡対象の被写体に対応する被写体領域を抽出するための部分領域を基準画像として登録する。具体的には、登録部111は、被写体追跡の開始時では、被写体指定部109によって指定された被写体に対応する領域(又は、補正部115によって位置が補正された領域)を基準画像として登録する。また、登録部111は、被写体追跡の継続時では、領域抽出部113で抽出された領域に基づいて、基準画像を順次更新する。但し、登録部111は、時系列的に順次供給される画像に含まれる被写体の見え方の変化を考慮しない場合には、基準画像を更新せずに、被写体追跡の開始時に登録した基準画像を維持してもよい。
The
取得部112は、画像処理部106から時系列的に順次供給される画像から、かかる画像に含まれる画素の画素値の情報を取得する。取得部112は、例えば、画素を特徴づける画素値の情報として、色相(H)、彩度(S)及び明度(V)のHSV表現で表されるHSV画像における色相、彩度及び明度の少なくともいずれか1つを取得し、本実施形態では、色相及び彩度を取得する。このように、画素値の情報として、被写体を照明する光の影響を受けやすい明度を除いた色情報を取得することによって、かかる画素値の情報は、被写体の見え方の変化に対して頑健となる。
The
具体的には、取得部112は、被写体追跡の開始時では、被写体指定部109によって指定された被写体に対応する領域(被写体領域)に含まれる画素のそれぞれの彩度及び色相を取得する。また、取得部112は、被写体追跡の継続時では、領域抽出部113によって抽出された被写体領域に含まれる画素のそれぞれの彩度及び色相を取得する。
Specifically, the
領域抽出部113は、画像処理部106から時系列的に順次供給される画像において、登録部111によって登録された基準画像との相関度が最も高い領域を被写体領域として抽出する。具体的には、領域抽出部113は、画像処理部106から時系列的に順次供給される画像において、基準画像に対応する大きさの部分領域を設定し、かかる部分領域の画像と基準画像との相関度を求める。相関度としては、例えば、部分領域の画像の各画素と基準画像の各画素との差分和を用いることが可能であり、差分和の値が小さいほど相関度が高いことを表す。領域抽出部113は、相関度を求める部分領域の位置を2次元空間的に順次画素単位でずらしながら相関度を求めることによって、相関度が最も高い領域を抽出することができる。但し、2つの画像の相関度を求める方法は、上述した方法に限定するもではなく、当業界で周知の様々な方法を適用することができる。なお、被写体追跡の開始時には、被写体指定部109によって指定された被写体に対応する領域が基準画像として登録されているため、領域抽出部113は、被写体指定部109によって指定された被写体に対応する領域を被写体領域として抽出する。
The
偏り検出部114は、領域抽出部113によって抽出された被写体領域に含まれる被写体の偏りを検出する。具体的には、偏り検出部114は、領域抽出部113によって抽出された被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類し、かかる種類ごとのヒストグラムを生成する。そして、偏り検出部114は、生成したヒストグラムにおいて頻度が最も高い種類に分類された画素を特徴画素として抽出して、被写体領域における特徴画素の分布の偏りを被写体の偏りとして検出する。
The
補正部115は、偏り検出部114によって検出された被写体領域における被写体の偏り(即ち、被写体領域における特徴画素の分布の偏り)が小さくなるように、被写体領域の位置を補正する。
The
図2を参照して、偏り検出部114の詳細な構成及び動作を説明する。図2は、偏り検出部114の構成を示す概略ブロック図である。偏り検出部114は、図2に示すように、分割部201と、画素検出部202と、偏り判定部203と、設定部204とを含む。
With reference to FIG. 2, the detailed configuration and operation of the
分割部201は、領域抽出部113によって抽出された被写体領域を分割(等分)する。分割部201は、被写体領域を2つの領域に等分する1つ以上の直線を設定して、被写体領域を少なくとも2つの分割領域に分割する。分割部201は、本実施形態では、被写体領域に対して、被写体領域の中心を通過する対称軸を垂直方向及び水平方向のそれぞれに設定して、被写体領域を4つの分割領域に分割する。
The dividing
画素検出部202は、被写体領域に含まれる画素を、その画素の彩度及び色相で複数の種類に分類してヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。そして、画素検出部202は、分割部201によって分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数を検出する。なお、被写体領域に含まれる画素を複数の種類に分類する際の種類の数は、設定部204によって設定される。
The
偏り判定部203は、分割部201によって分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上である場合に、被写体領域に含まれる特徴画素の分布が偏っていると判定する。なお、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値(特徴画素の数の差)は、設定部204によって設定される。
When the difference in the number of characteristic pixels included in each of the divided areas of the subject area divided by the dividing
また、偏り判定部203は、被写体領域に含まれる特徴画素の分布が偏っていると判定した場合に、被写体領域に含まれる特徴画素の分布の偏り方向及び偏り量を求める。具体的には、偏り判定部203は、分割部201によって分割された被写体領域の分割領域のうち特徴画素の数が多い領域の方向を、特徴画素の分布の偏り方向とする。また、偏り判定部203は、分割部201によって分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数の差に対応する量を、特徴画素の分布の偏り量とする。従って、特徴画素の分布の水平方向の偏り量は、垂直方向の対称軸によって分割された2つの分割領域のそれぞれに含まれる特徴画素の差に対応して求められる。同様に、特徴画素の垂直方向の偏り量は、水平方向の対称軸によって分割された2つの分割領域のそれぞれに含まれる特徴画素の差に対応して求められる。
In addition, when it is determined that the distribution of the feature pixels included in the subject area is biased, the
設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数(分類条件)、及び、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値(判定条件)を設定する。但し、設定部204は、登録部111が被写体指定部109によって指定された被写体に対応する被写体領域を基準画像として登録する場合と、領域抽出部113により抽出された領域を基準画像として登録する場合とで、分類条件及び判定条件を変更する。換言すれば、分類条件及び判定条件は、被写体追跡の開始時(被写体追跡部110にn番目(nは自然数)に供給される画像)と継続時(被写体追跡部110にn+1番目以降に供給される画像)とで、変更される。
The
図3は、設定部204で設定される分類条件を説明するための図であって、図3(a)は、被写体追跡の開始時に設定される分類条件を示し、図3(b)は、被写体追跡の継続時に設定される分類条件を示している。図3(a)及び図3(b)に示すように、分類条件は、本実施形態では、色相及び彩度によって定義される特徴空間である。図3(a)に示す分類条件では、彩度及び色相に応じて、被写体領域に含まれる画素が15種類に分類され、図3(b)に示す分類条件では、彩度及び色相に応じて、被写体領域に含まれる画素が7種類に分類される。なお、図3(a)及び図3(b)では、頻度が最も高い種類(即ち、画素が最も多く分類された種類)が斜線で示されており、かかる種類に分類された画素が特徴画素として抽出される。
FIG. 3 is a diagram for explaining the classification conditions set by the
上述したように、画像における追跡対象の被写体の見え方は、被写体の動きや環境などによって時系列的に変化する。従って、被写体追跡の継続時(登録部111が領域抽出部113により抽出された領域を基準画像として登録する場合)には、追跡対象の被写体の見え方の変化を考慮する必要がある。一方、被写体追跡の開始時(登録部111が被写体指定部109によって指定された被写体に対応する被写体領域を基準画像として登録する場合)には、追跡対象の被写体の見え方は同じであるため、追跡対象の被写体の見え方の変化を考慮する必要がない。
As described above, the appearance of the subject to be tracked in the image changes in time series depending on the movement of the subject and the environment. Therefore, when subject tracking is continued (when the
そこで、本実施形態では、図3(a)及び図3(b)に示したように、被写体追跡の開始時での被写体領域に含まれる画素を分類する種類の数よりも、被写体追跡の継続時での被写体領域に含まれる画素を分類する種類の数が少なくなるように分類条件を設定する。これにより、被写体追跡の継続時は、被写体を照明する光の強度の変化に起因して被写体の色相及び彩度の見え方が若干変化したとしても、その被写体の色相及び彩度の分類の種類が変わったとみなしてしまうことを抑制することができる。 Therefore, in the present embodiment, as shown in FIGS. 3A and 3B, the subject tracking is continued rather than the number of types for classifying the pixels included in the subject region at the start of subject tracking. The classification condition is set so that the number of types for classifying the pixels included in the subject area at the time decreases. Thus, when subject tracking is continued, even if the subject's hue and saturation look slightly changed due to changes in the intensity of light that illuminates the subject, the type of classification of the subject's hue and saturation Can be considered to have changed.
また、被写体追跡の開始時では、被写体領域に含まれる特徴画素の分布が偏っているかどうかの判定がされる画像と、基準画像として登録された部分領域を含む画像とは、同じ画像である。一方、被写体追跡の継続時では、被写体領域に含まれる特徴画素の分布が偏っているかどうかの判定がされる画像と、基準画像として登録された部分領域を含む画像とは、異なる画像である。従って、被写体追跡の開始時と継続時では、基準画像との相関度が最も高い被写体領域から抽出される特徴画素の信頼性が異なる。具体的には、被写体追跡の継続時において被写体領域から抽出される特徴画素の信頼性は、被写体追跡の開始時において被写体領域から抽出される特徴画素の信頼性よりも低い。 At the start of subject tracking, the image for which it is determined whether or not the distribution of the feature pixels included in the subject region is biased and the image including the partial region registered as the reference image are the same image. On the other hand, when subject tracking is continued, an image for which it is determined whether or not the distribution of feature pixels included in the subject region is biased is different from an image including a partial region registered as a reference image. Therefore, the reliability of the feature pixels extracted from the subject region having the highest degree of correlation with the reference image differs between the start and the continuation of subject tracking. Specifically, the reliability of feature pixels extracted from the subject area when subject tracking is continued is lower than the reliability of feature pixels extracted from the subject region at the start of subject tracking.
そこで、本実施形態では、被写体追跡の開始時における特徴画素の分布が偏っているかどうかを判定する際の閾値よりも、被写体追跡の継続時における特徴画素の分布が偏っているかどうかを判定する際の閾値が大きくなるように判定条件を設定する。このように、被写体追跡の継続時は、被写体追跡の開始時よりも特徴画素の信頼性が低いため、特徴画素の分布が偏っていると判定されにくくすることで、特徴画素の分布が偏っていると誤って判定してしまう可能性を抑えるようにしている。 Therefore, in this embodiment, when determining whether or not the distribution of feature pixels is biased when the subject tracking is continued, rather than the threshold value when determining whether or not the distribution of feature pixels is biased at the start of subject tracking. The determination condition is set so that the threshold value of. As described above, when the subject tracking is continued, the reliability of the feature pixels is lower than when the subject tracking is started. Therefore, it is difficult to determine that the distribution of the feature pixels is biased. I try to suppress the possibility of making a mistaken determination.
ここで、図4及び図5を参照して、撮像装置100における被写体追跡処理を説明する。被写体追跡処理は、時系列的に順次供給される画像に含まれる被写体を追跡する処理である。図4に示すS402乃至S420の処理は、被写体追跡部110で行われる。例えば、S404及びS416は取得部112による処理、S406及びS418は偏り検出部114による処理、S408及びS420は補正部115による処理、S410は登録部111による処理、S414は領域抽出部113による処理である。
Here, the subject tracking process in the
また、図5において、501、505及び509は、被写体追跡部110(取得部112)に入力される画像(被写体領域の位置を補正する前の画像)である。画像501の点線で囲まれた領域は、被写体指定部109によって指定された被写体に対応する被写体領域であり、画像505及び509の点線で囲まれた領域は、領域抽出部113によって抽出された被写体領域である。502、506及び510は、被写体領域に含まれる画素のうち、特徴画素を白色、特徴画素ではない画素を黒色で表現した2値化画像である。503、507及び511は、補正部115によって被写体領域の位置が補正された画像(被写体領域の位置を補正した後の画像)である。画像503、507及び511の点線で囲まれた領域は、補正部115によって位置が補正された被写体領域(即ち、被写体追跡部110の被写体の追跡結果)である。504、508及び512は、被写体領域の位置を補正した後の画像503、507及び511に基づいて、登録部111によって登録される基準画像である。
In FIG. 5, 501, 505, and 509 are images (images before the position of the subject area is corrected) input to the subject tracking unit 110 (acquisition unit 112). A region surrounded by a dotted line in the
図4を参照するに、S402では、被写体追跡部110は、撮像素子102から1番目に出力される画像(画像信号)を入力画像(図5の画像501)として読み込む。ここで、撮像素子102から1番目に出力される画像とは、撮像装置100における被写体追跡処理が開始されてから1番目に出力される画像であって、撮像装置100における撮像処理が開始されてから1番目に出力される画像ではない。
Referring to FIG. 4, in S402, the
次いで、S404では、取得部112は、S402において読み込んだ画像の、被写体指定部109によって指定された被写体に対応する被写体領域(例えば、図5の画像501の点線で囲まれた領域)に含まれる画素のそれぞれの彩度及び色相を取得する。
Next, in S404, the
次に、S406では、偏り検出部114は、被写体指定部109によって指定された被写体に対応する被写体領域における特徴画素の分布の偏りを検出する。具体的には、上述したように、図3(a)に示すような分類条件を用いて、被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類して種類ごとのヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。これにより、例えば、図5の2値化画像502が得られる。そして、被写体領域、即ち、2値化画像502を水平方向及び垂直方向のそれぞれに等分した4つの分割領域のそれぞれに含まれる特徴画素の数を求め、2つの分割領域に含まれる特徴画素の数の差と閾値とを比較して、特徴画素の分布の偏りを検出する。図5の2値化画像502では、被写体指定部109によって指定された被写体に対応する被写体領域における特徴画素の分布は、紙面右下方向(即ち、垂直方向に関しては下方向、水平方向に関しては右方向)に偏っていると検出される。
In step S <b> 406, the
次いで、S408では、補正部115は、S406において検出された特徴画素の分布の偏りが小さくなるように、被写体領域の位置を補正する。これにより、図5の画像503の点線で囲まれた領域が示すように、被写体領域の位置は紙面右下方向に補正される。なお、図5の画像503の点線で囲まれた領域(被写体領域)は、被写体追跡部110による被写体の追跡の結果であるとも言える。また、S406において被写体領域における特徴画素の分布の偏りが検出されなかった場合には、被写体領域の位置を補正しないことは言うまでもない。
Next, in S408, the
次に、S410では、登録部111は、S408において位置が補正された被写体領域に含まれる画像を、基準画像として登録する。これにより、図5の基準画像504が登録される。
Next, in S410, the
次いで、S412では、被写体追跡部110は、撮像素子102から2番目に出力される画像を入力画像(図5の画像505)として読み込む。
In step S412, the
次に、S414では、領域抽出部113は、S412において読み込まれた画像の、S410において登録された基準画像との相関度が最も高い領域を被写体領域として抽出する。具体的には、上述したように、S412において読み込んだ入力画像において、S410において登録された基準画像に対応する大きさの部分領域を2次元空間的に画素単位でずらしながら設定して、かかる部分領域の画像と基準画像との相関度を求める。これにより、基準画像との相関度が最も高い領域を抽出することが可能となり、例えば、図5の画像505の点線で囲まれた領域に示すように、被写体領域が抽出される。
Next, in S414, the
次いで、S416では、取得部112は、S412において読み込んだ画像の、S414において抽出された被写体領域(図5の画像505の点線で囲まれた領域)に含まれる画素のそれぞれの彩度及び色相を取得する。
Next, in S416, the
次に、S418では、偏り検出部114は、S414において抽出された被写体領域における特徴画素の分布の偏りを検出する。具体的には、上述したように、図3(b)に示すような分類条件を用いて、被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類して種類ごとのヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。これにより、例えば、図5の2値化画像506が得られる。そして、被写体領域、即ち、2値化画像506を水平方向及び垂直方向のそれぞれに等分した4つの分割領域のそれぞれに含まれる特徴画素の数を求め、2つの分割領域に含まれる特徴画素の数の差と閾値とを比較して、特徴画素の分布の偏りを検出する。図5の2値化画像506では、S414において抽出された被写体領域における特徴画素の分布は、偏っていないと検出される。
Next, in S418, the
次いで、S420では、補正部115は、S418において検出された特徴画素の分布の偏りが小さくなるように、被写体領域の位置を補正する。なお、図5の画像507の点線で囲まれた領域が示すように、S418において被写体領域における特徴画素の分布の偏りが検出されなかった場合には、被写体領域の位置を補正しないことは言うまでもない。
Next, in S420, the
S420において被写体領域の位置が補正されたら、被写体追跡処理はS410に移行し、S410以降の処理が繰り返される。具体的には、図5の画像507の点線で囲まれた領域に含まれる画像を基準画像508として登録し(S410)、撮像素子102から3番目に出力される画像を入力画像(図5の画像509)として読み込む(S412)。そして、図5の画像509の、基準画像508との相関度が最も高い領域を被写体領域(図5の画像509の点線で囲まれた領域)として抽出し(S414)、かかる被写体領域に含まれる画素のそれぞれの彩度及び色相を取得する(S416)。また、図5の画像509の点線で囲まれた被写体領域に含まれる特徴画素を抽出し(図5の2値化画像510)、かかる被写体領域における特徴画素の分布の偏りを検出する(S418)。図5の2値化画像510では、被写体領域における特徴画素の分布は、紙面左方向(即ち、垂直方向に関しては偏りがなく、水平方向に関しては左方向)に偏っていると検出される。そして、図5の画像511の点線で囲まれた領域に示すように、被写体領域の位置を紙面左方向に補正し(S420)、図5の画像511の点線で囲まれた領域に含まれる画像を基準画像512として登録する(S410)。
When the position of the subject area is corrected in S420, the subject tracking process moves to S410, and the processes after S410 are repeated. Specifically, an image included in a region surrounded by a dotted line in the
ここで、図6を参照して、S406及びS418の処理を詳細に説明する。S602では、設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数(分類条件)、及び、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値(判定条件)を設定する。上述したように、被写体追跡の開始時と継続時では、分類条件及び判定条件を変更する必要がある。従って、設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数に関しては、S406の処理においては第1の数を設定し(図3(a))、S418の処理においては、第1の数よりも少ない第2の数を設定する(図3(b))。また、設定部204は、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値に関しては、S406の処理においては第1の閾値を設定し、S418の処理においては第1の閾値よりも大きい第2の閾値を設定する。
Here, with reference to FIG. 6, the processing of S406 and S418 will be described in detail. In step S <b> 602, the
次いで、S604では、分割部201は、被写体領域を分割する。例えば、分割部201は、被写体領域に対して、被写体領域を2つの領域に等分する直線を垂直方向及び水平方向のそれぞれに設定して、被写体領域を4つの分割領域に分割する。
Next, in S604, the dividing
次に、S606では、画素検出部202は、被写体領域に含まれる画素を、その画素の彩度及び色相で複数の種類に分類してヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。ここで、被写体領域に含まれる画素を複数の種類に分類する際の種類の数(分類条件)は、S602において設定されている。被写体追跡の開始時には、画像に含まれる追跡対象の被写体とその他(背景など)との分離精度を向上させるために、画素を複数の種類に分類する際の種類の数が多く設定されている(図3(a))。一方、被写体追跡の継続時には、追跡対象の被写体の見え方の変化に対して頑健にするために、画素を複数の種類に分類する際の種類の数が少なく設定されている(図3(b))。
Next, in S606, the
次いで、S608では、画素検出部202は、S606で抽出した特徴画素に基づいて、S604において分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数を検出する。
Next, in S608, the
次に、S610では、偏り判定部203は、S604において分割された被写体領域の分割領域のうち、水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上であるかどうかを判定する。
Next, in S610, the
水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上である場合には、S612において、偏り判定部203は、被写体領域における特徴画素の分布が垂直方向に偏っていると判定する。この際、偏り判定部203は、水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差に基づいて、その偏り方向(上方向に偏っているのか下方向に偏っているのか)及び偏り量を求める。一方、水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上でない場合には、S614において、偏り判定部203は、被写体領域における特徴画素の分布が垂直方向に偏っていないと判定する。例えば、図5に示す2値化画像502では、特徴画素の分布が垂直方向に偏っていると判定され、図5に示す2値化画像506及び510では、特徴画素の分布が垂直方向に偏っていないと判定される。
When the difference in the number of feature pixels included in each of the two divided regions divided by the horizontal straight line is equal to or greater than the threshold value, in S612, the
なお、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値は、S602において設定されている。被写体追跡の開始時には、特徴画素の分布が偏っていると判定されやすくするために、閾値が低く設定されている。一方、被写体追跡の継続時には、特徴画素の分布が偏っていると判定されにくくするために、閾値が高く設定されている。 Note that a threshold for determining whether the distribution of the feature pixels included in the subject area is biased is set in S602. At the start of subject tracking, the threshold value is set low in order to easily determine that the distribution of feature pixels is biased. On the other hand, when subject tracking is continued, the threshold value is set high in order to make it difficult to determine that the distribution of feature pixels is biased.
S616では、偏り判定部203は、S604において分割された被写体領域の分割領域のうち、垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上であるかどうかを判定する。
In S616, the
垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上である場合には、S618において、偏り判定部203は、被写体領域における特徴画素の分布が水平方向に偏っていると判定する。この際、偏り判定部203は、垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差に基づいて、その偏り方向(左方向に偏っているのか右方向に偏っているのか)及び偏り量を求める。一方、垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上でない場合には、S618において、偏り判定部203は、被写体領域における特徴画素の分布が水平方向に偏っていないと判定する。例えば、図5に示す2値化画像502及び510では、特徴画素の分布が水平方向に偏っていると判定され、図5に示す2値化画像506では、特徴画素の分布が水平方向に偏っていないと判定される。
If the difference in the number of feature pixels included in each of the two divided regions divided by the straight line in the vertical direction is equal to or greater than the threshold value, in S618, the
なお、上述した被写体追跡処理では、被写体領域における特徴画素の分布の偏りが検出された場合に、被写体領域の位置を1度だけ補正している。但し、補正部115によって位置が補正された被写体領域における特徴画素の分布の偏りを更に検出し、特徴画素の分布の偏りが検出された場合には、被写体領域の位置を更に補正してもよい。換言すれば、被写体領域における特徴画素の分布の偏りが検出されなくなるまで、偏り検出部114による処理及び補正部115による処理を繰り返してもよい。また、補正部115によって位置が補正された被写体領域に含まれる特徴画素の数が、位置が補正される前の被写体領域に含まれる特徴画素の数より小さい場合には、被写体領域の位置を補正しないようにしてもよい。更に、このような2つの処理は、被写体追跡の開始時と継続時とで切り替えてもよい。具体的には、被写体追跡の開始時には、被写体領域から抽出される特徴画素の信頼性が高いため、特徴画素の分布の偏りがなくなるまで、偏り検出部114による処理及び補正部115による処理を繰り返す。一方、被写体追跡の継続時には、被写体領域から抽出される特徴画素の信頼性が低いため、位置が補正された被写体領域に含まれる特徴画素の数が、位置が補正される前の被写体領域に含まれる特徴画素の数より小さい場合には、被写体領域の位置を補正しない。
In the subject tracking process described above, the position of the subject region is corrected only once when a deviation in the distribution of feature pixels in the subject region is detected. However, if the deviation of the distribution of feature pixels in the subject area whose position has been corrected by the
このように、本実施形態の撮像装置100では、被写体指定部109によって指定された被写体領域又は領域抽出部113によって抽出された被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類してヒストグラムを生成する。そして、頻度が最も高い種類に分類された画素を特徴画素として抽出し、被写体領域における特徴画素の分布の偏りが小さくなるように、被写体領域の位置を補正する。この際、被写体追跡の開始時では、被写体領域に含まれる画素を複数の種類に分類する際の種類の数を多くすると共に、特徴画素の分布が偏っているかどうかを判定する際の閾値を低くしている。また、被写体追跡の継続時では、被写体領域に含まれる画素を複数の種類に分類する際の種類の数を少なくすると共に、特徴画素の分布が偏っているかどうかを判定する際の閾値を高くしている。これにより、被写体追跡の開始時では、追跡対象の中心からずれた領域を指定した場合であっても、追跡対象が中心となるように(特徴画素の分布の偏りが小さくなるように)被写体領域の位置を補正して、追跡対象を良好に追跡することができる。また、被写体追跡の継続時では、追跡対象の見え方が変化した場合であっても、かかる変化に頑健な条件で特徴画素の抽出及び特徴画素の分布に偏りがあるかどうかの判定を行っているため、追跡対象を良好に追跡することができる。
As described above, in the
なお、本実施形態では、設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数及び被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値について、被写体追跡の開始時と継続時とで異なる値を設定している。但し、設定部204は、これらのいずれか一方のみを、被写体追跡の開始時と継続時とで異なる値に設定するようにしてもよい。設定部204は、被写体追跡の開始時よりも、被写体追跡の継続時の方が、特徴画素の分布の偏りを判定する基準が緩くなるような条件を設定するのであれば、上述した条件以外について被写体追跡の開始時と継続時とで別々の設定を行うようにしてもよい。
In the present embodiment, the
また、偏り判定部203は、被写体領域を水平方向及び垂直方向にそれぞれ2つの領域に分割していたが、被写体領域における特徴画素の分布の偏りが検出できるように対称な複数の領域に分割するのであれば、どのように分割してもよい。また、被写体追跡の開始時は8分割、被写体追跡の継続時には4分割というように、被写体追跡の継続時よりも開始時において、より細かな偏り判定を行うようにしてもよい。
In addition, the
また、取得部112は、画像における色相及び彩度を取得し、偏り検出部114は、この色相及び彩度を分類することで特徴画素を抽出していたが、色相又は彩度だけを用いて特徴画素を抽出してもよい。また、色相又は彩度の代わりに明度を用いて特徴画素を抽出してもよいし、色相、彩度及び明度の全てを用いて特徴画素を抽出してもよい。
Further, the
また、画素検出部202は、取得部112で取得された色相及び彩度のヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出しているが、頻度が高い複数の種類に分類された画素を特徴画素としてもよい。また、取得部112で取得された色相及び彩度のうち、被写体領域外において抽出される画素数に対して、被写体領域内で抽出される画素数の割合が閾値以上となる色相及び彩度の種類に分類された画素を特徴画素としてもよい。
In addition, the
また、本実施形態では、被写体追跡装置(被写体追跡部110)を撮像装置に適用しているが、被写体追跡装置を適用する装置は撮像装置に限定されるものではない。例えば、外部装置や記録媒体などから時系列的に順次供給される画像(再生データ)を表示する表示装置に被写体追跡装置(被写体追跡部110)を適用してもよい。かかる表示装置では、再生データを被写体追跡処理の対象データとして被写体追跡処理が行われ、追跡対象の被写体の情報(被写体の位置や大きさなど)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像の被写体の位置に被写体の情報を重畳して表示する制御や被写体の輝度や色情報に応じた画像の輝度や色合いなどの制御を行う。 In this embodiment, the subject tracking device (subject tracking unit 110) is applied to the imaging device, but the device to which the subject tracking device is applied is not limited to the imaging device. For example, the subject tracking device (subject tracking unit 110) may be applied to a display device that displays images (reproduction data) sequentially supplied in time series from an external device or a recording medium. In such a display device, subject tracking processing is performed using the reproduction data as target data for subject tracking processing, and display conditions for displaying an image based on information on the subject to be tracked (position and size of the subject) are set. Control. Specifically, control is performed to superimpose and display subject information on the position of the subject of the image, and control of brightness and color of the image according to subject brightness and color information.
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。例えば、撮像装置100は、画像に含まれる被写体を指定する被写体指定部109を有していなくてもよい。このような場合、撮像装置100は、画像から特定の被写体を検出する被写体検出部を有し、かかる被写体検出部で検出された被写体に対応する被写体領域を、被写体追跡の開始時の基準画像として登録する。また、焦点調整機構や露出調整機構に利用される画像の所定領域(AF枠や測光枠など)を、被写体追跡の開始時の基準画像として登録してもよい。また、補正部115は、被写体領域の位置を補正するだけはなく、被写体領域のサイズや形状を補正してもよい。被写体領域のサイズを補正する場合は、例えば、位置が補正された被写体領域の外周方向の各辺において、特徴画素の存在する割合を検出し、特徴画素の存在する割合が大きければ、その辺の領域を含めた領域を被写体領域として抽出する。また、位置が補正された被写体領域の内周方向の各辺において、特徴画素の存在する割合を判定し、特徴画素の存在する割合が小さければ、その辺の領域を除いた領域を被写体領域として抽出する。
As mentioned above, although preferable embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the
Claims (9)
前記画像のうちn番目(nは自然数)に供給される画像から、当該画像に含まれる被写体を指定する指定手段と、
前記被写体に対応する被写体領域を前記画像から抽出するための基準画像を登録する登録手段と、
前記画像の、前記基準画像との相関度が最も高い領域を前記被写体領域として抽出する領域抽出手段と、
前記n番目に供給される画像については前記指定手段によって指定された被写体を含む被写体領域に含まれる特徴画素を抽出し、前記画像のうちn+1番目以降に供給される画像については前記領域抽出手段によって抽出された前記被写体領域に含まれる特徴画素を抽出して、前記被写体領域における前記特徴画素の分布の偏りを検出する偏り検出手段と、
前記偏り検出手段によって検出された前記被写体領域における前記特徴画素の分布の偏りが小さくなるように、前記被写体領域の位置を補正する補正手段と、
を有し、
前記偏り検出手段は、
前記n番目に供給される画像における前記特徴画素の分布の偏りを検出する際よりも、前記n+1番目以降に供給される画像における前記特徴画素の分布の偏りを検出する際において、前記特徴画素の分布の偏りを判定する基準を緩く設定することを特徴とする被写体追跡装置。 A subject tracking device that tracks a subject included in images sequentially supplied in time series,
Designation means for designating a subject included in the image from images supplied to the nth (n is a natural number) of the images;
Registration means for registering a reference image for extracting a subject area corresponding to the subject from the image;
A region extracting means for extracting, as the subject region, a region having the highest degree of correlation between the image and the reference image;
For the n-th supplied image, feature pixels included in the subject area including the subject specified by the specifying unit are extracted, and for the n + 1th and subsequent images among the images, the region extracting unit extracts the feature pixels. Bias detection means for extracting feature pixels included in the extracted subject area and detecting a bias in the distribution of the feature pixels in the subject area;
Correction means for correcting the position of the subject area so as to reduce the bias of the distribution of the feature pixels in the subject area detected by the bias detection means;
Have
The bias detection means includes
When detecting the bias of the distribution of the feature pixels in the n + 1th and subsequent images, rather than when detecting the bias of the distribution of the feature pixels in the nth image supplied, An object tracking device characterized in that a criterion for determining a distribution bias is set loosely.
前記補正手段は、前記補正手段によって位置が補正された被写体領域における前記特徴画素の分布の偏りが前記偏り検出手段によって検出された場合に、前記被写体領域の位置を更に補正することを特徴とする請求項1乃至4のうちいずれか1項に記載の被写体追跡装置。 The bias detection means further detects a bias in the distribution of the feature pixels in the subject area whose position has been corrected by the correction means,
The correction means further corrects the position of the subject area when the deviation of the distribution of the characteristic pixels in the subject area whose position is corrected by the correction means is detected by the deviation detection means. The subject tracking device according to any one of claims 1 to 4.
指定手段が、前記画像のうちn番目(nは自然数)に供給される画像から、当該画像に含まれる被写体を指定する指定ステップと、
登録手段が、前記被写体に対応する被写体領域を前記画像から抽出するための基準画像を登録する登録ステップと、
領域抽出手段が、前記画像の、前記基準画像との相関度が最も高い領域を前記被写体領域として抽出する領域抽出ステップと、
偏り検出手段が、前記n番目に供給される画像については前記指定ステップで指定された被写体を含む被写体領域に含まれる特徴画素を抽出し、前記画像のうちn+1番目以降に供給される画像については前記領域抽出ステップで抽出された前記被写体領域に含まれる特徴画素を抽出して、前記被写体領域における前記特徴画素の分布の偏りを検出する偏り検出ステップと、
補正手段が、前記偏り検出ステップで検出された前記被写体領域における前記特徴画素の分布の偏りが小さくなるように、前記被写体領域の位置を補正する補正ステップと、
を有し、
前記偏り検出ステップでは、
前記n番目に供給される画像における前記特徴画素の分布の偏りを検出する際よりも、前記n+1番目以降に供給される画像における前記特徴画素の分布の偏りを検出する際において、前記特徴画素の分布の偏りを判定する基準を緩く設定することを特徴とする制御方法。 A method for controlling a subject tracking device that tracks a subject included in images sequentially supplied in time series,
A designating step for designating a subject included in the image from an image supplied to the nth (n is a natural number) of the images;
A registration step for registering a reference image for extracting a subject area corresponding to the subject from the image;
A region extracting step in which a region extracting unit extracts, as the subject region, a region having the highest degree of correlation between the image and the reference image;
The bias detection means extracts feature pixels included in the subject area including the subject specified in the specifying step for the n-th supplied image, and for the images supplied after the (n + 1) th of the images. A bias detection step of extracting a feature pixel included in the subject region extracted in the region extraction step and detecting a bias of a distribution of the feature pixel in the subject region;
A correcting step for correcting the position of the subject area so that the bias of the distribution of the characteristic pixels in the subject area detected in the bias detecting step is reduced;
Have
In the bias detection step,
When detecting the bias of the distribution of the feature pixels in the n + 1th and subsequent images, rather than when detecting the bias of the distribution of the feature pixels in the nth image supplied, A control method characterized by loosely setting a criterion for judging distribution bias.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009296382A JP5395651B2 (en) | 2009-12-25 | 2009-12-25 | Subject tracking device, control method and program for subject tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009296382A JP5395651B2 (en) | 2009-12-25 | 2009-12-25 | Subject tracking device, control method and program for subject tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011138226A true JP2011138226A (en) | 2011-07-14 |
JP5395651B2 JP5395651B2 (en) | 2014-01-22 |
Family
ID=44349623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009296382A Active JP5395651B2 (en) | 2009-12-25 | 2009-12-25 | Subject tracking device, control method and program for subject tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5395651B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133549A (en) * | 2014-01-09 | 2015-07-23 | 株式会社メイクソフトウェア | Image processing system, image processing method and computer program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001076156A (en) * | 1999-09-03 | 2001-03-23 | Mitsubishi Electric Corp | Device for monitoring image |
JP2004247921A (en) * | 2003-02-13 | 2004-09-02 | Nissan Motor Co Ltd | Vehicle surrounding monitoring device |
JP2007280088A (en) * | 2006-04-07 | 2007-10-25 | Konica Minolta Holdings Inc | Specific object detection device, specific object detection method, and specific object detection program |
-
2009
- 2009-12-25 JP JP2009296382A patent/JP5395651B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001076156A (en) * | 1999-09-03 | 2001-03-23 | Mitsubishi Electric Corp | Device for monitoring image |
JP2004247921A (en) * | 2003-02-13 | 2004-09-02 | Nissan Motor Co Ltd | Vehicle surrounding monitoring device |
JP2007280088A (en) * | 2006-04-07 | 2007-10-25 | Konica Minolta Holdings Inc | Specific object detection device, specific object detection method, and specific object detection program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133549A (en) * | 2014-01-09 | 2015-07-23 | 株式会社メイクソフトウェア | Image processing system, image processing method and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP5395651B2 (en) | 2014-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8509482B2 (en) | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor | |
KR101155406B1 (en) | Image processing apparatus, image processing method and computer readable-medium | |
JP4772839B2 (en) | Image identification method and imaging apparatus | |
JP5219795B2 (en) | Subject tracking device, control method thereof, imaging device, display device, and program | |
US20100079624A1 (en) | Image processing apparatus, image processing method, imaging apparatus | |
KR101441786B1 (en) | Subject determination apparatus, subject determination method and recording medium storing program thereof | |
JP6924064B2 (en) | Image processing device and its control method, and image pickup device | |
JP5395650B2 (en) | Subject area extraction device and control method thereof, subject tracking device, and program | |
JP2016123044A (en) | Subject tracking device, and control method and program therefor | |
JP2009123081A (en) | Face detection method and photographing apparatus | |
US7835552B2 (en) | Image capturing apparatus and face area extraction method | |
JP5441669B2 (en) | Image processing apparatus and control method thereof | |
JP5167236B2 (en) | Subject tracking device and control method thereof | |
JP5395651B2 (en) | Subject tracking device, control method and program for subject tracking device | |
JP6099973B2 (en) | Subject area tracking device, control method thereof, and program | |
JP5451364B2 (en) | Subject tracking device and control method thereof | |
JP2009252069A (en) | Image processor, imaging device, image processing method and program | |
JP2009009206A (en) | Extraction method of outline inside image and image processor therefor | |
JP5222429B2 (en) | Subject tracking device and control method thereof | |
JP7034781B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2012133587A (en) | Image analysis device, image analysis method and program | |
JP2007249526A (en) | Imaging device, and face area extraction method | |
JP5247419B2 (en) | Imaging apparatus and subject tracking method | |
JP2013157675A (en) | Imaging device, method for controlling the same, program, and storage medium | |
JP2010219862A (en) | Face detection device, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131018 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5395651 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |