JP2011138226A - Object tracking device, method for controlling the same and program - Google Patents

Object tracking device, method for controlling the same and program Download PDF

Info

Publication number
JP2011138226A
JP2011138226A JP2009296382A JP2009296382A JP2011138226A JP 2011138226 A JP2011138226 A JP 2011138226A JP 2009296382 A JP2009296382 A JP 2009296382A JP 2009296382 A JP2009296382 A JP 2009296382A JP 2011138226 A JP2011138226 A JP 2011138226A
Authority
JP
Japan
Prior art keywords
subject
image
region
bias
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009296382A
Other languages
Japanese (ja)
Other versions
JP5395651B2 (en
Inventor
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009296382A priority Critical patent/JP5395651B2/en
Publication of JP2011138226A publication Critical patent/JP2011138226A/en
Application granted granted Critical
Publication of JP5395651B2 publication Critical patent/JP5395651B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new object tracking device for improving accuracy of tracking an object area, and to provide a method of controlling the object tracking device and a program. <P>SOLUTION: The object tracking device is provided with: a designation means for designating an object included in the n-th image; a registration means for registering a reference image for extracting an object area corresponding to the object from the image; an area extraction means for extracting the area whose correlation with the reference image is the highest of the image, as the object area; a deviation detection means for extracting feature pixels included in the object area including the object designated by the designation means, for the n-th image, and for extracting feature pixels included in the object area extracted by the area extraction means for the (n+1)th and subsequent images among the images, and for detecting the deviation of the distribution of the feature pixels in the object area; and a correction means for correcting the position of the object area so as to reduce the deviation of the distribution of the feature pixels in the object area detected by the deviation detection means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、被写体追跡装置、被写体追跡装置の制御方法及びプログラムに関する。   The present invention relates to a subject tracking device, a method for controlling the subject tracking device, and a program.

時系列的に供給される画像から特定の被写体を抽出し、その抽出した被写体を追跡する技術は非常に有用であり、例えば、動画像における人間の顔領域や人体領域の特定に利用されている。このような技術は、例えば、通信会議、マン・マシン・インターフェース、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。   A technique for extracting a specific subject from an image supplied in time series and tracking the extracted subject is very useful. For example, it is used for specifying a human face region or a human body region in a moving image. . Such techniques can be used in many areas, for example, teleconferencing, man-machine interface, security, monitor systems for tracking any subject, image compression, etc.

また、デジタルスチルカメラやデジタルビデオカメラでは、タッチパネルなどを用いて指定された撮像画像に含まれる任意の被写体を抽出及び追跡して、かかる被写体に対する焦点状態や露出状態を最適化する技術が提案されている(特許文献1及び2参照)。例えば、特許文献1には、撮像画像に含まれる顔の位置を検出(抽出)及び追跡し、かかる顔に対して、焦点を合わせると共に最適な露出で撮像する撮像装置が開示されている。特許文献2には、テンプレートマッチングを用いて、特定の被写体を自動で追跡する技術が開示されている。ここで、テンプレートマッチングとは、特定の被写体(追跡対象)を含む画像領域を切り出した部分画像を基準画像(テンプレート画像)として登録し、基準画像と最も相関度が高い領域を画像内において推定し、特定の被写体を追跡する手法である。なお、テンプレートマッチングでは、タッチパネルなどの入力インタフェースを用いて画像に含まれる任意の領域を指定し、かかる領域を基準として基準画像が登録される。   For digital still cameras and digital video cameras, a technique for extracting and tracking an arbitrary subject included in a captured image specified by using a touch panel or the like and optimizing a focus state and an exposure state for the subject is proposed. (See Patent Documents 1 and 2). For example, Patent Document 1 discloses an imaging apparatus that detects (extracts) and tracks the position of a face included in a captured image, focuses the face, and captures an image with optimal exposure. Patent Document 2 discloses a technique for automatically tracking a specific subject using template matching. Here, template matching refers to registering a partial image obtained by cutting out an image area including a specific subject (tracking target) as a reference image (template image), and estimating an area having the highest correlation with the reference image in the image. This is a method of tracking a specific subject. In template matching, an arbitrary area included in an image is designated using an input interface such as a touch panel, and a reference image is registered using the area as a reference.

特開2005−318554号公報JP 2005-318554 A 特開2001−60269号公報JP 2001-60269 A

しかしながら、テンプレートマッチングでは、基準画像の登録の際に指定された領域が追跡対象の中心(重心)からずれていた場合に、背景などの追跡対象とは異なる画素が基準画像に含まれてしまう。このような基準画像を用いた場合、追跡対象とは異なる画素の影響によって、追跡対象ではなく、誤った領域を追跡してしまうことがある。   However, in template matching, when the region specified at the time of registration of the reference image is shifted from the center (center of gravity) of the tracking target, pixels different from the tracking target such as the background are included in the reference image. When such a reference image is used, an incorrect area may be tracked instead of the tracking target due to the influence of pixels different from the tracking target.

また、基準画像の登録の際に指定された領域が追跡対象の中心からずれていない場合であっても、追跡対象の時系列的な見え方が大きく変化していると、追跡対象の中心からずれた位置の領域を被写体領域として抽出してしまうことがある。特に、抽出される被写体領域に基づいて基準画像を逐次更新する場合には、追跡対象の中心からずれた位置の領域を被写体領域として抽出すると、追跡対象とは異なる画素が基準画像に含まれてしまうため、誤った領域を追跡してしまう可能性が高くなる。   In addition, even if the area specified when registering the reference image is not deviated from the center of the tracking target, if the time-series appearance of the tracking target has changed significantly, A region at a shifted position may be extracted as a subject region. In particular, when the reference image is sequentially updated based on the extracted subject area, if a region at a position shifted from the center of the tracking target is extracted as the subject area, pixels different from the tracking target are included in the reference image. Therefore, there is a high possibility that an erroneous area will be tracked.

そこで、本発明は、このような従来技術の課題に鑑みてなされ、被写体領域の追跡精度を向上させることができる新たな技術を提供することを例示的目的とする。   Therefore, the present invention has been made in view of the above-described problems of the conventional technique, and an object of the present invention is to provide a new technique capable of improving the tracking accuracy of the subject area.

上記目的を達成するために、本発明の一側面としての被写体追跡装置は、時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置であって、前記画像のうちn番目(nは自然数)に供給される画像から、当該画像に含まれる被写体を指定する指定手段と、前記被写体に対応する被写体領域を前記画像から抽出するための基準画像を登録する登録手段と、前記画像の、前記基準画像との相関度が最も高い領域を前記被写体領域として抽出する領域抽出手段と、前記n番目に供給される画像については前記指定手段によって指定された被写体を含む被写体領域に含まれる特徴画素を抽出し、前記画像のうちn+1番目以降に供給される画像については前記領域抽出手段によって抽出された前記被写体領域に含まれる特徴画素を抽出して、前記被写体領域における前記特徴画素の分布の偏りを検出する偏り検出手段と、前記偏り検出手段によって検出された前記被写体領域における前記特徴画素の分布の偏りが小さくなるように、前記被写体領域の位置を補正する補正手段と、を有し、前記偏り検出手段は、前記n番目に供給される画像における前記特徴画素の分布の偏りを検出する際よりも、前記n+1番目以降に供給される画像における前記特徴画素の分布の偏りを検出する際において、前記特徴画素の分布の偏りを判定する基準を緩く設定することを特徴とする。   In order to achieve the above object, a subject tracking device according to one aspect of the present invention is a subject tracking device that tracks a subject included in images sequentially supplied in time series, and is an nth ( n is a natural number), a designation unit that designates a subject included in the image, a registration unit that registers a reference image for extracting a subject area corresponding to the subject from the image, and the image A region extracting unit that extracts a region having the highest degree of correlation with the reference image as the subject region, and the n-th supplied image is included in the subject region including the subject specified by the specifying unit. Feature pixels are extracted, and the feature pixels included in the subject region extracted by the region extraction unit are extracted for the images supplied after the (n + 1) th of the images. A bias detection unit that detects a bias in the distribution of the feature pixels in the subject region, and the subject region so that the bias in the distribution of the feature pixels in the subject region detected by the bias detection unit is reduced. Correction means for correcting the position of the image, and the deviation detection means is supplied after the (n + 1) th as compared to when detecting the deviation of the distribution of the feature pixels in the nth supplied image. In detecting the deviation of the distribution of the feature pixels in the image, a criterion for determining the deviation of the distribution of the feature pixels is set loosely.

本発明の更なる目的又はその他の側面は、以下、添付図面を参照して説明される好ましい実施形態によって明らかにされるであろう。   Further objects and other aspects of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.

本発明によれば、例えば、被写体領域の追跡精度を向上させる新たな技術を提供することができる。   According to the present invention, for example, a new technique for improving the tracking accuracy of the subject area can be provided.

本発明の一側面としての被写体追跡装置として機能する撮像装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the imaging device which functions as a subject tracking device as one aspect of the present invention. 図1に示す撮像装置の偏り検出部の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the deviation detection part of the imaging device shown in FIG. 図2に示す被写体追跡部の設定部で設定される分類条件を説明するための図である。It is a figure for demonstrating the classification conditions set by the setting part of the subject tracking part shown in FIG. 図1に示す撮像装置における被写体追跡処理を説明するためのフローチャートである。3 is a flowchart for explaining subject tracking processing in the imaging apparatus shown in FIG. 1. 図1に示す撮像装置における被写体追跡処理を説明するための図である。It is a figure for demonstrating the subject tracking process in the imaging device shown in FIG. 図5に示すS406及びS418の処理を詳細に説明するためのフローチャートである。6 is a flowchart for explaining in detail the processing of S406 and S418 shown in FIG.

以下、添付図面を参照して、本発明の好適な実施の形態について説明する。なお、各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. In addition, in each figure, the same reference number is attached | subjected about the same member and the overlapping description is abbreviate | omitted.

図1は、撮像装置100の構成を示す概略ブロック図である。撮像装置100は、本実施形態では、被写体の画像を撮像するデジタルカメラとして具現化される。また、撮像装置100は、時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置としても機能する。撮像光学系101と、撮像素子102と、アナログ信号処理部103と、A/D変換部104と、制御部105と、画像処理部106と、表示部107と、記録部108と、被写体指定部109と、被写体追跡部110とを有する。   FIG. 1 is a schematic block diagram illustrating a configuration of the imaging apparatus 100. In this embodiment, the imaging apparatus 100 is embodied as a digital camera that captures an image of a subject. The imaging device 100 also functions as a subject tracking device that tracks subjects included in images that are sequentially supplied in time series. Imaging optical system 101, imaging device 102, analog signal processing unit 103, A / D conversion unit 104, control unit 105, image processing unit 106, display unit 107, recording unit 108, subject specifying unit 109 and a subject tracking unit 110.

図1を参照するに、被写体の像を表す光は、撮像光学系101によって集光され、CCDイメージセンサやCMOSイメージセンサなどで構成された撮像素子102に入射する。撮像素子102は、入射する光の強度に応じた電気信号を画素単位で出力する(即ち、撮像光学系101によって形成された被写体の像を光電変換する)。ここで、撮像素子102から出力される電気信号は、撮像素子102で撮像された被写体の像を示すアナログの画像信号である。   Referring to FIG. 1, light representing an image of a subject is collected by an imaging optical system 101 and is incident on an imaging device 102 configured by a CCD image sensor, a CMOS image sensor, or the like. The image sensor 102 outputs an electrical signal corresponding to the intensity of incident light in units of pixels (that is, photoelectrically converts an image of a subject formed by the imaging optical system 101). Here, the electrical signal output from the image sensor 102 is an analog image signal indicating an image of a subject imaged by the image sensor 102.

撮像素子102から出力された画像信号は、アナログ信号処理部103において、相関二重サンプリング(CDS)などのアナログ信号処理が施される。アナログ信号処理部103から出力された画像信号は、A/D変換部104において、デジタル形式に変換され、制御部105及び画像処理部106に入力される。   The analog signal processing unit 103 performs analog signal processing such as correlated double sampling (CDS) on the image signal output from the image sensor 102. The image signal output from the analog signal processing unit 103 is converted into a digital format by the A / D conversion unit 104 and input to the control unit 105 and the image processing unit 106.

制御部105は、CPU(Central Processing Unit)やマイクロコントローラなどで構成され、撮像装置100の動作を制御する。具体的には、制御部105は、ROM(Read Only Memory)に記憶されたプログラムコードをRAM(Random Access Memory)の作業領域に展開して順次実行することで、撮像装置100の各部を制御する。   The control unit 105 includes a CPU (Central Processing Unit) and a microcontroller, and controls the operation of the imaging apparatus 100. Specifically, the control unit 105 controls each unit of the imaging apparatus 100 by developing a program code stored in a ROM (Read Only Memory) in a work area of a RAM (Random Access Memory) and sequentially executing the program code. .

制御部105は、例えば、画像を撮像する際の焦点状態や露出状態などを含む撮像条件を制御する。具体的には、制御部105は、A/D変換部104から出力される画像信号に基づいて、焦点調整機構や露出調整機構を制御する。なお、焦点調整機構は、撮像光学系101に含まれるレンズを光軸方向に駆動するアクチュエータなどを含み、露出調整機構は、撮像光学系101に含まれる絞りやシャッタなどを駆動するアクチュエータなどを含む。なお、制御部105は、焦点調整機構や露出調整機構を制御する際に、後述する被写体追跡部110による被写体の追跡の結果(被写体領域の情報)を用いることができる。具体的には、制御部105は、被写体領域のコントラスト値を用いた焦点制御や被写体領域の輝度値を用いた露出制御を行う。これにより、撮像装置100は、画像に含まれる特定の被写体(被写体領域)を考慮した撮像処理を行うことができる。また、制御部105は、撮像素子102の読み出し制御(撮像素子102の出力タイミングや出力画素などの制御)も行う。   For example, the control unit 105 controls imaging conditions including a focus state and an exposure state when an image is captured. Specifically, the control unit 105 controls the focus adjustment mechanism and the exposure adjustment mechanism based on the image signal output from the A / D conversion unit 104. The focus adjustment mechanism includes an actuator that drives a lens included in the imaging optical system 101 in the optical axis direction, and the exposure adjustment mechanism includes an actuator that drives an aperture, a shutter, and the like included in the imaging optical system 101. . Note that the control unit 105 can use the result of subject tracking (subject region information) by the subject tracking unit 110 described later when controlling the focus adjustment mechanism and the exposure adjustment mechanism. Specifically, the control unit 105 performs focus control using the contrast value of the subject area and exposure control using the brightness value of the subject area. Thereby, the imaging apparatus 100 can perform an imaging process in consideration of a specific subject (subject area) included in the image. The control unit 105 also performs readout control of the image sensor 102 (control of output timing, output pixels, and the like of the image sensor 102).

画像処理部106は、A/D変換部104から入力されたデジタル形式の画像信号に対して、ガンマ補正やホワイトバランス処理などの画像処理を施す。なお、画像処理部106は、通常の画像処理に加えて、後述する被写体追跡部110から供給される被写体領域に関する情報を用いた画像処理を施す機能も有する。   The image processing unit 106 performs image processing such as gamma correction and white balance processing on the digital image signal input from the A / D conversion unit 104. In addition to the normal image processing, the image processing unit 106 also has a function of performing image processing using information on a subject area supplied from a subject tracking unit 110 described later.

画像処理部106から出力された画像信号は、表示部107に入力される。表示部107は、例えば、LCDや有機ELディスプレイで構成され、画像処理部106から入力される画像信号に対応する画像を表示する。撮像装置100においては、撮像素子102で時系列的に順次撮像される画像(画像信号に対応する画像)を表示部107に順次表示させることによって、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、表示部107は、被写体追跡部110によって追跡している被写体を含む被写体領域の位置なども表示する。   The image signal output from the image processing unit 106 is input to the display unit 107. The display unit 107 is composed of, for example, an LCD or an organic EL display, and displays an image corresponding to the image signal input from the image processing unit 106. In the imaging apparatus 100, the display unit 107 functions as an electronic viewfinder (EVF) by sequentially displaying images sequentially captured in time series by the image sensor 102 (images corresponding to image signals) on the display unit 107. Can be made. The display unit 107 also displays the position of the subject area including the subject tracked by the subject tracking unit 110.

画像処理部106から出力された画像信号は、記録部108にも入力される。記録部108は、画像処理部106からの画像信号を、例えば、磁気テープ、光ディスク、メモリカードなどの記録媒体に記録する。なお、画像信号を記録する記録媒体は、撮像装置100に内蔵された記録媒体であってもよいし、通信インタフェースを介して通信可能に接続された外部の記録媒体であってもよい。   The image signal output from the image processing unit 106 is also input to the recording unit 108. The recording unit 108 records the image signal from the image processing unit 106 on a recording medium such as a magnetic tape, an optical disk, or a memory card. Note that the recording medium for recording the image signal may be a recording medium built in the imaging apparatus 100 or an external recording medium connected to be communicable via a communication interface.

被写体指定部109は、例えば、タッチパネルやボタンなどを含む入力インタフェースである。ユーザ(撮像者)は、被写体指定部109を介して、画像に含まれる任意の被写体を追跡対象に指定することが可能である。   The subject specifying unit 109 is an input interface including, for example, a touch panel and buttons. A user (imager) can designate an arbitrary subject included in the image as a tracking target via the subject designation unit 109.

被写体追跡部110は、画像処理部106から時系列的に順次供給される(即ち、撮像された時刻の異なる)画像(画像信号)に含まれる被写体を追跡する。被写体追跡部110は、テンプレートマッチングを用いて、被写体指定部109によって指定された被写体を追跡する。被写体追跡部110は、本実施形態では、登録部111と、取得部112と、領域抽出部113と、偏り検出部114と、補正部115とを含む。   The subject tracking unit 110 tracks subjects included in images (image signals) that are sequentially supplied from the image processing unit 106 in time series (that is, taken at different times). The subject tracking unit 110 tracks the subject specified by the subject specifying unit 109 using template matching. In this embodiment, the subject tracking unit 110 includes a registration unit 111, an acquisition unit 112, a region extraction unit 113, a bias detection unit 114, and a correction unit 115.

登録部111は、画像処理部106から時系列的に順次供給される画像から追跡対象の被写体に対応する被写体領域を抽出するための部分領域を基準画像として登録する。具体的には、登録部111は、被写体追跡の開始時では、被写体指定部109によって指定された被写体に対応する領域(又は、補正部115によって位置が補正された領域)を基準画像として登録する。また、登録部111は、被写体追跡の継続時では、領域抽出部113で抽出された領域に基づいて、基準画像を順次更新する。但し、登録部111は、時系列的に順次供給される画像に含まれる被写体の見え方の変化を考慮しない場合には、基準画像を更新せずに、被写体追跡の開始時に登録した基準画像を維持してもよい。   The registration unit 111 registers, as a reference image, a partial region for extracting a subject region corresponding to a subject to be tracked from images sequentially supplied from the image processing unit 106 in time series. Specifically, at the start of subject tracking, the registration unit 111 registers an area corresponding to the subject specified by the subject specifying unit 109 (or an area whose position has been corrected by the correction unit 115) as a reference image. . The registration unit 111 sequentially updates the reference image based on the region extracted by the region extraction unit 113 when the subject tracking is continued. However, the registration unit 111 does not update the reference image and updates the reference image registered at the start of subject tracking without considering the change in the appearance of the subject included in the images sequentially supplied in time series. May be maintained.

取得部112は、画像処理部106から時系列的に順次供給される画像から、かかる画像に含まれる画素の画素値の情報を取得する。取得部112は、例えば、画素を特徴づける画素値の情報として、色相(H)、彩度(S)及び明度(V)のHSV表現で表されるHSV画像における色相、彩度及び明度の少なくともいずれか1つを取得し、本実施形態では、色相及び彩度を取得する。このように、画素値の情報として、被写体を照明する光の影響を受けやすい明度を除いた色情報を取得することによって、かかる画素値の情報は、被写体の見え方の変化に対して頑健となる。   The acquisition unit 112 acquires pixel value information of pixels included in the image from images sequentially supplied from the image processing unit 106 in time series. For example, the acquisition unit 112 uses at least the hue, saturation, and brightness in the HSV image represented by the HSV representation of hue (H), saturation (S), and brightness (V) as pixel value information that characterizes the pixel. Any one of them is acquired, and in this embodiment, the hue and the saturation are acquired. As described above, by obtaining color information excluding brightness that is easily affected by light that illuminates the subject, the pixel value information is robust against changes in the appearance of the subject. Become.

具体的には、取得部112は、被写体追跡の開始時では、被写体指定部109によって指定された被写体に対応する領域(被写体領域)に含まれる画素のそれぞれの彩度及び色相を取得する。また、取得部112は、被写体追跡の継続時では、領域抽出部113によって抽出された被写体領域に含まれる画素のそれぞれの彩度及び色相を取得する。   Specifically, the acquisition unit 112 acquires the saturation and hue of each pixel included in the region (subject region) corresponding to the subject designated by the subject designation unit 109 at the start of subject tracking. Further, the acquisition unit 112 acquires the saturation and hue of each pixel included in the subject area extracted by the region extraction unit 113 when subject tracking is continued.

領域抽出部113は、画像処理部106から時系列的に順次供給される画像において、登録部111によって登録された基準画像との相関度が最も高い領域を被写体領域として抽出する。具体的には、領域抽出部113は、画像処理部106から時系列的に順次供給される画像において、基準画像に対応する大きさの部分領域を設定し、かかる部分領域の画像と基準画像との相関度を求める。相関度としては、例えば、部分領域の画像の各画素と基準画像の各画素との差分和を用いることが可能であり、差分和の値が小さいほど相関度が高いことを表す。領域抽出部113は、相関度を求める部分領域の位置を2次元空間的に順次画素単位でずらしながら相関度を求めることによって、相関度が最も高い領域を抽出することができる。但し、2つの画像の相関度を求める方法は、上述した方法に限定するもではなく、当業界で周知の様々な方法を適用することができる。なお、被写体追跡の開始時には、被写体指定部109によって指定された被写体に対応する領域が基準画像として登録されているため、領域抽出部113は、被写体指定部109によって指定された被写体に対応する領域を被写体領域として抽出する。   The region extraction unit 113 extracts a region having the highest degree of correlation with the reference image registered by the registration unit 111 as a subject region from the images sequentially supplied from the image processing unit 106 in time series. Specifically, the region extraction unit 113 sets a partial region having a size corresponding to the reference image in the images sequentially supplied from the image processing unit 106 in time series, and the image of the partial region and the reference image are set. Find the degree of correlation. As the degree of correlation, for example, the difference sum between each pixel of the partial region image and each pixel of the reference image can be used, and the smaller the difference sum value, the higher the degree of correlation. The region extraction unit 113 can extract the region having the highest degree of correlation by obtaining the degree of correlation while sequentially shifting the position of the partial region for which the degree of correlation is obtained in units of pixels in a two-dimensional space. However, the method for obtaining the degree of correlation between two images is not limited to the method described above, and various methods known in the art can be applied. Note that, at the start of subject tracking, an area corresponding to the subject specified by the subject specifying unit 109 is registered as a reference image, so the region extracting unit 113 sets an area corresponding to the subject specified by the subject specifying unit 109. Are extracted as subject areas.

偏り検出部114は、領域抽出部113によって抽出された被写体領域に含まれる被写体の偏りを検出する。具体的には、偏り検出部114は、領域抽出部113によって抽出された被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類し、かかる種類ごとのヒストグラムを生成する。そして、偏り検出部114は、生成したヒストグラムにおいて頻度が最も高い種類に分類された画素を特徴画素として抽出して、被写体領域における特徴画素の分布の偏りを被写体の偏りとして検出する。   The bias detection unit 114 detects the bias of the subject included in the subject region extracted by the region extraction unit 113. Specifically, the bias detection unit 114 classifies the pixels included in the subject region extracted by the region extraction unit 113 into a plurality of types according to the respective saturations and hues, and generates a histogram for each type. Then, the bias detection unit 114 extracts, as feature pixels, pixels that are classified as the type having the highest frequency in the generated histogram, and detects the bias of the distribution of the feature pixels in the subject region as the subject bias.

補正部115は、偏り検出部114によって検出された被写体領域における被写体の偏り(即ち、被写体領域における特徴画素の分布の偏り)が小さくなるように、被写体領域の位置を補正する。   The correction unit 115 corrects the position of the subject region so that the subject bias in the subject region detected by the bias detection unit 114 (that is, the feature pixel distribution bias in the subject region) is reduced.

図2を参照して、偏り検出部114の詳細な構成及び動作を説明する。図2は、偏り検出部114の構成を示す概略ブロック図である。偏り検出部114は、図2に示すように、分割部201と、画素検出部202と、偏り判定部203と、設定部204とを含む。   With reference to FIG. 2, the detailed configuration and operation of the bias detection unit 114 will be described. FIG. 2 is a schematic block diagram illustrating a configuration of the deviation detection unit 114. As shown in FIG. 2, the bias detection unit 114 includes a dividing unit 201, a pixel detection unit 202, a bias determination unit 203, and a setting unit 204.

分割部201は、領域抽出部113によって抽出された被写体領域を分割(等分)する。分割部201は、被写体領域を2つの領域に等分する1つ以上の直線を設定して、被写体領域を少なくとも2つの分割領域に分割する。分割部201は、本実施形態では、被写体領域に対して、被写体領域の中心を通過する対称軸を垂直方向及び水平方向のそれぞれに設定して、被写体領域を4つの分割領域に分割する。   The dividing unit 201 divides (equally divides) the subject area extracted by the area extracting unit 113. The dividing unit 201 sets one or more straight lines that equally divide the subject area into two areas, and divides the subject area into at least two divided areas. In the present embodiment, the dividing unit 201 divides the subject area into four divided areas by setting the symmetry axes passing through the center of the subject area in the vertical direction and the horizontal direction, respectively.

画素検出部202は、被写体領域に含まれる画素を、その画素の彩度及び色相で複数の種類に分類してヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。そして、画素検出部202は、分割部201によって分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数を検出する。なお、被写体領域に含まれる画素を複数の種類に分類する際の種類の数は、設定部204によって設定される。   The pixel detection unit 202 classifies the pixels included in the subject area into a plurality of types according to the saturation and hue of the pixels, generates a histogram, and extracts the pixels classified into the type with the highest frequency as feature pixels. . The pixel detection unit 202 detects the number of feature pixels included in each of the divided regions of the subject area divided by the dividing unit 201. Note that the number of types when the pixels included in the subject area are classified into a plurality of types is set by the setting unit 204.

偏り判定部203は、分割部201によって分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上である場合に、被写体領域に含まれる特徴画素の分布が偏っていると判定する。なお、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値(特徴画素の数の差)は、設定部204によって設定される。   When the difference in the number of characteristic pixels included in each of the divided areas of the subject area divided by the dividing unit 201 is equal to or greater than a threshold value, the bias determination unit 203 is biased in the distribution of the characteristic pixels included in the subject area. Is determined. Note that the setting unit 204 sets a threshold value (difference in the number of feature pixels) when determining whether the distribution of feature pixels included in the subject region is biased.

また、偏り判定部203は、被写体領域に含まれる特徴画素の分布が偏っていると判定した場合に、被写体領域に含まれる特徴画素の分布の偏り方向及び偏り量を求める。具体的には、偏り判定部203は、分割部201によって分割された被写体領域の分割領域のうち特徴画素の数が多い領域の方向を、特徴画素の分布の偏り方向とする。また、偏り判定部203は、分割部201によって分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数の差に対応する量を、特徴画素の分布の偏り量とする。従って、特徴画素の分布の水平方向の偏り量は、垂直方向の対称軸によって分割された2つの分割領域のそれぞれに含まれる特徴画素の差に対応して求められる。同様に、特徴画素の垂直方向の偏り量は、水平方向の対称軸によって分割された2つの分割領域のそれぞれに含まれる特徴画素の差に対応して求められる。   In addition, when it is determined that the distribution of the feature pixels included in the subject area is biased, the bias determination unit 203 obtains the bias direction and the bias amount of the distribution of the feature pixels included in the subject area. Specifically, the bias determination unit 203 sets the direction of the region having a large number of feature pixels among the divided regions of the subject region divided by the dividing unit 201 as the bias direction of the distribution of the feature pixels. In addition, the bias determination unit 203 sets an amount corresponding to the difference in the number of feature pixels included in each of the divided regions of the subject area divided by the dividing unit 201 as the bias amount of the feature pixel distribution. Accordingly, the horizontal deviation amount of the distribution of the feature pixels is obtained in correspondence with the difference between the feature pixels included in each of the two divided regions divided by the vertical symmetry axis. Similarly, the amount of vertical deviation of the feature pixels is obtained corresponding to the difference between the feature pixels included in each of the two divided regions divided by the horizontal axis of symmetry.

設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数(分類条件)、及び、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値(判定条件)を設定する。但し、設定部204は、登録部111が被写体指定部109によって指定された被写体に対応する被写体領域を基準画像として登録する場合と、領域抽出部113により抽出された領域を基準画像として登録する場合とで、分類条件及び判定条件を変更する。換言すれば、分類条件及び判定条件は、被写体追跡の開始時(被写体追跡部110にn番目(nは自然数)に供給される画像)と継続時(被写体追跡部110にn+1番目以降に供給される画像)とで、変更される。   The setting unit 204 determines the number of types (classification conditions) when the pixels included in the subject area are classified into a plurality of types, and a threshold for determining whether the distribution of the feature pixels included in the subject area is biased. Set (judgment condition). However, the setting unit 204 registers the subject area corresponding to the subject designated by the subject designating unit 109 as the reference image and the registration unit 111 registers the region extracted by the region extracting unit 113 as the reference image. Then, the classification condition and the judgment condition are changed. In other words, the classification condition and the determination condition are supplied when the subject tracking starts (image supplied to the subject tracking unit 110 at the nth (n is a natural number)) and when it continues (n + 1 and after the subject tracking unit 110). Image).

図3は、設定部204で設定される分類条件を説明するための図であって、図3(a)は、被写体追跡の開始時に設定される分類条件を示し、図3(b)は、被写体追跡の継続時に設定される分類条件を示している。図3(a)及び図3(b)に示すように、分類条件は、本実施形態では、色相及び彩度によって定義される特徴空間である。図3(a)に示す分類条件では、彩度及び色相に応じて、被写体領域に含まれる画素が15種類に分類され、図3(b)に示す分類条件では、彩度及び色相に応じて、被写体領域に含まれる画素が7種類に分類される。なお、図3(a)及び図3(b)では、頻度が最も高い種類(即ち、画素が最も多く分類された種類)が斜線で示されており、かかる種類に分類された画素が特徴画素として抽出される。   FIG. 3 is a diagram for explaining the classification conditions set by the setting unit 204. FIG. 3A shows the classification conditions set at the start of subject tracking, and FIG. The classification conditions set when subject tracking is continued are shown. As shown in FIGS. 3A and 3B, the classification condition is a feature space defined by hue and saturation in this embodiment. In the classification condition shown in FIG. 3A, the pixels included in the subject area are classified into 15 types according to the saturation and hue, and in the classification condition shown in FIG. 3B, according to the saturation and hue. The pixels included in the subject area are classified into seven types. In FIGS. 3A and 3B, the type with the highest frequency (that is, the type with the largest number of pixels) is indicated by diagonal lines, and the pixels classified into such types are feature pixels. Extracted as

上述したように、画像における追跡対象の被写体の見え方は、被写体の動きや環境などによって時系列的に変化する。従って、被写体追跡の継続時(登録部111が領域抽出部113により抽出された領域を基準画像として登録する場合)には、追跡対象の被写体の見え方の変化を考慮する必要がある。一方、被写体追跡の開始時(登録部111が被写体指定部109によって指定された被写体に対応する被写体領域を基準画像として登録する場合)には、追跡対象の被写体の見え方は同じであるため、追跡対象の被写体の見え方の変化を考慮する必要がない。   As described above, the appearance of the subject to be tracked in the image changes in time series depending on the movement of the subject and the environment. Therefore, when subject tracking is continued (when the registration unit 111 registers the region extracted by the region extraction unit 113 as a reference image), it is necessary to consider changes in the appearance of the subject to be tracked. On the other hand, when the subject tracking is started (when the registration unit 111 registers a subject area corresponding to the subject specified by the subject specifying unit 109 as a reference image), the subject to be tracked looks the same. There is no need to consider changes in the appearance of the subject to be tracked.

そこで、本実施形態では、図3(a)及び図3(b)に示したように、被写体追跡の開始時での被写体領域に含まれる画素を分類する種類の数よりも、被写体追跡の継続時での被写体領域に含まれる画素を分類する種類の数が少なくなるように分類条件を設定する。これにより、被写体追跡の継続時は、被写体を照明する光の強度の変化に起因して被写体の色相及び彩度の見え方が若干変化したとしても、その被写体の色相及び彩度の分類の種類が変わったとみなしてしまうことを抑制することができる。   Therefore, in the present embodiment, as shown in FIGS. 3A and 3B, the subject tracking is continued rather than the number of types for classifying the pixels included in the subject region at the start of subject tracking. The classification condition is set so that the number of types for classifying the pixels included in the subject area at the time decreases. Thus, when subject tracking is continued, even if the subject's hue and saturation look slightly changed due to changes in the intensity of light that illuminates the subject, the type of classification of the subject's hue and saturation Can be considered to have changed.

また、被写体追跡の開始時では、被写体領域に含まれる特徴画素の分布が偏っているかどうかの判定がされる画像と、基準画像として登録された部分領域を含む画像とは、同じ画像である。一方、被写体追跡の継続時では、被写体領域に含まれる特徴画素の分布が偏っているかどうかの判定がされる画像と、基準画像として登録された部分領域を含む画像とは、異なる画像である。従って、被写体追跡の開始時と継続時では、基準画像との相関度が最も高い被写体領域から抽出される特徴画素の信頼性が異なる。具体的には、被写体追跡の継続時において被写体領域から抽出される特徴画素の信頼性は、被写体追跡の開始時において被写体領域から抽出される特徴画素の信頼性よりも低い。   At the start of subject tracking, the image for which it is determined whether or not the distribution of the feature pixels included in the subject region is biased and the image including the partial region registered as the reference image are the same image. On the other hand, when subject tracking is continued, an image for which it is determined whether or not the distribution of feature pixels included in the subject region is biased is different from an image including a partial region registered as a reference image. Therefore, the reliability of the feature pixels extracted from the subject region having the highest degree of correlation with the reference image differs between the start and the continuation of subject tracking. Specifically, the reliability of feature pixels extracted from the subject area when subject tracking is continued is lower than the reliability of feature pixels extracted from the subject region at the start of subject tracking.

そこで、本実施形態では、被写体追跡の開始時における特徴画素の分布が偏っているかどうかを判定する際の閾値よりも、被写体追跡の継続時における特徴画素の分布が偏っているかどうかを判定する際の閾値が大きくなるように判定条件を設定する。このように、被写体追跡の継続時は、被写体追跡の開始時よりも特徴画素の信頼性が低いため、特徴画素の分布が偏っていると判定されにくくすることで、特徴画素の分布が偏っていると誤って判定してしまう可能性を抑えるようにしている。   Therefore, in this embodiment, when determining whether or not the distribution of feature pixels is biased when the subject tracking is continued, rather than the threshold value when determining whether or not the distribution of feature pixels is biased at the start of subject tracking. The determination condition is set so that the threshold value of. As described above, when the subject tracking is continued, the reliability of the feature pixels is lower than when the subject tracking is started. Therefore, it is difficult to determine that the distribution of the feature pixels is biased. I try to suppress the possibility of making a mistaken determination.

ここで、図4及び図5を参照して、撮像装置100における被写体追跡処理を説明する。被写体追跡処理は、時系列的に順次供給される画像に含まれる被写体を追跡する処理である。図4に示すS402乃至S420の処理は、被写体追跡部110で行われる。例えば、S404及びS416は取得部112による処理、S406及びS418は偏り検出部114による処理、S408及びS420は補正部115による処理、S410は登録部111による処理、S414は領域抽出部113による処理である。   Here, the subject tracking process in the imaging apparatus 100 will be described with reference to FIGS. The subject tracking process is a process for tracking a subject included in an image sequentially supplied in time series. The processing from S402 to S420 shown in FIG. For example, S404 and S416 are processing by the acquisition unit 112, S406 and S418 are processing by the bias detection unit 114, S408 and S420 are processing by the correction unit 115, S410 is processing by the registration unit 111, and S414 is processing by the region extraction unit 113. is there.

また、図5において、501、505及び509は、被写体追跡部110(取得部112)に入力される画像(被写体領域の位置を補正する前の画像)である。画像501の点線で囲まれた領域は、被写体指定部109によって指定された被写体に対応する被写体領域であり、画像505及び509の点線で囲まれた領域は、領域抽出部113によって抽出された被写体領域である。502、506及び510は、被写体領域に含まれる画素のうち、特徴画素を白色、特徴画素ではない画素を黒色で表現した2値化画像である。503、507及び511は、補正部115によって被写体領域の位置が補正された画像(被写体領域の位置を補正した後の画像)である。画像503、507及び511の点線で囲まれた領域は、補正部115によって位置が補正された被写体領域(即ち、被写体追跡部110の被写体の追跡結果)である。504、508及び512は、被写体領域の位置を補正した後の画像503、507及び511に基づいて、登録部111によって登録される基準画像である。   In FIG. 5, 501, 505, and 509 are images (images before the position of the subject area is corrected) input to the subject tracking unit 110 (acquisition unit 112). A region surrounded by a dotted line in the image 501 is a subject region corresponding to a subject specified by the subject specifying unit 109, and a region surrounded by a dotted line in the images 505 and 509 is a subject extracted by the region extracting unit 113. It is an area. Reference numerals 502, 506, and 510 denote binarized images in which, among the pixels included in the subject region, feature pixels are expressed in white and pixels that are not feature pixels are expressed in black. Reference numerals 503, 507, and 511 denote images in which the position of the subject area is corrected by the correction unit 115 (images after the position of the subject area is corrected). A region surrounded by dotted lines in the images 503, 507, and 511 is a subject region whose position is corrected by the correction unit 115 (that is, a subject tracking result of the subject tracking unit 110). Reference numerals 504, 508, and 512 are reference images registered by the registration unit 111 based on the images 503, 507, and 511 after correcting the position of the subject area.

図4を参照するに、S402では、被写体追跡部110は、撮像素子102から1番目に出力される画像(画像信号)を入力画像(図5の画像501)として読み込む。ここで、撮像素子102から1番目に出力される画像とは、撮像装置100における被写体追跡処理が開始されてから1番目に出力される画像であって、撮像装置100における撮像処理が開始されてから1番目に出力される画像ではない。   Referring to FIG. 4, in S402, the subject tracking unit 110 reads an image (image signal) output first from the image sensor 102 as an input image (image 501 in FIG. 5). Here, the first image output from the image sensor 102 is an image output first after the subject tracking processing in the imaging device 100 is started, and the imaging processing in the imaging device 100 is started. Is not the first output image.

次いで、S404では、取得部112は、S402において読み込んだ画像の、被写体指定部109によって指定された被写体に対応する被写体領域(例えば、図5の画像501の点線で囲まれた領域)に含まれる画素のそれぞれの彩度及び色相を取得する。   Next, in S404, the acquisition unit 112 is included in a subject region (for example, a region surrounded by a dotted line of the image 501 in FIG. 5) of the image read in S402 corresponding to the subject specified by the subject specifying unit 109. Acquire the saturation and hue of each pixel.

次に、S406では、偏り検出部114は、被写体指定部109によって指定された被写体に対応する被写体領域における特徴画素の分布の偏りを検出する。具体的には、上述したように、図3(a)に示すような分類条件を用いて、被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類して種類ごとのヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。これにより、例えば、図5の2値化画像502が得られる。そして、被写体領域、即ち、2値化画像502を水平方向及び垂直方向のそれぞれに等分した4つの分割領域のそれぞれに含まれる特徴画素の数を求め、2つの分割領域に含まれる特徴画素の数の差と閾値とを比較して、特徴画素の分布の偏りを検出する。図5の2値化画像502では、被写体指定部109によって指定された被写体に対応する被写体領域における特徴画素の分布は、紙面右下方向(即ち、垂直方向に関しては下方向、水平方向に関しては右方向)に偏っていると検出される。   In step S <b> 406, the bias detection unit 114 detects a bias in the distribution of feature pixels in the subject area corresponding to the subject specified by the subject specifying unit 109. Specifically, as described above, the classification conditions as shown in FIG. 3A are used to classify the pixels included in the subject area into a plurality of types according to the respective saturations and hues, and the histograms for each type. And the pixel classified into the type with the highest frequency is extracted as a feature pixel. Thereby, for example, the binarized image 502 of FIG. 5 is obtained. Then, the number of feature pixels included in each of the four divided regions obtained by equally dividing the subject region, that is, the binarized image 502 in the horizontal direction and the vertical direction, is obtained, and the feature pixels included in the two divided regions are obtained. The difference in the number and the threshold value are compared to detect a deviation in the distribution of the characteristic pixels. In the binarized image 502 of FIG. 5, the distribution of the feature pixels in the subject area corresponding to the subject specified by the subject specifying unit 109 is the lower right direction on the page (that is, the downward direction in the vertical direction and the right direction in the horizontal direction). Detected to be biased in the direction).

次いで、S408では、補正部115は、S406において検出された特徴画素の分布の偏りが小さくなるように、被写体領域の位置を補正する。これにより、図5の画像503の点線で囲まれた領域が示すように、被写体領域の位置は紙面右下方向に補正される。なお、図5の画像503の点線で囲まれた領域(被写体領域)は、被写体追跡部110による被写体の追跡の結果であるとも言える。また、S406において被写体領域における特徴画素の分布の偏りが検出されなかった場合には、被写体領域の位置を補正しないことは言うまでもない。   Next, in S408, the correction unit 115 corrects the position of the subject region so that the distribution of the characteristic pixel detected in S406 is reduced. As a result, the position of the subject area is corrected in the lower right direction on the page, as indicated by the area surrounded by the dotted line in the image 503 in FIG. Note that the region (subject region) surrounded by the dotted line in the image 503 in FIG. 5 can be said to be a result of subject tracking by the subject tracking unit 110. Needless to say, if the distribution of the feature pixel distribution in the subject area is not detected in S406, the position of the subject area is not corrected.

次に、S410では、登録部111は、S408において位置が補正された被写体領域に含まれる画像を、基準画像として登録する。これにより、図5の基準画像504が登録される。   Next, in S410, the registration unit 111 registers an image included in the subject area whose position has been corrected in S408 as a reference image. As a result, the reference image 504 in FIG. 5 is registered.

次いで、S412では、被写体追跡部110は、撮像素子102から2番目に出力される画像を入力画像(図5の画像505)として読み込む。   In step S412, the subject tracking unit 110 reads an image output second from the image sensor 102 as an input image (image 505 in FIG. 5).

次に、S414では、領域抽出部113は、S412において読み込まれた画像の、S410において登録された基準画像との相関度が最も高い領域を被写体領域として抽出する。具体的には、上述したように、S412において読み込んだ入力画像において、S410において登録された基準画像に対応する大きさの部分領域を2次元空間的に画素単位でずらしながら設定して、かかる部分領域の画像と基準画像との相関度を求める。これにより、基準画像との相関度が最も高い領域を抽出することが可能となり、例えば、図5の画像505の点線で囲まれた領域に示すように、被写体領域が抽出される。   Next, in S414, the region extraction unit 113 extracts, as a subject region, a region having the highest degree of correlation between the image read in S412 and the reference image registered in S410. Specifically, as described above, in the input image read in S412, the partial area having a size corresponding to the reference image registered in S410 is set while being shifted two-dimensionally in units of pixels. The degree of correlation between the region image and the reference image is obtained. This makes it possible to extract a region having the highest degree of correlation with the reference image. For example, a subject region is extracted as indicated by a region surrounded by a dotted line in the image 505 in FIG.

次いで、S416では、取得部112は、S412において読み込んだ画像の、S414において抽出された被写体領域(図5の画像505の点線で囲まれた領域)に含まれる画素のそれぞれの彩度及び色相を取得する。   Next, in S416, the acquisition unit 112 calculates the saturation and hue of each pixel included in the subject area extracted in S414 (the area surrounded by the dotted line in the image 505 in FIG. 5) of the image read in S412. get.

次に、S418では、偏り検出部114は、S414において抽出された被写体領域における特徴画素の分布の偏りを検出する。具体的には、上述したように、図3(b)に示すような分類条件を用いて、被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類して種類ごとのヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。これにより、例えば、図5の2値化画像506が得られる。そして、被写体領域、即ち、2値化画像506を水平方向及び垂直方向のそれぞれに等分した4つの分割領域のそれぞれに含まれる特徴画素の数を求め、2つの分割領域に含まれる特徴画素の数の差と閾値とを比較して、特徴画素の分布の偏りを検出する。図5の2値化画像506では、S414において抽出された被写体領域における特徴画素の分布は、偏っていないと検出される。   Next, in S418, the bias detection unit 114 detects a bias in the distribution of feature pixels in the subject area extracted in S414. Specifically, as described above, the classification conditions as shown in FIG. 3B are used to classify the pixels included in the subject region into a plurality of types according to the respective saturations and hues, and the histograms for each type. And the pixel classified into the type with the highest frequency is extracted as a feature pixel. Thereby, for example, the binarized image 506 of FIG. 5 is obtained. Then, the number of feature pixels included in each of the four divided regions obtained by equally dividing the subject region, that is, the binarized image 506 in the horizontal direction and the vertical direction, is obtained, and the feature pixels included in the two divided regions are obtained. The difference in the number and the threshold value are compared to detect a deviation in the distribution of the characteristic pixels. In the binarized image 506 in FIG. 5, it is detected that the distribution of the feature pixels in the subject area extracted in S414 is not biased.

次いで、S420では、補正部115は、S418において検出された特徴画素の分布の偏りが小さくなるように、被写体領域の位置を補正する。なお、図5の画像507の点線で囲まれた領域が示すように、S418において被写体領域における特徴画素の分布の偏りが検出されなかった場合には、被写体領域の位置を補正しないことは言うまでもない。   Next, in S420, the correction unit 115 corrects the position of the subject region so that the distribution of the feature pixel detected in S418 is reduced. Needless to say, the position of the subject region is not corrected when no distribution of the characteristic pixel distribution in the subject region is detected in S418, as indicated by the region surrounded by the dotted line of the image 507 in FIG. .

S420において被写体領域の位置が補正されたら、被写体追跡処理はS410に移行し、S410以降の処理が繰り返される。具体的には、図5の画像507の点線で囲まれた領域に含まれる画像を基準画像508として登録し(S410)、撮像素子102から3番目に出力される画像を入力画像(図5の画像509)として読み込む(S412)。そして、図5の画像509の、基準画像508との相関度が最も高い領域を被写体領域(図5の画像509の点線で囲まれた領域)として抽出し(S414)、かかる被写体領域に含まれる画素のそれぞれの彩度及び色相を取得する(S416)。また、図5の画像509の点線で囲まれた被写体領域に含まれる特徴画素を抽出し(図5の2値化画像510)、かかる被写体領域における特徴画素の分布の偏りを検出する(S418)。図5の2値化画像510では、被写体領域における特徴画素の分布は、紙面左方向(即ち、垂直方向に関しては偏りがなく、水平方向に関しては左方向)に偏っていると検出される。そして、図5の画像511の点線で囲まれた領域に示すように、被写体領域の位置を紙面左方向に補正し(S420)、図5の画像511の点線で囲まれた領域に含まれる画像を基準画像512として登録する(S410)。   When the position of the subject area is corrected in S420, the subject tracking process moves to S410, and the processes after S410 are repeated. Specifically, an image included in a region surrounded by a dotted line in the image 507 in FIG. 5 is registered as a reference image 508 (S410), and an image output third from the image sensor 102 is an input image (in FIG. 5). Image 509) is read (S412). Then, an area having the highest correlation with the reference image 508 in the image 509 in FIG. 5 is extracted as a subject area (area surrounded by a dotted line in the image 509 in FIG. 5) (S414), and is included in the subject area. The saturation and hue of each pixel are acquired (S416). Also, feature pixels included in the subject area surrounded by the dotted line of the image 509 in FIG. 5 are extracted (binarized image 510 in FIG. 5), and a bias in the distribution of feature pixels in the subject area is detected (S418). . In the binarized image 510 of FIG. 5, it is detected that the distribution of feature pixels in the subject area is biased leftward on the paper surface (that is, there is no bias in the vertical direction and leftward in the horizontal direction). Then, as shown in the area surrounded by the dotted line in the image 511 in FIG. 5, the position of the subject area is corrected in the left direction of the paper (S420), and the image included in the area surrounded by the dotted line in the image 511 in FIG. Is registered as a reference image 512 (S410).

ここで、図6を参照して、S406及びS418の処理を詳細に説明する。S602では、設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数(分類条件)、及び、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値(判定条件)を設定する。上述したように、被写体追跡の開始時と継続時では、分類条件及び判定条件を変更する必要がある。従って、設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数に関しては、S406の処理においては第1の数を設定し(図3(a))、S418の処理においては、第1の数よりも少ない第2の数を設定する(図3(b))。また、設定部204は、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値に関しては、S406の処理においては第1の閾値を設定し、S418の処理においては第1の閾値よりも大きい第2の閾値を設定する。   Here, with reference to FIG. 6, the processing of S406 and S418 will be described in detail. In step S <b> 602, the setting unit 204 determines whether the number of types (classification conditions) when the pixels included in the subject area are classified into a plurality of types and the distribution of the feature pixels included in the subject area are biased. The threshold value (judgment condition) is set. As described above, it is necessary to change the classification condition and the determination condition when starting and continuing the subject tracking. Accordingly, the setting unit 204 sets the first number in the process of S406 (FIG. 3A) with respect to the number of types when the pixels included in the subject region are classified into a plurality of types (FIG. 3A). In the processing, a second number smaller than the first number is set (FIG. 3B). The setting unit 204 sets a first threshold value in the process of S406 and a first threshold value in the process of S418 regarding the threshold value for determining whether the distribution of the feature pixels included in the subject area is biased. A second threshold value larger than the threshold value is set.

次いで、S604では、分割部201は、被写体領域を分割する。例えば、分割部201は、被写体領域に対して、被写体領域を2つの領域に等分する直線を垂直方向及び水平方向のそれぞれに設定して、被写体領域を4つの分割領域に分割する。   Next, in S604, the dividing unit 201 divides the subject area. For example, the dividing unit 201 divides the subject area into four divided areas by setting straight lines that equally divide the subject area into two areas in the vertical direction and the horizontal direction, respectively.

次に、S606では、画素検出部202は、被写体領域に含まれる画素を、その画素の彩度及び色相で複数の種類に分類してヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出する。ここで、被写体領域に含まれる画素を複数の種類に分類する際の種類の数(分類条件)は、S602において設定されている。被写体追跡の開始時には、画像に含まれる追跡対象の被写体とその他(背景など)との分離精度を向上させるために、画素を複数の種類に分類する際の種類の数が多く設定されている(図3(a))。一方、被写体追跡の継続時には、追跡対象の被写体の見え方の変化に対して頑健にするために、画素を複数の種類に分類する際の種類の数が少なく設定されている(図3(b))。   Next, in S606, the pixel detection unit 202 classifies the pixels included in the subject region into a plurality of types according to the saturation and hue of the pixels, generates a histogram, and the pixels classified into the type with the highest frequency Are extracted as feature pixels. Here, the number of types (classification conditions) when the pixels included in the subject region are classified into a plurality of types is set in S602. At the start of subject tracking, in order to improve the separation accuracy between the subject to be tracked included in the image and the other (background, etc.), a large number of types are set when the pixels are classified into a plurality of types ( FIG. 3 (a)). On the other hand, when subject tracking is continued, in order to be robust against changes in the appearance of the subject to be tracked, the number of types when the pixels are classified into a plurality of types is set small (FIG. 3B). )).

次いで、S608では、画素検出部202は、S606で抽出した特徴画素に基づいて、S604において分割された被写体領域の分割領域のそれぞれに含まれる特徴画素の数を検出する。   Next, in S608, the pixel detection unit 202 detects the number of feature pixels included in each of the divided regions of the subject region divided in S604 based on the feature pixels extracted in S606.

次に、S610では、偏り判定部203は、S604において分割された被写体領域の分割領域のうち、水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上であるかどうかを判定する。   Next, in S610, the bias determination unit 203 determines whether the difference in the number of feature pixels included in each of the two divided areas divided by the horizontal straight line among the divided areas of the subject area divided in S604 is a threshold value. It is determined whether it is above.

水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上である場合には、S612において、偏り判定部203は、被写体領域における特徴画素の分布が垂直方向に偏っていると判定する。この際、偏り判定部203は、水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差に基づいて、その偏り方向(上方向に偏っているのか下方向に偏っているのか)及び偏り量を求める。一方、水平方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上でない場合には、S614において、偏り判定部203は、被写体領域における特徴画素の分布が垂直方向に偏っていないと判定する。例えば、図5に示す2値化画像502では、特徴画素の分布が垂直方向に偏っていると判定され、図5に示す2値化画像506及び510では、特徴画素の分布が垂直方向に偏っていないと判定される。   When the difference in the number of feature pixels included in each of the two divided regions divided by the horizontal straight line is equal to or greater than the threshold value, in S612, the bias determination unit 203 determines that the distribution of the feature pixels in the subject region is vertical. It is determined that the direction is biased. At this time, the bias determination unit 203 determines the bias direction (upward or downward) based on the difference in the number of feature pixels included in each of the two divided regions divided by the horizontal straight line. Is it biased) and finds the amount of bias. On the other hand, if the difference in the number of feature pixels included in each of the two divided regions divided by the horizontal straight line is not greater than or equal to the threshold value, in S614, the bias determination unit 203 determines that the distribution of the feature pixels in the subject region is It is determined that there is no bias in the vertical direction. For example, in the binarized image 502 shown in FIG. 5, it is determined that the distribution of feature pixels is biased in the vertical direction, and in the binarized images 506 and 510 shown in FIG. 5, the distribution of feature pixels is biased in the vertical direction. It is determined that it is not.

なお、被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値は、S602において設定されている。被写体追跡の開始時には、特徴画素の分布が偏っていると判定されやすくするために、閾値が低く設定されている。一方、被写体追跡の継続時には、特徴画素の分布が偏っていると判定されにくくするために、閾値が高く設定されている。   Note that a threshold for determining whether the distribution of the feature pixels included in the subject area is biased is set in S602. At the start of subject tracking, the threshold value is set low in order to easily determine that the distribution of feature pixels is biased. On the other hand, when subject tracking is continued, the threshold value is set high in order to make it difficult to determine that the distribution of feature pixels is biased.

S616では、偏り判定部203は、S604において分割された被写体領域の分割領域のうち、垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上であるかどうかを判定する。   In S616, the bias determination unit 203 has a difference in the number of feature pixels included in each of the two divided areas divided by the straight line in the vertical direction among the divided areas of the subject area divided in S604 equal to or greater than a threshold value. Determine whether or not.

垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上である場合には、S618において、偏り判定部203は、被写体領域における特徴画素の分布が水平方向に偏っていると判定する。この際、偏り判定部203は、垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差に基づいて、その偏り方向(左方向に偏っているのか右方向に偏っているのか)及び偏り量を求める。一方、垂直方向の直線により分割された2つの分割領域のそれぞれに含まれる特徴画素の数の差が閾値以上でない場合には、S618において、偏り判定部203は、被写体領域における特徴画素の分布が水平方向に偏っていないと判定する。例えば、図5に示す2値化画像502及び510では、特徴画素の分布が水平方向に偏っていると判定され、図5に示す2値化画像506では、特徴画素の分布が水平方向に偏っていないと判定される。   If the difference in the number of feature pixels included in each of the two divided regions divided by the straight line in the vertical direction is equal to or greater than the threshold value, in S618, the bias determination unit 203 determines that the distribution of the feature pixels in the subject region is horizontal. It is determined that the direction is biased. At this time, the bias determination unit 203 determines the bias direction (biased in the left direction or rightward) based on the difference in the number of feature pixels included in each of the two divided regions divided by the straight line in the vertical direction. Is it biased) and finds the amount of bias. On the other hand, if the difference in the number of feature pixels included in each of the two divided regions divided by the straight line in the vertical direction is not equal to or greater than the threshold value, in S618, the bias determination unit 203 determines that the distribution of the feature pixels in the subject region is It is determined that there is no bias in the horizontal direction. For example, in the binarized images 502 and 510 shown in FIG. 5, it is determined that the distribution of feature pixels is biased in the horizontal direction, and in the binarized image 506 shown in FIG. 5, the distribution of feature pixels is biased in the horizontal direction. It is determined that it is not.

なお、上述した被写体追跡処理では、被写体領域における特徴画素の分布の偏りが検出された場合に、被写体領域の位置を1度だけ補正している。但し、補正部115によって位置が補正された被写体領域における特徴画素の分布の偏りを更に検出し、特徴画素の分布の偏りが検出された場合には、被写体領域の位置を更に補正してもよい。換言すれば、被写体領域における特徴画素の分布の偏りが検出されなくなるまで、偏り検出部114による処理及び補正部115による処理を繰り返してもよい。また、補正部115によって位置が補正された被写体領域に含まれる特徴画素の数が、位置が補正される前の被写体領域に含まれる特徴画素の数より小さい場合には、被写体領域の位置を補正しないようにしてもよい。更に、このような2つの処理は、被写体追跡の開始時と継続時とで切り替えてもよい。具体的には、被写体追跡の開始時には、被写体領域から抽出される特徴画素の信頼性が高いため、特徴画素の分布の偏りがなくなるまで、偏り検出部114による処理及び補正部115による処理を繰り返す。一方、被写体追跡の継続時には、被写体領域から抽出される特徴画素の信頼性が低いため、位置が補正された被写体領域に含まれる特徴画素の数が、位置が補正される前の被写体領域に含まれる特徴画素の数より小さい場合には、被写体領域の位置を補正しない。   In the subject tracking process described above, the position of the subject region is corrected only once when a deviation in the distribution of feature pixels in the subject region is detected. However, if the deviation of the distribution of feature pixels in the subject area whose position has been corrected by the correction unit 115 is further detected, and if the deviation of the distribution of feature pixels is detected, the position of the subject area may be further corrected. . In other words, the processing by the bias detection unit 114 and the processing by the correction unit 115 may be repeated until no bias in the distribution of the characteristic pixels in the subject region is detected. Further, when the number of feature pixels included in the subject area whose position is corrected by the correction unit 115 is smaller than the number of feature pixels included in the subject area before the position is corrected, the position of the subject area is corrected. You may make it not. Furthermore, these two processes may be switched between when the subject tracking starts and when it continues. Specifically, since the reliability of the feature pixels extracted from the subject region is high at the start of subject tracking, the processing by the bias detection unit 114 and the processing by the correction unit 115 are repeated until there is no bias in the distribution of feature pixels. . On the other hand, when subject tracking is continued, the reliability of feature pixels extracted from the subject region is low, so the number of feature pixels included in the subject region whose position is corrected is included in the subject region before the position is corrected. If it is smaller than the number of feature pixels to be corrected, the position of the subject area is not corrected.

このように、本実施形態の撮像装置100では、被写体指定部109によって指定された被写体領域又は領域抽出部113によって抽出された被写体領域に含まれる画素をそれぞれの彩度及び色相で複数の種類に分類してヒストグラムを生成する。そして、頻度が最も高い種類に分類された画素を特徴画素として抽出し、被写体領域における特徴画素の分布の偏りが小さくなるように、被写体領域の位置を補正する。この際、被写体追跡の開始時では、被写体領域に含まれる画素を複数の種類に分類する際の種類の数を多くすると共に、特徴画素の分布が偏っているかどうかを判定する際の閾値を低くしている。また、被写体追跡の継続時では、被写体領域に含まれる画素を複数の種類に分類する際の種類の数を少なくすると共に、特徴画素の分布が偏っているかどうかを判定する際の閾値を高くしている。これにより、被写体追跡の開始時では、追跡対象の中心からずれた領域を指定した場合であっても、追跡対象が中心となるように(特徴画素の分布の偏りが小さくなるように)被写体領域の位置を補正して、追跡対象を良好に追跡することができる。また、被写体追跡の継続時では、追跡対象の見え方が変化した場合であっても、かかる変化に頑健な条件で特徴画素の抽出及び特徴画素の分布に偏りがあるかどうかの判定を行っているため、追跡対象を良好に追跡することができる。   As described above, in the imaging apparatus 100 according to the present embodiment, the pixels included in the subject region specified by the subject specifying unit 109 or the subject region extracted by the region extracting unit 113 are divided into a plurality of types with respective saturations and hues. Classify and generate a histogram. Then, the pixel classified into the type with the highest frequency is extracted as a feature pixel, and the position of the subject region is corrected so that the distribution of the feature pixel distribution in the subject region is reduced. At this time, at the start of subject tracking, the number of types for classifying the pixels included in the subject region into a plurality of types is increased, and the threshold for determining whether the distribution of feature pixels is biased is lowered. is doing. Further, when subject tracking is continued, the number of types for classifying the pixels included in the subject region into a plurality of types is reduced, and the threshold for determining whether the distribution of feature pixels is biased is increased. ing. As a result, at the start of subject tracking, even if an area deviated from the center of the tracking target is specified, the subject area is set so that the tracking target is at the center (so that the distribution of feature pixel distribution is reduced). By correcting the position of the tracking object, the tracking target can be tracked well. In addition, when subject tracking continues, even if the appearance of the tracking target changes, the extraction of feature pixels and the determination of whether there is a bias in the distribution of feature pixels is performed under conditions robust to such changes. Therefore, the tracking target can be tracked well.

なお、本実施形態では、設定部204は、被写体領域に含まれる画素を複数の種類に分類する際の種類の数及び被写体領域に含まれる特徴画素の分布が偏っているかどうかを判定する際の閾値について、被写体追跡の開始時と継続時とで異なる値を設定している。但し、設定部204は、これらのいずれか一方のみを、被写体追跡の開始時と継続時とで異なる値に設定するようにしてもよい。設定部204は、被写体追跡の開始時よりも、被写体追跡の継続時の方が、特徴画素の分布の偏りを判定する基準が緩くなるような条件を設定するのであれば、上述した条件以外について被写体追跡の開始時と継続時とで別々の設定を行うようにしてもよい。   In the present embodiment, the setting unit 204 determines whether the number of types when the pixels included in the subject area are classified into a plurality of types and whether the distribution of the feature pixels included in the subject area is biased. As for the threshold value, different values are set when the subject tracking starts and when it continues. However, the setting unit 204 may set only one of these values to different values when the subject tracking is started and when it is continued. If the setting unit 204 sets conditions such that the criteria for judging the bias in the distribution of the feature pixels are looser when the subject tracking is continued than when the subject tracking is started, other than the above-described conditions Different settings may be made when the subject tracking starts and when it continues.

また、偏り判定部203は、被写体領域を水平方向及び垂直方向にそれぞれ2つの領域に分割していたが、被写体領域における特徴画素の分布の偏りが検出できるように対称な複数の領域に分割するのであれば、どのように分割してもよい。また、被写体追跡の開始時は8分割、被写体追跡の継続時には4分割というように、被写体追跡の継続時よりも開始時において、より細かな偏り判定を行うようにしてもよい。   In addition, the bias determination unit 203 divides the subject area into two areas in the horizontal direction and the vertical direction, but divides the subject area into a plurality of symmetrical areas so as to detect the bias in the distribution of the feature pixels in the subject area. If so, it may be divided in any way. Further, the bias determination may be performed more finely at the start time than when the subject tracking is continued, such as eight divisions when the subject tracking is started and four divisions when the subject tracking is continued.

また、取得部112は、画像における色相及び彩度を取得し、偏り検出部114は、この色相及び彩度を分類することで特徴画素を抽出していたが、色相又は彩度だけを用いて特徴画素を抽出してもよい。また、色相又は彩度の代わりに明度を用いて特徴画素を抽出してもよいし、色相、彩度及び明度の全てを用いて特徴画素を抽出してもよい。   Further, the acquisition unit 112 acquires the hue and saturation in the image, and the bias detection unit 114 extracts the feature pixels by classifying the hue and saturation, but using only the hue or saturation. Feature pixels may be extracted. In addition, feature pixels may be extracted using brightness instead of hue or saturation, or feature pixels may be extracted using all of hue, saturation, and brightness.

また、画素検出部202は、取得部112で取得された色相及び彩度のヒストグラムを生成し、頻度が最も高い種類に分類された画素を特徴画素として抽出しているが、頻度が高い複数の種類に分類された画素を特徴画素としてもよい。また、取得部112で取得された色相及び彩度のうち、被写体領域外において抽出される画素数に対して、被写体領域内で抽出される画素数の割合が閾値以上となる色相及び彩度の種類に分類された画素を特徴画素としてもよい。   In addition, the pixel detection unit 202 generates a histogram of hue and saturation acquired by the acquisition unit 112 and extracts pixels classified as the type with the highest frequency as feature pixels. Pixels classified into types may be used as feature pixels. Further, out of the hue and saturation acquired by the acquisition unit 112, the ratio of the number of pixels extracted outside the subject region to the number of pixels extracted outside the subject region is equal to or greater than the threshold. Pixels classified into types may be used as feature pixels.

また、本実施形態では、被写体追跡装置(被写体追跡部110)を撮像装置に適用しているが、被写体追跡装置を適用する装置は撮像装置に限定されるものではない。例えば、外部装置や記録媒体などから時系列的に順次供給される画像(再生データ)を表示する表示装置に被写体追跡装置(被写体追跡部110)を適用してもよい。かかる表示装置では、再生データを被写体追跡処理の対象データとして被写体追跡処理が行われ、追跡対象の被写体の情報(被写体の位置や大きさなど)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像の被写体の位置に被写体の情報を重畳して表示する制御や被写体の輝度や色情報に応じた画像の輝度や色合いなどの制御を行う。   In this embodiment, the subject tracking device (subject tracking unit 110) is applied to the imaging device, but the device to which the subject tracking device is applied is not limited to the imaging device. For example, the subject tracking device (subject tracking unit 110) may be applied to a display device that displays images (reproduction data) sequentially supplied in time series from an external device or a recording medium. In such a display device, subject tracking processing is performed using the reproduction data as target data for subject tracking processing, and display conditions for displaying an image based on information on the subject to be tracked (position and size of the subject) are set. Control. Specifically, control is performed to superimpose and display subject information on the position of the subject of the image, and control of brightness and color of the image according to subject brightness and color information.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。例えば、撮像装置100は、画像に含まれる被写体を指定する被写体指定部109を有していなくてもよい。このような場合、撮像装置100は、画像から特定の被写体を検出する被写体検出部を有し、かかる被写体検出部で検出された被写体に対応する被写体領域を、被写体追跡の開始時の基準画像として登録する。また、焦点調整機構や露出調整機構に利用される画像の所定領域(AF枠や測光枠など)を、被写体追跡の開始時の基準画像として登録してもよい。また、補正部115は、被写体領域の位置を補正するだけはなく、被写体領域のサイズや形状を補正してもよい。被写体領域のサイズを補正する場合は、例えば、位置が補正された被写体領域の外周方向の各辺において、特徴画素の存在する割合を検出し、特徴画素の存在する割合が大きければ、その辺の領域を含めた領域を被写体領域として抽出する。また、位置が補正された被写体領域の内周方向の各辺において、特徴画素の存在する割合を判定し、特徴画素の存在する割合が小さければ、その辺の領域を除いた領域を被写体領域として抽出する。   As mentioned above, although preferable embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, the imaging apparatus 100 may not include the subject specifying unit 109 that specifies a subject included in the image. In such a case, the imaging apparatus 100 includes a subject detection unit that detects a specific subject from the image, and uses a subject area corresponding to the subject detected by the subject detection unit as a reference image at the start of subject tracking. sign up. Also, a predetermined area (such as an AF frame or a photometric frame) of an image used for the focus adjustment mechanism or the exposure adjustment mechanism may be registered as a reference image at the start of subject tracking. Further, the correction unit 115 may correct not only the position of the subject area but also the size and shape of the subject area. When correcting the size of the subject area, for example, the ratio of the presence of feature pixels is detected on each side in the outer peripheral direction of the subject area whose position has been corrected. An area including the area is extracted as a subject area. In addition, the ratio of the presence of feature pixels is determined for each side in the inner circumference direction of the subject area whose position has been corrected. If the ratio of feature pixels is small, the area excluding the area of that side is defined as the subject area. Extract.

Claims (9)

時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置であって、
前記画像のうちn番目(nは自然数)に供給される画像から、当該画像に含まれる被写体を指定する指定手段と、
前記被写体に対応する被写体領域を前記画像から抽出するための基準画像を登録する登録手段と、
前記画像の、前記基準画像との相関度が最も高い領域を前記被写体領域として抽出する領域抽出手段と、
前記n番目に供給される画像については前記指定手段によって指定された被写体を含む被写体領域に含まれる特徴画素を抽出し、前記画像のうちn+1番目以降に供給される画像については前記領域抽出手段によって抽出された前記被写体領域に含まれる特徴画素を抽出して、前記被写体領域における前記特徴画素の分布の偏りを検出する偏り検出手段と、
前記偏り検出手段によって検出された前記被写体領域における前記特徴画素の分布の偏りが小さくなるように、前記被写体領域の位置を補正する補正手段と、
を有し、
前記偏り検出手段は、
前記n番目に供給される画像における前記特徴画素の分布の偏りを検出する際よりも、前記n+1番目以降に供給される画像における前記特徴画素の分布の偏りを検出する際において、前記特徴画素の分布の偏りを判定する基準を緩く設定することを特徴とする被写体追跡装置。
A subject tracking device that tracks a subject included in images sequentially supplied in time series,
Designation means for designating a subject included in the image from images supplied to the nth (n is a natural number) of the images;
Registration means for registering a reference image for extracting a subject area corresponding to the subject from the image;
A region extracting means for extracting, as the subject region, a region having the highest degree of correlation between the image and the reference image;
For the n-th supplied image, feature pixels included in the subject area including the subject specified by the specifying unit are extracted, and for the n + 1th and subsequent images among the images, the region extracting unit extracts the feature pixels. Bias detection means for extracting feature pixels included in the extracted subject area and detecting a bias in the distribution of the feature pixels in the subject area;
Correction means for correcting the position of the subject area so as to reduce the bias of the distribution of the feature pixels in the subject area detected by the bias detection means;
Have
The bias detection means includes
When detecting the bias of the distribution of the feature pixels in the n + 1th and subsequent images, rather than when detecting the bias of the distribution of the feature pixels in the nth image supplied, An object tracking device characterized in that a criterion for determining a distribution bias is set loosely.
前記偏り検出手段は、前記被写体領域に含まれる画素を複数の種類に分類し、いずれかの種類に含まれる画素を特徴画素とするものであって、前記n番目に供給される画像の前記被写体領域に含まれる画素を分類する種類の数よりも、前記n+1番目以降に供給される画像を分類する種類の数を少なくすることを特徴とする請求項1に記載の被写体追跡装置。   The bias detection unit classifies the pixels included in the subject area into a plurality of types and uses the pixels included in any of the types as a feature pixel, and the subject of the nth image supplied The subject tracking device according to claim 1, wherein the number of types for classifying the images supplied from the (n + 1) th onward is smaller than the number of types for classifying pixels included in a region. 前記偏り検出手段は、前記被写体領域に含まれる画素を複数の種類に分類し、いずれかの種類に含まれる画素を特徴画素とするとともに、前記被写体領域を複数の領域に分割し、それぞれの領域に含まれる前記特徴画素の数を求め、前記複数の領域に含まれる前記特徴画素の数の差が閾値以上である場合に、前記特徴画素の分布が偏っていると判定するものであって、前記n番目に供給される画像における前記閾値よりも、前記n+1番目以降に供給される画像における前記閾値を低く設定することを特徴とする請求項1又は2に記載の被写体追跡装置。   The bias detection unit classifies the pixels included in the subject area into a plurality of types, sets the pixels included in any of the types as feature pixels, divides the subject area into a plurality of areas, Determining the number of the feature pixels included in the plurality of regions, and determining that the distribution of the feature pixels is biased when a difference in the number of the feature pixels included in the plurality of regions is equal to or greater than a threshold, 3. The subject tracking device according to claim 1, wherein the threshold value in the n + 1-th and subsequent images is set lower than the threshold value in the n-th image supplied. 前記偏り検出手段は、前記被写体領域に含まれる画素を彩度、色相及び明度の少なくともいずれか1つに基づいて複数の種類に分類して前記種類ごとのヒストグラムを生成し、前記ヒストグラムにおいて最も頻度の高い種類に分類された画素を特徴画素として抽出することを特徴とする請求項1乃至3のうちいずれか1項に記載の被写体追跡装置。   The bias detection unit classifies the pixels included in the subject region into a plurality of types based on at least one of saturation, hue, and brightness, generates a histogram for each type, and generates the histogram most frequently in the histogram. The subject tracking device according to claim 1, wherein pixels classified into a higher type are extracted as feature pixels. 前記偏り検出手段は、前記補正手段によって位置が補正された被写体領域における前記特徴画素の分布の偏りを更に検出し、
前記補正手段は、前記補正手段によって位置が補正された被写体領域における前記特徴画素の分布の偏りが前記偏り検出手段によって検出された場合に、前記被写体領域の位置を更に補正することを特徴とする請求項1乃至4のうちいずれか1項に記載の被写体追跡装置。
The bias detection means further detects a bias in the distribution of the feature pixels in the subject area whose position has been corrected by the correction means,
The correction means further corrects the position of the subject area when the deviation of the distribution of the characteristic pixels in the subject area whose position is corrected by the correction means is detected by the deviation detection means. The subject tracking device according to any one of claims 1 to 4.
前記補正手段は、前記補正手段によって位置が補正された被写体領域に含まれる前記特徴画素の数が、位置が補正される前の被写体領域に含まれる前記特徴画素の数より小さい場合は、前記n+1番目以降に供給される画像については、前記被写体領域の位置を補正しないことを特徴とする請求項1乃至5のうちいずれか1項に記載の被写体追跡装置。   When the number of the feature pixels included in the subject region whose position is corrected by the correction unit is smaller than the number of the feature pixels included in the subject region before the position is corrected, 6. The subject tracking apparatus according to claim 1, wherein the position of the subject region is not corrected for images supplied after the first time. 前記登録手段は、前記補正手段によって位置が補正された被写体領域を、次に供給される画像に用いる基準画像として登録することを特徴とする請求項1乃至6のうちいずれか1項に記載の被写体追跡装置。   7. The registration unit according to claim 1, wherein the registration unit registers the subject region whose position is corrected by the correction unit as a reference image used for an image to be supplied next. Subject tracking device. 時系列的に順次供給される画像に含まれる被写体を追跡する被写体追跡装置の制御方法であって、
指定手段が、前記画像のうちn番目(nは自然数)に供給される画像から、当該画像に含まれる被写体を指定する指定ステップと、
登録手段が、前記被写体に対応する被写体領域を前記画像から抽出するための基準画像を登録する登録ステップと、
領域抽出手段が、前記画像の、前記基準画像との相関度が最も高い領域を前記被写体領域として抽出する領域抽出ステップと、
偏り検出手段が、前記n番目に供給される画像については前記指定ステップで指定された被写体を含む被写体領域に含まれる特徴画素を抽出し、前記画像のうちn+1番目以降に供給される画像については前記領域抽出ステップで抽出された前記被写体領域に含まれる特徴画素を抽出して、前記被写体領域における前記特徴画素の分布の偏りを検出する偏り検出ステップと、
補正手段が、前記偏り検出ステップで検出された前記被写体領域における前記特徴画素の分布の偏りが小さくなるように、前記被写体領域の位置を補正する補正ステップと、
を有し、
前記偏り検出ステップでは、
前記n番目に供給される画像における前記特徴画素の分布の偏りを検出する際よりも、前記n+1番目以降に供給される画像における前記特徴画素の分布の偏りを検出する際において、前記特徴画素の分布の偏りを判定する基準を緩く設定することを特徴とする制御方法。
A method for controlling a subject tracking device that tracks a subject included in images sequentially supplied in time series,
A designating step for designating a subject included in the image from an image supplied to the nth (n is a natural number) of the images;
A registration step for registering a reference image for extracting a subject area corresponding to the subject from the image;
A region extracting step in which a region extracting unit extracts, as the subject region, a region having the highest degree of correlation between the image and the reference image;
The bias detection means extracts feature pixels included in the subject area including the subject specified in the specifying step for the n-th supplied image, and for the images supplied after the (n + 1) th of the images. A bias detection step of extracting a feature pixel included in the subject region extracted in the region extraction step and detecting a bias of a distribution of the feature pixel in the subject region;
A correcting step for correcting the position of the subject area so that the bias of the distribution of the characteristic pixels in the subject area detected in the bias detecting step is reduced;
Have
In the bias detection step,
When detecting the bias of the distribution of the feature pixels in the n + 1th and subsequent images, rather than when detecting the bias of the distribution of the feature pixels in the nth image supplied, A control method characterized by loosely setting a criterion for judging distribution bias.
請求項8に記載の制御方法の各ステップをコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the control method of Claim 8.
JP2009296382A 2009-12-25 2009-12-25 Subject tracking device, control method and program for subject tracking device Active JP5395651B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009296382A JP5395651B2 (en) 2009-12-25 2009-12-25 Subject tracking device, control method and program for subject tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009296382A JP5395651B2 (en) 2009-12-25 2009-12-25 Subject tracking device, control method and program for subject tracking device

Publications (2)

Publication Number Publication Date
JP2011138226A true JP2011138226A (en) 2011-07-14
JP5395651B2 JP5395651B2 (en) 2014-01-22

Family

ID=44349623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009296382A Active JP5395651B2 (en) 2009-12-25 2009-12-25 Subject tracking device, control method and program for subject tracking device

Country Status (1)

Country Link
JP (1) JP5395651B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133549A (en) * 2014-01-09 2015-07-23 株式会社メイクソフトウェア Image processing system, image processing method and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076156A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image
JP2004247921A (en) * 2003-02-13 2004-09-02 Nissan Motor Co Ltd Vehicle surrounding monitoring device
JP2007280088A (en) * 2006-04-07 2007-10-25 Konica Minolta Holdings Inc Specific object detection device, specific object detection method, and specific object detection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076156A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image
JP2004247921A (en) * 2003-02-13 2004-09-02 Nissan Motor Co Ltd Vehicle surrounding monitoring device
JP2007280088A (en) * 2006-04-07 2007-10-25 Konica Minolta Holdings Inc Specific object detection device, specific object detection method, and specific object detection program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133549A (en) * 2014-01-09 2015-07-23 株式会社メイクソフトウェア Image processing system, image processing method and computer program

Also Published As

Publication number Publication date
JP5395651B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
KR101155406B1 (en) Image processing apparatus, image processing method and computer readable-medium
JP4772839B2 (en) Image identification method and imaging apparatus
JP5219795B2 (en) Subject tracking device, control method thereof, imaging device, display device, and program
US20100079624A1 (en) Image processing apparatus, image processing method, imaging apparatus
KR101441786B1 (en) Subject determination apparatus, subject determination method and recording medium storing program thereof
JP6924064B2 (en) Image processing device and its control method, and image pickup device
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
JP2016123044A (en) Subject tracking device, and control method and program therefor
JP2009123081A (en) Face detection method and photographing apparatus
US7835552B2 (en) Image capturing apparatus and face area extraction method
JP5441669B2 (en) Image processing apparatus and control method thereof
JP5167236B2 (en) Subject tracking device and control method thereof
JP5395651B2 (en) Subject tracking device, control method and program for subject tracking device
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP5451364B2 (en) Subject tracking device and control method thereof
JP2009252069A (en) Image processor, imaging device, image processing method and program
JP2009009206A (en) Extraction method of outline inside image and image processor therefor
JP5222429B2 (en) Subject tracking device and control method thereof
JP7034781B2 (en) Image processing equipment, image processing methods, and programs
JP2012133587A (en) Image analysis device, image analysis method and program
JP2007249526A (en) Imaging device, and face area extraction method
JP5247419B2 (en) Imaging apparatus and subject tracking method
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
JP2010219862A (en) Face detection device, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131018

R151 Written notification of patent or utility model registration

Ref document number: 5395651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151