JP5395650B2 - Subject area extraction device and control method thereof, subject tracking device, and program - Google Patents
Subject area extraction device and control method thereof, subject tracking device, and program Download PDFInfo
- Publication number
- JP5395650B2 JP5395650B2 JP2009293207A JP2009293207A JP5395650B2 JP 5395650 B2 JP5395650 B2 JP 5395650B2 JP 2009293207 A JP2009293207 A JP 2009293207A JP 2009293207 A JP2009293207 A JP 2009293207A JP 5395650 B2 JP5395650 B2 JP 5395650B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- area
- feature
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、被写体領域抽出装置およびその制御方法、並びに被写体追跡装置、並びにプログラムに関する。 The present invention relates to a subject area extraction device, a control method thereof, a subject tracking device, and a program.
時系列的に逐次供給される画像から特定の被写体を検出し、その検出した被写体を追跡する画像処理方法は非常に有用であり、例えば動画像における人間の顔領域の人体領域の特定に利用されている。この画像処理方法は、通信会議、マン・マシン・インタフェース、セキュリティ、特定の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。また、デジタルカメラやデジタルビデオカメラでは、撮影画像からタッチパネルなどを用いて任意の被写体を指定し追跡することにより、時系列的に逐次供給される画像から特定の被写体を検出し、その結果を制御対象として焦点や露出を最適化させている。 An image processing method for detecting a specific subject from images sequentially supplied in time series and tracking the detected subject is very useful, for example, for identifying a human body region of a human face region in a moving image. ing. This image processing method can be used in many fields such as teleconferencing, man-machine interface, security, monitor system for tracking a specific subject, image compression and the like. Also, with digital cameras and digital video cameras, by specifying and tracking an arbitrary subject from a captured image using a touch panel or the like, a specific subject is detected from images sequentially supplied in time series, and the result is controlled. The focus and exposure are optimized as targets.
例えば、特許文献1には、画像中の顔の位置を検出し、顔に焦点を合わせると共に、顔に最適な露出で撮影する撮影装置が開示されている。また、検出された顔を追跡することにより、時系列的に安定した制御が可能になる。また、特許文献2には、自動で特定の被写体を追跡する技術として、テンプレートマッチングの手法を利用した技術が記載されている。テンプレートマッチングは、追跡対象の画像領域を切り出した部分画像を基準画像(テンプレート画像)として登録し、画像内で基準画像と最も相関度が高い領域を推定し、特定の被写体を追跡する手法である。
For example,
上記特許文献2では、基準画像(テンプレート画像)と供給された画像との相関度に基づき、被写体を追跡する。この被写体追跡における基準画像の登録方法としては、タッチパネルなどを用いて画像中の任意の領域を指定し、この指定領域を基準として基準画像を登録する。タッチパネルなどを用いて画像中の任意の領域を指定することにより、任意の被写体を追跡することができる。 In Patent Document 2, the subject is tracked based on the degree of correlation between the reference image (template image) and the supplied image. As a reference image registration method in the subject tracking, an arbitrary area in an image is designated using a touch panel or the like, and the reference image is registered with the designated area as a reference. By specifying an arbitrary area in the image using a touch panel or the like, an arbitrary subject can be tracked.
ここで、指定領域が目的とする追跡対象の重心からずれていた場合などでは、基準画像内に背景などの目的とする追跡対象とは異なる画像が含まれる。背景などの目的とする追跡対象とは異なる画像が混在した基準画像を用いた場合、追跡対象とは異なる画像の影響により誤った領域を追跡してしまう場合がある。 Here, when the designated area is deviated from the center of gravity of the target tracking target, an image different from the target tracking target such as the background is included in the reference image. When a reference image in which an image different from a target tracking target such as a background is used is used, an erroneous region may be tracked due to the influence of an image different from the tracking target.
本発明は、上記課題に鑑みてなされ、画像中の任意の被写体が指定された場合に、指定された領域から目的とする被写体領域を判定し抽出する技術を実現する。 The present invention has been made in view of the above problems, and realizes a technique for determining and extracting a target subject region from a designated region when an arbitrary subject in the image is designated.
上記課題を解決するために、本発明の被写体領域抽出装置は、画像中から所定の被写体領域を抽出する被写体領域抽出装置であって、前記画像中から前記所定の被写体を含む領域を指定する指定手段と、前記指定手段により指定された領域から前記所定の被写体が持つ特徴量を抽出する抽出手段と、前記指定された領域に含まれる前記所定の被写体が持つ特徴量と一致する特徴画素の分布状況に基づいて当該指定された領域における前記所定の被写体の位置の偏りを検出する検出手段と、前記指定された領域における前記所定の被写体の位置の偏りが小さくなるように当該指定された領域の位置を補正する補正手段と、を備え、前記抽出手段は、前記指定された領域内の各画素の色相成分および明度成分の少なくともいずれかを用いて前記特徴量を抽出すると共に、被写体から得られる色情報に応じて前記色相成分と明度成分の重み付けを変えて前記特徴量を抽出する。 In order to solve the above-described problem, the subject area extraction apparatus of the present invention is a subject area extraction apparatus that extracts a predetermined subject area from an image, and designates an area that includes the predetermined subject from the image. Means for extracting a feature quantity of the predetermined subject from the area designated by the designation means, and distribution of feature pixels matching the feature quantity of the predetermined subject included in the designated area Detection means for detecting a deviation in the position of the predetermined subject in the designated area based on the situation, and detection of the position in the designated area so that the deviation in the position of the predetermined subject in the designated area is reduced Correction means for correcting the position, and the extraction means uses the hue component and / or the brightness component of each pixel in the designated area. Extracts the amount, by changing the weighting of the hue component and the luminance component in accordance with the color information obtained from the subject to extract the feature quantity.
本発明によれば、画像中の被写体が指定された領域と、画像中の目的とする被写体の位置とにずれがあった場合などでも、目的とする被写体を抽出することができる。 According to the present invention, it is possible to extract a target subject even when there is a difference between a region where the subject in the image is designated and the position of the target subject in the image.
以下に、図面を参照して本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to drawings is demonstrated in detail. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
<撮像装置の構成および動作>先ず、図1を参照して、本発明の被写体領域抽出装置として機能する実施形態の撮像装置の構成および動作について説明する。図1に示すように、撮像装置100では、撮像レンズ101によって被写体像を表す光線が集光され、CCDイメージセンサやCMOSイメージセンサなどである撮像素子102に入射する。撮像素子102は、入射した光線の強度に応じた電気信号を画素単位で出力する。この電気信号は、撮像素子102で撮像された被写体像を示すアナログの映像信号である。 <Configuration and Operation of Imaging Device> First, the configuration and operation of an imaging device according to an embodiment functioning as a subject area extraction device of the present invention will be described with reference to FIG. As shown in FIG. 1, in the imaging apparatus 100, light rays representing a subject image are collected by an imaging lens 101 and are incident on an imaging element 102 such as a CCD image sensor or a CMOS image sensor. The image sensor 102 outputs an electrical signal corresponding to the intensity of the incident light beam in units of pixels. This electrical signal is an analog video signal indicating a subject image captured by the image sensor 102.
撮像素子102から出力された映像信号は、アナログ信号処理部103において相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104においてデジタルデータの形式に変換され、制御部105および画像処理部106に入力される。
The video signal output from the image sensor 102 is subjected to analog signal processing such as correlated double sampling (CDS) in the analog
制御部105は、CPU(Central Processing Unit)やマイクロコントローラなどであり、撮像装置100の動作を中央制御する。具体的には、制御部105は、ROM(Read Only Memory)に記憶されたプログラムコードをRAM(Random Access Memory)の作業領域に展開して順次実行することで、撮像装置100の各部を制御する。 The control unit 105 is a CPU (Central Processing Unit), a microcontroller, or the like, and centrally controls the operation of the imaging apparatus 100. Specifically, the control unit 105 controls each unit of the imaging apparatus 100 by developing program codes stored in a ROM (Read Only Memory) in a work area of a RAM (Random Access Memory) and sequentially executing the program codes. .
画像処理部106においては、入力されたデジタル形式の映像信号に対して、ガンマ補正、ホワイトバランス処理などの画像処理が行われる。なお、画像処理部106は、通常の画像処理に加え、後述する被写体領域抽出部110から供給される画像中の特定の被写体領域に関する情報を用いた画像処理を行う機能も有する。 The image processing unit 106 performs image processing such as gamma correction and white balance processing on the input digital video signal. In addition to the normal image processing, the image processing unit 106 also has a function of performing image processing using information regarding a specific subject region in an image supplied from a subject region extraction unit 110 described later.
画像処理部106から出力された映像信号は、表示部107に送られる。表示部107は、例えばLCDや有機ELディスプレイであり、映像信号を表示する。撮像装置100は、撮像素子102で時系列的に逐次撮像した画像を表示部107に逐次表示させることで、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、後述する被写体領域抽出部110により抽出された被写体領域の位置などを表示可能とする。
The video signal output from the image processing unit 106 is sent to the
また、画像処理部106から出力された映像信号は、記録媒体108、例えば着脱可能なメモリーカードに記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インタフェースにより通信可能に接続された外部装置(いずれも図示しない)であってもよい。 The video signal output from the image processing unit 106 is recorded on a recording medium 108, for example, a removable memory card. Note that the recording destination of the video signal may be the built-in memory of the imaging device 100 or an external device (none of which is shown) that is communicably connected via a communication interface.
被写体指定部109は、例えばユーザが操作可能なタッチパネルやボタン等の入力インタフェースからなり、被写体領域抽出部110によって抽出するための任意の被写体を指定する。
The
被写体領域抽出部110では、画像処理部106から供給される画像中において被写体指定部109により指定された領域から目的とする被写体領域を抽出する。被写体領域抽出部110は後述する特徴量抽出部111、偏り検出部112、領域補正部113を備える。
The subject region extraction unit 110 extracts a target subject region from the region designated by the
特徴量抽出部111は、画像処理部106から供給される画像中の所定の領域内から目的とする被写体の特徴を示す特徴量を抽出する。なお、上記所定の領域とは、被写体指定部109により指定された領域に対応している。特徴量抽出部111の詳細については後述する。
The feature amount extraction unit 111 extracts a feature amount indicating the characteristics of the target subject from within a predetermined region in the image supplied from the image processing unit 106. The predetermined area corresponds to the area specified by the
偏り検出部112は、画像処理部106から供給される画像中の指定領域内の、特徴量抽出部111により抽出された特徴量と一致する特徴画素の分布状況に基づき、当該指定領域内の目的とする被写体領域の偏りを検出する。偏り検出部112の詳細については後述する。
The
領域補正部113は、偏り検出部112により検出される偏りの量および方向に応じて、被写体指定部109により指定された領域を補正する。被写体領域抽出部110では、上記補正された指定領域を被写体領域として被写体を抽出する。
The area correction unit 113 corrects the area designated by the
制御部105は、撮像素子102で撮像する際の焦点状況や露出状況などの撮像条件を制御する。具体的には、制御部105は、A/D変換部104から出力された映像信号に基づいて、撮像レンズ101の焦点制御機構や露出制御機構(いずれも図示しない)を制御する。例えば、焦点制御機構は撮像レンズ101を光軸方向へ駆動させるアクチュエータなどであり、露出制御機構は絞りやシャッタを駆動させるアクチュエータなどである。
The control unit 105 controls image capturing conditions such as a focus state and an exposure state when the image sensor 102 captures an image. Specifically, the control unit 105 controls a focus control mechanism and an exposure control mechanism (neither shown) of the imaging lens 101 based on the video signal output from the A /
制御部105は、上記焦点制御や露出制御に、被写体領域抽出部110により抽出された被写体領域の抽出結果としての情報を使用することができる。具体的には、被写体領域のコントラスト値を用いた焦点制御や、被写体領域の輝度値を用いた露出制御を行うことができる。したがって、撮像装置100は、撮像画像における特定の被写体領域を考慮した撮像処理を行うことができる。また、制御部105は、撮像素子102の出力タイミングや出力画素など、撮像素子102の読み出し制御も行う。 The control unit 105 can use information as the extraction result of the subject area extracted by the subject area extraction unit 110 for the focus control and the exposure control. Specifically, focus control using the contrast value of the subject area and exposure control using the brightness value of the subject area can be performed. Therefore, the imaging apparatus 100 can perform imaging processing in consideration of a specific subject area in the captured image. The control unit 105 also performs readout control of the image sensor 102 such as output timing and output pixels of the image sensor 102.
<特徴量抽出部111の構成および動作>ここで、図2(a)を参照して、図1の特徴量抽出部111の構成および動作について説明する。図2(a)において、特徴量抽出部111は、ヒストグラム生成部201、特徴空間設定部202、彩度値算出部203、特徴成分重み付け部204を有する。
<Configuration and Operation of Feature Quantity Extraction Unit 111> Here, the configuration and operation of the feature quantity extraction unit 111 in FIG. 1 will be described with reference to FIG. 2A, the feature amount extraction unit 111 includes a
特徴量抽出部111は、画像処理部106から供給される画像中の指定領域から目的とする被写体の特徴を示す特徴量を抽出する。ここでは、画像処理部106から供給される画像は、色相(H)、彩度(S)、明度(V)からなるHSV色空間により表現された画像とするが、これらに限定されるものではなく、例えば色相(H)、彩度(S)、輝度(L)からなるHLS色空間でもよい。先ず、ヒストグラム生成部201が、被写体指定部109により指定された領域内の各画素から色相成分および明度成分のヒストグラムを生成する。
The feature amount extraction unit 111 extracts a feature amount indicating the characteristics of the target subject from the designated area in the image supplied from the image processing unit 106. Here, the image supplied from the image processing unit 106 is an image expressed by an HSV color space composed of hue (H), saturation (S), and brightness (V), but is not limited thereto. Alternatively, for example, an HLS color space including hue (H), saturation (S), and luminance (L) may be used. First, the
特徴空間設定部202は、ヒストグラム生成部201により生成された色相成分および明度成分のヒストグラムから特徴空間を設定する。なお、色相成分および明度成分の各ヒストグラムの最大値を特徴空間とする。なお、色相成分および明度成分において所定の閾値以上となるヒスグラムが示す空間を特徴空間としてもよい。あるいは、色相成分および明度成分において、被写体指定部109により指定された領域外に存在する画素数に対する、領域内に存在する画素数の割合が、所定の閾値以上となる空間を特徴空間としてもよい。
The feature
彩度値算出部203は、被写体指定部109により指定された領域内の各画素について、特徴空間設定部202により設定された色相成分の特徴空間に属する画素を判定し、その画素群から彩度の平均値を算出する。なお、色相成分の特徴空間に属する画素から彩度の値を計算する方法は、中央値などの他の算出方法であってもよい。
The saturation
特徴成分重み付け部204は、特徴空間設定部202により設定された特徴空間の色相成分および明度成分を特徴量とする各成分の重み付けを行う。具体的には、彩度値算出部203により算出された彩度の平均値と閾値とを比較し、閾値以上ならば、色相成分の特徴空間を主として重み付けをする一方、彩度の平均値が閾値未満ならば、明度成分の特徴空間を主として重み付けをする。
The feature
<偏り検出部の構成および動作>次に、図2(b)を参照して、図1の偏り検出部112の構成および動作について説明する。図2(b)において、偏り検出部112は、領域分割部205、特徴分布判定部206、偏り算出部207を有する。
<Configuration and Operation of Bias Detection Unit> Next, the configuration and operation of the
偏り検出部112は、特徴量抽出部111により抽出された特徴量と一致する特徴画素の分布状況に基づき、指定領域内の目的とする被写体領域の位置の偏りを検出する。領域分割部205は、被写体指定部109により指定された領域において、その領域の中心を通る対称軸を垂直方向および水平方向それぞれに対して設定し領域を分割する。すなわち、対称軸は指定された領域を垂直方向および水平方向にそれぞれ二等分する直線である。特徴分布判定部206は、指定領域内の各画素において、特徴量抽出部111により抽出された特徴量に属する画素を特徴画素として判定する。そして、領域分割部205により分割された各領域において特徴画素数の和を算出する。
The
偏り算出部207は、特徴分布判定部206による領域分割部205により分割された各領域の特徴画素数に応じて、指定領域内の目的とする被写体領域の偏りの量および方向を算出する。偏り方向は、対称軸と直交し、対称軸を境に分割された二つの領域における特徴画素数の多い領域の方向とする。また、補正量は、被写体領域の位置を補正した際に、対称軸を中心とした特徴画素の分布状況の偏りが小さくなるように、分割された二つの領域の特徴画素数の差に応じた値とする。つまり、水平方向の偏り量は、垂直方向の軸により分割された二つ領域の特徴画素数の差に応じて決定され、垂直方向の偏り量は、水平方向の軸に分割された二つ領域の特徴画素数の差に応じて決定される。なお、ここでは、被写体領域を水平方向および垂直方向にそれぞれ2つの領域に分割する例を挙げて説明を行ったが、被写体領域における特徴画素の分布の偏りを検出できるように対称な複数の領域に分割するであれば、どのように分割してもよい。
The
なお、本実施形態では、被写体指定部109により指定された領域に基づき目的とする被写体領域を抽出する被写体領域抽出部110を有する撮像装置100を例示した。しかしながら、撮像装置100の被写体指定部109が入力インタフェースではなく、焦点制御機構や露出制御機構に利用される画像中の所定の領域(AF枠や測光枠など)に応じて目的する被写体領域を指定する構成であってもよい。
In the present embodiment, the imaging apparatus 100 including the subject region extraction unit 110 that extracts a target subject region based on the region designated by the
<被写体領域抽出処理>ここで、図3から図6を参照して、本実施形態の被写体領域抽出部110が実行する被写体領域抽出処理について説明する。図3に示すように、被写体領域抽出部110は、S301からS305の処理を行う。S302は特徴量抽出部111、S303は偏り検出部112、S304は領域補正部113による処理である。また図4に示すように、特徴量抽出部111は、S401からS406の処理を行う。S401はヒストグラム生成部201、S402は特徴空間設定部202、S403は彩度値算出部203、S404からS406は特徴成分重み付け部204による処理である。さらに図5に示すように、偏り検出部112は、S501からS509の処理を行う。S501は領域分割部205、S502およびS503は特徴分布判定部206、S504からS509は偏り算出部207による処理である。
<Subject Area Extraction Processing> Here, the subject area extraction processing executed by the subject area extraction unit 110 of the present embodiment will be described with reference to FIGS. As shown in FIG. 3, the subject area extraction unit 110 performs the processing from S301 to S305. S302 is processing by the feature amount extraction unit 111, S303 is processing by the
また図6において、入力画像601は、点線の矩形で囲まれた領域が被写体指定部109により指定された領域に対応する。画像602は、特徴量抽出部111において抽出された特徴量に属する画素を白、特徴量に属さない画素を黒で表現した2値化画像である。画像603は指定領域を水平方向および垂直方向に分割した画像を示す。画像604は指定領域を領域補正部113により補正し、補正された領域を被写体領域として抽出した被写体抽出結果画像を示す。
In FIG. 6, in the
図3のS301では、被写体領域抽出部110は、撮像素子102で逐次撮像された撮像画像を入力画像として読み込み、入力画像601に対して被写体指定部109により指定された領域を、例えば図6の入力画像601に示す点線の矩形のように設定する。次に、S302において、特徴量抽出部112は、S301で指定された領域内の画素から目的とする被写体を示す特徴量を抽出する。
In S301 in FIG. 3, the subject region extraction unit 110 reads captured images sequentially captured by the image sensor 102 as an input image, and the region designated by the
ここで、特徴量を抽出する処理について図4を参照して説明する。まず、図4に示すS401において、指定領域内の各画素から色相成分および明度成分のヒストグラムを生成する。次に、S402において、色相成分および明度成分のヒストグラムの最大値を各成分の特徴空間として設定する。次に、S403において、指定領域内の各画素について色相成分の特徴空間に属する画素を判定し、属すると判定された画素の示す彩度の平均値を算出する。 Here, the process of extracting the feature amount will be described with reference to FIG. First, in S401 shown in FIG. 4, a histogram of the hue component and the brightness component is generated from each pixel in the designated area. Next, in S402, the maximum value of the histogram of the hue component and the brightness component is set as the feature space of each component. Next, in S403, for each pixel in the designated area, a pixel belonging to the feature space of the hue component is determined, and an average value of saturation indicated by the pixel determined to belong is calculated.
次に、S404において、算出された彩度の平均値が所定の閾値以上か判定する。彩度の平均値が所定の閾値以上の場合(S404でYES)、被写体が有彩色であるため、S405において、特徴量を色相成分の特徴空間を主とした特徴量とする。一方で、彩度の平均値が所定の閾値未満の場合(S404でNO)、被写体が無彩色であるため、S406において、特徴量を明度成分の特徴空間を主とした特徴量とする。 Next, in S404, it is determined whether the calculated average value of saturation is equal to or greater than a predetermined threshold value. If the average value of the saturation is equal to or greater than the predetermined threshold (YES in S404), the subject is a chromatic color, so in S405, the feature amount is a feature amount mainly composed of the hue component feature space. On the other hand, if the average value of the saturation is less than the predetermined threshold (NO in S404), the subject is an achromatic color. Therefore, in S406, the feature amount is a feature amount mainly including the feature space of the brightness component.
ここで、特徴成分重み付け部204による彩度の平均値に応じて特徴量を抽出する際に用いる特徴成分の重み付けを変える処理(S404からS406)について説明する。抽出される特徴量としては、目的とする被写体領域とその他の背景などの領域とを分離できる特徴量が望ましい。色相成分は、照明変動の影響を受けにくく、被写体領域とその他の領域を分離する成分として優れている。但し、目的とする被写体が無彩色(彩度の値が小さい)の場合は、色相成分により被写体領域とその他の領域を分離することが困難な場合が多い。一方で、明度成分は、照明変動の影響を受けやすく、被写体領域とその他の領域を分離する精度は、目的とする被写体が有彩色(彩度の値が大きい)の場合では、色相成分による分離精度よりも劣る傾向がある。これらの傾向を踏まえ、特徴成分重み付け部204において彩度の平均値に応じて特徴成分に重み付けを行う。
Here, the processing (S404 to S406) of changing the weighting of the feature component used when extracting the feature amount according to the average value of the saturation by the feature
上記重み付けの例としては、彩度の平均値が所定の閾値以上の場合は、色相成分の特徴空間のみを特徴量とし、彩度の平均値が所定の閾値未満の場合には、明度成分の特徴空間のみを特徴量とする。また、彩度の平均値が所定の閾値以上の場合は、色相成分の特徴空間は狭い範囲を設定し、明度成分の特徴空間は広い範囲を設定し、色相成分および明度成分の特徴空間に共に属する画素を特徴画素とする。これは、目的とする被写体が有彩色(彩度の値が大きい)の場合には、被写体領域において、色相の分散は小さく、明度の分散は大きいという傾向に基づいている。一方で、彩度の平均値が所定の閾値未満の場合は、色相成分の特徴空間は広い範囲を設定し、明度成分の特徴空間は狭い範囲を設定し、色相成分および明度成分の特徴空間に共に属する画素を特徴画素とする。これは、目的とする被写体が無彩色(彩度の値が小さい)の場合には、被写体領域において、色相の分散は大きいという傾向に基づいている。 As an example of the weighting, when the average value of saturation is equal to or greater than a predetermined threshold, only the feature space of the hue component is used as a feature amount, and when the average value of saturation is less than the predetermined threshold, Only the feature space is used as a feature value. When the average value of saturation is equal to or greater than a predetermined threshold, the hue component feature space is set to a narrow range, the brightness component feature space is set to a wide range, and both the hue component and the brightness component feature space are set. Let the pixel to which it belongs be a feature pixel. This is based on the tendency that, when the target subject is a chromatic color (the saturation value is large), the hue variance is small and the brightness variance is large in the subject area. On the other hand, when the average value of the saturation is less than the predetermined threshold, the hue component feature space is set to a wide range, the brightness component feature space is set to a narrow range, and the hue component and the brightness component feature space are set. Let the pixel which belongs to be a feature pixel. This is based on the tendency that when the target subject is an achromatic color (the saturation value is small), the hue variance is large in the subject region.
上述した特徴成分重み付け部204による重み付けは一例であり、これらに限定されるものではなく、例えば彩度に代えて又は加えて、色相や明度以外の被写体領域から得られる輝度や色差などの色情報に応じて重み付けを変えるように構成してもよい。また、本実施形態では、明度成分および色相成分の特徴空間の少なくともいずれかを用いて特徴量を抽出する処理を例示したが、特徴量抽出方法は上述した処理に限定されない。例えば、特徴空間において、被写体とその他の領域との分離性能を高めるため、彩度による最大値および最小値を設定し、特徴空間を絞り込んでもよい。また、色相成分の特徴空間と明度成分の特徴空間の両方を用いるが、彩度の平均値が所定の閾値以上であるか、閾値未満であるかに応じて、それらの重み付けの比を変更するようにしてもよい。例えば、彩度の平均値が所定の閾値以上であれば、色相成分の特徴空間に含まれる画素と明度成分の特徴空間に含まれる画素の重み付けを2対1にして、後述のS303にて被写体領域の位置の偏りを検出すればよい。反対に、彩度の平均値が所定の閾値未満であれば、色相成分の特徴空間に含まれる画素と明度成分の特徴空間に含まれる画素の重み付けの比を1対2にして、後述のS303にて被写体領域の位置の偏りを検出すればよい。もしくは、彩度の平均値に応じて、この色相成分の特徴空間に含まれる画素と明度成分の特徴空間に含まれる画素の重み付けの比を、連続的に変化させるようにしてもよい。
The above-described weighting by the feature
図3の説明に戻り、S303において、偏り検出部113は、S302で抽出された特徴量に属する画素を特徴画素として判定し、特徴画素の分布状況から、指定領域内において目的とする被写体領域の位置の偏りを検出する。ここで、偏りを検出する処理について図5を参照して説明する。まず、図5に示すS501において、図6の画像603に示すように、垂直方向および水平方向に軸を設定し、それぞれ等分となるように、指定領域を四分割する。次に、S502において、指定領域内の各画素が、抽出された特徴量に属する画素を判定し、特徴量と属する画素を特徴画素とする。指定領域分割画像603は、特徴画素を白、非特徴画素を黒で表現した画像である。
Returning to the description of FIG. 3, in S303, the bias detection unit 113 determines the pixels belonging to the feature amount extracted in S302 as feature pixels, and determines the target object region within the specified region from the distribution state of the feature pixels. Detect position bias. Here, the process of detecting the bias will be described with reference to FIG. First, in S501 shown in FIG. 5, as shown in an
次に、S503において、各分割領域において特徴画素数の和を算出する。次に、S504において、水平方向の軸により分割された領域間の特徴画素数の差(指定領域分割画像603における上2つの領域と下2つの領域との特徴画素数の差)が所定の閾値以上か判定する。閾値以上であれば(S504でYES)、S505において垂直方向の偏りが検出される。一方で、閾値未満であれば(S504でNO)、S506において、垂直方向の偏りは検出されない。指定領域分割画像603の場合では、垂直方向の偏りは検出されない(S506)。
Next, in S503, the sum of the number of feature pixels in each divided region is calculated. Next, in step S504, the difference in the number of feature pixels between the regions divided by the horizontal axis (the difference in the number of feature pixels between the upper two regions and the lower two regions in the designated region divided image 603) is a predetermined threshold value. It is determined whether it is above. If it is equal to or greater than the threshold (YES in S504), a vertical bias is detected in S505. On the other hand, if it is less than the threshold value (NO in S504), no vertical bias is detected in S506. In the case of the designated area divided
次に、S507において、垂直方向の軸により分割された領域間の特徴画素数の差(指定領域分割画像603における左2つの領域と右2つの領域との特徴画素数の差)が所定の閾値以上か判定する。閾値以上であれば(S507でYES)、S508において水平方向の偏りが検出される。一方で、閾値未満であれば(S507でNO)、S509において、水平方向の偏りは検出されない。指定領域分割画像603の場合には水平方向の偏りは検出される(S508)。なお、特徴画素数の差分量に基づき補正量が決定される。
Next, in step S507, the difference in the number of feature pixels between regions divided by the vertical axis (the difference in the number of feature pixels between the left two regions and the right two regions in the designated region divided image 603) is a predetermined threshold value. It is determined whether it is above. If it is equal to or greater than the threshold (YES in S507), a horizontal deviation is detected in S508. On the other hand, if it is less than the threshold value (NO in S507), no horizontal bias is detected in S509. In the case of the designated area divided
図3の説明に戻り、S304において、検出された偏りの量および方向に応じて、偏りが小さくなるように指定領域を補正する。次に、S305において、被写体抽出結果画像604に示す点線の矩形に囲まれた領域のように、補正された領域が被写体領域として抽出される。図6の被写体抽出結果画像604では、指定領域を右方向に補正した結果を示す。
Returning to the description of FIG. 3, in S <b> 304, the designated area is corrected so as to reduce the bias according to the detected amount and direction of the bias. In step S <b> 305, a corrected region is extracted as a subject region, such as a region surrounded by a dotted rectangle shown in the subject
なお、上述した処理では、補正された指定領域を被写体領域として被写体を抽出するように説明したが、以下のような処理を行ってもよい。すなわち、補正された指定領域において、再度偏り検出部112により偏りを検出し、偏りが検出された場合には、検出された偏りの量および方向に基づき、領域補正部113により指定領域を補正する。一方、偏りが検出されなかった場合には、その領域を被写体領域として抽出する。つまり、偏りが安定するまで、偏り検出部112および領域補正部113による処理を繰り返し実行する。
In the above-described processing, the subject is extracted with the corrected designated region as the subject region. However, the following processing may be performed. That is, in the corrected designated area, the
上述した実施形態によれば、画像中の指定領域と、画像中の目的とする被写体の位置とがずれていた場合でも、指定領域内から特徴量を抽出し、指定領域内における特徴画素の分布状況から目的とする被写体の位置の偏りを検出し、指定領域を補正する。これにより、目的とする被写体領域を抽出することができる。 According to the above-described embodiment, even when the designated area in the image and the position of the target subject in the image are shifted, the feature amount is extracted from the designated area, and the distribution of the feature pixels in the designated area The deviation of the position of the target subject is detected from the situation, and the designated area is corrected. Thereby, a target subject area can be extracted.
なお、上述した実施形態では画像中から被写体領域を抽出する処理を行う被写体領域抽出装置について説明した。しかしながら、本発明を、被写体領域を抽出した結果を基準として、時系列的に逐次供給される画像から被写体領域を抽出し、被写体を時系列的に追跡する被写体追跡装置に適用してもよい。例えば、抽出された被写体領域を基準画像として登録し、時系列的に逐次供給される画像の部分領域と基準画像との相関度が最も高い領域を抽出することにより、被写体を追跡できる。 In the above-described embodiment, the subject area extraction apparatus that performs the process of extracting the subject area from the image has been described. However, the present invention may be applied to a subject tracking apparatus that extracts a subject region from images sequentially supplied in time series based on the result of extracting the subject region and tracks the subject in time series. For example, the subject can be tracked by registering the extracted subject region as a reference image and extracting the region having the highest degree of correlation between the partial region of the image sequentially supplied in time series and the reference image.
また、上述した実施形態では撮像装置に被写体領域抽出処理を行う被写体領域抽出装置を適用した場合を例示したが、被写体領域抽出装置を適用する機器は撮像装置に限定されない。例えば、外部機器や記録媒体などから供給される画像(再生データ)を表示する表示装置に被写体領域抽出を行う被写体領域抽出装置を適用してもよい。この表示装置では、再生データを被写体領域抽出処理のデータとし、被写体領域抽出処理が行われることとなる。この表示装置におけるマイクロコントローラなどの制御部は、被写体領域抽出処理により抽出された被写体の情報(画像中の被写体の位置、大きさなど)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像中の被写体の位置に枠などの被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合いなどの制御を行う。 Further, in the above-described embodiment, the case where the subject region extraction device that performs the subject region extraction processing is applied to the imaging device is illustrated, but the device to which the subject region extraction device is applied is not limited to the imaging device. For example, a subject region extraction device that performs subject region extraction may be applied to a display device that displays an image (reproduction data) supplied from an external device or a recording medium. In this display device, the reproduction data is used as subject area extraction processing data, and the subject area extraction processing is performed. A control unit such as a microcontroller in the display device controls display conditions for displaying an image based on subject information (position, size, etc. of the subject in the image) extracted by subject region extraction processing. . Specifically, information indicating a subject such as a frame is superimposed on the position of the subject in the image, and the brightness and color of the display image are controlled according to the brightness and color information of the subject portion.
また、上述した実施の形態は一例であり、これに限定されるものではない。上述した実施の形態における構成および動作に関しては適宜変更が可能である。例えば、領域補正部113は、被写体領域の位置補正だけでなく、被写体領域のサイズや形状を補正してもよい。被写体領域のサイズを補正する場合は、例えば、位置補正された領域の外周方向の各辺において、特徴画素の存在する度合いを判定し、特徴画素の存在する度合いが大きければ、その辺の領域を含めて被写体領域として抽出する。また、位置補正された領域の内周方向の各辺において、特徴画素の存在する度合いを判定し、特徴画素の存在する度合いが小さければ、その辺の領域を除いた領域を被写体領域として抽出する。これにより、適切な被写体領域を抽出することができる。 Further, the above-described embodiment is an example, and the present invention is not limited to this. The configuration and operation in the above-described embodiment can be changed as appropriate. For example, the area correction unit 113 may correct not only the position of the subject area but also the size and shape of the subject area. When correcting the size of the subject area, for example, the degree of feature pixels is determined on each side in the outer peripheral direction of the position-corrected area. If the degree of feature pixels is large, the area of that side is determined. And extract as a subject area. Further, the degree of presence of the feature pixel is determined at each side in the inner peripheral direction of the position-corrected area, and if the degree of existence of the feature pixel is small, the area excluding the area of the side is extracted as the subject area. . Thereby, an appropriate subject area can be extracted.
[他の実施形態]また、本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、および該プログラムを記憶した記憶媒体は本発明を構成することになる。 [Other Embodiments] The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. It is processing to do. In this case, the program and the storage medium storing the program constitute the present invention.
Claims (9)
前記画像中から前記所定の被写体を含む領域を指定する指定手段と、
前記指定手段により指定された領域から前記所定の被写体が持つ特徴量を抽出する抽出手段と、
前記指定された領域に含まれる前記所定の被写体が持つ特徴量と一致する特徴画素の分布状況に基づいて当該指定された領域における前記所定の被写体の位置の偏りを検出する検出手段と、
前記指定された領域における前記所定の被写体の位置の偏りが小さくなるように当該指定された領域の位置を補正する補正手段と、を備え、
前記抽出手段は、前記指定された領域内の各画素の色相成分および明度成分の少なくともいずれかを用いて前記特徴量を抽出すると共に、被写体から得られる色情報に応じて前記色相成分と明度成分の重み付けを変えて前記特徴量を抽出することを特徴とする被写体領域抽出装置。 A subject area extraction device for extracting a predetermined subject area from an image,
Designation means for designating an area including the predetermined subject from the image;
Extraction means for extracting a feature amount of the predetermined subject from the area designated by the designation means;
Detecting means for detecting a deviation of the position of the predetermined subject in the specified region based on a distribution state of feature pixels matching a feature amount of the predetermined subject included in the specified region;
Correction means for correcting the position of the designated area so that the deviation of the position of the predetermined subject in the designated area is reduced,
The extraction unit extracts the feature amount using at least one of a hue component and a brightness component of each pixel in the designated area, and the hue component and the brightness component according to color information obtained from a subject. The object region extracting apparatus is characterized in that the feature amount is extracted by changing the weight of the subject area.
前記ヒストグラム生成手段により生成された各ヒスグラムにより色相成分および明度成分の特徴空間を設定する設定手段と、
前記指定された領域の各画素において、前記設定手段により設定された色相成分の特徴空間に属する画素の彩度を算出する算出手段と、
前記彩度と閾値との比較により前記特徴量とする前記色相成分および明度成分の特徴空間に重み付けをする重み付け手段と、を更に備え、
前記重み付け手段は、前記算出手段により算出された彩度の値が閾値以上ならば、前記色相成分の特徴空間を主とする重み付けを行い、前記彩度の値が閾値未満ならば、前記明度成分の特徴空間を主とする重み付けを行うことを特徴とする請求項1に記載の被写体領域抽出装置。 The extraction means generates a histogram of hue components and a histogram of brightness components from each pixel of the designated area;
Setting means for setting a feature space of a hue component and a lightness component by each histogram generated by the histogram generation means;
Calculating means for calculating the saturation of the pixels belonging to the feature space of the hue component set by the setting means in each pixel of the designated region;
Weighting means for weighting the feature space of the hue component and lightness component as the feature amount by comparing the saturation with a threshold value,
The weighting unit performs weighting mainly on a feature space of the hue component if the saturation value calculated by the calculation unit is greater than or equal to a threshold value, and if the saturation value is less than the threshold value, the lightness component The subject area extraction apparatus according to claim 1, wherein weighting is performed mainly on a feature space of the subject area.
前記被写体領域抽出装置による抽出結果に基づき被写体追跡に使用する基準画像を登録する手段と、を有し、
供給される画像の部分領域と前記登録された基準画像との相関度に応じて被写体領域を抽出することを特徴とする被写体追跡装置。 A subject area extraction device according to any one of claims 1 to 6,
Means for registering a reference image used for subject tracking based on an extraction result by the subject region extraction device;
A subject tracking device that extracts a subject region according to a degree of correlation between a partial region of a supplied image and the registered reference image.
前記画像中から前記所定の被写体を含む領域を指定する指定工程と、
前記指定された領域から前記所定の被写体が持つ特徴量を抽出する抽出工程と、
前記指定された領域に含まれる前記所定の被写体が持つ特徴量と一致する特徴画素の分布状況に基づいて当該指定された領域における前記所定の被写体の位置の偏りを検出する検出工程と、
前記指定された領域における前記所定の被写体の位置の偏りが小さくなるように当該指定された領域の位置を補正する補正工程と、を備え、
前記抽出工程では、前記指定された領域内の各画素の色相成分および明度成分の少なくともいずれかを用いて前記特徴量を抽出すると共に、被写体から得られる色情報に応じて前記色相成分と明度成分の重み付けを変えて前記特徴量を抽出することを特徴とする制御方法。 A method for controlling a subject area extracting apparatus for extracting a predetermined subject area from an image, comprising:
A designation step for designating an area including the predetermined subject from the image;
An extraction step of extracting a feature amount of the predetermined subject from the designated region;
A detection step of detecting a bias in the position of the predetermined subject in the specified region based on a distribution state of feature pixels matching a feature amount of the predetermined subject included in the specified region;
A correction step of correcting the position of the designated area so that the deviation of the position of the predetermined subject in the designated area is reduced,
In the extraction step, the feature amount is extracted using at least one of a hue component and a brightness component of each pixel in the designated region, and the hue component and the brightness component are determined according to color information obtained from a subject. The control method is characterized in that the feature amount is extracted by changing the weighting of.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009293207A JP5395650B2 (en) | 2009-12-24 | 2009-12-24 | Subject area extraction device and control method thereof, subject tracking device, and program |
US12/964,334 US8509482B2 (en) | 2009-12-21 | 2010-12-09 | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor |
CN201010608338.7A CN102103754B (en) | 2009-12-21 | 2010-12-21 | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009293207A JP5395650B2 (en) | 2009-12-24 | 2009-12-24 | Subject area extraction device and control method thereof, subject tracking device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011134117A JP2011134117A (en) | 2011-07-07 |
JP5395650B2 true JP5395650B2 (en) | 2014-01-22 |
Family
ID=44346776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009293207A Expired - Fee Related JP5395650B2 (en) | 2009-12-21 | 2009-12-24 | Subject area extraction device and control method thereof, subject tracking device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5395650B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5871175B2 (en) * | 2011-07-22 | 2016-03-01 | 株式会社ニコン | Region extraction device, imaging device, and region extraction program |
JP5899700B2 (en) * | 2011-08-12 | 2016-04-06 | 株式会社ニコン | Region extraction device, imaging device, and region extraction program |
JP5878924B2 (en) * | 2011-11-17 | 2016-03-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Image processing apparatus, imaging apparatus, and image processing method |
WO2013145589A1 (en) * | 2012-03-26 | 2013-10-03 | パナソニック株式会社 | Image-processing device, image-capturing device, and image-processing method |
JP6350562B2 (en) * | 2016-02-29 | 2018-07-04 | 株式会社ニコン | Region extraction device, imaging device, and region extraction program |
JP7007551B2 (en) | 2017-07-06 | 2022-02-10 | 富士通株式会社 | Image similarity judgment program, image similarity judgment device and image similarity judgment method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066747A (en) * | 1992-06-18 | 1994-01-14 | Olympus Optical Co Ltd | Id photo system |
JP3549725B2 (en) * | 1998-04-13 | 2004-08-04 | シャープ株式会社 | Image processing device |
JP2001043376A (en) * | 1999-07-30 | 2001-02-16 | Canon Inc | Image extraction method and device and storage medium |
JP2007280088A (en) * | 2006-04-07 | 2007-10-25 | Konica Minolta Holdings Inc | Specific object detection device, specific object detection method, and specific object detection program |
-
2009
- 2009-12-24 JP JP2009293207A patent/JP5395650B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011134117A (en) | 2011-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8509482B2 (en) | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor | |
US8416987B2 (en) | Subject tracking apparatus and control method therefor, image capturing apparatus, and display apparatus | |
KR101155406B1 (en) | Image processing apparatus, image processing method and computer readable-medium | |
JP5939705B2 (en) | Subject determination device, subject determination method, and program | |
JP5395650B2 (en) | Subject area extraction device and control method thereof, subject tracking device, and program | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
KR101178777B1 (en) | Image processing apparatus, image processing method and computer readable-medium | |
JP2015220725A (en) | Detection device, detection method, and program | |
JP5441669B2 (en) | Image processing apparatus and control method thereof | |
JP5167236B2 (en) | Subject tracking device and control method thereof | |
JP5044472B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6099973B2 (en) | Subject area tracking device, control method thereof, and program | |
JP2011193066A (en) | Image sensing device | |
JP5451364B2 (en) | Subject tracking device and control method thereof | |
JP2013179614A (en) | Imaging apparatus | |
JP5222429B2 (en) | Subject tracking device and control method thereof | |
JP5395651B2 (en) | Subject tracking device, control method and program for subject tracking device | |
JP2010219862A (en) | Face detection device, and imaging apparatus | |
US20220309706A1 (en) | Image processing apparatus that tracks object and image processing method | |
JP5631181B2 (en) | Image processing apparatus, control method therefor, and program | |
JP5629562B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2013157675A (en) | Imaging device, method for controlling the same, program, and storage medium | |
JP2009130840A (en) | Imaging apparatus, control method thereof ,and program | |
JP2010154374A (en) | Image capturing apparatus and subject tracking method | |
JP2007249525A (en) | Imaging device, and face area extraction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131018 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5395650 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |