JP2011134117A - Object region extraction apparatus, method for controlling the same, object tracking apparatus, and program - Google Patents

Object region extraction apparatus, method for controlling the same, object tracking apparatus, and program Download PDF

Info

Publication number
JP2011134117A
JP2011134117A JP2009293207A JP2009293207A JP2011134117A JP 2011134117 A JP2011134117 A JP 2011134117A JP 2009293207 A JP2009293207 A JP 2009293207A JP 2009293207 A JP2009293207 A JP 2009293207A JP 2011134117 A JP2011134117 A JP 2011134117A
Authority
JP
Japan
Prior art keywords
subject
area
region
feature
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009293207A
Other languages
Japanese (ja)
Other versions
JP5395650B2 (en
Inventor
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009293207A priority Critical patent/JP5395650B2/en
Priority to US12/964,334 priority patent/US8509482B2/en
Priority to CN201010608338.7A priority patent/CN102103754B/en
Publication of JP2011134117A publication Critical patent/JP2011134117A/en
Application granted granted Critical
Publication of JP5395650B2 publication Critical patent/JP5395650B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To determine and extract a target object region from a specified region when an arbitrary object in an image is specified. <P>SOLUTION: An object region extraction apparatus for extracting a predetermined object region from an image includes: a specification means for specifying a region including the predetermined object from the image; an extraction means for extracting a feature value of the predetermined object from the region specified by the specification means; a detection means for detecting positional deviation of the predetermined object in the specified region based on a distribution state of feature pixels in which each feature value is coincident with the feature value of the predetermined object included in the specified region; and a correction means for correcting the position of the specified region so that the positional deviation of the predetermined object in the specified region is reduced. The extraction means extracts the feature value by using at least either one of a hue component and a brightness component of each pixel in the specified region, and extracts the feature value by changing the weight of the hue component and the brightness component, according to color information obtained from the object. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、被写体領域抽出装置およびその制御方法、並びに被写体追跡装置、並びにプログラムに関する。   The present invention relates to a subject area extraction device, a control method thereof, a subject tracking device, and a program.

時系列的に逐次供給される画像から特定の被写体を検出し、その検出した被写体を追跡する画像処理方法は非常に有用であり、例えば動画像における人間の顔領域の人体領域の特定に利用されている。この画像処理方法は、通信会議、マン・マシン・インタフェース、セキュリティ、特定の被写体を追跡するためのモニタ・システム、画像圧縮などの多くの分野で使用することができる。また、デジタルカメラやデジタルビデオカメラでは、撮影画像からタッチパネルなどを用いて任意の被写体を指定し追跡することにより、時系列的に逐次供給される画像から特定の被写体を検出し、その結果を制御対象として焦点や露出を最適化させている。   An image processing method for detecting a specific subject from images sequentially supplied in time series and tracking the detected subject is very useful, for example, for identifying a human body region of a human face region in a moving image. ing. This image processing method can be used in many fields such as teleconferencing, man-machine interface, security, monitor system for tracking a specific subject, image compression and the like. Also, with digital cameras and digital video cameras, by specifying and tracking an arbitrary subject from a captured image using a touch panel or the like, a specific subject is detected from images sequentially supplied in time series, and the result is controlled. The focus and exposure are optimized as targets.

例えば、特許文献1には、画像中の顔の位置を検出し、顔に焦点を合わせると共に、顔に最適な露出で撮影する撮影装置が開示されている。また、検出された顔を追跡することにより、時系列的に安定した制御が可能になる。また、特許文献2には、自動で特定の被写体を追跡する技術として、テンプレートマッチングの手法を利用した技術が記載されている。テンプレートマッチングは、追跡対象の画像領域を切り出した部分画像を基準画像(テンプレート画像)として登録し、画像内で基準画像と最も相関度が高い領域を推定し、特定の被写体を追跡する手法である。   For example, Patent Document 1 discloses a photographing apparatus that detects the position of a face in an image, focuses on the face, and photographs the face with an optimal exposure. In addition, tracking the detected face enables stable control in time series. Patent Document 2 describes a technique using a template matching technique as a technique for automatically tracking a specific subject. Template matching is a technique for registering a partial image obtained by cutting out an image region to be tracked as a reference image (template image), estimating a region having the highest correlation with the reference image in the image, and tracking a specific subject. .

特開2005−318554号公報JP 2005-318554 A 特開2001−060269号公報JP 2001-060269 A

上記特許文献2では、基準画像(テンプレート画像)と供給された画像との相関度に基づき、被写体を追跡する。この被写体追跡における基準画像の登録方法としては、タッチパネルなどを用いて画像中の任意の領域を指定し、この指定領域を基準として基準画像を登録する。タッチパネルなどを用いて画像中の任意の領域を指定することにより、任意の被写体を追跡することができる。   In Patent Document 2, the subject is tracked based on the degree of correlation between the reference image (template image) and the supplied image. As a reference image registration method in the subject tracking, an arbitrary area in an image is designated using a touch panel or the like, and the reference image is registered with the designated area as a reference. By specifying an arbitrary area in the image using a touch panel or the like, an arbitrary subject can be tracked.

ここで、指定領域が目的とする追跡対象の重心からずれていた場合などでは、基準画像内に背景などの目的とする追跡対象とは異なる画像が含まれる。背景などの目的とする追跡対象とは異なる画像が混在した基準画像を用いた場合、追跡対象とは異なる画像の影響により誤った領域を追跡してしまう場合がある。   Here, when the designated area is deviated from the center of gravity of the target tracking target, an image different from the target tracking target such as the background is included in the reference image. When a reference image in which an image different from a target tracking target such as a background is used is used, an erroneous region may be tracked due to the influence of an image different from the tracking target.

本発明は、上記課題に鑑みてなされ、画像中の任意の被写体が指定された場合に、指定された領域から目的とする被写体領域を判定し抽出する技術を実現する。   The present invention has been made in view of the above problems, and realizes a technique for determining and extracting a target subject region from a designated region when an arbitrary subject in the image is designated.

上記課題を解決するために、本発明の被写体領域抽出装置は、画像中から所定の被写体領域を抽出する被写体領域抽出装置であって、前記画像中から前記所定の被写体を含む領域を指定する指定手段と、前記指定手段により指定された領域から前記所定の被写体が持つ特徴量を抽出する抽出手段と、前記指定された領域に含まれる前記所定の被写体が持つ特徴量と一致する特徴画素の分布状況に基づいて当該指定された領域における前記所定の被写体の位置の偏りを検出する検出手段と、前記指定された領域における前記所定の被写体の位置の偏りが小さくなるように当該指定された領域の位置を補正する補正手段と、を備え、前記抽出手段は、前記指定された領域内の各画素の色相成分および明度成分の少なくともいずれかを用いて前記特徴量を抽出すると共に、被写体から得られる色情報に応じて前記色相成分と明度成分の重み付けを変えて前記特徴量を抽出する。   In order to solve the above-described problem, the subject area extraction apparatus of the present invention is a subject area extraction apparatus that extracts a predetermined subject area from an image, and designates an area that includes the predetermined subject from the image. Means for extracting a feature quantity of the predetermined subject from the area designated by the designation means, and distribution of feature pixels matching the feature quantity of the predetermined subject included in the designated area Detection means for detecting a deviation in the position of the predetermined subject in the designated area based on the situation, and detection of the position in the designated area so that the deviation in the position of the predetermined subject in the designated area is reduced Correction means for correcting the position, and the extraction means uses the hue component and / or the brightness component of each pixel in the designated area. Extracts the amount, by changing the weighting of the hue component and the luminance component in accordance with the color information obtained from the subject to extract the feature quantity.

本発明によれば、画像中の被写体が指定された領域と、画像中の目的とする被写体の位置とにずれがあった場合などでも、目的とする被写体を抽出することができる。   According to the present invention, it is possible to extract a target subject even when there is a difference between a region where the subject in the image is designated and the position of the target subject in the image.

本発明に係る実施形態の撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. 図1の特徴量抽出部および偏り検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the feature-value extraction part of FIG. 1, and a bias detection part. 本実施形態の被写体領域抽出処理を示すフローチャートである。It is a flowchart which shows the to-be-photographed object area | region extraction process of this embodiment. 本実施形態の特徴量抽出処理を示すフローチャートである。It is a flowchart which shows the feature-value extraction process of this embodiment. 本実施形態の偏り検出処理を示すフローチャートである。It is a flowchart which shows the bias detection process of this embodiment. 本実施形態の被写体領域抽出処理を説明する図である。It is a figure explaining the object field extraction processing of this embodiment.

以下に、図面を参照して本発明を実施するための形態について詳細に説明する。尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to drawings is demonstrated in detail. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

<撮像装置の構成および動作>先ず、図1を参照して、本発明の被写体領域抽出装置として機能する実施形態の撮像装置の構成および動作について説明する。図1に示すように、撮像装置100では、撮像レンズ101によって被写体像を表す光線が集光され、CCDイメージセンサやCMOSイメージセンサなどである撮像素子102に入射する。撮像素子102は、入射した光線の強度に応じた電気信号を画素単位で出力する。この電気信号は、撮像素子102で撮像された被写体像を示すアナログの映像信号である。   <Configuration and Operation of Imaging Device> First, the configuration and operation of an imaging device according to an embodiment functioning as a subject area extraction device of the present invention will be described with reference to FIG. As shown in FIG. 1, in the imaging apparatus 100, light rays representing a subject image are collected by an imaging lens 101 and are incident on an imaging element 102 such as a CCD image sensor or a CMOS image sensor. The image sensor 102 outputs an electrical signal corresponding to the intensity of the incident light beam in units of pixels. This electrical signal is an analog video signal indicating a subject image captured by the image sensor 102.

撮像素子102から出力された映像信号は、アナログ信号処理部103において相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104においてデジタルデータの形式に変換され、制御部105および画像処理部106に入力される。   The video signal output from the image sensor 102 is subjected to analog signal processing such as correlated double sampling (CDS) in the analog signal processing unit 103. The video signal output from the analog signal processing unit 103 is converted into a digital data format by the A / D conversion unit 104 and input to the control unit 105 and the image processing unit 106.

制御部105は、CPU(Central Processing Unit)やマイクロコントローラなどであり、撮像装置100の動作を中央制御する。具体的には、制御部105は、ROM(Read Only Memory)に記憶されたプログラムコードをRAM(Random Access Memory)の作業領域に展開して順次実行することで、撮像装置100の各部を制御する。   The control unit 105 is a CPU (Central Processing Unit), a microcontroller, or the like, and centrally controls the operation of the imaging apparatus 100. Specifically, the control unit 105 controls each unit of the imaging apparatus 100 by developing program codes stored in a ROM (Read Only Memory) in a work area of a RAM (Random Access Memory) and sequentially executing the program codes. .

画像処理部106においては、入力されたデジタル形式の映像信号に対して、ガンマ補正、ホワイトバランス処理などの画像処理が行われる。なお、画像処理部106は、通常の画像処理に加え、後述する被写体領域抽出部110から供給される画像中の特定の被写体領域に関する情報を用いた画像処理を行う機能も有する。   The image processing unit 106 performs image processing such as gamma correction and white balance processing on the input digital video signal. In addition to the normal image processing, the image processing unit 106 also has a function of performing image processing using information regarding a specific subject region in an image supplied from a subject region extraction unit 110 described later.

画像処理部106から出力された映像信号は、表示部107に送られる。表示部107は、例えばLCDや有機ELディスプレイであり、映像信号を表示する。撮像装置100は、撮像素子102で時系列的に逐次撮像した画像を表示部107に逐次表示させることで、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、後述する被写体領域抽出部110により抽出された被写体領域の位置などを表示可能とする。   The video signal output from the image processing unit 106 is sent to the display unit 107. The display unit 107 is, for example, an LCD or an organic EL display, and displays a video signal. The imaging apparatus 100 can cause the display unit 107 to function as an electronic viewfinder (EVF) by sequentially displaying images sequentially captured in time series by the imaging element 102 on the display unit 107. Further, the position of the subject area extracted by the subject area extraction unit 110 described later can be displayed.

また、画像処理部106から出力された映像信号は、記録媒体108、例えば着脱可能なメモリーカードに記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インタフェースにより通信可能に接続された外部装置(いずれも図示しない)であってもよい。   The video signal output from the image processing unit 106 is recorded on a recording medium 108, for example, a removable memory card. Note that the recording destination of the video signal may be the built-in memory of the imaging device 100 or an external device (none of which is shown) that is communicably connected via a communication interface.

被写体指定部109は、例えばユーザが操作可能なタッチパネルやボタン等の入力インタフェースからなり、被写体領域抽出部110によって抽出するための任意の被写体を指定する。   The subject specifying unit 109 includes an input interface such as a touch panel and buttons that can be operated by a user, for example, and specifies an arbitrary subject to be extracted by the subject region extracting unit 110.

被写体領域抽出部110では、画像処理部106から供給される画像中において被写体指定部109により指定された領域から目的とする被写体領域を抽出する。被写体領域抽出部110は後述する特徴量抽出部111、偏り検出部112、領域補正部113を備える。   The subject region extraction unit 110 extracts a target subject region from the region designated by the subject designation unit 109 in the image supplied from the image processing unit 106. The subject region extraction unit 110 includes a feature amount extraction unit 111, a bias detection unit 112, and a region correction unit 113, which will be described later.

特徴量抽出部111は、画像処理部106から供給される画像中の所定の領域内から目的とする被写体の特徴を示す特徴量を抽出する。なお、上記所定の領域とは、被写体指定部109により指定された領域に対応している。特徴量抽出部111の詳細については後述する。   The feature amount extraction unit 111 extracts a feature amount indicating the characteristics of the target subject from within a predetermined region in the image supplied from the image processing unit 106. The predetermined area corresponds to the area specified by the subject specifying unit 109. Details of the feature quantity extraction unit 111 will be described later.

偏り検出部112は、画像処理部106から供給される画像中の指定領域内の、特徴量抽出部111により抽出された特徴量と一致する特徴画素の分布状況に基づき、当該指定領域内の目的とする被写体領域の偏りを検出する。偏り検出部112の詳細については後述する。   The bias detection unit 112 is based on the distribution state of feature pixels matching the feature amount extracted by the feature amount extraction unit 111 in the specified region in the image supplied from the image processing unit 106, and the purpose in the specified region. The deviation of the subject area is detected. Details of the bias detection unit 112 will be described later.

領域補正部113は、偏り検出部112により検出される偏りの量および方向に応じて、被写体指定部109により指定された領域を補正する。被写体領域抽出部110では、上記補正された指定領域を被写体領域として被写体を抽出する。   The area correction unit 113 corrects the area designated by the subject designation unit 109 according to the amount and direction of the deviation detected by the deviation detection unit 112. The subject area extraction unit 110 extracts a subject using the corrected designated area as the subject area.

制御部105は、撮像素子102で撮像する際の焦点状況や露出状況などの撮像条件を制御する。具体的には、制御部105は、A/D変換部104から出力された映像信号に基づいて、撮像レンズ101の焦点制御機構や露出制御機構(いずれも図示しない)を制御する。例えば、焦点制御機構は撮像レンズ101を光軸方向へ駆動させるアクチュエータなどであり、露出制御機構は絞りやシャッタを駆動させるアクチュエータなどである。   The control unit 105 controls image capturing conditions such as a focus state and an exposure state when the image sensor 102 captures an image. Specifically, the control unit 105 controls a focus control mechanism and an exposure control mechanism (neither shown) of the imaging lens 101 based on the video signal output from the A / D conversion unit 104. For example, the focus control mechanism is an actuator that drives the imaging lens 101 in the optical axis direction, and the exposure control mechanism is an actuator that drives an aperture or a shutter.

制御部105は、上記焦点制御や露出制御に、被写体領域抽出部110により抽出された被写体領域の抽出結果としての情報を使用することができる。具体的には、被写体領域のコントラスト値を用いた焦点制御や、被写体領域の輝度値を用いた露出制御を行うことができる。したがって、撮像装置100は、撮像画像における特定の被写体領域を考慮した撮像処理を行うことができる。また、制御部105は、撮像素子102の出力タイミングや出力画素など、撮像素子102の読み出し制御も行う。   The control unit 105 can use information as the extraction result of the subject area extracted by the subject area extraction unit 110 for the focus control and the exposure control. Specifically, focus control using the contrast value of the subject area and exposure control using the brightness value of the subject area can be performed. Therefore, the imaging apparatus 100 can perform imaging processing in consideration of a specific subject area in the captured image. The control unit 105 also performs readout control of the image sensor 102 such as output timing and output pixels of the image sensor 102.

<特徴量抽出部111の構成および動作>ここで、図2(a)を参照して、図1の特徴量抽出部111の構成および動作について説明する。図2(a)において、特徴量抽出部111は、ヒストグラム生成部201、特徴空間設定部202、彩度値算出部203、特徴成分重み付け部204を有する。   <Configuration and Operation of Feature Quantity Extraction Unit 111> Here, the configuration and operation of the feature quantity extraction unit 111 in FIG. 1 will be described with reference to FIG. 2A, the feature amount extraction unit 111 includes a histogram generation unit 201, a feature space setting unit 202, a saturation value calculation unit 203, and a feature component weighting unit 204.

特徴量抽出部111は、画像処理部106から供給される画像中の指定領域から目的とする被写体の特徴を示す特徴量を抽出する。ここでは、画像処理部106から供給される画像は、色相(H)、彩度(S)、明度(V)からなるHSV色空間により表現された画像とするが、これらに限定されるものではなく、例えば色相(H)、彩度(S)、輝度(L)からなるHLS色空間でもよい。先ず、ヒストグラム生成部201が、被写体指定部109により指定された領域内の各画素から色相成分および明度成分のヒストグラムを生成する。   The feature amount extraction unit 111 extracts a feature amount indicating the characteristics of the target subject from the designated area in the image supplied from the image processing unit 106. Here, the image supplied from the image processing unit 106 is an image expressed by an HSV color space composed of hue (H), saturation (S), and brightness (V), but is not limited thereto. Alternatively, for example, an HLS color space including hue (H), saturation (S), and luminance (L) may be used. First, the histogram generation unit 201 generates a histogram of hue components and lightness components from each pixel in the area specified by the subject specifying unit 109.

特徴空間設定部202は、ヒストグラム生成部201により生成された色相成分および明度成分のヒストグラムから特徴空間を設定する。なお、色相成分および明度成分の各ヒストグラムの最大値を特徴空間とする。なお、色相成分および明度成分において所定の閾値以上となるヒスグラムが示す空間を特徴空間としてもよい。あるいは、色相成分および明度成分において、被写体指定部109により指定された領域外に存在する画素数に対する、領域内に存在する画素数の割合が、所定の閾値以上となる空間を特徴空間としてもよい。   The feature space setting unit 202 sets the feature space from the hue component and brightness component histograms generated by the histogram generation unit 201. Note that the maximum value of each histogram of the hue component and the brightness component is defined as a feature space. It should be noted that a space indicated by a histogram that is equal to or greater than a predetermined threshold in the hue component and the brightness component may be used as the feature space. Alternatively, a space in which the ratio of the number of pixels existing in the area to the number of pixels existing outside the area specified by the subject specifying unit 109 in the hue component and the brightness component is equal to or greater than a predetermined threshold may be used as the feature space. .

彩度値算出部203は、被写体指定部109により指定された領域内の各画素について、特徴空間設定部202により設定された色相成分の特徴空間に属する画素を判定し、その画素群から彩度の平均値を算出する。なお、色相成分の特徴空間に属する画素から彩度の値を計算する方法は、中央値などの他の算出方法であってもよい。   The saturation value calculation unit 203 determines a pixel belonging to the feature space of the hue component set by the feature space setting unit 202 for each pixel in the region specified by the subject specification unit 109, and determines the saturation from the pixel group. The average value of is calculated. The method for calculating the saturation value from the pixels belonging to the feature space of the hue component may be another calculation method such as a median value.

特徴成分重み付け部204は、特徴空間設定部202により設定された特徴空間の色相成分および明度成分を特徴量とする各成分の重み付けを行う。具体的には、彩度値算出部203により算出された彩度の平均値と閾値とを比較し、閾値以上ならば、色相成分の特徴空間を主として重み付けをする一方、彩度の平均値が閾値未満ならば、明度成分の特徴空間を主として重み付けをする。   The feature component weighting unit 204 weights each component having the hue component and lightness component of the feature space set by the feature space setting unit 202 as feature amounts. Specifically, the saturation value calculated by the saturation value calculation unit 203 is compared with a threshold value, and if it is equal to or greater than the threshold value, the feature space of the hue component is mainly weighted, while the saturation average value is If it is less than the threshold, the feature space of the brightness component is mainly weighted.

<偏り検出部の構成および動作>次に、図2(b)を参照して、図1の偏り検出部112の構成および動作について説明する。図2(b)において、偏り検出部112は、領域分割部205、特徴分布判定部206、偏り算出部207を有する。   <Configuration and Operation of Bias Detection Unit> Next, the configuration and operation of the bias detection unit 112 in FIG. 1 will be described with reference to FIG. In FIG. 2B, the bias detection unit 112 includes an area dividing unit 205, a feature distribution determination unit 206, and a bias calculation unit 207.

偏り検出部112は、特徴量抽出部111により抽出された特徴量と一致する特徴画素の分布状況に基づき、指定領域内の目的とする被写体領域の位置の偏りを検出する。領域分割部205は、被写体指定部109により指定された領域において、その領域の中心を通る対称軸を垂直方向および水平方向それぞれに対して設定し領域を分割する。すなわち、対称軸は指定された領域を垂直方向および水平方向にそれぞれ二等分する直線である。特徴分布判定部206は、指定領域内の各画素において、特徴量抽出部111により抽出された特徴量に属する画素を特徴画素として判定する。そして、領域分割部205により分割された各領域において特徴画素数の和を算出する。   The bias detection unit 112 detects the bias of the position of the target subject region in the designated region based on the distribution state of the feature pixels that match the feature amount extracted by the feature amount extraction unit 111. The region dividing unit 205 divides the region in the region designated by the subject designating unit 109 by setting a symmetry axis passing through the center of the region in each of the vertical direction and the horizontal direction. In other words, the axis of symmetry is a straight line that bisects the designated area in the vertical and horizontal directions. The feature distribution determination unit 206 determines a pixel belonging to the feature amount extracted by the feature amount extraction unit 111 as a feature pixel in each pixel in the designated region. Then, the sum of the number of feature pixels in each area divided by the area dividing unit 205 is calculated.

偏り算出部207は、特徴分布判定部206による領域分割部205により分割された各領域の特徴画素数に応じて、指定領域内の目的とする被写体領域の偏りの量および方向を算出する。偏り方向は、対称軸と直交し、対称軸を境に分割された二つの領域における特徴画素数の多い領域の方向とする。また、補正量は、被写体領域の位置を補正した際に、対称軸を中心とした特徴画素の分布状況の偏りが小さくなるように、分割された二つの領域の特徴画素数の差に応じた値とする。つまり、水平方向の偏り量は、垂直方向の軸により分割された二つ領域の特徴画素数の差に応じて決定され、垂直方向の偏り量は、水平方向の軸に分割された二つ領域の特徴画素数の差に応じて決定される。なお、ここでは、被写体領域を水平方向および垂直方向にそれぞれ2つの領域に分割する例を挙げて説明を行ったが、被写体領域における特徴画素の分布の偏りを検出できるように対称な複数の領域に分割するであれば、どのように分割してもよい。   The bias calculation unit 207 calculates the amount and direction of the bias of the target subject area in the designated area according to the number of feature pixels in each area divided by the area dividing unit 205 by the feature distribution determination unit 206. The bias direction is the direction of a region having a large number of characteristic pixels in two regions which are orthogonal to the symmetry axis and divided on the boundary of the symmetry axis. The amount of correction depends on the difference in the number of feature pixels in the two divided regions so that the bias in the distribution of feature pixels around the symmetry axis is reduced when the position of the subject region is corrected. Value. That is, the amount of horizontal deviation is determined according to the difference in the number of feature pixels in the two regions divided by the vertical axis, and the amount of vertical deviation is determined by the two regions divided by the horizontal axis. It is determined according to the difference in the number of characteristic pixels. Here, an example in which the subject area is divided into two areas in the horizontal direction and the vertical direction has been described, but a plurality of symmetric areas are provided so that the distribution of the characteristic pixel distribution in the subject area can be detected. If it divides | segments into (2), you may divide | segment.

なお、本実施形態では、被写体指定部109により指定された領域に基づき目的とする被写体領域を抽出する被写体領域抽出部110を有する撮像装置100を例示した。しかしながら、撮像装置100の被写体指定部109が入力インタフェースではなく、焦点制御機構や露出制御機構に利用される画像中の所定の領域(AF枠や測光枠など)に応じて目的する被写体領域を指定する構成であってもよい。   In the present embodiment, the imaging apparatus 100 including the subject region extraction unit 110 that extracts a target subject region based on the region designated by the subject designation unit 109 is illustrated. However, the subject designation unit 109 of the imaging apparatus 100 designates a target subject area according to a predetermined area (such as an AF frame or a photometric frame) in an image used for a focus control mechanism or an exposure control mechanism, not an input interface. It may be configured to.

<被写体領域抽出処理>ここで、図3から図6を参照して、本実施形態の被写体領域抽出部110が実行する被写体領域抽出処理について説明する。図3に示すように、被写体領域抽出部110は、S301からS305の処理を行う。S302は特徴量抽出部111、S303は偏り検出部112、S304は領域補正部113による処理である。また図4に示すように、特徴量抽出部111は、S401からS406の処理を行う。S401はヒストグラム生成部201、S402は特徴空間設定部202、S403は彩度値算出部203、S404からS406は特徴成分重み付け部204による処理である。さらに図5に示すように、偏り検出部112は、S501からS509の処理を行う。S501は領域分割部205、S502およびS503は特徴分布判定部206、S504からS509は偏り算出部207による処理である。   <Subject Area Extraction Processing> Here, the subject area extraction processing executed by the subject area extraction unit 110 of the present embodiment will be described with reference to FIGS. As shown in FIG. 3, the subject area extraction unit 110 performs the processing from S301 to S305. S302 is processing by the feature amount extraction unit 111, S303 is processing by the bias detection unit 112, and S304 is processing by the region correction unit 113. As shown in FIG. 4, the feature amount extraction unit 111 performs the processing from S401 to S406. S401 is a histogram generation unit 201, S402 is a feature space setting unit 202, S403 is a saturation value calculation unit 203, and S404 to S406 are processing by a feature component weighting unit 204. Further, as shown in FIG. 5, the bias detection unit 112 performs the processing from S501 to S509. S501 is processing by the region dividing unit 205, S502 and S503 are processing by the feature distribution determining unit 206, and S504 to S509 are processing by the bias calculating unit 207.

また図6において、入力画像601は、点線の矩形で囲まれた領域が被写体指定部109により指定された領域に対応する。画像602は、特徴量抽出部111において抽出された特徴量に属する画素を白、特徴量に属さない画素を黒で表現した2値化画像である。画像603は指定領域を水平方向および垂直方向に分割した画像を示す。画像604は指定領域を領域補正部113により補正し、補正された領域を被写体領域として抽出した被写体抽出結果画像を示す。   In FIG. 6, in the input image 601, the area surrounded by the dotted rectangle corresponds to the area specified by the subject specifying unit 109. An image 602 is a binarized image in which pixels belonging to the feature amount extracted by the feature amount extraction unit 111 are expressed in white and pixels not belonging to the feature amount are expressed in black. An image 603 shows an image obtained by dividing the designated area in the horizontal direction and the vertical direction. An image 604 shows a subject extraction result image in which the designated region is corrected by the region correction unit 113 and the corrected region is extracted as a subject region.

図3のS301では、被写体領域抽出部110は、撮像素子102で逐次撮像された撮像画像を入力画像として読み込み、入力画像601に対して被写体指定部109により指定された領域を、例えば図6の入力画像601に示す点線の矩形のように設定する。次に、S302において、特徴量抽出部112は、S301で指定された領域内の画素から目的とする被写体を示す特徴量を抽出する。   In S301 in FIG. 3, the subject region extraction unit 110 reads captured images sequentially captured by the image sensor 102 as an input image, and the region designated by the subject designation unit 109 with respect to the input image 601 is, for example, shown in FIG. Setting is made like a dotted rectangle shown in the input image 601. Next, in S302, the feature amount extraction unit 112 extracts a feature amount indicating the target subject from the pixels in the region specified in S301.

ここで、特徴量を抽出する処理について図4を参照して説明する。まず、図4に示すS401において、指定領域内の各画素から色相成分および明度成分のヒストグラムを生成する。次に、S402において、色相成分および明度成分のヒストグラムの最大値を各成分の特徴空間として設定する。次に、S403において、指定領域内の各画素について色相成分の特徴空間に属する画素を判定し、属すると判定された画素の示す彩度の平均値を算出する。   Here, the process of extracting the feature amount will be described with reference to FIG. First, in S401 shown in FIG. 4, a histogram of the hue component and the brightness component is generated from each pixel in the designated area. Next, in S402, the maximum value of the histogram of the hue component and the brightness component is set as the feature space of each component. Next, in S403, for each pixel in the designated area, a pixel belonging to the feature space of the hue component is determined, and an average value of saturation indicated by the pixel determined to belong is calculated.

次に、S404において、算出された彩度の平均値が所定の閾値以上か判定する。彩度の平均値が所定の閾値以上の場合(S404でYES)、被写体が有彩色であるため、S405において、特徴量を色相成分の特徴空間を主とした特徴量とする。一方で、彩度の平均値が所定の閾値未満の場合(S404でNO)、被写体が無彩色であるため、S406において、特徴量を明度成分の特徴空間を主とした特徴量とする。   Next, in S404, it is determined whether the calculated average value of saturation is equal to or greater than a predetermined threshold value. If the average value of the saturation is equal to or greater than the predetermined threshold (YES in S404), the subject is a chromatic color, so in S405, the feature amount is a feature amount mainly composed of the hue component feature space. On the other hand, if the average value of the saturation is less than the predetermined threshold (NO in S404), the subject is an achromatic color. Therefore, in S406, the feature amount is a feature amount mainly including the feature space of the brightness component.

ここで、特徴成分重み付け部204による彩度の平均値に応じて特徴量を抽出する際に用いる特徴成分の重み付けを変える処理(S404からS406)について説明する。抽出される特徴量としては、目的とする被写体領域とその他の背景などの領域とを分離できる特徴量が望ましい。色相成分は、照明変動の影響を受けにくく、被写体領域とその他の領域を分離する成分として優れている。但し、目的とする被写体が無彩色(彩度の値が小さい)の場合は、色相成分により被写体領域とその他の領域を分離することが困難な場合が多い。一方で、明度成分は、照明変動の影響を受けやすく、被写体領域とその他の領域を分離する精度は、目的とする被写体が有彩色(彩度の値が大きい)の場合では、色相成分による分離精度よりも劣る傾向がある。これらの傾向を踏まえ、特徴成分重み付け部204において彩度の平均値に応じて特徴成分に重み付けを行う。   Here, the processing (S404 to S406) of changing the weighting of the feature component used when extracting the feature amount according to the average value of the saturation by the feature component weighting unit 204 will be described. As the extracted feature quantity, a feature quantity that can separate the target subject area from other areas such as the background is desirable. The hue component is less susceptible to illumination fluctuations and is excellent as a component that separates the subject area from other areas. However, when the target subject is an achromatic color (the saturation value is small), it is often difficult to separate the subject region from other regions by the hue component. On the other hand, the brightness component is easily affected by lighting fluctuations, and the accuracy of separating the subject area from other areas is separated by the hue component when the target subject is a chromatic color (the saturation value is large). There is a tendency to be inferior to accuracy. Based on these tendencies, the feature component weighting unit 204 weights the feature components according to the average value of saturation.

上記重み付けの例としては、彩度の平均値が所定の閾値以上の場合は、色相成分の特徴空間のみを特徴量とし、彩度の平均値が所定の閾値未満の場合には、明度成分の特徴空間のみを特徴量とする。また、彩度の平均値が所定の閾値以上の場合は、色相成分の特徴空間は狭い範囲を設定し、明度成分の特徴空間は広い範囲を設定し、色相成分および明度成分の特徴空間に共に属する画素を特徴画素とする。これは、目的とする被写体が有彩色(彩度の値が大きい)の場合には、被写体領域において、色相の分散は小さく、明度の分散は大きいという傾向に基づいている。一方で、彩度の平均値が所定の閾値未満の場合は、色相成分の特徴空間は広い範囲を設定し、明度成分の特徴空間は狭い範囲を設定し、色相成分および明度成分の特徴空間に共に属する画素を特徴画素とする。これは、目的とする被写体が無彩色(彩度の値が小さい)の場合には、被写体領域において、色相の分散は大きいという傾向に基づいている。   As an example of the weighting, when the average value of saturation is equal to or greater than a predetermined threshold, only the feature space of the hue component is used as a feature amount, and when the average value of saturation is less than the predetermined threshold, Only the feature space is used as a feature value. When the average value of saturation is equal to or greater than a predetermined threshold, the hue component feature space is set to a narrow range, the brightness component feature space is set to a wide range, and both the hue component and the brightness component feature space are set. Let the pixel to which it belongs be a feature pixel. This is based on the tendency that, when the target subject is a chromatic color (the saturation value is large), the hue variance is small and the brightness variance is large in the subject area. On the other hand, when the average value of the saturation is less than the predetermined threshold, the hue component feature space is set to a wide range, the brightness component feature space is set to a narrow range, and the hue component and the brightness component feature space are set. Let the pixel which belongs to be a feature pixel. This is based on the tendency that when the target subject is an achromatic color (the saturation value is small), the hue variance is large in the subject region.

上述した特徴成分重み付け部204による重み付けは一例であり、これらに限定されるものではなく、例えば彩度に代えて又は加えて、色相や明度以外の被写体領域から得られる輝度や色差などの色情報に応じて重み付けを変えるように構成してもよい。また、本実施形態では、明度成分および色相成分の特徴空間の少なくともいずれかを用いて特徴量を抽出する処理を例示したが、特徴量抽出方法は上述した処理に限定されない。例えば、特徴空間において、被写体とその他の領域との分離性能を高めるため、彩度による最大値および最小値を設定し、特徴空間を絞り込んでもよい。また、色相成分の特徴空間と明度成分の特徴空間の両方を用いるが、彩度の平均値が所定の閾値以上であるか、閾値未満であるかに応じて、それらの重み付けの比を変更するようにしてもよい。例えば、彩度の平均値が所定の閾値以上であれば、色相成分の特徴空間に含まれる画素と明度成分の特徴空間に含まれる画素の重み付けを2対1にして、後述のS303にて被写体領域の位置の偏りを検出すればよい。反対に、彩度の平均値が所定の閾値未満であれば、色相成分の特徴空間に含まれる画素と明度成分の特徴空間に含まれる画素の重み付けの比を1対2にして、後述のS303にて被写体領域の位置の偏りを検出すればよい。もしくは、彩度の平均値に応じて、この色相成分の特徴空間に含まれる画素と明度成分の特徴空間に含まれる画素の重み付けの比を、連続的に変化させるようにしてもよい。   The above-described weighting by the feature component weighting unit 204 is an example, and is not limited thereto. For example, instead of or in addition to saturation, color information such as luminance and color difference obtained from a subject area other than hue and brightness. The weight may be changed according to the above. Further, in the present embodiment, the process of extracting the feature amount using at least one of the feature space of the brightness component and the hue component is exemplified, but the feature amount extraction method is not limited to the above-described process. For example, in order to improve the separation performance between the subject and other regions in the feature space, the feature space may be narrowed down by setting a maximum value and a minimum value based on saturation. Further, both the feature space of the hue component and the feature space of the lightness component are used, but the ratio of the weights is changed depending on whether the average value of saturation is equal to or greater than a predetermined threshold value or less than the threshold value. You may do it. For example, if the average value of saturation is equal to or greater than a predetermined threshold, the weights of the pixels included in the feature space of the hue component and the pixels included in the feature space of the lightness component are set to 2 to 1, and the subject in S303 described later What is necessary is just to detect the deviation of the position of the area. On the other hand, if the average value of the saturation is less than the predetermined threshold, the weight ratio between the pixels included in the feature space of the hue component and the pixels included in the feature space of the brightness component is set to 1: 2, and S303 described later is performed. The deviation of the position of the subject area may be detected at. Alternatively, the weighting ratio of the pixels included in the feature space of the hue component and the pixels included in the feature space of the brightness component may be continuously changed according to the average value of the saturation.

図3の説明に戻り、S303において、偏り検出部113は、S302で抽出された特徴量に属する画素を特徴画素として判定し、特徴画素の分布状況から、指定領域内において目的とする被写体領域の位置の偏りを検出する。ここで、偏りを検出する処理について図5を参照して説明する。まず、図5に示すS501において、図6の画像603に示すように、垂直方向および水平方向に軸を設定し、それぞれ等分となるように、指定領域を四分割する。次に、S502において、指定領域内の各画素が、抽出された特徴量に属する画素を判定し、特徴量と属する画素を特徴画素とする。指定領域分割画像603は、特徴画素を白、非特徴画素を黒で表現した画像である。   Returning to the description of FIG. 3, in S303, the bias detection unit 113 determines the pixels belonging to the feature amount extracted in S302 as feature pixels, and determines the target object region within the specified region from the distribution state of the feature pixels. Detect position bias. Here, the process of detecting the bias will be described with reference to FIG. First, in S501 shown in FIG. 5, as shown in an image 603 in FIG. 6, axes are set in the vertical direction and the horizontal direction, and the designated area is divided into four parts so as to be equally divided. Next, in S502, each pixel in the designated area determines a pixel belonging to the extracted feature quantity, and a pixel belonging to the feature quantity is set as a feature pixel. The designated area divided image 603 is an image in which feature pixels are expressed in white and non-feature pixels are expressed in black.

次に、S503において、各分割領域において特徴画素数の和を算出する。次に、S504において、水平方向の軸により分割された領域間の特徴画素数の差(指定領域分割画像603における上2つの領域と下2つの領域との特徴画素数の差)が所定の閾値以上か判定する。閾値以上であれば(S504でYES)、S505において垂直方向の偏りが検出される。一方で、閾値未満であれば(S504でNO)、S506において、垂直方向の偏りは検出されない。指定領域分割画像603の場合では、垂直方向の偏りは検出されない(S506)。   Next, in S503, the sum of the number of feature pixels in each divided region is calculated. Next, in step S504, the difference in the number of feature pixels between the regions divided by the horizontal axis (the difference in the number of feature pixels between the upper two regions and the lower two regions in the designated region divided image 603) is a predetermined threshold value. It is determined whether it is above. If it is equal to or greater than the threshold (YES in S504), a vertical bias is detected in S505. On the other hand, if it is less than the threshold value (NO in S504), no vertical bias is detected in S506. In the case of the designated area divided image 603, no vertical deviation is detected (S506).

次に、S507において、垂直方向の軸により分割された領域間の特徴画素数の差(指定領域分割画像603における左2つの領域と右2つの領域との特徴画素数の差)が所定の閾値以上か判定する。閾値以上であれば(S507でYES)、S508において水平方向の偏りが検出される。一方で、閾値未満であれば(S507でNO)、S509において、水平方向の偏りは検出されない。指定領域分割画像603の場合には水平方向の偏りは検出される(S508)。なお、特徴画素数の差分量に基づき補正量が決定される。   Next, in step S507, the difference in the number of feature pixels between regions divided by the vertical axis (the difference in the number of feature pixels between the left two regions and the right two regions in the designated region divided image 603) is a predetermined threshold value. It is determined whether it is above. If it is equal to or greater than the threshold (YES in S507), a horizontal deviation is detected in S508. On the other hand, if it is less than the threshold value (NO in S507), no horizontal bias is detected in S509. In the case of the designated area divided image 603, a horizontal deviation is detected (S508). The correction amount is determined based on the difference amount of the number of feature pixels.

図3の説明に戻り、S304において、検出された偏りの量および方向に応じて、偏りが小さくなるように指定領域を補正する。次に、S305において、被写体抽出結果画像604に示す点線の矩形に囲まれた領域のように、補正された領域が被写体領域として抽出される。図6の被写体抽出結果画像604では、指定領域を右方向に補正した結果を示す。   Returning to the description of FIG. 3, in S <b> 304, the designated area is corrected so as to reduce the bias according to the detected amount and direction of the bias. In step S <b> 305, a corrected region is extracted as a subject region, such as a region surrounded by a dotted rectangle shown in the subject extraction result image 604. The subject extraction result image 604 in FIG. 6 shows the result of correcting the designated area in the right direction.

なお、上述した処理では、補正された指定領域を被写体領域として被写体を抽出するように説明したが、以下のような処理を行ってもよい。すなわち、補正された指定領域において、再度偏り検出部112により偏りを検出し、偏りが検出された場合には、検出された偏りの量および方向に基づき、領域補正部113により指定領域を補正する。一方、偏りが検出されなかった場合には、その領域を被写体領域として抽出する。つまり、偏りが安定するまで、偏り検出部112および領域補正部113による処理を繰り返し実行する。   In the above-described processing, the subject is extracted with the corrected designated region as the subject region. However, the following processing may be performed. That is, in the corrected designated area, the deviation detecting unit 112 detects the deviation again. When the deviation is detected, the area correcting unit 113 corrects the designated area based on the detected amount and direction of the deviation. . On the other hand, if no bias is detected, the area is extracted as a subject area. That is, the processes by the bias detection unit 112 and the region correction unit 113 are repeatedly executed until the bias is stabilized.

上述した実施形態によれば、画像中の指定領域と、画像中の目的とする被写体の位置とがずれていた場合でも、指定領域内から特徴量を抽出し、指定領域内における特徴画素の分布状況から目的とする被写体の位置の偏りを検出し、指定領域を補正する。これにより、目的とする被写体領域を抽出することができる。   According to the above-described embodiment, even when the designated area in the image and the position of the target subject in the image are shifted, the feature amount is extracted from the designated area, and the distribution of the feature pixels in the designated area The deviation of the position of the target subject is detected from the situation, and the designated area is corrected. Thereby, a target subject area can be extracted.

なお、上述した実施形態では画像中から被写体領域を抽出する処理を行う被写体領域抽出装置について説明した。しかしながら、本発明を、被写体領域を抽出した結果を基準として、時系列的に逐次供給される画像から被写体領域を抽出し、被写体を時系列的に追跡する被写体追跡装置に適用してもよい。例えば、抽出された被写体領域を基準画像として登録し、時系列的に逐次供給される画像の部分領域と基準画像との相関度が最も高い領域を抽出することにより、被写体を追跡できる。   In the above-described embodiment, the subject area extraction apparatus that performs the process of extracting the subject area from the image has been described. However, the present invention may be applied to a subject tracking apparatus that extracts a subject region from images sequentially supplied in time series based on the result of extracting the subject region and tracks the subject in time series. For example, the subject can be tracked by registering the extracted subject region as a reference image and extracting the region having the highest degree of correlation between the partial region of the image sequentially supplied in time series and the reference image.

また、上述した実施形態では撮像装置に被写体領域抽出処理を行う被写体領域抽出装置を適用した場合を例示したが、被写体領域抽出装置を適用する機器は撮像装置に限定されない。例えば、外部機器や記録媒体などから供給される画像(再生データ)を表示する表示装置に被写体領域抽出を行う被写体領域抽出装置を適用してもよい。この表示装置では、再生データを被写体領域抽出処理のデータとし、被写体領域抽出処理が行われることとなる。この表示装置におけるマイクロコントローラなどの制御部は、被写体領域抽出処理により抽出された被写体の情報(画像中の被写体の位置、大きさなど)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像中の被写体の位置に枠などの被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合いなどの制御を行う。   Further, in the above-described embodiment, the case where the subject region extraction device that performs the subject region extraction processing is applied to the imaging device is illustrated, but the device to which the subject region extraction device is applied is not limited to the imaging device. For example, a subject region extraction device that performs subject region extraction may be applied to a display device that displays an image (reproduction data) supplied from an external device or a recording medium. In this display device, the reproduction data is used as subject area extraction processing data, and the subject area extraction processing is performed. A control unit such as a microcontroller in the display device controls display conditions for displaying an image based on subject information (position, size, etc. of the subject in the image) extracted by subject region extraction processing. . Specifically, information indicating a subject such as a frame is superimposed on the position of the subject in the image, and the brightness and color of the display image are controlled according to the brightness and color information of the subject portion.

また、上述した実施の形態は一例であり、これに限定されるものではない。上述した実施の形態における構成および動作に関しては適宜変更が可能である。例えば、領域補正部113は、被写体領域の位置補正だけでなく、被写体領域のサイズや形状を補正してもよい。被写体領域のサイズを補正する場合は、例えば、位置補正された領域の外周方向の各辺において、特徴画素の存在する度合いを判定し、特徴画素の存在する度合いが大きければ、その辺の領域を含めて被写体領域として抽出する。また、位置補正された領域の内周方向の各辺において、特徴画素の存在する度合いを判定し、特徴画素の存在する度合いが小さければ、その辺の領域を除いた領域を被写体領域として抽出する。これにより、適切な被写体領域を抽出することができる。   Further, the above-described embodiment is an example, and the present invention is not limited to this. The configuration and operation in the above-described embodiment can be changed as appropriate. For example, the area correction unit 113 may correct not only the position of the subject area but also the size and shape of the subject area. When correcting the size of the subject area, for example, the degree of feature pixels is determined on each side in the outer peripheral direction of the position-corrected area. If the degree of feature pixels is large, the area of that side is determined. And extract as a subject area. Further, the degree of presence of the feature pixel is determined at each side in the inner peripheral direction of the position-corrected area, and if the degree of existence of the feature pixel is small, the area excluding the area of the side is extracted as the subject area. . Thereby, an appropriate subject area can be extracted.

[他の実施形態]また、本発明は、以下の処理を実行することによっても実現される。即ち、上記実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、および該プログラムを記憶した記憶媒体は本発明を構成することになる。   [Other Embodiments] The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program code. It is processing to do. In this case, the program and the storage medium storing the program constitute the present invention.

Claims (9)

画像中から所定の被写体領域を抽出する被写体領域抽出装置であって、
前記画像中から前記所定の被写体を含む領域を指定する指定手段と、
前記指定手段により指定された領域から前記所定の被写体が持つ特徴量を抽出する抽出手段と、
前記指定された領域に含まれる前記所定の被写体が持つ特徴量と一致する特徴画素の分布状況に基づいて当該指定された領域における前記所定の被写体の位置の偏りを検出する検出手段と、
前記指定された領域における前記所定の被写体の位置の偏りが小さくなるように当該指定された領域の位置を補正する補正手段と、を備え、
前記抽出手段は、前記指定された領域内の各画素の色相成分および明度成分の少なくともいずれかを用いて前記特徴量を抽出すると共に、被写体から得られる色情報に応じて前記色相成分と明度成分の重み付けを変えて前記特徴量を抽出することを特徴とする被写体領域抽出装置。
A subject area extraction device for extracting a predetermined subject area from an image,
Designation means for designating an area including the predetermined subject from the image;
Extraction means for extracting a feature amount of the predetermined subject from the area designated by the designation means;
Detecting means for detecting a deviation of the position of the predetermined subject in the specified region based on a distribution state of feature pixels matching a feature amount of the predetermined subject included in the specified region;
Correction means for correcting the position of the designated area so that the deviation of the position of the predetermined subject in the designated area is reduced,
The extraction unit extracts the feature amount using at least one of a hue component and a brightness component of each pixel in the designated area, and the hue component and the brightness component according to color information obtained from a subject. The object region extracting apparatus is characterized in that the feature amount is extracted by changing the weight of the subject area.
前記抽出手段は、前記指定された領域の各画素から色相成分のヒストグラムおよび明度成分のヒストグラムを生成するヒストグラム生成手段と、
前記ヒストグラム生成手段により生成された各ヒスグラムにより色相成分および明度成分の特徴空間を設定する設定手段と、
前記指定された領域の各画素において、前記設定手段により設定された色相成分の特徴空間に属する画素の彩度を算出する算出手段と、
前記彩度と閾値との比較により前記特徴量とする前記色相成分および明度成分の特徴空間に重み付けをする重み付け手段と、を更に備え、
前記重み付け手段は、前記算出手段により算出された彩度の値が閾値以上ならば、前記色相成分の特徴空間を主とする重み付けを行い、前記彩度の値が閾値未満ならば、前記明度成分の特徴空間を主とする重み付けを行うことを特徴とする請求項1に記載の被写体領域抽出装置。
The extraction means generates a histogram of hue components and a histogram of brightness components from each pixel of the designated area;
Setting means for setting a feature space of a hue component and a lightness component by each histogram generated by the histogram generation means;
Calculating means for calculating the saturation of the pixels belonging to the feature space of the hue component set by the setting means in each pixel of the designated region;
Weighting means for weighting the feature space of the hue component and lightness component as the feature amount by comparing the saturation with a threshold value,
The weighting unit performs weighting mainly on a feature space of the hue component if the saturation value calculated by the calculation unit is greater than or equal to a threshold value, and if the saturation value is less than the threshold value, the lightness component The subject area extraction apparatus according to claim 1, wherein weighting is performed mainly on a feature space of the subject area.
前記検出手段は、前記被写体領域に含まれる各画素において前記抽出手段により抽出される特徴量に属する画素を特徴画素として判定することを特徴とする請求項1または2に記載の被写体領域抽出装置。   The subject region extraction apparatus according to claim 1, wherein the detection unit determines, as a feature pixel, a pixel belonging to the feature amount extracted by the extraction unit in each pixel included in the subject region. 前記検出手段は、前記指定された領域を少なくとも二等分する一つ以上の直線を設定し、当該直線により分割された二つ以上の領域における特徴画素数の差を算出し、算出された差が閾値以上ならば、偏りがあることを検出することを特徴とする請求項1乃至3のいずれか1項に記載の被写体領域抽出装置。   The detection means sets one or more straight lines that divide the specified region into at least two equal parts, calculates a difference in the number of feature pixels in two or more regions divided by the straight line, and calculates the calculated difference 4. The subject region extraction apparatus according to claim 1, wherein if there is a threshold value greater than or equal to a threshold value, it is detected that there is a bias. 5. 前記補正手段は、前記指定された領域を少なくとも二等分する一つ以上の設定された直線に対してそれぞれ直交し、前記直線で分割された二つ以上の領域のうち、前記特徴画素数が多い領域の方向に、前記偏りに応じた量で前記指定された領域を補正することを特徴とする請求項4に記載の被写体領域抽出装置。   The correcting means is orthogonal to one or more set straight lines that divide the designated area into at least two equal parts, and the number of characteristic pixels is two or more areas divided by the straight lines. The subject area extraction apparatus according to claim 4, wherein the designated area is corrected by an amount corresponding to the bias in a direction of a large area. 前記補正手段により補正した領域について、前記検出手段により偏りが検出された場合は、前記補正手段により指定された領域を補正し、前記検出手段により偏りが検出されなかった場合は、前記指定された領域を被写体領域として抽出することを特徴とする請求項1乃至5のいずれか1項に記載の被写体領域抽出装置。   For the area corrected by the correcting means, when the bias is detected by the detecting means, the area specified by the correcting means is corrected, and when the bias is not detected by the detecting means, the specified 6. The subject area extraction apparatus according to claim 1, wherein the area is extracted as a subject area. 請求項1乃至6のいずれか1項に記載の被写体領域抽出装置と、
前記被写体領域抽出装置による抽出結果に基づき被写体追跡に使用する基準画像を登録する手段と、を有し、
供給される画像の部分領域と前記登録された基準画像との相関度に応じて被写体領域を抽出することを特徴とする被写体追跡装置。
A subject area extraction device according to any one of claims 1 to 6,
Means for registering a reference image used for subject tracking based on an extraction result by the subject region extraction device;
A subject tracking device that extracts a subject region according to a degree of correlation between a partial region of a supplied image and the registered reference image.
画像中から所定の被写体領域を抽出する被写体領域抽出装置の制御方法であって、
前記画像中から前記所定の被写体を含む領域を指定する指定工程と、
前記指定された領域から前記所定の被写体が持つ特徴量を抽出する抽出工程と、
前記指定された領域に含まれる前記所定の被写体が持つ特徴量と一致する特徴画素の分布状況に基づいて当該指定された領域における前記所定の被写体の位置の偏りを検出する検出工程と、
前記指定された領域における前記所定の被写体の位置の偏りが小さくなるように当該指定された領域の位置を補正する補正工程と、を備え、
前記抽出工程では、前記指定された領域内の各画素の色相成分および明度成分の少なくともいずれかを用いて前記特徴量を抽出すると共に、被写体から得られる色情報に応じて前記色相成分と明度成分の重み付けを変えて前記特徴量を抽出することを特徴とする制御方法。
A method for controlling a subject area extracting apparatus for extracting a predetermined subject area from an image, comprising:
A designation step for designating an area including the predetermined subject from the image;
An extraction step of extracting a feature amount of the predetermined subject from the designated region;
A detection step of detecting a bias in the position of the predetermined subject in the specified region based on a distribution state of feature pixels matching a feature amount of the predetermined subject included in the specified region;
A correction step of correcting the position of the designated area so that the deviation of the position of the predetermined subject in the designated area is reduced,
In the extraction step, the feature amount is extracted using at least one of a hue component and a brightness component of each pixel in the designated region, and the hue component and the brightness component are determined according to color information obtained from a subject. The control method is characterized in that the feature amount is extracted by changing the weighting of.
請求項8に記載の制御方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the control method according to claim 8.
JP2009293207A 2009-12-21 2009-12-24 Subject area extraction device and control method thereof, subject tracking device, and program Expired - Fee Related JP5395650B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009293207A JP5395650B2 (en) 2009-12-24 2009-12-24 Subject area extraction device and control method thereof, subject tracking device, and program
US12/964,334 US8509482B2 (en) 2009-12-21 2010-12-09 Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
CN201010608338.7A CN102103754B (en) 2009-12-21 2010-12-21 Subject tracking apparatus, subject region extraction apparatus, and control methods therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009293207A JP5395650B2 (en) 2009-12-24 2009-12-24 Subject area extraction device and control method thereof, subject tracking device, and program

Publications (2)

Publication Number Publication Date
JP2011134117A true JP2011134117A (en) 2011-07-07
JP5395650B2 JP5395650B2 (en) 2014-01-22

Family

ID=44346776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009293207A Expired - Fee Related JP5395650B2 (en) 2009-12-21 2009-12-24 Subject area extraction device and control method thereof, subject tracking device, and program

Country Status (1)

Country Link
JP (1) JP5395650B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025614A (en) * 2011-07-22 2013-02-04 Nikon Corp Region extraction device, imaging apparatus and region extraction program
JP2013041362A (en) * 2011-08-12 2013-02-28 Nikon Corp Area extraction device, imaging device, and area extraction program
WO2013073168A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
WO2013145589A1 (en) * 2012-03-26 2013-10-03 パナソニック株式会社 Image-processing device, image-capturing device, and image-processing method
JP2016136402A (en) * 2016-02-29 2016-07-28 株式会社ニコン Region extraction device, imaging device and region extraction program
US10509986B2 (en) 2017-07-06 2019-12-17 Fujitsu Limited Image similarity determination apparatus and image similarity determination method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066747A (en) * 1992-06-18 1994-01-14 Olympus Optical Co Ltd Id photo system
JPH11296659A (en) * 1998-04-13 1999-10-29 Sharp Corp Image processor
JP2001043376A (en) * 1999-07-30 2001-02-16 Canon Inc Image extraction method and device and storage medium
JP2007280088A (en) * 2006-04-07 2007-10-25 Konica Minolta Holdings Inc Specific object detection device, specific object detection method, and specific object detection program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066747A (en) * 1992-06-18 1994-01-14 Olympus Optical Co Ltd Id photo system
JPH11296659A (en) * 1998-04-13 1999-10-29 Sharp Corp Image processor
JP2001043376A (en) * 1999-07-30 2001-02-16 Canon Inc Image extraction method and device and storage medium
JP2007280088A (en) * 2006-04-07 2007-10-25 Konica Minolta Holdings Inc Specific object detection device, specific object detection method, and specific object detection program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025614A (en) * 2011-07-22 2013-02-04 Nikon Corp Region extraction device, imaging apparatus and region extraction program
JP2013041362A (en) * 2011-08-12 2013-02-28 Nikon Corp Area extraction device, imaging device, and area extraction program
WO2013073168A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
JPWO2013073168A1 (en) * 2011-11-17 2015-04-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, imaging apparatus, and image processing method
US9171222B2 (en) 2011-11-17 2015-10-27 Panasonic Intellectual Property Corporation Of America Image processing device, image capturing device, and image processing method for tracking a subject in images
WO2013145589A1 (en) * 2012-03-26 2013-10-03 パナソニック株式会社 Image-processing device, image-capturing device, and image-processing method
JPWO2013145589A1 (en) * 2012-03-26 2015-12-10 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, imaging apparatus, and image processing method
US10089527B2 (en) 2012-03-26 2018-10-02 Panasonic Intellectual Property Corporation Of America Image-processing device, image-capturing device, and image-processing method
JP2016136402A (en) * 2016-02-29 2016-07-28 株式会社ニコン Region extraction device, imaging device and region extraction program
US10509986B2 (en) 2017-07-06 2019-12-17 Fujitsu Limited Image similarity determination apparatus and image similarity determination method

Also Published As

Publication number Publication date
JP5395650B2 (en) 2014-01-22

Similar Documents

Publication Publication Date Title
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
US8416987B2 (en) Subject tracking apparatus and control method therefor, image capturing apparatus, and display apparatus
KR101155406B1 (en) Image processing apparatus, image processing method and computer readable-medium
JP5939705B2 (en) Subject determination device, subject determination method, and program
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
KR20110023762A (en) Image processing apparatus, image processing method and computer readable-medium
JP2009123081A (en) Face detection method and photographing apparatus
JP2013012940A (en) Tracking apparatus and tracking method
JP5441669B2 (en) Image processing apparatus and control method thereof
JP5167236B2 (en) Subject tracking device and control method thereof
JP2007251532A (en) Imaging device and face area extraction method
JP6099973B2 (en) Subject area tracking device, control method thereof, and program
JP5451364B2 (en) Subject tracking device and control method thereof
JP2011193066A (en) Image sensing device
JP2009252069A (en) Image processor, imaging device, image processing method and program
JP2013179614A (en) Imaging apparatus
JP5222429B2 (en) Subject tracking device and control method thereof
JP5395651B2 (en) Subject tracking device, control method and program for subject tracking device
JP2010219862A (en) Face detection device, and imaging apparatus
US20220309706A1 (en) Image processing apparatus that tracks object and image processing method
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium
JP5631181B2 (en) Image processing apparatus, control method therefor, and program
JP2009130840A (en) Imaging apparatus, control method thereof ,and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131018

R151 Written notification of patent or utility model registration

Ref document number: 5395650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees