JP2009211607A - Object extraction device and method - Google Patents

Object extraction device and method Download PDF

Info

Publication number
JP2009211607A
JP2009211607A JP2008056042A JP2008056042A JP2009211607A JP 2009211607 A JP2009211607 A JP 2009211607A JP 2008056042 A JP2008056042 A JP 2008056042A JP 2008056042 A JP2008056042 A JP 2008056042A JP 2009211607 A JP2009211607 A JP 2009211607A
Authority
JP
Japan
Prior art keywords
area
region
background
pixel
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008056042A
Other languages
Japanese (ja)
Inventor
Hajime Miyasato
肇 宮里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2008056042A priority Critical patent/JP2009211607A/en
Publication of JP2009211607A publication Critical patent/JP2009211607A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To allow an object extraction device to correctly extract an object while reducing the load on a user. <P>SOLUTION: The object extraction device includes: an initial region setting means (210) that encircles an object region in an image with an encircling line to set the region within the encircling line as an initial region including the object region; a background region estimation means (300) that estimates a pixel in a region apart from the encircling line by a distance shorter than a distance between the pixel and the object as a background pixel constituting the background region of the object region, and estimates a region in the initial region that is constituted by pixels whose background pixel and pixel information are similar to each other in comparison with those of the object region as the background region; and object region determination means (400) that determines a region where the estimated background region is excluded from the initial region as the object region. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えば写真等の画像から、指定された人物、乗り物及び建造物等のオブジェクトを抽出するオブジェクト抽出装置及びオブジェクトの抽出方法の技術分野に関する。   The present invention relates to a technical field of an object extracting apparatus and an object extracting method for extracting an object such as a specified person, vehicle, or building from an image such as a photograph.

この種のオブジェクト抽出装置として、ユーザが指定した画像内のオブジェクトに対し、自動的に輪郭等を推定して抽出を行うものがある。例えば、特許文献1では、ユーザがオブジェクト上の一点を指定すれば、その点に類似する画素を探索してオブジェクトを抽出するという技術が開示されている。また特許文献2では、動的輪郭法(スネークス法)を用いてオブジェクトの輪郭を推定し、オブジェクトを抽出するという技術が開示されている。非特許文献1では、ユーザが指定した輪郭周辺で小領域及び中領域を設定し、各領域における画像の相似性(フラクタル性)を利用してオブジェクトの輪郭を推定するという技術が開示されている。   As this type of object extraction apparatus, there is an apparatus that automatically estimates and extracts an outline or the like for an object in an image designated by a user. For example, Patent Document 1 discloses a technique in which when a user designates a point on an object, a pixel similar to that point is searched and the object is extracted. Patent Document 2 discloses a technique of estimating an object outline by using a dynamic outline method (snakes method) and extracting the object. Non-Patent Document 1 discloses a technique in which a small region and a middle region are set around a contour designated by a user, and the contour of an object is estimated using similarity (fractality) of an image in each region. .

特開2002−92613号公報JP 2002-92613 A 特開2006−190307号公報JP 2006-190307 A “Self-Affine Mapping System and Its Application to Object Contour Extraction”, IEEE Transaction on Image Processing, vol.9, No11, November, 2000“Self-Affine Mapping System and Its Application to Object Contour Extraction”, IEEE Transaction on Image Processing, vol.9, No11, November, 2000

しかしながら、特許文献1に係る技術は、オブジェクトを指定する際に、ユーザが一点を指定する形態であるため、例えばオブジェクトが異なる色を持つ複数の領域からなる場合には、正確にオブジェクトを抽出することができないおそれがある。また、特許文献2に係る技術は、ユーザに対して比較的高い精度で輪郭を指定することが要求されるため、ユーザへの負担が増大してしまう。加えて、特許文献2及び非特許文献1に係る技術は、いずれも比較的複雑な処理を要するため、処理時間の増加及び装置構成の複雑化等を招くおそれがある。   However, since the technique according to Patent Document 1 is a form in which a user designates one point when designating an object, for example, when an object is composed of a plurality of regions having different colors, the object is accurately extracted. There is a risk that it will not be possible. Moreover, since the technique according to Patent Document 2 requires the user to specify a contour with relatively high accuracy, the burden on the user increases. In addition, since the techniques according to Patent Document 2 and Non-Patent Document 1 both require relatively complicated processing, there is a risk of increasing processing time and complication of the apparatus configuration.

以上のように、上述した技術では、抽出精度の向上とユーザの負担軽減とを両立させることが困難であるという技術的問題点がある。   As described above, the above-described technique has a technical problem that it is difficult to achieve both improvement in extraction accuracy and reduction of the burden on the user.

本発明は、例えば上述した問題点に鑑みなされたものであり、ユーザの負担を軽減しつつ、精度よくオブジェクトを抽出可能なオブジェクト抽出装置及びオブジェクト抽出方法を提供することを課題とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an object extraction device and an object extraction method that can extract an object with high accuracy while reducing a user's burden.

本発明のオブジェクト抽出装置は上記課題を解決するために、画像におけるオブジェクト領域の外側を、前記オブジェクト領域から距離を隔てて囲み線で囲うことによって、前記囲み線の内部の領域を、前記オブジェクト領域を含む初期領域として設定する初期領域設定手段と、前記初期領域が設定されると、前記囲み線から前記距離よりも短い距離だけ離れた領域内の画素を前記オブジェクト領域の背景である背景領域を構成する背景画素と推定し、前記初期領域における、前記背景画素と画素情報が前記オブジェクト領域に比べて類似する画素によって構成される領域を、背景領域として推定する背景領域推定手段と、前記初期領域から前記推定された背景領域を除いた領域を、前記オブジェクト領域として決定するオブジェクト領域決定手段とを備える。   In order to solve the above-described problem, the object extraction device of the present invention surrounds an outer area of an object area in an image with a surrounding line at a distance from the object area. Initial region setting means for setting as an initial region including, and when the initial region is set, a background region that is a background of the object region is a pixel in a region separated from the enclosing line by a distance shorter than the distance. A background area estimating means for estimating a background pixel as a background area by estimating a background pixel in the initial area and a pixel having pixel information similar to that of the object area in the initial area; An object area determination that determines an area excluding the estimated background area from the object area as the object area And means.

本発明のオブジェクト抽出方法は上記課題を解決するために、画像におけるオブジェクト領域の外側を、前記オブジェクト領域から距離を隔てて囲み線で囲うことによって、前記囲み線の内部の領域を、前記オブジェクト領域を含む初期領域として設定する初期領域設定工程と、前記初期領域が設定されると、前記囲み線から前記距離よりも短い距離だけ離れた領域内の画素を前記オブジェクト領域の背景である背景領域を構成する背景画素と推定し、前記初期領域における、前記背景画素と画素情報が前記オブジェクト領域に比べて類似する画素によって構成される領域を、背景領域として推定する背景領域推定工程と、前記初期領域から前記決定された背景領域を除いた領域を、前記オブジェクト領域として決定するオブジェクト領域決定工程とを備える。   In order to solve the above-described problem, the object extraction method of the present invention surrounds the outside of the object area in the image with a surrounding line at a distance from the object area, so that the area inside the surrounding line is the object area. An initial region setting step for setting as an initial region including: and when the initial region is set, a background region that is a background of the object region is a pixel in a region that is separated from the enclosing line by a distance shorter than the distance. A background region estimation step for estimating a background pixel to be configured, and estimating, as the background region, a region formed by pixels having pixel information similar to the background region and pixel information in the initial region; and the initial region An object area determination that determines an area excluding the determined background area as the object area from And a step.

本発明の作用及び他の利得は次に説明する実施するための最良の形態から明らかにされる。   The operation and other advantages of the present invention will become apparent from the best mode for carrying out the invention described below.

以下では、発明を実施するための最良の形態としてのオブジェクト抽出装置及びオブジェクト抽出方法について説明する。   Hereinafter, an object extraction apparatus and an object extraction method as the best mode for carrying out the invention will be described.

本実施形態のオブジェクト抽出装置は上記課題を解決するために、画像におけるオブジェクト領域の外側を、前記オブジェクト領域から距離を隔てて囲み線で囲うことによって、前記囲み線の内部の領域を、前記オブジェクト領域を含む初期領域として設定する初期領域設定手段と、前記初期領域が設定されると、前記囲み線から前記距離よりも短い距離だけ離れた領域内の画素を前記オブジェクト領域の背景である背景領域を構成する背景画素と推定し、前記初期領域における、前記背景画素と画素情報が前記オブジェクト領域に比べて類似する画素によって構成される領域を、背景領域として推定する背景領域推定手段と、前記初期領域から前記推定された背景領域を除いた領域を、前記オブジェクト領域として決定するオブジェクト領域決定手段とを備える。   In order to solve the above-described problem, the object extraction device of the present embodiment surrounds the outside of the object area in the image with a surrounding line at a distance from the object area, so that the area inside the surrounding line is the object. An initial area setting means for setting as an initial area including an area; and when the initial area is set, a background area that is a background of the object area is a pixel in an area separated from the enclosing line by a distance shorter than the distance A background region estimation means for estimating, as the background region, a region composed of pixels in which the pixel information of the background region is similar to that of the object region in the initial region; An object area that determines an area excluding the estimated background area from the area as the object area And a determination unit.

本実施形態のオブジェクト抽出装置によれば、その動作時に、先ず画像におけるオブジェクト領域の外側を、オブジェクト領域から距離を隔てて囲み線で囲うことによって、囲み線の内部の領域が、オブジェクト領域を含む初期領域として設定される。囲み線は、例えばユーザがマウスやタッチペン等を操作することで画像上に描かれる。ここで囲み線は、オブジェクト領域と重ならない閉曲線として描かれた方がよい。但し、閉曲線として描かれていない場合には、線の両端を直線や曲線等で繋いで補完することも可能である。   According to the object extraction device of the present embodiment, at the time of the operation, first, the outside of the object area in the image is surrounded by a surrounding line at a distance from the object area, so that the area inside the surrounding line includes the object area. Set as the initial area. The encircling line is drawn on the image, for example, when the user operates a mouse, a touch pen, or the like. Here, the enclosing line should be drawn as a closed curve that does not overlap the object area. However, if it is not drawn as a closed curve, it is also possible to complement by connecting both ends of the line with straight lines or curves.

前記初期領域が設定されると、囲み線から上述した距離(即ち、囲み線及びオブジェクト領域間の距離)よりも短い距離だけ離れた領域内の画素が、オブジェクト領域の背景である背景領域を構成する背景画素と推定される。即ち、囲み線はオブジェクトと距離を隔てて(言い換えれば、重ならないように)描かれているため、囲み線の近傍の画素を背景画素と推定することができる。尚、ここで背景画素と推定される画素は、典型的には、囲み線から数画素の範囲内にある画素である。また、背景画素と推定される画素は、囲み線に沿って数画素の範囲内にある画素全てであってもよいし、例えば囲み線上のいくつかの点から数画素の範囲内にある画素であってもよい。即ち、背景画素と推定される画素は、囲み線の近傍の画素の一部分でよい。この場合、後述する背景領域を推定する処理を比較的簡単なものとすることが可能である。   When the initial area is set, the pixels in the area that is separated from the enclosing line by a distance shorter than the distance described above (that is, the distance between the enclosing line and the object area) constitutes the background area that is the background of the object area. This is estimated as a background pixel. That is, since the surrounding line is drawn at a distance from the object (in other words, so as not to overlap), a pixel near the surrounding line can be estimated as a background pixel. Here, the pixel estimated as the background pixel is typically a pixel within a range of several pixels from the surrounding line. Further, the pixels estimated as background pixels may be all pixels within a range of several pixels along the surrounding line, for example, pixels within a range of several pixels from several points on the surrounding line. There may be. That is, the pixel estimated as the background pixel may be a part of the pixel in the vicinity of the surrounding line. In this case, it is possible to make the process of estimating the background area described later relatively simple.

背景画素が推定されると、初期領域における背景画素と画素情報がオブジェクト領域に比べて類似する画素によって構成される領域が、背景領域として推定される。即ち、画素における画素情報が、オブジェクト領域よりも背景画素に近い画素によって構成される領域が、背景領域と推定される。具体的には、例えば画素情報に対する閾値等が予め設定され、その閾値に基づいて画素情報が類似しているか否かが判定される。そして、画素情報が背景画素と類似していると判定された画素によって構成される領域が、背景領域と推定される。尚、ここでの「画素情報」とは、例えば色調、輝度及びテクスチャ(周波数成分)等の表示する画像によって画素毎に変化する情報であり、例えば、画素情報として色調を用いる場合、囲み線の近傍の画素におけるRGBヒストグラムと、各画素のRGB値とを比較することで類似しているか否かを判定することができる。   When the background pixel is estimated, an area composed of pixels whose pixel information is similar to that of the object area in the initial area is estimated as the background area. That is, an area formed by pixels whose pixel information is closer to the background pixel than the object area is estimated as the background area. Specifically, for example, a threshold value for the pixel information is set in advance, and it is determined whether the pixel information is similar based on the threshold value. And the area | region comprised by the pixel determined that pixel information is similar to a background pixel is estimated as a background area. The “pixel information” here is information that changes for each pixel depending on the displayed image, such as color tone, luminance, and texture (frequency component). For example, when color tone is used as pixel information, It is possible to determine whether or not they are similar by comparing the RGB histogram of neighboring pixels with the RGB value of each pixel.

背景領域が推定されると、初期領域から背景領域を除いた領域が、オブジェクト領域として決定される。尚、決定されたオブジェクト領域は、例えばオブジェクト領域としての画像データ又はオブジェクト領域を切り取った画像データとして出力される。出力されたデータは、例えば画面上に表示されたり、メモリ等に保存されたりする。或いは、インターネット等を介して配信されるようにしてもよい。   When the background area is estimated, an area excluding the background area from the initial area is determined as the object area. The determined object area is output as, for example, image data as the object area or image data obtained by cutting out the object area. The output data is displayed on a screen, for example, or stored in a memory or the like. Alternatively, it may be distributed via the Internet or the like.

本実施形態では特に、背景領域推定手段によって背景領域が高い精度で推定されるため、オブジェクト領域を高い精度で決定することが可能である。即ち、抽出されるべきオブジェクト領域が部分的に削られたり、或いは抽出すべきでない領域が抽出されたりしてしまうことを低減しつつ、オブジェクト領域を抽出することが可能である。また、背景領域を元にオブジェクト領域が決定されるため、オブジェクト領域が相異なる色を持つ複数の領域からなるような場合であっても、好適にオブジェクトを抽出することができる。   In the present embodiment, in particular, the background region is estimated with high accuracy by the background region estimation means, so that the object region can be determined with high accuracy. That is, it is possible to extract the object area while reducing the possibility that the object area to be extracted is partially cut or the area that should not be extracted is extracted. Further, since the object area is determined based on the background area, the object can be suitably extracted even when the object area is composed of a plurality of areas having different colors.

更に、上述したように背景領域が高い精度で推定されるため、初期領域を設定する時点での精度は比較的高くなくてもよい。即ち、囲み線がある程度大まかに描かれた場合であっても、高い精度でオブジェクトを抽出することが可能である。言い換えれば、囲み線がオブジェクト領域を含む閉曲線として描かれてさえいれば、本実施形態の効果は発揮される。よって、ユーザへの負担を軽くすることができる。但し、オブジェクトの輪郭に合わせて(即ち、輪郭に沿うように)囲み線を描くことによって、抽出の精度をより高くすることも可能である。   Furthermore, since the background area is estimated with high accuracy as described above, the accuracy at the time of setting the initial area may not be relatively high. That is, even when the surrounding line is drawn roughly to some extent, it is possible to extract an object with high accuracy. In other words, as long as the surrounding line is drawn as a closed curve including the object region, the effect of the present embodiment is exhibited. Therefore, the burden on the user can be reduced. However, it is also possible to increase the extraction accuracy by drawing a surrounding line in accordance with the contour of the object (that is, along the contour).

以上説明したように、本実施形態に係るオブジェクト抽出装置によれば、ユーザへの負担を軽減しつつ、精度よくオブジェクト領域を抽出することが可能である。   As described above, according to the object extraction device according to the present embodiment, it is possible to accurately extract an object region while reducing the burden on the user.

本実施形態のオブジェクト抽出装置の一態様では、前記背景領域推定手段は、前記囲み線と少なくとも部分的に重なるように背景画素取得領域を設定し、前記背景画素取得領域内の画素の画素情報を、前記背景画素の画素情報として取得する背景画素取得手段と、前記背景画素取得領域を少なくとも部分的に囲うように背景画素探索領域を設定し、前記背景画素探索領域内において、前記取得された画素情報と前記オブジェクト領域に比べて類似する画素情報を有する画素を探索する背景画素探索手段とを有する。   In one aspect of the object extraction device of the present embodiment, the background region estimation means sets a background pixel acquisition region so as to at least partially overlap the surrounding line, and pixel information of pixels in the background pixel acquisition region is obtained. , Background pixel acquisition means for acquiring the pixel information of the background pixel, and setting a background pixel search region so as to at least partially surround the background pixel acquisition region, and the acquired pixel in the background pixel search region Background pixel search means for searching for pixels having pixel information similar to the information and the object area.

この態様によれば、初期領域設定手段によって初期領域が設定されると、先ず背景画素取得手段によって背景画素取得領域が設定される。背景画素取得領域は、典型的には、囲み線上の一点を中心として数画素の画素を含む領域として複数設定される。背景画素取得領域が設定されると、背景画素取得領域内の画素の画素情報が、背景画素の画素情報として取得される。   According to this aspect, when the initial area is set by the initial area setting means, first, the background pixel acquisition area is set by the background pixel acquisition means. A plurality of background pixel acquisition regions are typically set as regions including several pixels centered on one point on the enclosing line. When the background pixel acquisition area is set, the pixel information of the pixels in the background pixel acquisition area is acquired as the pixel information of the background pixels.

続いて、背景画素探索手段によって背景画素探索領域が設定される。背景画素探索領域は、典型的には、背景画素取得領域を中心とする円形の領域として設定される。但し、矩形或いはより複雑な形状の領域として設定されてもよい。また領域の大きさは、例えば画像全体の大きさによって決定される。或いは、設定された初期領域の大きさ等に応じて決定されてもよい。尚、背景画素探索領域は典型的には複数設定されるが、大きさは互いに異なっていてもよい。   Subsequently, a background pixel search area is set by the background pixel search means. The background pixel search area is typically set as a circular area centered on the background pixel acquisition area. However, it may be set as an area having a rectangular shape or a more complicated shape. The size of the area is determined by the size of the entire image, for example. Alternatively, it may be determined according to the size of the set initial area. A plurality of background pixel search areas are typically set, but the sizes may be different from each other.

背景画素探索領域が設定されると、背景画素探索領域内において、背景画素として取得された画素情報とオブジェクト領域に比べて類似する画素情報を有する画素が探索される。即ち、背景画素探索領域では、オブジェクト領域より背景画素に近い画素情報を有する画素が探索される。これにより、背景領域を確実に推定することが可能となる。また、探索範囲を背景画素探索領域内の囲み線内部に絞るようにすれば、探索にかかる処理を軽くすることができる。   When the background pixel search region is set, pixels having pixel information similar to the pixel information acquired as the background pixel and the object region are searched in the background pixel search region. That is, in the background pixel search area, a pixel having pixel information closer to the background pixel than the object area is searched. As a result, the background area can be reliably estimated. In addition, if the search range is narrowed down to the inside of the surrounding line in the background pixel search area, the search process can be lightened.

上述した背景画素取得領域及び背景画素探索領域は、隣り合う背景画素探索領域が互いに部分的に重なるように複数設定される。言い換えれば、背景画素探索領域が重なるように設定できるのであれば、背景画素取得領域及び背景画素探索領域を、ある程度の間隔を空けて設定することが可能である。背景画素取得領域及び背景画素探索領域の間隔が広がることで、全体として設定される背景画素取得領域及び背景画素探索領域の数は減少する。よって、画素の取得及び探索にかかる処理を少なくすることができる。   A plurality of background pixel acquisition areas and background pixel search areas described above are set so that adjacent background pixel search areas partially overlap each other. In other words, if the background pixel search area can be set so as to overlap, the background pixel acquisition area and the background pixel search area can be set with a certain interval. By increasing the interval between the background pixel acquisition region and the background pixel search region, the number of background pixel acquisition regions and background pixel search regions set as a whole decreases. Therefore, it is possible to reduce processing for pixel acquisition and search.

以上説明したように、本態様に係るオブジェクト抽出装置によれば、上述した各処理を比較的軽いものとしつつ、確実に背景領域を推定することができる。従って、より好適にオブジェクト領域を抽出することが可能である。   As described above, according to the object extraction device according to this aspect, it is possible to reliably estimate the background region while making the above-described processes relatively light. Therefore, it is possible to extract the object region more preferably.

上述した背景画素推定手段が背景画素取得手段及び背景画素探索領域を有する態様では、前記背景画素探索手段は、前記背景画素探索領域内の画素における、前記取得された画素情報と類似する画素情報を有する画素の割合に基づいて、前記背景画素探索領域の大きさを変更するように構成してもよい。   In the aspect in which the background pixel estimation means includes the background pixel acquisition means and the background pixel search area, the background pixel search means obtains pixel information similar to the acquired pixel information in the pixels in the background pixel search area. You may comprise so that the magnitude | size of the said background pixel search area may be changed based on the ratio of the pixel which has.

この構成によれば、先ず画素の探索が行われ、背景画素探索領域内の画素における、背景画素として取得された画素情報と類似する画素情報を有する画素の割合が求められる。そして、この割合に基づいて、背景画素探索領域の大きさが変更される。背景画素探索領域の大きさが変更されると、再び画素の探索が行われる。   According to this configuration, first, a pixel search is performed, and a ratio of pixels having pixel information similar to the pixel information acquired as the background pixel in the pixels in the background pixel search region is obtained. Based on this ratio, the size of the background pixel search area is changed. When the size of the background pixel search area is changed, the pixel search is performed again.

具体的には、例えば背景画素と類似する画素の割合が多い場合は、探索範囲がオブジェクト領域の境界まで十分にカバーしきれていない可能性が高いため、背景画素探索領域を大きくする。背景画素探索領域を大きくすることで、より適切に背景領域を推定できるようになる。他方で、背景画素と類似する画素の割合が少ない場合は、オブジェクト領域にかかる部分が多いと考えられるため、背景画素探索領域を小さくする。背景画素探索領域を小さくした場合は、探索範囲が狭まるため、探索にかかる処理が軽くなる。   Specifically, for example, when the ratio of pixels similar to the background pixel is large, there is a high possibility that the search range does not sufficiently cover the boundary of the object region, so the background pixel search region is enlarged. By increasing the background pixel search area, the background area can be estimated more appropriately. On the other hand, when the ratio of pixels similar to the background pixel is small, it is considered that there are many portions related to the object region, and therefore the background pixel search region is reduced. When the background pixel search area is made small, the search range is narrowed, so that the processing for searching becomes light.

上述したように背景画素探索領域の大きさが変更されることで、画素の探索をより好適に行うことが可能となる。よって、背景領域推定手段は、より好適に背景領域を推定することができる。   As described above, by changing the size of the background pixel search area, it becomes possible to search for pixels more suitably. Therefore, the background area estimation means can more suitably estimate the background area.

本実施形態のオブジェクト抽出装置の他の態様では、前記オブジェクト領域決定手段は、前記推定された背景領域に基づいてオブジェクト領域を推定するオブジェクト領域推定手段と、前記推定された背景領域及び前記推定されたオブジェクト領域における画素情報と比較することで、前記初期領域における各画素が前記背景領域及び前記オブジェクト領域のいずれであるかをクラスタリングするクラスタリング手段とを有し、前記クラスタリング手段において、前記オブジェクト領域であるとされた画素によって構成される領域をオブジェクト領域として決定する。   In another aspect of the object extraction device of the present embodiment, the object region determination unit includes an object region estimation unit that estimates an object region based on the estimated background region, the estimated background region, and the estimated Clustering means for clustering whether each pixel in the initial area is the background area or the object area by comparing with pixel information in the object area. In the clustering means, An area constituted by pixels that are determined to be present is determined as an object area.

この態様によれば、背景領域が推定されると、オブジェクト領域推定手段によって、オブジェクト領域が推定される。そして、クラスタリング手段によって、初期領域における各画素と、推定された背景領域及び推定されたオブジェクト領域における画素情報とが比較され、背景領域及びオブジェクト領域のいずれであるかがクラスタリング(即ち、分類)される。   According to this aspect, when the background area is estimated, the object area is estimated by the object area estimating means. Then, each pixel in the initial region is compared with the pixel information in the estimated background region and the estimated object region by the clustering means, and clustering (that is, classification) is performed as to whether the pixel is the background region or the object region. The

クラスタリングが行われた後は、オブジェクト領域であると分類された画素によって構成される領域がオブジェクト領域として決定される。本態様では、背景領域が推定された後に、更にクラスタリングが行われているため、オブジェクト領域を精度よく抽出することができる。   After clustering is performed, an area configured by pixels classified as an object area is determined as the object area. In this aspect, since the clustering is further performed after the background area is estimated, the object area can be extracted with high accuracy.

尚、クラスタリングの手法は、非線形分離が可能且つリジェクトを許す手法であることが好ましい。リジェクトを許す手法である場合、背景領域及びオブジェクト領域のいずれにも分類されない画素は、リジェクトとして分類され、オブジェクト領域からは除かれる。これにより、オブジェクト領域の抽出精度をより向上させることが可能となる。   Note that the clustering method is preferably a method capable of nonlinear separation and allowing rejection. In the case of a technique that allows rejection, pixels that are not classified into either the background area or the object area are classified as rejects and are excluded from the object area. Thereby, it is possible to further improve the extraction accuracy of the object region.

また、クラスタリングする際には、初期領域を領域分割(縦分割、横分割、十字分割等)してもよい。これにより、例えばオブジェクト領域又は背景領域が、相異なる色を持つ複数の領域からなる場合であっても、好適にオブジェクト領域を抽出することが可能である。   In clustering, the initial region may be divided into regions (vertical division, horizontal division, cross division, etc.). Thereby, for example, even when the object region or the background region is composed of a plurality of regions having different colors, the object region can be suitably extracted.

本実施形態のオブジェクト抽出装置の他の態様では、前記画像内の前記画像より径の小さい領域を、前記囲み線を有効とする有効範囲として設定する有効範囲設定手段と、前記有効範囲を超えて描かれた前記囲み線を、前記画像の縁に向かって描かれた線として補正する補正手段とを更に備える。   In another aspect of the object extraction device of the present embodiment, effective range setting means for setting an area having a smaller diameter than the image in the image as an effective range in which the encircling line is effective, and exceeding the effective range Correction means for correcting the drawn encircling line as a line drawn toward the edge of the image is further provided.

この態様によれば、初期領域が設定される前(即ち、囲み線が描かれる前)に、画像内における画像より径の小さい領域が、囲み線を有効とする有効範囲として設定される。有効範囲は、典型的には、画像全体に対して径が数ミリから数センチ小さい領域(即ち、画像より一回り小さい領域)として設定される。   According to this aspect, before the initial region is set (that is, before the surrounding line is drawn), an area having a smaller diameter than the image in the image is set as an effective range in which the surrounding line is valid. The effective range is typically set as a region whose diameter is several millimeters to several centimeters smaller than the entire image (that is, a region slightly smaller than the image).

有効範囲が設定された後、囲み線が描かれると、有効範囲を超えて描かれた囲み線は、画像の縁に向かって描かれた線として補正される。より具体的には、例えば有効とされた囲み線の延長方向に延びる線或いは縁に対する垂線として補正される。尚、画像の縁に達した線は、他の画像の縁に達した線と、画像の縁に沿うような線によって結ばれる。即ち、補正された場合であっても、囲み線は閉曲線とされる。   When the encircling line is drawn after the effective range is set, the encircling line drawn beyond the effective range is corrected as a line drawn toward the edge of the image. More specifically, it is corrected as, for example, a line extending in the extension direction of the effective surrounding line or a perpendicular to the edge. The line reaching the edge of the image is connected to the line reaching the edge of another image by a line along the edge of the image. That is, even if it is corrected, the surrounding line is a closed curve.

上述したように構成すれば、例えばオブジェクト領域が画像の縁に接するような領域である場合に、画像の縁に接するような囲み線を描かなくともよい。即ち、ユーザは画像の縁を意識せずに、画像内のオブジェクト領域を囲うような囲み線を描けばよく、囲み線は自動的に画像の縁に沿ったものに補正される。よって、好適に初期領域を設定することができる。従って、ユーザの負担を増加させることなく、好適にオブジェクト領域を抽出することが可能である。   If configured as described above, for example, when the object area is an area that touches the edge of the image, it is not necessary to draw a surrounding line that touches the edge of the image. That is, the user can draw a surrounding line surrounding the object area in the image without being aware of the edge of the image, and the surrounding line is automatically corrected to be along the edge of the image. Therefore, the initial region can be set appropriately. Therefore, it is possible to suitably extract the object area without increasing the burden on the user.

本実施形態のオブジェクト抽出装置の他の態様では、時間的に連続する複数の画像からなる動画像において、一の画像において決定されたオブジェクト領域を拡大し、前記拡大されたオブジェクト領域を、前記一の画像の次に表示される他の画像における初期領域として設定する自動初期領域設定手段を更に備える。   In another aspect of the object extraction device of the present embodiment, in a moving image composed of a plurality of temporally continuous images, an object region determined in one image is enlarged, and the enlarged object region is changed to the one object. Automatic initial area setting means for setting as an initial area in another image displayed next to the first image.

この態様によれば、時間的に連続する複数の画像からなる動画像における、一の画像においてオブジェクト領域が決定されると、自動初期領域設定手段において、先ず決定されたオブジェクト領域が拡大される。そして、拡大されたオブジェクト領域は、一の画像の次に表示される他の画像における初期領域として決定される。言い換えれば、一の画像において決定されたオブジェクト領域は、次に表示される画像においてオブジェクト領域が移動した場合であっても、オブジェクト領域が新たに設定される初期領域内に含まれるように拡大される。拡大率や拡大方向は予め所定の値として設定されていてもよいが、例えばオブジェクト領域の動く速さや方向等に基づいて設定することで、精度を高めることが可能である。   According to this aspect, when an object area is determined in one image in a moving image composed of a plurality of temporally continuous images, the determined object area is first enlarged by the automatic initial area setting means. The enlarged object area is determined as an initial area in another image displayed next to one image. In other words, the object area determined in one image is enlarged so that the object area is included in the newly set initial area even when the object area is moved in the next displayed image. The Although the enlargement ratio and the enlargement direction may be set in advance as predetermined values, for example, the accuracy can be improved by setting the enlargement ratio and the enlargement direction based on the moving speed and direction of the object area.

上述したように他の画像における初期領域が設定されると、他の画像においても同様に、背景領域が推定され、オブジェクト領域が決定される。即ち、時間的に連続する複数の画像について、夫々オブジェクト領域が決定される。よって、例えばユーザが一時停止された画面(即ち、一の画像)においてオブジェクト領域を囲み線で囲えば、それに続く画像においては、自動的に初期領域が設定され、オブジェクト領域が抽出される。よって、動画像においても、ユーザの負担を増加させることなく、好適にオブジェクトを抽出することが可能となる。   As described above, when the initial region in another image is set, the background region is similarly estimated in the other image, and the object region is determined. That is, an object area is determined for each of a plurality of temporally continuous images. Therefore, for example, if the object area is surrounded by a surrounding line on the screen where the user is paused (that is, one image), the initial area is automatically set and the object area is extracted in the subsequent image. Therefore, it is possible to suitably extract an object from a moving image without increasing the burden on the user.

本実施形態のオブジェクト抽出方法は上記課題を解決するために、画像におけるオブジェクト領域の外側を、前記オブジェクト領域から距離を隔てて囲み線で囲うことによって、前記囲み線の内部の領域を、前記オブジェクト領域を含む初期領域として設定する初期領域設定工程と、前記初期領域が設定されると、前記囲み線から前記距離よりも短い距離だけ離れた領域内の画素を前記オブジェクト領域の背景である背景領域を構成する背景画素と推定し、前記初期領域における、前記背景画素と画素情報が前記オブジェクト領域に比べて類似する画素によって構成される領域を、背景領域として推定する背景領域推定工程と、前記初期領域から前記決定された背景領域を除いた領域を、前記オブジェクト領域として決定するオブジェクト領域決定工程とを備える。   In order to solve the above-described problem, the object extraction method of the present embodiment surrounds the outside of the object area in the image with a surrounding line at a distance from the object area, so that the area inside the surrounding line is the object. An initial region setting step for setting as an initial region including a region; and when the initial region is set, a background region that is a background of the object region is a pixel in a region that is separated from the surrounding line by a distance shorter than the distance A background region estimation step of estimating, as the background region, a region formed by pixels having pixel information similar to the background region and the pixel information in the initial region; An object area that determines an area obtained by removing the determined background area from the area as the object area And a determination step.

本実施形態のオブジェクト抽出方法によれば、上述した本実施形態のオブジェクト抽出装置の場合と同様に、初期領域を設定することで、背景領域が高い精度で推定されるため、より好適にオブジェクトを抽出することができる。即ち、ユーザへの負担を軽減しつつ、精度よくオブジェクト領域を抽出することが可能である。   According to the object extraction method of the present embodiment, as in the case of the object extraction device of the present embodiment described above, the background region is estimated with high accuracy by setting the initial region. Can be extracted. That is, it is possible to extract the object region with high accuracy while reducing the burden on the user.

尚、本実施形態のオブジェクト抽出方法においても、上述した本実施形態のオブジェクト抽出装置における各種態様と同様の各種態様を採ることが可能である。   Note that the object extraction method of the present embodiment can also adopt various aspects similar to the various aspects of the object extraction device of the present embodiment described above.

本実施形態の作用及び他の利得は、以下に説明する実施例から明らかにされる。   The effect | action and other gain of this embodiment are clarified from the Example demonstrated below.

以下では、本発明の実施例について図を参照しつつ説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1実施例>
先ず、第1実施例に係るオブジェクト抽出装置の構成について、図1を参照して説明する。ここに図1は、第1実施例に係るオブジェクト抽出装置の構成を示すブロック図である。
<First embodiment>
First, the configuration of the object extraction device according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the object extracting apparatus according to the first embodiment.

図1において、第1実施例に係るオブジェクト抽出装置は、画像入力部110と、画像蓄積部120と、制御部130と、画像表示部140と、操作部150と、初期領域設定部210と、有効範囲設定部220と、補正部230と、背景領域推定部300と、オブジェクト領域決定部400とを備えて構成されている。   In FIG. 1, an object extraction apparatus according to the first embodiment includes an image input unit 110, an image storage unit 120, a control unit 130, an image display unit 140, an operation unit 150, an initial region setting unit 210, The effective range setting unit 220, the correction unit 230, the background region estimation unit 300, and the object region determination unit 400 are configured.

画像入力部110は、例えば放送波を受信復号するチューナ、インターネット入力、及びカメラなどの撮影機器等であり、制御部130に画像データを入力する。   The image input unit 110 is, for example, a tuner that receives and decodes broadcast waves, Internet input, and a photographing device such as a camera, and inputs image data to the control unit 130.

画像蓄積部120は、例えばHDD(Hard Disc Drive)やメモリ装置等の記憶媒体であり、蓄積された画像データを制御部130に入力する。   The image storage unit 120 is a storage medium such as an HDD (Hard Disc Drive) or a memory device, and inputs the stored image data to the control unit 130.

制御部130は、例えば演算回路等を備えたコントロールユニットであり、入力されたデータに演算処理を施して出力することで、他の部位を制御する。また装置、或いは装置を含むシステム全体を制御するようなものであってもよい。   The control unit 130 is, for example, a control unit including an arithmetic circuit and the like, and controls other parts by performing arithmetic processing on the input data and outputting it. Further, the apparatus or the whole system including the apparatus may be controlled.

画像表示部140は、例えばディスプレイモニタであり、画像入力部110及び画像蓄積部120から入力された画像を表示する。また、触れることで囲み線を入力可能なタッチパネルとして構成されてもよい。   The image display unit 140 is a display monitor, for example, and displays images input from the image input unit 110 and the image storage unit 120. Moreover, you may comprise as a touchscreen which can input a surrounding line by touching.

操作部150は、例えばマウスやタッチペンであり、ユーザが画像中に囲み線を入力するためのツールである。   The operation unit 150 is, for example, a mouse or a touch pen, and is a tool for the user to input a surrounding line in the image.

初期領域設定部210は、本発明の「初期領域設定手段」の一例であり、操作部150等において描かれた囲み線の内部を初期領域として設定する。   The initial area setting unit 210 is an example of the “initial area setting unit” in the present invention, and sets the inside of the enclosing line drawn on the operation unit 150 or the like as an initial area.

有効範囲設定部220は、本発明の「有効範囲設定手段」の一例であり、画像表示部140等において表示される画像に書き込み線を有効とする有効範囲を設定する。有効範囲は、例えばメモリ等に記憶されていてもよいし、画像の大きさ等から算出するようにしてもよい。   The effective range setting unit 220 is an example of the “effective range setting unit” of the present invention, and sets an effective range in which a writing line is effective for an image displayed on the image display unit 140 or the like. The effective range may be stored in a memory or the like, for example, or may be calculated from the size of the image.

補正部230は、本発明の「補正手段」の一例であり、有効範囲を超えた囲み線に対して演算処理を施して補正する。   The correction unit 230 is an example of the “correction unit” of the present invention, and corrects the surrounding line that exceeds the effective range by performing arithmetic processing.

背景領域推定部300は、本発明の「背景領域推定手段」の一例であり、演算処理等を行うことで、初期領域における背景領域を推定する。また、本発明の「背景画素取得手段」の一例である、背景画素取得部310及び本発明の「背景画素探索手段」の一例である、背景画素探索部320を備えている。   The background region estimation unit 300 is an example of the “background region estimation unit” of the present invention, and estimates the background region in the initial region by performing arithmetic processing or the like. In addition, a background pixel acquisition unit 310 that is an example of the “background pixel acquisition unit” of the present invention and a background pixel search unit 320 that is an example of the “background pixel search unit” of the present invention are provided.

オブジェクト領域決定部400は、本発明の「オブジェクト領域決定手段」の一例であり、推定された背景領域からオブジェクト領域を決定する。また、本発明の「オブジェクト領域推定手段」の一例である、オブジェクト領域推定部410及び本発明の「クラスタリング手段」の一例である、クラスタリング部420を備えている。   The object area determination unit 400 is an example of the “object area determination unit” of the present invention, and determines an object area from the estimated background area. Further, an object region estimation unit 410 that is an example of the “object region estimation unit” of the present invention and a clustering unit 420 that is an example of the “clustering unit” of the present invention are provided.

続いて、第1実施例に係るオブジェクト抽出方法について、図1に加えて図2から図11を参照して説明する。ここに図2は、第1実施例に係るオブジェクト抽出方法の一連の処理の流れを示すフローチャートであり、図3は、画像に描かれるオブジェクト及び囲み線を示す平面図である。図4は、画像内に設定される有効範囲を示す平面図であり、図5は、囲み線の補正を示す平面図である。図6は、背景画素取得領域及び背景画素探索領域を部分拡大図と共に示す平面図であり、図7は、背景画素取得領域及び背景画素探索領域の設定方法を示す平面図である。図8は、推定される背景領域及びオブジェクト領域を示す平面図であり、図9は、クラスタリングにおいて分類される各領域を示す平面図である。図10は、クラスタリングにおける領域分割を示す平面図であり、図11は、抽出されるオブジェクト領域を示す平面図である。尚、以下では、本実施例に係るオブジェクト抽出方法について、上述したオブジェクト抽出装置の動作と併せて説明する。   Next, an object extraction method according to the first embodiment will be described with reference to FIGS. 2 to 11 in addition to FIG. FIG. 2 is a flowchart showing a flow of a series of processes of the object extraction method according to the first embodiment, and FIG. 3 is a plan view showing objects and enclosing lines drawn in the image. FIG. 4 is a plan view showing an effective range set in an image, and FIG. 5 is a plan view showing correction of a surrounding line. FIG. 6 is a plan view showing a background pixel acquisition region and a background pixel search region together with a partially enlarged view, and FIG. 7 is a plan view showing a setting method of the background pixel acquisition region and the background pixel search region. FIG. 8 is a plan view showing the estimated background area and object area, and FIG. 9 is a plan view showing each area classified in clustering. FIG. 10 is a plan view showing area division in clustering, and FIG. 11 is a plan view showing object areas to be extracted. In the following, the object extraction method according to the present embodiment will be described together with the operation of the object extraction apparatus described above.

図1及び図2において、第1実施例に係るオブジェクト抽出方法では、先ず画像入力部110から入力された画像データ又は画像蓄積部120に蓄積されていた画像データが制御部130に出力される。制御部130は、入力された画像データを画像表示部140に出力し、画像を表示させる(ステップS1)。   1 and 2, in the object extraction method according to the first embodiment, first, the image data input from the image input unit 110 or the image data stored in the image storage unit 120 is output to the control unit 130. The control unit 130 outputs the input image data to the image display unit 140 to display an image (step S1).

画像が表示されると、ユーザは操作部150を操作して、抽出したいオブジェクト領域を囲み線で囲う。囲み線が入力されると(ステップS2:YES)、初期領域設定部210は、囲み線の内部を初期領域として設定する(ステップS3)。   When the image is displayed, the user operates the operation unit 150 to enclose the object area to be extracted with a surrounding line. When a surrounding line is input (step S2: YES), the initial area setting unit 210 sets the inside of the surrounding line as an initial area (step S3).

図3において、例えば人物オブジェクトOhを抽出しようとする場合には、図に示すように、人物オブジェクトOhの外側を囲うような囲み線Sを描けばよい。尚、囲み線は、人物オブジェクトOhに重ならないような閉曲線であることが好ましい。但し、輪郭に沿って正確に描かれたものでなくともよく、例えば図に示すような、ある程度大まかなものでよい。囲み線で囲われた人物オブジェクトOhを含む領域は、初期領域Dとして設定される。   In FIG. 3, for example, when a person object Oh is to be extracted, a surrounding line S that surrounds the person object Oh may be drawn as shown in the figure. The encircling line is preferably a closed curve that does not overlap the person object Oh. However, it does not have to be accurately drawn along the outline, and may be somewhat rough as shown in the figure, for example. An area including the person object Oh surrounded by a surrounding line is set as the initial area D.

図4において、表示される画像には、有効範囲設定部220によって有効範囲Arが設定されている。ここで、例えば図における星形オブジェクトOsを抽出しようとする場合には、オブジェクト領域が画面の縁に接しているため、オブジェクト領域の外側を囲うことはできない。このような場合、ユーザは描ける範囲で囲み線Sを描けばよく、例えば図に示すような、画像の縁に接しないような囲み線Sを描いてもよい。   In FIG. 4, the effective range Ar is set by the effective range setting unit 220 in the displayed image. Here, for example, when trying to extract the star-shaped object Os in the figure, the object region cannot touch the outside of the object region because it is in contact with the edge of the screen. In such a case, the user has only to draw the surrounding line S within the range that can be drawn, and for example, the surrounding line S that does not touch the edge of the image as shown in the figure may be drawn.

図5において、有効範囲Arを超えて描かれた囲み線Sは、補正部230によって画面の縁に向かう線として補正される。この際、図に示すように、有効範囲Ar内の囲み線の延長方向に延びる線として補正してもよいし、例えば縁に対する垂線として補正してもよい。このように、予め有効範囲Arを設定しておくことで、画像の縁に接したオブジェクト領域に対しても、好適に初期領域Dを設定することが可能となる。   In FIG. 5, a surrounding line S drawn beyond the effective range Ar is corrected as a line toward the edge of the screen by the correction unit 230. At this time, as shown in the drawing, the line may be corrected as a line extending in the extending direction of the encircling line in the effective range Ar, or may be corrected as a perpendicular to the edge, for example. Thus, by setting the effective range Ar in advance, it is possible to suitably set the initial region D for the object region that is in contact with the edge of the image.

図2に戻り、初期領域が設定されると、背景画素取得部310は、例えば囲み線から数画素の範囲を背景画素取得領域として設定する。そして、背景画素取得領域における画素の画素情報を取得する(ステップS4)。画素情報は、色調、輝度、テクスチャ等であり、例えば色調を画素情報として取得する場合、RGBヒストグラムが作成される。   Returning to FIG. 2, when the initial region is set, the background pixel acquisition unit 310 sets, for example, a range of several pixels from the surrounding line as the background pixel acquisition region. And the pixel information of the pixel in a background pixel acquisition area is acquired (step S4). The pixel information includes color tone, luminance, texture, and the like. For example, when obtaining the color tone as pixel information, an RGB histogram is created.

続いて、背景画素探索部320は、背景画素取得領域を中心とした、背景画素探索領域を設定する。そして、背景画素探索領域における画素から、取得された画素情報と類似する画素情報を有する画素を探索する(ステップS5)。具体的には、上述したRGBヒストグラムと各画素のRGB値を比較することで類似した画素を探索する。類似するか否かの判定には、例えば予め設定された閾値等が用いられる。また、取得された画素情報に基づいて閾値が決定されるようにしてもよい。   Subsequently, the background pixel search unit 320 sets a background pixel search region centered on the background pixel acquisition region. Then, a pixel having pixel information similar to the acquired pixel information is searched from the pixels in the background pixel search region (step S5). Specifically, similar pixels are searched by comparing the RGB histogram described above with the RGB values of each pixel. For determining whether or not they are similar, for example, a preset threshold value or the like is used. Further, the threshold value may be determined based on the acquired pixel information.

図6において、上述した背景画素取得領域は、例えば囲み線S上の一点を中心とする円形の領域Ciとして設定され、背景画素探索領域は、Ciと同じ点を中心とする外円Coとして設定される。ここで、図に示す背景画素取得領域Ci及び背景画素探索領域Coにおける画素情報の取得及び画素の探索が行われたとすると、図の右下の拡大図で示すような領域における画素が、取得された画素情報と類似する画素情報を有する画素とされる。   In FIG. 6, the background pixel acquisition area described above is set as a circular area Ci centered on one point on the encircling line S, for example, and the background pixel search area is set as an outer circle Co centered on the same point as Ci. Is done. Here, assuming that pixel information acquisition and pixel search are performed in the background pixel acquisition area Ci and the background pixel search area Co shown in the figure, pixels in the area shown in the enlarged view at the lower right of the figure are acquired. The pixel information has pixel information similar to the pixel information.

図7に示すように、背景画素取得領域Ci及び背景画素探索領域Coは、囲み線Sに沿って複数設定される。背景画素取得部310及び背景画素探索部320による画素情報の取得及び類似する画素の探索は、図に示す各領域で実行される。よって、抽出したいオブジェクトの周囲に沿って、背景画素と類似する画素が探索される。尚、背景画素取得領域Ci及び背景画素探索領域Coは、図に示すように、互いに隣り合う背景画素探索領域Coが部分的に重なり合うような間隔で設定される。典型的には、背景画素取得領域Ci及び背景画素探索領域Coが多く設定されることで、探索精度は向上する。但し、背景画素取得領域Ci及び背景画素探索領域Coを少なく設定すれば、探索にかかる処理を軽くすることが可能である。   As shown in FIG. 7, a plurality of background pixel acquisition areas Ci and background pixel search areas Co are set along the enclosing line S. The acquisition of pixel information and the search for similar pixels by the background pixel acquisition unit 310 and the background pixel search unit 320 are executed in each area shown in the figure. Therefore, a pixel similar to the background pixel is searched for around the object to be extracted. The background pixel acquisition area Ci and the background pixel search area Co are set at intervals such that adjacent background pixel search areas Co partially overlap as shown in the figure. Typically, the search accuracy is improved by setting many background pixel acquisition areas Ci and background pixel search areas Co. However, if the background pixel acquisition area Ci and the background pixel search area Co are set to be small, the search processing can be lightened.

また、背景画素探索領域Coの大きさは最初に設定された大きさから変更されてもよい。例えば、探索の結果求められる、背景画素と類似する画素の割合に応じて変更されてもよい。具体的には、背景画素と類似する画素の割合が多い場合は、探索範囲がオブジェクト領域の境界まで十分にカバーしきれていない可能性が高いため、背景画素探索領域Coを大きくする。背景画素探索領域Coを大きくすることで、より適切に背景領域を推定できるようになる。他方で、背景画素と類似する画素の割合が少ない場合は、オブジェクト領域にかかる部分が多いと考えられるため、背景画素探索領域Coを小さくする。背景画素探索領域Coを小さくした場合は、探索範囲が狭まるため、探索にかかる処理が軽くなる。このように、背景画素探索領域Coの大きさを変更することで、画素の探索をより好適に行うことが可能となる。   The size of the background pixel search area Co may be changed from the initially set size. For example, you may change according to the ratio of the pixel similar to a background pixel calculated | required as a result of a search. Specifically, when the ratio of pixels similar to the background pixel is large, there is a high possibility that the search range is not sufficiently covered up to the boundary of the object region, so the background pixel search region Co is increased. By increasing the background pixel search area Co, the background area can be estimated more appropriately. On the other hand, when the ratio of pixels similar to the background pixel is small, it is considered that there are many portions related to the object region, and therefore the background pixel search region Co is reduced. When the background pixel search area Co is made small, the search range is narrowed, so that the processing for searching becomes light. In this way, by changing the size of the background pixel search area Co, it becomes possible to more suitably search for pixels.

再び図2に戻り、背景画素推定部300は、背景画素と類似するとされた画素を、オブジェクト領域の背景を構成する背景領域として推定する(ステップS6)。そして、オブジェクト領域推定部410は、初期領域Dから背景領域と推定された領域(以下、適宜「推定背景領域」と称する)を除いた領域をオブジェクト領域と推定する(ステップS7)。   Returning to FIG. 2 again, the background pixel estimation unit 300 estimates a pixel similar to the background pixel as a background region constituting the background of the object region (step S6). Then, the object area estimation unit 410 estimates an area excluding an area estimated as a background area from the initial area D (hereinafter referred to as “estimated background area” as appropriate) as an object area (step S7).

図8において、例えば図7に示した画像は、探索の結果、推定背景領域Beとオブジェクト領域と推定された領域Oe(以下、適宜「推定オブジェクト領域」と称する)とに分類される。推定オブジェクト領域には、例えば背景画素探索領域Coが届かなかった領域(即ち、人物オブジェクトOhの脇周辺部分や首周辺部分)が含まれている。   In FIG. 8, for example, the image shown in FIG. 7 is classified into an estimated background area Be and an area Oe estimated as an object area (hereinafter referred to as “estimated object area” as appropriate) as a result of the search. The estimated object area includes, for example, an area where the background pixel search area Co has not reached (that is, a side peripheral portion or a neck peripheral portion of the person object Oh).

再び図2に戻り、本実施例に係るオブジェクト抽出方法では、ここで色によるクラスタリングを行う(ステップS8)。具体的には、クラスタリング部420が、先ず推定背景領域Beにおける画素情報からRGBヒストグラムを作成する(以下、適宜「背景ヒストグラム」と称する)。続いて、推定オブジェクト領域Oeにおける画素情報からRGBヒストグラムを作成する(以下、適宜「オブジェクトヒストグラム」と称する)。そして、初期領域D内の各画素のRGB値を調べ、背景ヒストグラム及びオブジェクトヒストグラムと比較する。より具体的には、各画素に対する背景ヒストグラムの対応するビンの値をNb、オブジェクトヒストグラムの対応するビンの値をNoとし、所定の閾値Thとすると、Nb≧Th且つNo<Thの場合、背景画素(即ち、背景領域を構成する画素)として分類する。Nb<Th且つNo≧Thの場合、オブジェクト画素(即ち、オブジェクト領域を構成する画素)として分類する。また、Nb<Th且つNo<Thの場合、及びNb≧Th且つNo≧Thの場合は、リジェクト(即ち、背景領域及びオブジェクト領域のいずれにも属さない画素)として分類する。これにより、初期領域Dにおける各画素は、背景画素、オブジェクト画素及びリジェクト画素のいずれかに分類される。尚、上で用いた閾値Thは、例えば画素数に応じて上下したり、Nb及びNoについて夫々別個に設定されてもよい。また、上述したクラスタリングの手法はあくまで一例であり、同様の効果が得られるような、他のクラスタリング手法を用いても構わない。   Returning again to FIG. 2, in the object extraction method according to the present embodiment, clustering by color is performed here (step S8). Specifically, the clustering unit 420 first creates an RGB histogram from the pixel information in the estimated background region Be (hereinafter referred to as “background histogram” as appropriate). Subsequently, an RGB histogram is created from the pixel information in the estimated object region Oe (hereinafter referred to as “object histogram” as appropriate). Then, the RGB value of each pixel in the initial region D is examined and compared with the background histogram and the object histogram. More specifically, assuming that the corresponding bin value of the background histogram for each pixel is Nb, the corresponding bin value of the object histogram is No, and a predetermined threshold value Th, when Nb ≧ Th and No <Th, the background The pixels are classified as pixels (that is, pixels constituting the background area). When Nb <Th and No ≧ Th, the pixel is classified as an object pixel (that is, a pixel constituting the object region). Further, when Nb <Th and No <Th, and when Nb ≧ Th and No ≧ Th, the pixels are classified as rejects (that is, pixels that do not belong to either the background region or the object region). Thereby, each pixel in the initial region D is classified as one of the background pixel, the object pixel, and the reject pixel. The threshold value Th used above may be increased or decreased according to the number of pixels, for example, or may be set separately for Nb and No. The clustering method described above is merely an example, and other clustering methods that can obtain the same effect may be used.

図9において、例えば図8に示すように、推定背景領域Be及び推定オブジェクト領域Oeが推定されていた場合、上述したクラスタリングによって、人物オブジェクトOhの脇周辺部分や首周辺部分がリジェクトReとして分類される。リジェクトReに分類された画素は、背景領域と同様に扱われ、オブジェクト領域からは除外される。この結果から、オブジェクト領域決定部400は、最終的に背景領域Br及びオブジェクト領域Orを決定する(ステップS9)。   In FIG. 9, for example, as shown in FIG. 8, when the estimated background region Be and the estimated object region Oe are estimated, the side peripheral portion and the neck peripheral portion of the person object Oh are classified as reject Re by the clustering described above. The Pixels classified as reject Re are treated in the same manner as the background area and excluded from the object area. From this result, the object area determination unit 400 finally determines the background area Br and the object area Or (step S9).

図10において、クラスタリングの際には、例えば初期領域を複数の領域に分割することで精度を向上させることが可能である。このような効果は特に、オブジェクト領域及び背景領域が複数の色を含む場合等においてより顕著に発揮される。また、図では縦方向分割の例を示しているが、分割方法は限定されず、例えば、横方向分割や十字分割等を用いてもよい。   In FIG. 10, at the time of clustering, for example, the accuracy can be improved by dividing the initial region into a plurality of regions. Such an effect is particularly prominent when the object region and the background region include a plurality of colors. Moreover, although the example of the vertical direction division | segmentation is shown in the figure, the division | segmentation method is not limited, For example, you may use a horizontal direction division | segmentation, a cross division, etc.

図11において、決定されたオブジェクト領域Orは、図に示すようにオブジェクト領域Orそのもの(即ち、人物オブジェクトOhのみの画像データ)として出力されてもよいし、逆にオブジェクト領域Orを画像から切り取った画像データとして出力されてもよい。また、このようなデータは、画像蓄積部120による蓄積や画像表示部140における表示、或いはインターネットへの配信等、様々な形態で出力される。   In FIG. 11, the determined object area Or may be output as the object area Or itself (that is, image data of only the person object Oh) as shown in the figure, or conversely, the object area Or is cut out from the image. It may be output as image data. Such data is output in various forms such as storage by the image storage unit 120, display on the image display unit 140, or distribution to the Internet.

以上説明したように、第1実施例に係るオブジェクト抽出装置及びオブジェクト抽出方法によれば、画像からオブジェクト領域を指定するユーザの負担を軽減しつつ、より精度の高いオブジェクト領域の抽出を実現できる。   As described above, according to the object extraction device and the object extraction method according to the first embodiment, it is possible to realize the extraction of the object area with higher accuracy while reducing the burden on the user who designates the object area from the image.

<第2実施例>
次に、第2実施例に係るオブジェクト抽出装置及び方法について、図12から図15を参照して説明する。尚、第2実施例は、上述の第1実施例と比べて、動画像を対象としている点で異なり、その他の構成については概ね同様である。このため第2実施例では、動画像からオブジェクトを抽出する際の特有の構成及び処理について詳細に説明し、その他の第1実施例と重複する部分については適宜説明を省略する。
<Second embodiment>
Next, an object extraction apparatus and method according to the second embodiment will be described with reference to FIGS. The second embodiment is different from the first embodiment described above in that it targets moving images, and the other configurations are generally the same. For this reason, in the second embodiment, a specific configuration and processing when extracting an object from a moving image will be described in detail, and the description overlapping with the other first embodiment will be omitted as appropriate.

先ず、第2実施例に係るオブジェクト抽出装置の構成について、図12を参照して説明する。ここに図12は、第2実施例に係るオブジェクト抽出装置の構成を示すブロック図である。尚、図12では、図1に示した第1実施例に係る構成要素と同様の構成要素に同一の参照符合を付している。   First, the configuration of the object extraction device according to the second embodiment will be described with reference to FIG. FIG. 12 is a block diagram showing the configuration of the object extracting apparatus according to the second embodiment. In FIG. 12, the same reference numerals are assigned to the same components as those in the first embodiment shown in FIG.

図12において、第2実施例に係るオブジェクト抽出装置は、図1で示した第1実施例に係るオブジェクト抽出装置の各構成要素に加えて、自動初期領域設定部500を備えて構成されている。   In FIG. 12, the object extracting apparatus according to the second embodiment is configured to include an automatic initial area setting unit 500 in addition to the components of the object extracting apparatus according to the first embodiment shown in FIG. .

自動初期領域設定部500は、本発明の「自動初期領域設定手段」の一例であり、オブジェクト領域決定部400によって決定されたオブジェクト領域Orを拡大し、初期領域のデータとして出力する。即ち、第2実施例におけるオブジェクト領域決定部400は、抽出結果を自動初期領域設定部500にも出力可能とされている。   The automatic initial area setting unit 500 is an example of the “automatic initial area setting unit” of the present invention, and enlarges the object area Or determined by the object area determination unit 400 and outputs it as initial area data. That is, the object area determination unit 400 in the second embodiment can output the extraction result to the automatic initial area setting unit 500.

続いて、第2実施例に係るオブジェクト抽出方法について、図12に加えて、上で用いた図2、並びに図13から図15を参照して説明する。ここに図13は、第2実施例に係るオブジェクト抽出方法の一連の処理の流れを示すフローチャートである。また図14は、連続するフレームにおける初期領域の設定方法を、順を追って示す工程図であり、図15は、図14で示す工程図を各領域と共に詳細に示す工程図である。尚、以下では、本実施例に係るオブジェクト抽出方法について、上述したオブジェクト抽出装置の動作と併せて説明する。   Next, an object extraction method according to the second embodiment will be described with reference to FIG. 2 used above and FIGS. 13 to 15 in addition to FIG. FIG. 13 is a flowchart showing the flow of a series of processes of the object extraction method according to the second embodiment. FIG. 14 is a process diagram illustrating the initial region setting method in successive frames step by step, and FIG. 15 is a process diagram illustrating the process diagram shown in FIG. 14 together with each region in detail. In the following, the object extraction method according to the present embodiment will be described together with the operation of the object extraction apparatus described above.

図12及び図2において、第2実施例に係るオブジェクト抽出方法では、先ず上述した第1実施例と同様にステップS1からステップS9までの処理が実行され、一の画像におけるオブジェクト領域Orが決定される。尚、一の画像とは、例えば動画が一時停止された際に画面に静止画として表示される画像である。即ち、ユーザは抽出したいオブジェクト領域を指定する際に、動画像を一時停止させるなどしてから囲み線Sを描く。   12 and 2, in the object extraction method according to the second embodiment, first, the processing from step S1 to step S9 is executed as in the first embodiment described above, and the object region Or in one image is determined. The The one image is an image displayed as a still image on the screen when the moving image is paused, for example. That is, when the user specifies an object area to be extracted, the user draws a surrounding line S after temporarily pausing the moving image.

図13において、一の画像におけるオブジェクト領域Orが決定されると、フレーム数を規定するパラメータkがk=2とされる(ステップS11)。即ち、オブジェクト領域Orを決定した一の画像を第1フレームとすると、第1フレームの次に表示される第2フレームへと対象画像が移る。   In FIG. 13, when the object area Or in one image is determined, a parameter k that defines the number of frames is set to k = 2 (step S11). That is, if one image in which the object area Or is determined is the first frame, the target image moves to the second frame displayed next to the first frame.

続いて、自動初期領域設定部500は、第(k−1)フレーム(即ち、ここでは第1フレーム)のオブジェクト領域Orを拡大する(ステップS12)。ここでの拡大は、第2フレームにおけるオブジェクト領域Orが、拡大された第1フレームのオブジェクト領域に含まれるように行われる。尚、ここでの拡大率は、典型的には、所定の値として予め自動初期領域設定部500におけるメモリ等に記憶されている。但し、オブジェクトの動く速さや方向等に応じて、適宜変更されるようにしてもよい。具体的には、オブジェクトの動きが速ければ拡大率を大きくしたり、オブジェクトの動く方向にだけ拡大率を高めたりしてもよい。   Subsequently, the automatic initial area setting unit 500 enlarges the object area Or of the (k−1) th frame (that is, the first frame here) (step S12). The enlargement here is performed so that the object area Or in the second frame is included in the object area of the enlarged first frame. The enlargement ratio here is typically stored in advance in a memory or the like in the automatic initial area setting unit 500 as a predetermined value. However, it may be changed as appropriate according to the moving speed and direction of the object. Specifically, if the movement of the object is fast, the enlargement ratio may be increased, or the enlargement ratio may be increased only in the direction in which the object moves.

自動初期領域設定部500は、第(k−1)フレームの拡大されたオブジェクト領域を、第kフレームの初期領域Dとして設定する(ステップS13)。即ち、第2フレームの初期領域Dとしては、第1フレームのオブジェクト領域Orが拡大された領域が設定される。   The automatic initial area setting unit 500 sets the enlarged object area of the (k−1) th frame as the initial area D of the kth frame (step S13). That is, an area in which the object area Or of the first frame is enlarged is set as the initial area D of the second frame.

初期領域が設定されると、以降は上述した第1実施例と同様にオブジェクト領域Orが決定される。即ち、図2においてステップS4からステップS9で示した処理と同様に、第kフレームについて、ステップS14からステップS19までの処理が実行される。よって、第2フレームについては、第1フレームのようにユーザが囲み線Sを描かなくともオブジェクト領域Orが抽出される。   After the initial area is set, the object area Or is determined in the same manner as in the first embodiment described above. That is, similarly to the processing shown in steps S4 to S9 in FIG. 2, the processing from step S14 to step S19 is executed for the kth frame. Therefore, for the second frame, the object region Or is extracted even if the user does not draw the surrounding line S as in the first frame.

第kフレームのオブジェクト領域Orが決定されると、オブジェクト領域Orが全てのフレームについて決定されたか否かが判定される(ステップS20)。尚、ここでの全てのフレームとは、動画像を構成する全てのフレームであってもよいし、例えば予め設定された数のフレーム、或いはユーザ等が設定した数のフレーム全てを指してもよい。ここで、全てのフレームについてオブジェクト領域Orが決定されていると判定されると(ステップS20:YES)、一連の処理は終了する。即ち、動画像におけるオブジェクト領域Orが抽出される。一方、全てのフレームについてオブジェクト領域Orが決定されていないと判定された場合には(ステップS20:NO)、パラメータkがk=k+1とされる(ステップS20)。即ち、パラメータkがインクリメントされて、次のフレームに処理が移る。そして、上述したステップS12からステップS20の処理が繰り返し実行されることとなる。これにより、以降の連続したフレームについてもオブジェクト領域の抽出が行われる。   When the object area Or of the k-th frame is determined, it is determined whether or not the object area Or has been determined for all the frames (step S20). In addition, all the frames here may be all the frames which comprise a moving image, for example, may point out all the frames of the number set beforehand, or the number set by the user etc. . Here, if it is determined that the object region Or has been determined for all the frames (step S20: YES), the series of processing ends. That is, the object area Or in the moving image is extracted. On the other hand, when it is determined that the object area Or has not been determined for all frames (step S20: NO), the parameter k is set to k = k + 1 (step S20). That is, the parameter k is incremented, and the process moves to the next frame. Then, the above-described processing from step S12 to step S20 is repeatedly executed. As a result, the object region is also extracted for subsequent successive frames.

尚、上ではユーザが指定したフレームから後のフレームについて処理が行われる場合を説明したが、例えばステップS21における処理をk=k−1とすることで、指定したフレームより前のフレームについても、同様にオブジェクト領域Orを抽出することができる。以下では、上述した一連の処理を、具体的な例を用いて詳細に説明する。   In addition, although the case where the process is performed on the frame after the frame specified by the user has been described above, for example, by setting the process in step S21 to k = k−1, Similarly, the object area Or can be extracted. Hereinafter, the series of processes described above will be described in detail using specific examples.

図14及び図15において、例えばボール型のオブジェクトObが、傾斜面を下に向かって転がる動画像を対象とする場合、ユーザは動画像を一時停止してボール型のオブジェクトObを囲み線Sで囲う。第1フレームにおいては、この囲み線Sの内部が初期領域Dと設定されて、オブジェクト領域Orが決定される。   14 and 15, for example, when a ball-shaped object Ob targets a moving image that rolls down an inclined surface, the user pauses the moving image and surrounds the ball-shaped object Ob with a surrounding line S. Enclose. In the first frame, the inside of the encircling line S is set as the initial area D, and the object area Or is determined.

続いて、第1フレームにおいて決定されたオブジェクト領域Orが拡大されてEr1とされる。この拡大領域Er1は、続く第2フレームにおける初期領域Dとされる。拡大領域Er1は、オブジェクト領域Orが拡大されたものなので、図に示すように、ボール型のオブジェクトObが画像中の右下に移動したとしても、ボール型のオブジェクトObを含む領域となる。言い換えれば、オブジェト領域Orは、次のフレームにおけるオブジェクトを含むように拡大されればよい。   Subsequently, the object area Or determined in the first frame is enlarged to Er1. The enlarged area Er1 is an initial area D in the subsequent second frame. Since the object area Or is enlarged, the enlarged area Er1 is an area including the ball-shaped object Ob even when the ball-shaped object Ob moves to the lower right in the image, as shown in the drawing. In other words, the object area Or may be enlarged so as to include the object in the next frame.

第2フレームでは拡大領域Er1内部について処理が行われ、オブジェクト領域Orが決定される。以降のフレームについても同様に、拡大領域Er2、Er3…と、各フレームにおいて決定されたオブジェクト領域Orが拡大されて、初期領域Dとして設定される。これにより、以降の連続するフレームにおいても、オブジェクト領域Orが自動的に決定される。   In the second frame, processing is performed on the inside of the enlarged area Er1, and the object area Or is determined. Similarly for the subsequent frames, the enlarged regions Er2, Er3... And the object region Or determined in each frame are enlarged and set as the initial region D. As a result, the object area Or is also automatically determined in subsequent successive frames.

以上説明したように、第2実施例に係るオブジェクト抽出装置及びオブジェクト抽出方法によれば、対象が動画像であったとしても(即ち、オブジェクト領域が移動する場合であっても)、ユーザにおけるオブジェクト領域の指定動作は、静止画の場合と概ね同様のものでよい。即ち、オブジェクト領域を指定するユーザの負担を軽減しつつ、より精度の高いオブジェクト領域の抽出を実現できる。   As described above, according to the object extraction device and the object extraction method according to the second embodiment, even if the target is a moving image (that is, even when the object area moves), the object in the user The area designating operation may be substantially the same as that for a still image. That is, the object area can be extracted with higher accuracy while reducing the burden on the user who designates the object area.

上述した本発明のオブジェクト抽出装置及びオブジェクト抽出方法は、例えば画像若しくは動画像を編集するソフトウェア、又はこれらを応用する機器等に利用することができる。より具体的には、パソコン用の画像編集ソフト、DVDレコーダ、カメラ、TV電話等に利用できる。   The above-described object extraction apparatus and object extraction method of the present invention can be used for, for example, software for editing an image or a moving image, or a device to which these are applied. More specifically, it can be used for image editing software for personal computers, DVD recorders, cameras, TV phones, and the like.

本発明は、上述した実施例に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うオブジェクト抽出装置及びオブジェクト抽出方法もまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the gist or concept of the invention that can be read from the claims and the entire specification. An object extraction method is also included in the technical scope of the present invention.

第1実施例に係るオブジェクト抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object extraction apparatus which concerns on 1st Example. 第1実施例に係るオブジェクト抽出方法の一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes of the object extraction method which concerns on 1st Example. 画像に描かれるオブジェクト及び囲み線を示す平面図である。It is a top view which shows the object and surrounding line which are drawn on an image. 画像内に設定される有効範囲を示す平面図である。It is a top view which shows the effective range set in an image. 囲み線の補正を示す平面図である。It is a top view which shows correction | amendment of a surrounding line. 背景画素取得領域及び背景画素探索領域を部分拡大図と共に示す平面図である。It is a top view which shows a background pixel acquisition area | region and a background pixel search area | region with a partial enlarged view. 背景画素取得領域及び背景画素探索領域の設定方法を示す平面図である。It is a top view which shows the setting method of a background pixel acquisition area | region and a background pixel search area | region. 推定される背景領域及びオブジェクト領域を示す平面図である。It is a top view which shows the background area | region and object area | region estimated. クラスタリングにおいて分類される各領域を示す平面図である。It is a top view which shows each area | region classified in clustering. クラスタリングにおける領域分割を示す平面図である。It is a top view which shows the area | region division in clustering. 抽出されるオブジェクト領域を示す平面図である。It is a top view which shows the object area | region extracted. 第2実施例に係るオブジェクト抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object extraction apparatus which concerns on 2nd Example. 第2実施例に係るオブジェクト抽出方法の一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes of the object extraction method which concerns on 2nd Example. 連続するフレームにおける初期領域の設定方法を、順を追って示す工程図である。It is process drawing which shows the setting method of the initial region in a continuous frame later on. 図14で示す工程図を各領域と共に詳細に示す工程図であるIt is process drawing which shows the process drawing shown in FIG. 14 in detail with each area | region.

符号の説明Explanation of symbols

110…画像入力部、120…画像蓄積部、130…制御部、140…画像表示部、150…操作部、210…初期領域設定部、220…有効範囲設定部、230…補正部、300…背景領域推定部、310…背景画素取得部、320…背景画素探索部、400…オブジェクト領域決定部、410…オブジェクト領域推定部、420…クラスタリング部、500…自動初期領域設定部   DESCRIPTION OF SYMBOLS 110 ... Image input part, 120 ... Image storage part, 130 ... Control part, 140 ... Image display part, 150 ... Operation part, 210 ... Initial area setting part, 220 ... Effective range setting part, 230 ... Correction part, 300 ... Background Area estimation unit, 310 ... background pixel acquisition unit, 320 ... background pixel search unit, 400 ... object region determination unit, 410 ... object region estimation unit, 420 ... clustering unit, 500 ... automatic initial region setting unit

Claims (7)

画像におけるオブジェクト領域の外側を、前記オブジェクト領域から距離を隔てて囲み線で囲うことによって、前記囲み線の内部の領域を、前記オブジェクト領域を含む初期領域として設定する初期領域設定手段と、
前記初期領域が設定されると、前記囲み線から前記距離よりも短い距離だけ離れた領域内の画素を前記オブジェクト領域の背景である背景領域を構成する背景画素と推定し、前記初期領域における、前記背景画素と画素情報が前記オブジェクト領域に比べて類似する画素によって構成される領域を、背景領域として推定する背景領域推定手段と、
前記初期領域から前記推定された背景領域を除いた領域を、前記オブジェクト領域として決定するオブジェクト領域決定手段と
を備えることを特徴とするオブジェクト抽出装置。
Initial area setting means for setting an area inside the surrounding line as an initial area including the object area by enclosing the outside of the object area in the image with a surrounding line at a distance from the object area;
When the initial region is set, a pixel in a region that is separated from the surrounding line by a distance shorter than the distance is estimated as a background pixel that constitutes a background region that is a background of the object region, and in the initial region, A background area estimation means for estimating, as a background area, an area constituted by pixels whose pixel information is similar to that of the object area as compared to the background area;
An object extraction apparatus comprising: an object area determination unit that determines an area obtained by removing the estimated background area from the initial area as the object area.
前記背景領域推定手段は、
前記囲み線と少なくとも部分的に重なるように背景画素取得領域を設定し、前記背景画素取得領域内の画素の画素情報を、前記背景画素の画素情報として取得する背景画素取得手段と、
前記背景画素取得領域を少なくとも部分的に囲うように背景画素探索領域を設定し、前記背景画素探索領域内において、前記取得された画素情報と前記オブジェクト領域に比べて類似する画素情報を有する画素を探索する背景画素探索手段と
を有することを特徴とする請求項1に記載のオブジェクト抽出装置。
The background region estimation means includes
A background pixel acquisition unit that sets a background pixel acquisition region so as to at least partially overlap the surrounding line, and acquires pixel information of pixels in the background pixel acquisition region as pixel information of the background pixel;
A background pixel search area is set so as to at least partially surround the background pixel acquisition area, and pixels having pixel information similar to the acquired pixel information in the background pixel search area compared to the object area The object extraction device according to claim 1, further comprising background pixel search means for searching.
前記背景画素探索手段は、前記背景画素探索領域内の画素における、前記取得された画素情報と類似する画素情報を有する画素の割合に基づいて、前記背景画素探索領域の大きさを変更することを特徴とする請求項2に記載のオブジェクト抽出装置。   The background pixel search means changes the size of the background pixel search area based on a ratio of pixels having pixel information similar to the acquired pixel information in the pixels in the background pixel search area. The object extraction device according to claim 2, wherein 前記オブジェクト領域決定手段は、
前記推定された背景領域に基づいてオブジェクト領域を推定するオブジェクト領域推定手段と、
前記推定された背景領域及び前記推定されたオブジェクト領域における画素情報と比較することで、前記初期領域における各画素が前記背景領域及び前記オブジェクト領域のいずれであるかをクラスタリングするクラスタリング手段と
を有し、
前記クラスタリング手段において、前記オブジェクト領域であるとされた画素によって構成される領域をオブジェクト領域として決定する
ことを特徴とする請求項1から3のいずれか一項に記載のオブジェクト抽出装置。
The object area determination means includes
Object region estimation means for estimating an object region based on the estimated background region;
Clustering means for clustering whether each pixel in the initial region is the background region or the object region by comparing with pixel information in the estimated background region and the estimated object region ,
The object extraction apparatus according to any one of claims 1 to 3, wherein the clustering unit determines, as an object area, an area constituted by pixels that are determined to be the object area.
前記画像内の前記画像より径の小さい領域を、前記囲み線を有効とする有効範囲として設定する有効範囲設定手段と、
前記有効範囲を超えて描かれた前記囲み線を、前記画像の縁に向かって描かれた線として補正する補正手段と
を更に備えることを特徴とする請求項1から4のいずれか一項に記載のオブジェクト抽出装置。
Effective range setting means for setting an area having a smaller diameter than the image in the image as an effective range for validating the enclosing line;
The correction unit for correcting the surrounding line drawn beyond the effective range as a line drawn toward an edge of the image, further comprising: The object extraction device described.
時間的に連続する複数の画像からなる動画像において、一の画像において決定されたオブジェクト領域を拡大し、前記拡大されたオブジェクト領域を、前記一の画像の次に表示される他の画像における初期領域として設定する自動初期領域設定手段を更に備えることを特徴とする請求項1から5のいずれか一項に記載のオブジェクト抽出装置。   In a moving image composed of a plurality of temporally continuous images, an object region determined in one image is enlarged, and the enlarged object region is initially set in another image displayed next to the one image. 6. The object extraction apparatus according to claim 1, further comprising automatic initial area setting means for setting as an area. 画像におけるオブジェクト領域の外側を、前記オブジェクト領域から距離を隔てて囲み線で囲うことによって、前記囲み線の内部の領域を、前記オブジェクト領域を含む初期領域として設定する初期領域設定工程と、
前記初期領域が設定されると、前記囲み線から前記距離よりも短い距離だけ離れた領域内の画素を前記オブジェクト領域の背景である背景領域を構成する背景画素と推定し、前記初期領域における、前記背景画素と画素情報が前記オブジェクト領域に比べて類似する画素によって構成される領域を、背景領域として推定する背景領域推定工程と、
前記初期領域から前記推定された背景領域を除いた領域を、前記オブジェクト領域として決定するオブジェクト領域決定工程と
を備えることを特徴とするオブジェクト抽出方法。
An initial area setting step of setting an area inside the surrounding line as an initial area including the object area by enclosing the outside of the object area in the image with a surrounding line at a distance from the object area;
When the initial region is set, a pixel in a region that is separated from the surrounding line by a distance shorter than the distance is estimated as a background pixel that constitutes a background region that is a background of the object region, and in the initial region, A background region estimation step of estimating, as a background region, a region constituted by pixels whose pixel information is similar to that of the object region compared to the background pixel;
An object area determining step of determining an area obtained by removing the estimated background area from the initial area as the object area.
JP2008056042A 2008-03-06 2008-03-06 Object extraction device and method Pending JP2009211607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008056042A JP2009211607A (en) 2008-03-06 2008-03-06 Object extraction device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008056042A JP2009211607A (en) 2008-03-06 2008-03-06 Object extraction device and method

Publications (1)

Publication Number Publication Date
JP2009211607A true JP2009211607A (en) 2009-09-17

Family

ID=41184660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008056042A Pending JP2009211607A (en) 2008-03-06 2008-03-06 Object extraction device and method

Country Status (1)

Country Link
JP (1) JP2009211607A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136325A (en) * 2015-01-23 2016-07-28 大日本印刷株式会社 Image processing device and program
JP2021056936A (en) * 2019-10-01 2021-04-08 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016136325A (en) * 2015-01-23 2016-07-28 大日本印刷株式会社 Image processing device and program
JP2021056936A (en) * 2019-10-01 2021-04-08 キヤノン株式会社 Image processing device, image processing method, and program
JP7412947B2 (en) 2019-10-01 2024-01-15 キヤノン株式会社 Image processing device, image processing method and program

Similar Documents

Publication Publication Date Title
EP3537378B1 (en) Image processing apparatus and method for object boundary stabilization in an image of a sequence of images
TWI539813B (en) Image composition apparatus and method
US10424054B2 (en) Low-illumination image processing method and device
WO2017076040A1 (en) Image processing method and device for use during continuous shooting operation
US20210158488A1 (en) Image edge processing method, electronic device, and computer readable storage medium
US20110293247A1 (en) Video matting based on foreground-background constraint propagation
WO2012074361A1 (en) Method of image segmentation using intensity and depth information
CN111415302B (en) Image processing method, device, storage medium and electronic equipment
JP2016200970A (en) Main subject detection method, main subject detection device and program
US20240153097A1 (en) Methods and Systems for Automatically Generating Backdrop Imagery for a Graphical User Interface
JP2009025862A (en) Image processor, image processing method, image processing program and image display device
JP2009017325A (en) Telop character region extraction device and method
US20150213777A1 (en) Method for combined transformation of the scale and aspect ratio of a picture
JP2009211607A (en) Object extraction device and method
CN109509237B (en) Filter processing method and device and electronic equipment
CN107945196B (en) Image edge detection method for aerial photography correction image splicing
JP2009277001A (en) Image processor
KR20160027651A (en) Method and apparatus for indexing moving picture
CN111046727B (en) Video feature extraction method and device, electronic equipment and storage medium
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
JP2009217303A (en) Telop character extraction method and telop character recognition device
WO2017088463A1 (en) Image processing method and device
WO2017088478A1 (en) Number separating method and device
CN114079815B (en) Subtitle protection method, system, terminal equipment and storage medium
JP2000194851A (en) Character area extraction method and device and storage medium recording the method