JP2010224592A - Object extraction device and method - Google Patents
Object extraction device and method Download PDFInfo
- Publication number
- JP2010224592A JP2010224592A JP2009067843A JP2009067843A JP2010224592A JP 2010224592 A JP2010224592 A JP 2010224592A JP 2009067843 A JP2009067843 A JP 2009067843A JP 2009067843 A JP2009067843 A JP 2009067843A JP 2010224592 A JP2010224592 A JP 2010224592A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- extracting
- region
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像からオブジェクト領域を抽出するオブジェクト抽出装置及び方法に関する。 The present invention relates to an object extraction apparatus and method for extracting an object region from an image.
画像中においてユーザが指定した人物や動物等のオブジェクト(物体)の部分を抽出する方法として、市販のパソコン用画像編集ソフトでは、ユーザが表示された画像中のオブジェクトの輪郭線をマウスの操作でなぞって指定することによりその指定領域をオブジェクトとして抽出する方法が一般に用いられている。 As a method for extracting a part of an object (object) such as a person or animal specified by a user in an image, commercially available image editing software for a personal computer uses a mouse operation to draw an outline of the object in the displayed image. A method of extracting a designated area as an object by tracing and specifying is generally used.
また、色及び視覚的テクスチャに基づいたオブジェクト抽出する方法が知られている(特許文献1参照)。この抽出方法では、ユーザは画像中のオブジェクト及び背景の一部を指定し、この指定位置の色情報に基づいた学習を行い、オブジェクトの特徴量を得ることが行われる。 Also, a method for extracting an object based on color and visual texture is known (see Patent Document 1). In this extraction method, the user designates an object and a part of the background in the image, performs learning based on the color information at the designated position, and obtains the feature amount of the object.
更に、物体の輪郭の始点がユーザに指定され、始点として指定された画素から所定の範囲の領域に含まれる各画素を輪郭候補点とし、物体の連続した輪郭を自動的に抽出する方法がある(特許文献2参照)。 Furthermore, there is a method in which the start point of the contour of the object is designated by the user, and each pixel included in a region within a predetermined range from the pixel designated as the start point is used as a contour candidate point, and a continuous contour of the object is automatically extracted. (See Patent Document 2).
また、抽出したいオブジェクトの輪郭に沿って、ユーザが大まかな初期輪郭を設定する方法がある(非特許文献1参照)。この方法では、その初期輪郭の周辺で、一辺の長さが数画素程度の矩形(小領域)と、これを少し拡大した領域(中領域)とを考え、オブジェクト輪郭上の点では、両領域内の画像で相似性(フラクタル性)が見られる傾向が高いので、これを元にオブジェクト輪郭を抽出することが行われる。 Further, there is a method in which the user sets a rough initial contour along the contour of the object to be extracted (see Non-Patent Document 1). In this method, a rectangle (small area) with a side length of several pixels and a slightly enlarged area (medium area) around the initial outline are considered. Since there is a high tendency for similarity (fractal) to be seen in the image in the image, the object contour is extracted based on this.
しかしながら、上記した従来のオブジェクト領域の抽出の技術では、ユーザはオブジェクトの輪郭を指定する作業を慎重に行わないと、オブジェクトの一部が欠けたり、逆に背景画素がオブジェクトに含まれたりして見苦しいものになる。このように、オブジェクト抽出の精度を上げるには、ユーザの負担が大きくなるという問題があった。 However, in the conventional object region extraction technique described above, if the user does not carefully specify the object outline, a part of the object may be missing or a background pixel may be included in the object. It becomes unsightly. As described above, in order to increase the accuracy of object extraction, there is a problem that the burden on the user increases.
そこで、本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、ユーザの負担を軽減しつつ、画像中の精度良くオブジェクト領域を抽出するオブジェクト抽出装置及び方法並びにプログラムを提供することを本発明の目的とする。 Therefore, the problems to be solved by the present invention include the above-mentioned drawbacks as an example, and provide an object extraction apparatus, method, and program for accurately extracting an object region in an image while reducing the burden on the user. This is an object of the present invention.
請求項1に係る本発明のオブジェクト抽出装置は、画像中のオブジェクト領域を抽出するオブジェクト抽出装置であって、操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定手段と、前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定手段と、前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定手段と、前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出する支配的パラメータ抽出手段と、前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出手段と、前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出手段と、を備えることを特徴としている。
The object extraction device of the present invention according to
請求項9に係る本発明のオブジェクト抽出方法は、画像中のオブジェクト領域を抽出するオブジェクト抽出方法であって、操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を備えることを特徴としている。 The object extracting method of the present invention according to claim 9 is an object extracting method for extracting an object region in an image, and an object specifying line setting step for setting an object specifying line consisting of a closed curve in the image according to an operation. And a first area setting step for setting the inner area of the object designation line as a first area, and an area obtained by subtracting the first area from an enlarged area including the first area as a second area. A two-region setting step, a step of extracting a dominant parameter in the first region and the second region of the image, a feature amount extracting step of extracting an object feature amount based on the dominant parameter, and the object feature A region extracting step of extracting the object region in the image based on a quantity; It is characterized in that.
請求項10に係る本発明のプログラムは、画像中のオブジェクト領域を抽出するためのプログラムであって、コンピュータに、操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を実行させることを特徴としている。 The program of the present invention according to claim 10 is a program for extracting an object area in an image, and sets an object designation line that is a closed curve in the image in response to an operation on a computer. A first area setting step for setting an internal area of the object designation line as a first area, and an area obtained by subtracting the first area from an enlarged area including the first area as a second area A second region setting step, a step of extracting a dominant parameter in the first region and the second region of the image, a feature amount extracting step of extracting an object feature amount based on the dominant parameter, and the object A region extracting step of extracting the object region in the image based on a feature amount; It is characterized in that to the row.
請求項1に係る本発明のオブジェクト抽出装置、請求項9に係る本発明のオブジェクト抽出方法及び請求項10に係る本発明のプログラムにおいては、操作に応じて画像中に閉曲線からなるオブジェクト指定線を設定し、そのオブジェクト指定線の内部領域を第1領域として設定し、第1領域を内部に含む拡大領域から第1領域を差し引いた領域を第2領域として設定し、画像の第1領域及び第2領域における支配的パラメータを抽出し、支配的パラメータに基づいてオブジェクト特徴量を抽出し、オブジェクト特徴量に基づいて画像中のオブジェクト領域を抽出することが行われる。よって、画像からオブジェクト領域を抽出する際にユーザは画像中にオブジェクト指定線を指定するための操作だけを行えば良いので、ユーザの負担を軽減することができる。また、オブジェクト指定線の内部領域の第1領域及び外部領域の第2領域における支配的パラメータに基づいてオブジェクト特徴量を抽出することによりオブジェクト領域を決定するので、より精度の高いオブジェクト抽出を実現することができる。
In the object extraction device of the present invention according to
以下、本発明の実施例を図面を参照しつつ詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は本発明の第1の実施例としてオブジェクト抽出装置を示している。このオブジェクト抽出装置は、画像入力手段101、画像蓄積手段102、画像表示部103、操作部104、制御部105、及びオブジェクト抽出部110を備えている。画像入力手段101、画像蓄積手段102、画像表示部103、操作部104、及びオブジェクト抽出部110は制御部105に接続されている。
FIG. 1 shows an object extracting apparatus as a first embodiment of the present invention. The object extraction apparatus includes an
画像入力手段101は、画像データを入力してそれを制御部105に供給する部分であり、例えば、放送波を受信復号するチューナ、インターネット接続部、或いはカメラ等の撮影機器である。画像蓄積手段102は入力された画像データを制御部105を介して蓄積し、その画像データの書き込み及び読み出しは制御部105によって制御される。なお、ここで使用される画像データについては画像サイズ、カラーフォーマット、及びJPEG、GIF等の圧縮形式は特に限定されない。
The
画像表示部103は制御部105から供給された画像データが示す画像を表示する。操作部104はユーザが操作するキーボード、マウス、タッチペン等の入力機器からなり、ユーザの操作に応じた指令を制御部105に供給する。
The
オブジェクト抽出部110は画像表示部103に表示された画像のうちのオブジェクト領域を抽出する部分である。
The
制御部105は操作部104の操作に応じて画像入力手段101、画像蓄積手段102、画像表示部103及びオブジェクト抽出部110を制御する。
The
オブジェクト抽出部110は、ハードウエアとして示すと、図1に示したように、初期オブジェクト/背景領域決定部106、支配色推定部107、オブジェクト特徴量抽出部108及びオブジェクト領域決定部109からなる。
As shown in FIG. 1, the
初期オブジェクト/背景領域決定部106は、画像表示部103に表示された画像に対してユーザの操作部104の操作によって指定されたオブジェクト指定線で囲まれた初期オブジェクト領域(第1領域)を決定する。また、初期オブジェクト/背景領域決定部106は初期オブジェクト領域に基づいて初期背景領域(第2領域)を決定する。オブジェクト指定線、初期オブジェクト領域及び初期背景領域については後述する。
The initial object / background
支配色推定部107は、初期オブジェクト/背景領域決定部106によって決定された初期オブジェクト領域及び初期背景領域の支配色(支配パラメータ)を抽出する。
The dominant color estimating
オブジェクト特徴量抽出部108は、支配色推定部107によって抽出された支配色に基づいてオブジェクト特徴量を抽出する。
The object feature
オブジェクト領域決定部109は、オブジェクト特徴量抽出部108によって抽出されたオブジェクト特徴量に基づいて最終的なオブジェクト領域を決定する。
The object
なお、制御部105は初期オブジェクト/背景領域決定部106、支配色推定部107、オブジェクト特徴量抽出部108及びオブジェクト領域決定部109に対して制御を行うと共にそれらに画像表示部103に表示されている画像データを供給することができる。
The
次に、かかる構成のオブジェクト抽出装置のオブジェクト抽出動作を説明する。 Next, an object extracting operation of the object extracting apparatus having such a configuration will be described.
オブジェクト抽出動作においては、図2に示すように、先ず、制御部105が画像表示部103に画像を表示させる(ステップS1)。このステップS1においては、制御部105はユーザの操作部104の操作に応じて画像データを画像蓄積手段102から読み出してその画像データを画像表示部103に供給する。ユーザの操作部104の操作に応じて制御部105は画像入力手段101に入力された画像データを画像表示部103に供給しても良い。画像表示部103は供給された画像データに応じて画像を表示する。ここで表示される画像がオブジェクト抽出の対象画像であり、対象画像は図3に示された如き画像であるとして説明する。
In the object extraction operation, as shown in FIG. 2, first, the
ステップS1の実行後、ユーザは画像表示部103に表示された対象画像を見ながら、抽出したいオブジェクト領域を操作部104の操作により指定する。指定方法としては、オブジェクトを大まかに囲むような線を描く方法がとられる。この線を「オブジェクト指定線」と呼ぶことにする。オブジェクト指定線の内部に抽出したいオブジェクトが完全に包含されるのが望ましいが、オブジェクトが僅かにはみ出す程度でも問題は無い。オブジェクト指定線が閉曲線でない場合には、線の始点と終点とを結んで閉曲線にすることが行われる。制御部105は操作部104の操作より指定されたオブジェクト指定線を受け入れる(ステップS2)。図3の対象画像に対しては例えば、図4に示すようにオブジェクト指定線が形成される。
After executing step S <b> 1, the user designates an object area to be extracted by operating the operation unit 104 while viewing the target image displayed on the
ステップS2の実行後、初期オブジェクト/背景領域決定部106は制御部105からデータとして供給されるオブジェクト指定線に基づいて初期オブジェクト領域を決定する(ステップS3)。具体的には初期オブジェクト領域はオブジェクト指定線で囲まれる内部領域である。
After execution of step S2, the initial object / background
初期オブジェクト/背景領域決定部106は続いて初期背景領域を決定する(ステップS4)。初期オブジェクト領域を拡大した領域から、初期オブジェクト領域を差し引いた領域を初期背景領域として決定する。すなわち、初期背景領域はオブジェクト領域を囲む領域である。初期オブジェクト領域をどのくらい拡大するかは特に限定されないが、初期オブジェクト領域の面積と初期背景領域の面積とがほぼ等しくなるようにすることが好ましい。例えば、図5に示すように初期オブジェクト領域に対しては初期背景領域が決定される。
Next, the initial object / background
初期オブジェクト/背景領域決定部106において初期オブジェクト領域及び初期背景領域が決定されると、支配色推定部107は画像データから初期オブジェクト領域及び初期背景領域の支配色を抽出する(ステップS5)。
When the initial object area and the initial background area are determined by the initial object / background
初期オブジェクト領域の支配色とは、対象画像で初期オブジェクト領域に多く現れ、初期背景領域にはあまり現れない画素の色を指す。初期背景領域の支配色は、この反対となる。最も単純な支配色抽出方法としては、対象画像から初期オブジェクト領域及び初期背景領域各々の色ヒストグラムを生成し、色毎のビン数の大小をもとに支配色を求めれば良い。例えば、対象画像がRGB8bitのカラー画像データによる画像の場合に[R,G,B]=[[0,0,0]〜,[255,255,255]]からなる16,777,216色各々のビン数(画素数、ただし、RGBで1画素とする)が求められ、16,777,216色各々のビン数の大小に応じて支配色が求められる。 The dominant color of the initial object area refers to the color of a pixel that appears frequently in the initial object area in the target image but does not appear much in the initial background area. The dominant color of the initial background area is the opposite. As the simplest dominant color extraction method, color histograms of the initial object region and the initial background region are generated from the target image, and the dominant color may be obtained based on the number of bins for each color. For example, when the target image is an image of RGB 8-bit color image data, the number of bins (number of pixels, where [R, G, B] = [[0,0,0] to, [255,255,255]]) , RGB, one pixel) is obtained, and the dominant color is obtained according to the number of bins of each of 16,777,216 colors.
この支配色の抽出の際には、ビン数の単純比較ではなく、両者の割合が大きく異なる色のみを支配色としても良い。例えば、大きい方のビン数をCb、小さい方のビン数をCsとすると、Cb>Cs*Thを満足する色のみをCb側の支配色とすることができる。ここでThは1.0以上の実数値であり、例えば、Thを1.2のように設定することで、ビン数の差が僅かである色を除去し、より適切な支配色を求めることができる。なお、初期オブジェクト領域の面積と初期背景領域の面積とが互いに異なる場合には、ビン数をそれぞれの面積で割って正規化してから比較することが行われる。 When this dominant color is extracted, it is possible not to simply compare the number of bins, but to use only colors having a greatly different ratio as the dominant color. For example, if the larger number of bins is Cb and the smaller number of bins is Cs, only the color satisfying Cb> Cs * Th can be set as the dominant color on the Cb side. Here, Th is a real value equal to or greater than 1.0. For example, by setting Th to be 1.2, a color having a slight difference in the number of bins can be removed and a more appropriate dominant color can be obtained. When the area of the initial object area and the area of the initial background area are different from each other, the bin numbers are divided by the respective areas, normalized, and then compared.
支配色抽出方法は上記に限定されるものではなく、例えば、ビン数を比較した差が僅差の場合は支配色としない等の処理を加えても良い。また色だけでなく、輝度(主にモノクロ画像の場合)やテクスチャなど対象画像から得られる特徴に基づいて支配的なパラメータ(つまり支配輝度や支配テクスチャ)を抽出しても良い。支配的パラメータとしては画像の色、輝度及びテクスチャのうちの少なくとも1であれば良い。 The dominant color extraction method is not limited to the above. For example, when the difference in the number of bins is a small difference, processing such as not using the dominant color may be added. In addition to color, dominant parameters (that is, dominant luminance and dominant texture) may be extracted based on characteristics obtained from the target image such as luminance (mainly in the case of a monochrome image) and texture. The dominant parameter may be at least one of the color, brightness, and texture of the image.
支配色が抽出されると、オブジェクト特徴量抽出部108がその抽出された支配色に基づいてオブジェクト特徴量を抽出する(ステップS6)。最も単純なオブジェクト特徴量は、ステップS5で抽出された初期オブジェクト領域の支配色となる。例えば、対象画像がRGB8bitのカラー画像データによる画像の場合に、オブジェクト特徴量は[R,G,B]=[[0,0,0], [128,0,128], [64, 32,192], …]のようにRGBのデータ群で表されることになる。
When the dominant color is extracted, the object feature
オブジェクト特徴量は上記に限定されるものではなく、サポートベクタマシン等の機械学習により、初期オブジェクト領域及び初期背景領域各々の支配色に応じて、オブジェクト及び背景の2クラス分類(クラスタリング)を行い、その結果に基づいてオブジェクト特徴量を抽出しても良い。 The object feature amount is not limited to the above, but by machine learning such as a support vector machine, according to the dominant color of each of the initial object region and the initial background region, the object and the background are classified into two classes (clustering), The object feature amount may be extracted based on the result.
オブジェクト特徴量が抽出されると、オブジェクト領域決定部109が最終的なオブジェクト領域を決定する(ステップS7)。具体的には、ステップS6で抽出されたオブジェクト特徴量を満たす画素が、図6に示すように、初期オブジェクト領域と初期背景領域とを合わせた領域(以降、「抽出領域」と呼ぶ)から抽出される。抽出された画素群そのものをオブジェクト領域として決定しても良いが、クロージング等のモルフォロジー処理による整形を施したものをオブジェクト領域としても良い。
When the object feature amount is extracted, the object
ステップS7の実行後、図2には示していないが、制御部105がオブジェクト領域を受け取り、対象画像からオブジェクト領域を切り取った画像を画像表示部104に表示させ、オブジェクト領域データそのものを出力する。画像表示部104には例えば、図7に示すようにオブジェクト領域の画像が表示される。オブジェクト領域のデータ或いはそのオブジェクト領域部分の画像データの出力先は画像表示部104に限らず画像蓄積手段102へ出力しても良く、更にはインターネットを介した配信をしても良く、特に範囲を限定しない。
After execution of step S7, although not shown in FIG. 2, the
上記のステップS1〜S7の処理を行うことにより、対象画像に対してオブジェクト領域を抽出する際のユーザの操作負担を軽減しつつ、より精度の高いオブジェクト抽出を実現することができる。特に、第1の実施例ではオブジェクトを大まかに囲むように指定すれば良いだけなので、ユーザへの負担は小さくなる。特許文献2の一点指定に比べ、より直感的なオブジェクト指定が可能となる。また、初期オブジェクト領域及び初期背景領域各々の支配色に基づいてオブジェクト特徴量を決定するので、処理負荷が非常に軽くて済む。
By performing the processes in steps S1 to S7 described above, it is possible to realize more accurate object extraction while reducing the operation burden on the user when extracting an object region from the target image. In particular, in the first embodiment, it is only necessary to designate the object so as to roughly surround the object, so that the burden on the user is reduced. Compared with the single point designation in
なお、ステップS4の初期背景領域の決定においては、初期背景領域があまりに小さいと、ユーザによるオブジェクト指定線がオブジェクトの実際の範囲内を通っている場合に、初期背景領域内にオブジェクト色が含まれる割合が多くなってしまい、オブジェクト領域の抽出精度が悪くなる。逆に、画面全体のように初期背景領域があまりに大きくなると、オブジェクトから離れた箇所にオブジェクト色が含まれる場合において、やはりオブジェクト領域の抽出精度が悪くなる。更にパラメータ抽出領域が大きくなると、処理負荷も大きくなる。精度と処理負荷のバランスを考えても、初期オブジェクト領域と初期背景領域の面積がほぼ等しくなるようにすることがより好ましい。 In the determination of the initial background area in step S4, if the initial background area is too small, the object color is included in the initial background area when the object designation line by the user passes through the actual range of the object. The ratio increases, and the extraction accuracy of the object area deteriorates. On the other hand, if the initial background area becomes too large as in the entire screen, the object area extraction accuracy also deteriorates in the case where the object color is included at a location away from the object. Further, as the parameter extraction area increases, the processing load also increases. Even considering the balance between accuracy and processing load, it is more preferable that the areas of the initial object area and the initial background area are substantially equal.
上記した第1の実施例においては対象画像が静止画像であるとしてオブジェクト領域を抽出する場合について説明したが、対象画像を動画像の各フレームとしフレーム毎にオブジェクト領域を抽出するようにしても良い。 In the first embodiment described above, the object region is extracted assuming that the target image is a still image. However, the object region may be extracted for each frame using the target image as each frame of the moving image. .
次に、本発明の第2の実施例として動画像からオブジェクト領域を抽出する場合のオブジェクト抽出動作を説明する。 Next, an object extraction operation for extracting an object area from a moving image will be described as a second embodiment of the present invention.
図1のオブジェクト抽出装置においては少なくとも画像入力手段101、画像蓄積手段102、画像表示部103、及び制御部105が動画像を扱うための機能を有するとする。動画像を示す画像データが画像入力手段101から入力され、その画像データは制御部105を介して画像蓄積手段102又は画像表示部103に供給される。画像蓄積手段102は供給された動画像を示す画像データを蓄積し、画像表示部103は供給された動画像を示す画像データに応じて動画像を表示する。
In the object extraction apparatus of FIG. 1, it is assumed that at least the
オブジェクト抽出動作においては、図8に示すように、先ず、制御部105が画像表示部103に動画像の第1フレームを表示させ(ステップS11)、操作部104の操作より指定されたオブジェクト指定線を受け入れる(ステップS12)。ステップS12の実行後、初期オブジェクト/背景領域決定部106は制御部105からデータとして供給されるオブジェクト指定線に基づいて初期オブジェクト領域を決定し(ステップS13)、続いて初期背景領域を決定する(ステップS14)。ステップS14の実行後、支配色推定部107は画像データから初期オブジェクト領域及び初期背景領域の支配色を抽出し(ステップS15)、支配色が抽出されると、オブジェクト特徴量抽出部108がその抽出された支配色に基づいてオブジェクト特徴量を抽出する(ステップS16)。そして、オブジェクト領域決定部109が第1フレームの最終的なオブジェクト領域を決定する(ステップS17)。このステップS11〜S17の動作は対象画像が動画像の第1フレームになった以外については図2に示したステップS1〜S7の動作と同一である。
In the object extraction operation, as shown in FIG. 8, first, the
ステップS17の実行終了時点では、第1フレームのオブジェクト領域が抽出されているので、これに基づいて第2フレーム以降のフレームのオブジェクト領域を抽出することが行われる。 At the end of the execution of step S17, the object area of the first frame has been extracted. Based on this, the object areas of the second and subsequent frames are extracted.
先ず、制御部105はフレーム番号kを2に等しくさせ(ステップS18)、第(k−1)フレームのオブジェクト領域を拡張させる(ステップS19)。すなわち、前フレーム(k=2の場合には第1フレーム)のオブジェクト領域を中心とした拡張領域が設定される。拡張領域の大きさは、隣接フレーム(第(k−1)フレーム及び第kフレーム)間でオブジェクトが動く範囲をカバーできれば十分である。
First, the
次に、オブジェクト領域決定部109が第kフレーム(現フレーム)に対して、ステップS19で設定された拡張範囲内からステップS16で抽出したオブジェクト特徴量に応じてオブジェクト領域を抽出する(ステップS20)。このステップS20の処理は、オブジェクト拡張領域をステップS7における「抽出範囲」(図6参照)と見なしてオブジェクト領域を抽出する処理と全く同等のものである。よって、このオブジェクト拡張領域を「次フレーム抽出範囲」と呼ぶ。
Next, the object
ステップS20の実行後、制御部105は動画像の全フレームについてのオブジェクト領域の抽出が終了したか否かを判別する(ステップS21)。次のフレームが存在するならば、フレーム番号kを1つ増加させ(ステップS22)、ステップS19及びS20が同様に実行されてオブジェクト領域が抽出される。全フレームについてのオブジェクト領域の抽出が終了したならばオブジェクト抽出動作が終了される。
After execution of step S20, the
例えば、動画像が図9(a)に示すように第1フレーム〜第3フレームで変化するものであるとき、それらに対するオブジェクト抽出結果は図9(b)に示すようになる。先ず、第1フレームの画像からユーザが指定したオブジェクト、すなわち球状の物体を囲むようにオブジェクト指定線を描くことが行われる。このオブジェクト指定線から初期オブジェクト領域及び初期背景領域が設定され、ステップS11〜S16の実行によりオブジェクト特徴量が得られる。ここでオブジェクト特徴量を満たす画素群領域が第1フレームでのオブジェクト領域とされる。このオブジェクト領域を中心として拡張したオブジェクト拡張領域が次フレーム抽出範囲として設定される。次に、第2フレームの画像においてこの次フレーム抽出範囲内でオブジェクト領域が抽出され、以降の第3フレーム,第4フレーム,…についても第2フレームに対する処理と同様の処理が行われ、オブジェクト領域が各々抽出される。 For example, when the moving image changes from the first frame to the third frame as shown in FIG. 9A, the object extraction result for them changes as shown in FIG. 9B. First, an object designation line is drawn so as to surround an object designated by the user, that is, a spherical object, from the image of the first frame. An initial object area and an initial background area are set from the object designation line, and an object feature amount is obtained by executing steps S11 to S16. Here, the pixel group region that satisfies the object feature amount is set as the object region in the first frame. An object extension area expanded around this object area is set as the next frame extraction range. Next, in the second frame image, an object region is extracted within the next frame extraction range, and the same processing as that for the second frame is performed for the subsequent third frame, fourth frame,. Are extracted.
このように、動画像からオブジェクト領域を抽出するオブジェクト抽出動作においては、静止画像の場合と同様にユーザが1フレームずつオブジェクト指定線を指定する手法では、ユーザへの負担が大きくなってしまうので、それに対処した抽出動作が実行されている。一般的な動画像では、隣接フレーム間ではオブジェクトが移動する範囲が狭く、また、隣接フレーム間では背景及びオブジェクトの色変化が少ないとう特徴があるため、上記した第2の実施例のオブジェクト抽出動作ではこれらの特徴が利用されている。よって、第1フレームだけユーザによるオブジェクト指定線の指定操作を行えば、第2フレーム以降のオブジェクト指定線の指定操作を行わずに済むので、ユーザへの負担を静止画像からオブジェクト領域を抽出する際の負担程度に軽減しつつ、動画像からオブジェクトを確実に抽出することができる。 As described above, in the object extraction operation for extracting the object region from the moving image, the method in which the user designates the object designation line frame by frame as in the case of the still image increases the burden on the user. An extraction operation is performed to deal with it. The general moving image has a feature that the range in which an object moves between adjacent frames is narrow, and the color change of the background and the object is small between adjacent frames. Therefore, the object extraction operation of the second embodiment described above So these features are used. Therefore, if the user performs an object designation line designation operation for the first frame only, it is not necessary to perform an object designation line designation operation for the second and subsequent frames. Therefore, when extracting an object region from a still image, the burden on the user is reduced. It is possible to reliably extract an object from a moving image while reducing the burden of the above.
上記のステップS7又はS17のオブジェクト特徴量(オブジェクト支配色)に基づいてオブジェクト領域を抽出する際、初期オブジェクト領域と比較することで、より抽出精度の向上が期待できる。例えば、図10(a)に示すように、対象画像についてオブジェクト指定線が指定され(図4と同一である)、図10(b)に示すように、図中の黒で示された箇所が、上記した第1の実施例で抽出されたオブジェクト領域であると仮定する。このオブジェクト領域を画素連結成分毎に分類し、a〜dまでラベル付けを行ってパーツa〜パーツdとする。画素連結成分はオブジェクト領域において1つのパーツと見なすことができる集合部分である。ここでパーツ毎に、初期オブジェクト領域にパーツ面積の何%が含まれるかを算出し、それが閾値より小さい場合は、そのパーツをオブジェクト領域から削除するようにする。閾値を例えば、50%として設定した場合には、図10(b)の例ではパーツbが50%より小さいので、パーツbは図10(c)に示すようにオブジェクト領域から削除されることになる。このとき残ったパーツa,c,dに基づいてオブジェクト特徴量(オブジェクト支配色)を再学習しても良い。このように抽出されたオブジェクト領域のパーツが、初期オブジェクト領域に含まれる割合を算出し、その値が小さいパーツを削除することにより、オブジェクト領域抽出の精度をより向上させることができる。 When extracting an object region based on the object feature amount (object dominant color) in step S7 or S17, the extraction accuracy can be further improved by comparing with the initial object region. For example, as shown in FIG. 10A, an object designation line is designated for the target image (same as in FIG. 4), and as shown in FIG. Assume that the object region is extracted in the first embodiment. This object area is classified for each pixel connected component, and labels are assigned from a to d to become parts a to d. The pixel connected component is a collective part that can be regarded as one part in the object region. Here, for each part, what percentage of the part area is included in the initial object area is calculated, and if it is smaller than the threshold, the part is deleted from the object area. For example, when the threshold value is set as 50%, the part b is smaller than 50% in the example of FIG. 10B, so the part b is deleted from the object area as shown in FIG. 10C. Become. At this time, the object feature amount (object dominant color) may be relearned based on the remaining parts a, c, and d. The accuracy of the object area extraction can be further improved by calculating the ratio of the parts of the object area extracted in this way to be included in the initial object area and deleting the parts having a small value.
なお、図1の装置中の制御部105及びオブジェクト抽出部110をコンピュータによって構成し、メモリに記憶されたプログラムに従ってコンピュータが上記したオブジェクト抽出動作を実行するようにしても良いことは勿論である。
Of course, the
本発明はパソコン用の画像編集ソフト等のアプリケーションソフト、及びDVDレコーダ、カメラ、TV電話等の機器に適用することができる。 The present invention can be applied to application software such as image editing software for personal computers, and devices such as DVD recorders, cameras, and videophones.
101 画像入力手段
102 画像蓄積手段
103 画像表示部
104 操作部
105 制御部
106 初期オブジェクト/背景領域決定部
107 支配色推定部
108 オブジェクト特徴量抽出部
109 オブジェクト領域決定部
110 オブジェクト抽出部
DESCRIPTION OF
Claims (10)
操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定手段と、
前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定手段と、
前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定手段と、
前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出する支配的パラメータ抽出手段と、
前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出手段と、
前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出手段と、を備えることを特徴とするオブジェクト抽出装置。 An object extraction device for extracting an object region in an image,
Object designation line setting means for setting an object designation line consisting of a closed curve in the image according to an operation;
First area setting means for setting an inner area of the object designation line as a first area;
A second area setting means for setting, as a second area, an area obtained by subtracting the first area from an enlarged area including the first area;
Dominant parameter extracting means for extracting dominant parameters in the first region and the second region of the image;
Feature quantity extraction means for extracting an object feature quantity based on the dominant parameter;
An object extraction apparatus comprising: an area extraction unit that extracts the object area in the image based on the object feature amount.
前記オブジェクト指定線設定手段、前記第1領域設定手段、前記第2領域設定手段、前記支配的パラメータ抽出手段、前記特徴量抽出手段、及び前記領域抽出手段は前記動画像の第1フレームの画像について動作し、
前記領域抽出手段は前記動画像の第2フレーム以降のフレームの画像については前フレームの画像の前記オブジェクト領域を拡大した領域内において前記オブジェクト特徴量に基づいて現フレームの画像中の前記オブジェクト領域を抽出することを特徴とする請求項1記載のオブジェクト抽出装置。 The image is a moving image;
The object designation line setting means, the first area setting means, the second area setting means, the dominant parameter extraction means, the feature amount extraction means, and the area extraction means are for the first frame image of the moving image. Work,
The region extracting means extracts the object region in the image of the current frame based on the object feature amount in a region obtained by enlarging the object region of the image of the previous frame for the image of the second and subsequent frames of the moving image. The object extracting apparatus according to claim 1, wherein the object extracting apparatus extracts the object.
操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、
前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、
前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、
前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、
前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、
前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を備えることを特徴とするオブジェクト抽出方法。 An object extraction method for extracting an object region in an image,
An object designation line setting step for setting an object designation line consisting of a closed curve in the image according to an operation;
A first area setting step of setting an internal area of the object designation line as a first area;
A second area setting step of setting an area obtained by subtracting the first area from an enlarged area including the first area as a second area;
Extracting dominant parameters in the first region and the second region of the image;
A feature amount extracting step of extracting an object feature amount based on the dominant parameter;
A region extracting step of extracting the object region in the image on the basis of the object feature amount.
操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、
前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、
前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、
前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、
前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、
前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を実行させることを特徴とするプログラム。 A program for extracting an object area in an image.
An object designation line setting step for setting an object designation line consisting of a closed curve in the image according to an operation;
A first area setting step of setting an internal area of the object designation line as a first area;
A second area setting step of setting an area obtained by subtracting the first area from an enlarged area including the first area as a second area;
Extracting dominant parameters in the first region and the second region of the image;
A feature amount extracting step of extracting an object feature amount based on the dominant parameter;
A region extraction step of extracting the object region in the image based on the object feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009067843A JP2010224592A (en) | 2009-03-19 | 2009-03-19 | Object extraction device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009067843A JP2010224592A (en) | 2009-03-19 | 2009-03-19 | Object extraction device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010224592A true JP2010224592A (en) | 2010-10-07 |
Family
ID=43041755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009067843A Pending JP2010224592A (en) | 2009-03-19 | 2009-03-19 | Object extraction device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010224592A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009210A (en) * | 2014-06-20 | 2016-01-18 | 株式会社リコー | Data generation device, data generation method, and data generation program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05128257A (en) * | 1991-11-08 | 1993-05-25 | Matsushita Electric Ind Co Ltd | Picture area extracting device |
JPH08101893A (en) * | 1994-09-30 | 1996-04-16 | Omron Corp | Model image data registering device for image processor |
JP2006102125A (en) * | 2004-10-05 | 2006-04-20 | Toshiba Corp | Method for identifying region of interest with time in medical image processing apparatus and medical image processing apparatus |
JP2008243226A (en) * | 2008-05-29 | 2008-10-09 | Toshiba Corp | Object image extraction method |
-
2009
- 2009-03-19 JP JP2009067843A patent/JP2010224592A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05128257A (en) * | 1991-11-08 | 1993-05-25 | Matsushita Electric Ind Co Ltd | Picture area extracting device |
JPH08101893A (en) * | 1994-09-30 | 1996-04-16 | Omron Corp | Model image data registering device for image processor |
JP2006102125A (en) * | 2004-10-05 | 2006-04-20 | Toshiba Corp | Method for identifying region of interest with time in medical image processing apparatus and medical image processing apparatus |
JP2008243226A (en) * | 2008-05-29 | 2008-10-09 | Toshiba Corp | Object image extraction method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016009210A (en) * | 2014-06-20 | 2016-01-18 | 株式会社リコー | Data generation device, data generation method, and data generation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9959649B2 (en) | Image compositing device and image compositing method | |
US9491366B2 (en) | Electronic device and image composition method thereof | |
US10019823B2 (en) | Combined composition and change-based models for image cropping | |
JP5713790B2 (en) | Image processing apparatus, image processing method, and program | |
JP4799104B2 (en) | Information processing apparatus and control method therefor, computer program, and storage medium | |
JP6089886B2 (en) | Region dividing method and inspection apparatus | |
JP4782105B2 (en) | Image processing apparatus and image processing method | |
JP2007087346A (en) | Information processing device, control method therefor, computer program, and memory medium | |
US9792695B2 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium | |
WO2009147840A1 (en) | Image retrieval device and image retrieval computer program applied to the image retrieval device | |
US8818096B2 (en) | Apparatus and method for detecting subject from image | |
CN110738598A (en) | Image adaptation method, electronic device and storage medium | |
JP5719141B2 (en) | Information processing apparatus, processing method thereof, and program | |
JP6241320B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP6171651B2 (en) | Image processing program and image processing apparatus | |
JP2013502147A (en) | System and method for artifact reduction based on region of interest of image sequence | |
JP2006217045A (en) | Index image generator and generation program | |
US20180089529A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
CN110135929B (en) | System, method and storage medium for implementing virtual makeup application | |
JP2010224592A (en) | Object extraction device and method | |
US11132762B2 (en) | Content aware image fitting | |
JP2012133459A (en) | Apparatus, method and program for estimating image, and computer-readable recording medium storing the program | |
JP2005250973A (en) | Image similarity calculation system, image retrieving system, image similarity calculating method and program | |
JP2011090431A (en) | Image processor, printing system, image processing method, and program | |
JP5761386B2 (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130312 |