JP2010224592A - Object extraction device and method - Google Patents

Object extraction device and method Download PDF

Info

Publication number
JP2010224592A
JP2010224592A JP2009067843A JP2009067843A JP2010224592A JP 2010224592 A JP2010224592 A JP 2010224592A JP 2009067843 A JP2009067843 A JP 2009067843A JP 2009067843 A JP2009067843 A JP 2009067843A JP 2010224592 A JP2010224592 A JP 2010224592A
Authority
JP
Japan
Prior art keywords
area
image
extracting
region
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009067843A
Other languages
Japanese (ja)
Inventor
Hajime Miyasato
肇 宮里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2009067843A priority Critical patent/JP2010224592A/en
Publication of JP2010224592A publication Critical patent/JP2010224592A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object extraction device, a method and a program for accurately extracting an object area in an image while reducing a burden on a user. <P>SOLUTION: The object extraction device includes: an object specification line setting means for setting an object specification line composed of a closed curve in an image according to operation thereof; a first area setting means for setting an inside area of the object specification line as a first area; a second area setting means for setting, as a second area, an area obtained by subtracting the first area from an expanded area including the first area; a dominant parameter extracting means for extracting a dominant parameter in the first and second areas of an image; a feature amount extracting means for extracting an object feature amount based on the dominant parameter; and an area extracting means for extracting an object area in an image based on the object feature amount. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像からオブジェクト領域を抽出するオブジェクト抽出装置及び方法に関する。   The present invention relates to an object extraction apparatus and method for extracting an object region from an image.

画像中においてユーザが指定した人物や動物等のオブジェクト(物体)の部分を抽出する方法として、市販のパソコン用画像編集ソフトでは、ユーザが表示された画像中のオブジェクトの輪郭線をマウスの操作でなぞって指定することによりその指定領域をオブジェクトとして抽出する方法が一般に用いられている。   As a method for extracting a part of an object (object) such as a person or animal specified by a user in an image, commercially available image editing software for a personal computer uses a mouse operation to draw an outline of the object in the displayed image. A method of extracting a designated area as an object by tracing and specifying is generally used.

また、色及び視覚的テクスチャに基づいたオブジェクト抽出する方法が知られている(特許文献1参照)。この抽出方法では、ユーザは画像中のオブジェクト及び背景の一部を指定し、この指定位置の色情報に基づいた学習を行い、オブジェクトの特徴量を得ることが行われる。   Also, a method for extracting an object based on color and visual texture is known (see Patent Document 1). In this extraction method, the user designates an object and a part of the background in the image, performs learning based on the color information at the designated position, and obtains the feature amount of the object.

更に、物体の輪郭の始点がユーザに指定され、始点として指定された画素から所定の範囲の領域に含まれる各画素を輪郭候補点とし、物体の連続した輪郭を自動的に抽出する方法がある(特許文献2参照)。   Furthermore, there is a method in which the start point of the contour of the object is designated by the user, and each pixel included in a region within a predetermined range from the pixel designated as the start point is used as a contour candidate point, and a continuous contour of the object is automatically extracted. (See Patent Document 2).

また、抽出したいオブジェクトの輪郭に沿って、ユーザが大まかな初期輪郭を設定する方法がある(非特許文献1参照)。この方法では、その初期輪郭の周辺で、一辺の長さが数画素程度の矩形(小領域)と、これを少し拡大した領域(中領域)とを考え、オブジェクト輪郭上の点では、両領域内の画像で相似性(フラクタル性)が見られる傾向が高いので、これを元にオブジェクト輪郭を抽出することが行われる。   Further, there is a method in which the user sets a rough initial contour along the contour of the object to be extracted (see Non-Patent Document 1). In this method, a rectangle (small area) with a side length of several pixels and a slightly enlarged area (medium area) around the initial outline are considered. Since there is a high tendency for similarity (fractal) to be seen in the image in the image, the object contour is extracted based on this.

特開2005−129065号公報Japanese Patent Laid-Open No. 2005-129065 特開平5−324830号公報JP-A-5-324830

"Self-Affine Mapping System and Its Application to Object Contour Extraction", IEEE Transaction on Image Processing, vol.9, No.11, November, 2000"Self-Affine Mapping System and Its Application to Object Contour Extraction", IEEE Transaction on Image Processing, vol.9, No.11, November, 2000

しかしながら、上記した従来のオブジェクト領域の抽出の技術では、ユーザはオブジェクトの輪郭を指定する作業を慎重に行わないと、オブジェクトの一部が欠けたり、逆に背景画素がオブジェクトに含まれたりして見苦しいものになる。このように、オブジェクト抽出の精度を上げるには、ユーザの負担が大きくなるという問題があった。   However, in the conventional object region extraction technique described above, if the user does not carefully specify the object outline, a part of the object may be missing or a background pixel may be included in the object. It becomes unsightly. As described above, in order to increase the accuracy of object extraction, there is a problem that the burden on the user increases.

そこで、本発明が解決しようとする課題には、上記の欠点が一例として挙げられ、ユーザの負担を軽減しつつ、画像中の精度良くオブジェクト領域を抽出するオブジェクト抽出装置及び方法並びにプログラムを提供することを本発明の目的とする。   Therefore, the problems to be solved by the present invention include the above-mentioned drawbacks as an example, and provide an object extraction apparatus, method, and program for accurately extracting an object region in an image while reducing the burden on the user. This is an object of the present invention.

請求項1に係る本発明のオブジェクト抽出装置は、画像中のオブジェクト領域を抽出するオブジェクト抽出装置であって、操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定手段と、前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定手段と、前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定手段と、前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出する支配的パラメータ抽出手段と、前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出手段と、前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出手段と、を備えることを特徴としている。   The object extraction device of the present invention according to claim 1 is an object extraction device for extracting an object region in an image, and an object specification line setting means for setting an object specification line comprising a closed curve in the image according to an operation. And a first area setting means for setting an inner area of the object designation line as a first area, and a second area that is obtained by subtracting the first area from an enlarged area including the first area. 2-region setting means, dominant parameter extracting means for extracting dominant parameters in the first area and the second area of the image, and feature quantity extracting means for extracting object feature quantities based on the dominant parameters; Area extracting means for extracting the object area in the image based on the object feature amount. It is characterized in.

請求項9に係る本発明のオブジェクト抽出方法は、画像中のオブジェクト領域を抽出するオブジェクト抽出方法であって、操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を備えることを特徴としている。   The object extracting method of the present invention according to claim 9 is an object extracting method for extracting an object region in an image, and an object specifying line setting step for setting an object specifying line consisting of a closed curve in the image according to an operation. And a first area setting step for setting the inner area of the object designation line as a first area, and an area obtained by subtracting the first area from an enlarged area including the first area as a second area. A two-region setting step, a step of extracting a dominant parameter in the first region and the second region of the image, a feature amount extracting step of extracting an object feature amount based on the dominant parameter, and the object feature A region extracting step of extracting the object region in the image based on a quantity; It is characterized in that.

請求項10に係る本発明のプログラムは、画像中のオブジェクト領域を抽出するためのプログラムであって、コンピュータに、操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を実行させることを特徴としている。   The program of the present invention according to claim 10 is a program for extracting an object area in an image, and sets an object designation line that is a closed curve in the image in response to an operation on a computer. A first area setting step for setting an internal area of the object designation line as a first area, and an area obtained by subtracting the first area from an enlarged area including the first area as a second area A second region setting step, a step of extracting a dominant parameter in the first region and the second region of the image, a feature amount extracting step of extracting an object feature amount based on the dominant parameter, and the object A region extracting step of extracting the object region in the image based on a feature amount; It is characterized in that to the row.

本発明の第1の実施例を示すブロック図である。It is a block diagram which shows the 1st Example of this invention. 図1の装置のオブジェクト抽出動作を示すフローチャートである。It is a flowchart which shows the object extraction operation | movement of the apparatus of FIG. オブジェクト領域抽出の対象画像を示す図である。It is a figure which shows the target image of object area | region extraction. 対象画像中のオブジェクト指定線を示す図である。It is a figure which shows the object designation | designated line in a target image. 対象画像中の初期オブジェクト領域及び初期背景領域を示す図である。It is a figure which shows the initial object area | region and initial background area | region in a target image. 対象画像中の抽出範囲を示す図である。It is a figure which shows the extraction range in a target image. 対象画像から抽出されたオブジェクトを示す図である。It is a figure which shows the object extracted from the target image. 本発明の第2の実施例として動画像のオブジェクト抽出動作を示すフローチャートである。It is a flowchart which shows the object extraction operation | movement of a moving image as 2nd Example of this invention. 動画像の第1〜第3フレームの画像、オブジェクト領域及び次フレーム抽出範囲を示す図である。It is a figure which shows the image of the 1st-3rd frame of a moving image, an object area | region, and the next frame extraction range. 初期オブジェクト領域内のパーツの削除を示す図である。It is a figure which shows deletion of the parts in an initial object area | region.

請求項1に係る本発明のオブジェクト抽出装置、請求項9に係る本発明のオブジェクト抽出方法及び請求項10に係る本発明のプログラムにおいては、操作に応じて画像中に閉曲線からなるオブジェクト指定線を設定し、そのオブジェクト指定線の内部領域を第1領域として設定し、第1領域を内部に含む拡大領域から第1領域を差し引いた領域を第2領域として設定し、画像の第1領域及び第2領域における支配的パラメータを抽出し、支配的パラメータに基づいてオブジェクト特徴量を抽出し、オブジェクト特徴量に基づいて画像中のオブジェクト領域を抽出することが行われる。よって、画像からオブジェクト領域を抽出する際にユーザは画像中にオブジェクト指定線を指定するための操作だけを行えば良いので、ユーザの負担を軽減することができる。また、オブジェクト指定線の内部領域の第1領域及び外部領域の第2領域における支配的パラメータに基づいてオブジェクト特徴量を抽出することによりオブジェクト領域を決定するので、より精度の高いオブジェクト抽出を実現することができる。   In the object extraction device of the present invention according to claim 1, the object extraction method of the present invention according to claim 9 and the program of the present invention according to claim 10, an object designation line consisting of a closed curve is provided in an image according to an operation. Set, the internal area of the object designation line is set as the first area, the area obtained by subtracting the first area from the enlarged area including the first area is set as the second area, and the first area and the first area of the image The dominant parameter in the two regions is extracted, the object feature amount is extracted based on the dominant parameter, and the object region in the image is extracted based on the object feature amount. Therefore, when extracting an object area from an image, the user only needs to perform an operation for specifying an object designation line in the image, so that the burden on the user can be reduced. In addition, since the object region is determined by extracting the object feature amount based on the dominant parameter in the first region in the inner region of the object designation line and the second region in the outer region, more accurate object extraction is realized. be able to.

以下、本発明の実施例を図面を参照しつつ詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は本発明の第1の実施例としてオブジェクト抽出装置を示している。このオブジェクト抽出装置は、画像入力手段101、画像蓄積手段102、画像表示部103、操作部104、制御部105、及びオブジェクト抽出部110を備えている。画像入力手段101、画像蓄積手段102、画像表示部103、操作部104、及びオブジェクト抽出部110は制御部105に接続されている。   FIG. 1 shows an object extracting apparatus as a first embodiment of the present invention. The object extraction apparatus includes an image input unit 101, an image storage unit 102, an image display unit 103, an operation unit 104, a control unit 105, and an object extraction unit 110. The image input unit 101, the image storage unit 102, the image display unit 103, the operation unit 104, and the object extraction unit 110 are connected to the control unit 105.

画像入力手段101は、画像データを入力してそれを制御部105に供給する部分であり、例えば、放送波を受信復号するチューナ、インターネット接続部、或いはカメラ等の撮影機器である。画像蓄積手段102は入力された画像データを制御部105を介して蓄積し、その画像データの書き込み及び読み出しは制御部105によって制御される。なお、ここで使用される画像データについては画像サイズ、カラーフォーマット、及びJPEG、GIF等の圧縮形式は特に限定されない。   The image input unit 101 is a part that inputs image data and supplies it to the control unit 105, and is, for example, a tuner that receives and decodes broadcast waves, an Internet connection unit, or a photographing device such as a camera. The image storage unit 102 stores the input image data via the control unit 105, and writing and reading of the image data is controlled by the control unit 105. Note that the image data used here is not particularly limited in image size, color format, and compression format such as JPEG and GIF.

画像表示部103は制御部105から供給された画像データが示す画像を表示する。操作部104はユーザが操作するキーボード、マウス、タッチペン等の入力機器からなり、ユーザの操作に応じた指令を制御部105に供給する。   The image display unit 103 displays an image indicated by the image data supplied from the control unit 105. The operation unit 104 includes input devices such as a keyboard, a mouse, and a touch pen operated by the user, and supplies commands to the control unit 105 in accordance with user operations.

オブジェクト抽出部110は画像表示部103に表示された画像のうちのオブジェクト領域を抽出する部分である。   The object extraction unit 110 is a part that extracts an object area from the image displayed on the image display unit 103.

制御部105は操作部104の操作に応じて画像入力手段101、画像蓄積手段102、画像表示部103及びオブジェクト抽出部110を制御する。   The control unit 105 controls the image input unit 101, the image storage unit 102, the image display unit 103, and the object extraction unit 110 according to the operation of the operation unit 104.

オブジェクト抽出部110は、ハードウエアとして示すと、図1に示したように、初期オブジェクト/背景領域決定部106、支配色推定部107、オブジェクト特徴量抽出部108及びオブジェクト領域決定部109からなる。   As shown in FIG. 1, the object extraction unit 110 includes an initial object / background region determination unit 106, a dominant color estimation unit 107, an object feature amount extraction unit 108, and an object region determination unit 109, as shown in FIG.

初期オブジェクト/背景領域決定部106は、画像表示部103に表示された画像に対してユーザの操作部104の操作によって指定されたオブジェクト指定線で囲まれた初期オブジェクト領域(第1領域)を決定する。また、初期オブジェクト/背景領域決定部106は初期オブジェクト領域に基づいて初期背景領域(第2領域)を決定する。オブジェクト指定線、初期オブジェクト領域及び初期背景領域については後述する。   The initial object / background area determination unit 106 determines an initial object area (first area) surrounded by an object specification line specified by the user's operation of the operation unit 104 for the image displayed on the image display unit 103. To do. The initial object / background area determination unit 106 determines an initial background area (second area) based on the initial object area. The object designation line, the initial object area, and the initial background area will be described later.

支配色推定部107は、初期オブジェクト/背景領域決定部106によって決定された初期オブジェクト領域及び初期背景領域の支配色(支配パラメータ)を抽出する。   The dominant color estimating unit 107 extracts the dominant color (dominant parameter) of the initial object region and the initial background region determined by the initial object / background region determining unit 106.

オブジェクト特徴量抽出部108は、支配色推定部107によって抽出された支配色に基づいてオブジェクト特徴量を抽出する。   The object feature amount extraction unit 108 extracts an object feature amount based on the dominant color extracted by the dominant color estimation unit 107.

オブジェクト領域決定部109は、オブジェクト特徴量抽出部108によって抽出されたオブジェクト特徴量に基づいて最終的なオブジェクト領域を決定する。   The object region determination unit 109 determines a final object region based on the object feature amount extracted by the object feature amount extraction unit 108.

なお、制御部105は初期オブジェクト/背景領域決定部106、支配色推定部107、オブジェクト特徴量抽出部108及びオブジェクト領域決定部109に対して制御を行うと共にそれらに画像表示部103に表示されている画像データを供給することができる。   The control unit 105 controls the initial object / background region determination unit 106, the dominant color estimation unit 107, the object feature amount extraction unit 108, and the object region determination unit 109 and displays them on the image display unit 103. Existing image data can be supplied.

次に、かかる構成のオブジェクト抽出装置のオブジェクト抽出動作を説明する。   Next, an object extracting operation of the object extracting apparatus having such a configuration will be described.

オブジェクト抽出動作においては、図2に示すように、先ず、制御部105が画像表示部103に画像を表示させる(ステップS1)。このステップS1においては、制御部105はユーザの操作部104の操作に応じて画像データを画像蓄積手段102から読み出してその画像データを画像表示部103に供給する。ユーザの操作部104の操作に応じて制御部105は画像入力手段101に入力された画像データを画像表示部103に供給しても良い。画像表示部103は供給された画像データに応じて画像を表示する。ここで表示される画像がオブジェクト抽出の対象画像であり、対象画像は図3に示された如き画像であるとして説明する。   In the object extraction operation, as shown in FIG. 2, first, the control unit 105 causes the image display unit 103 to display an image (step S1). In step S <b> 1, the control unit 105 reads out image data from the image storage unit 102 and supplies the image data to the image display unit 103 in accordance with the operation of the operation unit 104 by the user. The control unit 105 may supply the image data input to the image input unit 101 to the image display unit 103 in accordance with a user operation on the operation unit 104. The image display unit 103 displays an image according to the supplied image data. In the following description, it is assumed that the displayed image is a target image for object extraction, and the target image is an image as shown in FIG.

ステップS1の実行後、ユーザは画像表示部103に表示された対象画像を見ながら、抽出したいオブジェクト領域を操作部104の操作により指定する。指定方法としては、オブジェクトを大まかに囲むような線を描く方法がとられる。この線を「オブジェクト指定線」と呼ぶことにする。オブジェクト指定線の内部に抽出したいオブジェクトが完全に包含されるのが望ましいが、オブジェクトが僅かにはみ出す程度でも問題は無い。オブジェクト指定線が閉曲線でない場合には、線の始点と終点とを結んで閉曲線にすることが行われる。制御部105は操作部104の操作より指定されたオブジェクト指定線を受け入れる(ステップS2)。図3の対象画像に対しては例えば、図4に示すようにオブジェクト指定線が形成される。   After executing step S <b> 1, the user designates an object area to be extracted by operating the operation unit 104 while viewing the target image displayed on the image display unit 103. As a specification method, a method of drawing a line roughly surrounding an object is used. This line is called an “object designation line”. It is desirable that the object to be extracted is completely included in the object designation line, but there is no problem even if the object slightly protrudes. If the object designation line is not a closed curve, the line start point and end point are connected to form a closed curve. The control unit 105 accepts the object designation line designated by the operation of the operation unit 104 (step S2). For example, an object designation line is formed on the target image in FIG. 3 as shown in FIG.

ステップS2の実行後、初期オブジェクト/背景領域決定部106は制御部105からデータとして供給されるオブジェクト指定線に基づいて初期オブジェクト領域を決定する(ステップS3)。具体的には初期オブジェクト領域はオブジェクト指定線で囲まれる内部領域である。   After execution of step S2, the initial object / background area determination unit 106 determines an initial object area based on the object designation line supplied as data from the control unit 105 (step S3). Specifically, the initial object area is an internal area surrounded by an object designation line.

初期オブジェクト/背景領域決定部106は続いて初期背景領域を決定する(ステップS4)。初期オブジェクト領域を拡大した領域から、初期オブジェクト領域を差し引いた領域を初期背景領域として決定する。すなわち、初期背景領域はオブジェクト領域を囲む領域である。初期オブジェクト領域をどのくらい拡大するかは特に限定されないが、初期オブジェクト領域の面積と初期背景領域の面積とがほぼ等しくなるようにすることが好ましい。例えば、図5に示すように初期オブジェクト領域に対しては初期背景領域が決定される。   Next, the initial object / background area determination unit 106 determines an initial background area (step S4). An area obtained by subtracting the initial object area from the area obtained by enlarging the initial object area is determined as the initial background area. That is, the initial background area is an area surrounding the object area. The amount of enlargement of the initial object area is not particularly limited, but it is preferable that the area of the initial object area and the area of the initial background area are substantially equal. For example, as shown in FIG. 5, the initial background area is determined for the initial object area.

初期オブジェクト/背景領域決定部106において初期オブジェクト領域及び初期背景領域が決定されると、支配色推定部107は画像データから初期オブジェクト領域及び初期背景領域の支配色を抽出する(ステップS5)。   When the initial object area and the initial background area are determined by the initial object / background area determination unit 106, the dominant color estimation unit 107 extracts the dominant colors of the initial object area and the initial background area from the image data (step S5).

初期オブジェクト領域の支配色とは、対象画像で初期オブジェクト領域に多く現れ、初期背景領域にはあまり現れない画素の色を指す。初期背景領域の支配色は、この反対となる。最も単純な支配色抽出方法としては、対象画像から初期オブジェクト領域及び初期背景領域各々の色ヒストグラムを生成し、色毎のビン数の大小をもとに支配色を求めれば良い。例えば、対象画像がRGB8bitのカラー画像データによる画像の場合に[R,G,B]=[[0,0,0]〜,[255,255,255]]からなる16,777,216色各々のビン数(画素数、ただし、RGBで1画素とする)が求められ、16,777,216色各々のビン数の大小に応じて支配色が求められる。   The dominant color of the initial object area refers to the color of a pixel that appears frequently in the initial object area in the target image but does not appear much in the initial background area. The dominant color of the initial background area is the opposite. As the simplest dominant color extraction method, color histograms of the initial object region and the initial background region are generated from the target image, and the dominant color may be obtained based on the number of bins for each color. For example, when the target image is an image of RGB 8-bit color image data, the number of bins (number of pixels, where [R, G, B] = [[0,0,0] to, [255,255,255]]) , RGB, one pixel) is obtained, and the dominant color is obtained according to the number of bins of each of 16,777,216 colors.

この支配色の抽出の際には、ビン数の単純比較ではなく、両者の割合が大きく異なる色のみを支配色としても良い。例えば、大きい方のビン数をCb、小さい方のビン数をCsとすると、Cb>Cs*Thを満足する色のみをCb側の支配色とすることができる。ここでThは1.0以上の実数値であり、例えば、Thを1.2のように設定することで、ビン数の差が僅かである色を除去し、より適切な支配色を求めることができる。なお、初期オブジェクト領域の面積と初期背景領域の面積とが互いに異なる場合には、ビン数をそれぞれの面積で割って正規化してから比較することが行われる。   When this dominant color is extracted, it is possible not to simply compare the number of bins, but to use only colors having a greatly different ratio as the dominant color. For example, if the larger number of bins is Cb and the smaller number of bins is Cs, only the color satisfying Cb> Cs * Th can be set as the dominant color on the Cb side. Here, Th is a real value equal to or greater than 1.0. For example, by setting Th to be 1.2, a color having a slight difference in the number of bins can be removed and a more appropriate dominant color can be obtained. When the area of the initial object area and the area of the initial background area are different from each other, the bin numbers are divided by the respective areas, normalized, and then compared.

支配色抽出方法は上記に限定されるものではなく、例えば、ビン数を比較した差が僅差の場合は支配色としない等の処理を加えても良い。また色だけでなく、輝度(主にモノクロ画像の場合)やテクスチャなど対象画像から得られる特徴に基づいて支配的なパラメータ(つまり支配輝度や支配テクスチャ)を抽出しても良い。支配的パラメータとしては画像の色、輝度及びテクスチャのうちの少なくとも1であれば良い。   The dominant color extraction method is not limited to the above. For example, when the difference in the number of bins is a small difference, processing such as not using the dominant color may be added. In addition to color, dominant parameters (that is, dominant luminance and dominant texture) may be extracted based on characteristics obtained from the target image such as luminance (mainly in the case of a monochrome image) and texture. The dominant parameter may be at least one of the color, brightness, and texture of the image.

支配色が抽出されると、オブジェクト特徴量抽出部108がその抽出された支配色に基づいてオブジェクト特徴量を抽出する(ステップS6)。最も単純なオブジェクト特徴量は、ステップS5で抽出された初期オブジェクト領域の支配色となる。例えば、対象画像がRGB8bitのカラー画像データによる画像の場合に、オブジェクト特徴量は[R,G,B]=[[0,0,0], [128,0,128], [64, 32,192], …]のようにRGBのデータ群で表されることになる。   When the dominant color is extracted, the object feature amount extraction unit 108 extracts the object feature amount based on the extracted dominant color (step S6). The simplest object feature amount is the dominant color of the initial object area extracted in step S5. For example, when the target image is an image using RGB 8-bit color image data, the object feature amount is [R, G, B] = [[0,0,0], [128,0,128], [64, 32,192],. ] Is represented by an RGB data group.

オブジェクト特徴量は上記に限定されるものではなく、サポートベクタマシン等の機械学習により、初期オブジェクト領域及び初期背景領域各々の支配色に応じて、オブジェクト及び背景の2クラス分類(クラスタリング)を行い、その結果に基づいてオブジェクト特徴量を抽出しても良い。   The object feature amount is not limited to the above, but by machine learning such as a support vector machine, according to the dominant color of each of the initial object region and the initial background region, the object and the background are classified into two classes (clustering), The object feature amount may be extracted based on the result.

オブジェクト特徴量が抽出されると、オブジェクト領域決定部109が最終的なオブジェクト領域を決定する(ステップS7)。具体的には、ステップS6で抽出されたオブジェクト特徴量を満たす画素が、図6に示すように、初期オブジェクト領域と初期背景領域とを合わせた領域(以降、「抽出領域」と呼ぶ)から抽出される。抽出された画素群そのものをオブジェクト領域として決定しても良いが、クロージング等のモルフォロジー処理による整形を施したものをオブジェクト領域としても良い。   When the object feature amount is extracted, the object region determination unit 109 determines a final object region (step S7). Specifically, pixels satisfying the object feature amount extracted in step S6 are extracted from a region (hereinafter referred to as “extraction region”) that combines the initial object region and the initial background region, as shown in FIG. Is done. The extracted pixel group itself may be determined as the object region, but an object region that has been shaped by morphological processing such as closing may be used as the object region.

ステップS7の実行後、図2には示していないが、制御部105がオブジェクト領域を受け取り、対象画像からオブジェクト領域を切り取った画像を画像表示部104に表示させ、オブジェクト領域データそのものを出力する。画像表示部104には例えば、図7に示すようにオブジェクト領域の画像が表示される。オブジェクト領域のデータ或いはそのオブジェクト領域部分の画像データの出力先は画像表示部104に限らず画像蓄積手段102へ出力しても良く、更にはインターネットを介した配信をしても良く、特に範囲を限定しない。   After execution of step S7, although not shown in FIG. 2, the control unit 105 receives the object area, displays an image obtained by cutting the object area from the target image on the image display unit 104, and outputs the object area data itself. For example, an image of the object area is displayed on the image display unit 104 as shown in FIG. The output destination of the object area data or the image data of the object area portion is not limited to the image display unit 104, and may be output to the image storage means 102, and may be distributed via the Internet. Not limited.

上記のステップS1〜S7の処理を行うことにより、対象画像に対してオブジェクト領域を抽出する際のユーザの操作負担を軽減しつつ、より精度の高いオブジェクト抽出を実現することができる。特に、第1の実施例ではオブジェクトを大まかに囲むように指定すれば良いだけなので、ユーザへの負担は小さくなる。特許文献2の一点指定に比べ、より直感的なオブジェクト指定が可能となる。また、初期オブジェクト領域及び初期背景領域各々の支配色に基づいてオブジェクト特徴量を決定するので、処理負荷が非常に軽くて済む。   By performing the processes in steps S1 to S7 described above, it is possible to realize more accurate object extraction while reducing the operation burden on the user when extracting an object region from the target image. In particular, in the first embodiment, it is only necessary to designate the object so as to roughly surround the object, so that the burden on the user is reduced. Compared with the single point designation in Patent Document 2, the object designation can be performed more intuitively. In addition, since the object feature amount is determined based on the dominant colors of the initial object area and the initial background area, the processing load can be very light.

なお、ステップS4の初期背景領域の決定においては、初期背景領域があまりに小さいと、ユーザによるオブジェクト指定線がオブジェクトの実際の範囲内を通っている場合に、初期背景領域内にオブジェクト色が含まれる割合が多くなってしまい、オブジェクト領域の抽出精度が悪くなる。逆に、画面全体のように初期背景領域があまりに大きくなると、オブジェクトから離れた箇所にオブジェクト色が含まれる場合において、やはりオブジェクト領域の抽出精度が悪くなる。更にパラメータ抽出領域が大きくなると、処理負荷も大きくなる。精度と処理負荷のバランスを考えても、初期オブジェクト領域と初期背景領域の面積がほぼ等しくなるようにすることがより好ましい。   In the determination of the initial background area in step S4, if the initial background area is too small, the object color is included in the initial background area when the object designation line by the user passes through the actual range of the object. The ratio increases, and the extraction accuracy of the object area deteriorates. On the other hand, if the initial background area becomes too large as in the entire screen, the object area extraction accuracy also deteriorates in the case where the object color is included at a location away from the object. Further, as the parameter extraction area increases, the processing load also increases. Even considering the balance between accuracy and processing load, it is more preferable that the areas of the initial object area and the initial background area are substantially equal.

上記した第1の実施例においては対象画像が静止画像であるとしてオブジェクト領域を抽出する場合について説明したが、対象画像を動画像の各フレームとしフレーム毎にオブジェクト領域を抽出するようにしても良い。   In the first embodiment described above, the object region is extracted assuming that the target image is a still image. However, the object region may be extracted for each frame using the target image as each frame of the moving image. .

次に、本発明の第2の実施例として動画像からオブジェクト領域を抽出する場合のオブジェクト抽出動作を説明する。   Next, an object extraction operation for extracting an object area from a moving image will be described as a second embodiment of the present invention.

図1のオブジェクト抽出装置においては少なくとも画像入力手段101、画像蓄積手段102、画像表示部103、及び制御部105が動画像を扱うための機能を有するとする。動画像を示す画像データが画像入力手段101から入力され、その画像データは制御部105を介して画像蓄積手段102又は画像表示部103に供給される。画像蓄積手段102は供給された動画像を示す画像データを蓄積し、画像表示部103は供給された動画像を示す画像データに応じて動画像を表示する。   In the object extraction apparatus of FIG. 1, it is assumed that at least the image input unit 101, the image storage unit 102, the image display unit 103, and the control unit 105 have a function for handling moving images. Image data indicating a moving image is input from the image input unit 101, and the image data is supplied to the image storage unit 102 or the image display unit 103 via the control unit 105. The image storage unit 102 stores image data indicating the supplied moving image, and the image display unit 103 displays the moving image in accordance with the image data indicating the supplied moving image.

オブジェクト抽出動作においては、図8に示すように、先ず、制御部105が画像表示部103に動画像の第1フレームを表示させ(ステップS11)、操作部104の操作より指定されたオブジェクト指定線を受け入れる(ステップS12)。ステップS12の実行後、初期オブジェクト/背景領域決定部106は制御部105からデータとして供給されるオブジェクト指定線に基づいて初期オブジェクト領域を決定し(ステップS13)、続いて初期背景領域を決定する(ステップS14)。ステップS14の実行後、支配色推定部107は画像データから初期オブジェクト領域及び初期背景領域の支配色を抽出し(ステップS15)、支配色が抽出されると、オブジェクト特徴量抽出部108がその抽出された支配色に基づいてオブジェクト特徴量を抽出する(ステップS16)。そして、オブジェクト領域決定部109が第1フレームの最終的なオブジェクト領域を決定する(ステップS17)。このステップS11〜S17の動作は対象画像が動画像の第1フレームになった以外については図2に示したステップS1〜S7の動作と同一である。   In the object extraction operation, as shown in FIG. 8, first, the control unit 105 causes the image display unit 103 to display the first frame of the moving image (step S11), and the object designation line designated by the operation of the operation unit 104. Is accepted (step S12). After execution of step S12, the initial object / background region determination unit 106 determines an initial object region based on the object designation line supplied as data from the control unit 105 (step S13), and then determines an initial background region (step S13). Step S14). After execution of step S14, the dominant color estimation unit 107 extracts the dominant color of the initial object region and the initial background region from the image data (step S15). When the dominant color is extracted, the object feature amount extraction unit 108 extracts the dominant color. An object feature amount is extracted based on the dominant color (step S16). Then, the object area determination unit 109 determines the final object area of the first frame (step S17). The operations in steps S11 to S17 are the same as those in steps S1 to S7 shown in FIG. 2 except that the target image is the first frame of the moving image.

ステップS17の実行終了時点では、第1フレームのオブジェクト領域が抽出されているので、これに基づいて第2フレーム以降のフレームのオブジェクト領域を抽出することが行われる。   At the end of the execution of step S17, the object area of the first frame has been extracted. Based on this, the object areas of the second and subsequent frames are extracted.

先ず、制御部105はフレーム番号kを2に等しくさせ(ステップS18)、第(k−1)フレームのオブジェクト領域を拡張させる(ステップS19)。すなわち、前フレーム(k=2の場合には第1フレーム)のオブジェクト領域を中心とした拡張領域が設定される。拡張領域の大きさは、隣接フレーム(第(k−1)フレーム及び第kフレーム)間でオブジェクトが動く範囲をカバーできれば十分である。   First, the control unit 105 makes the frame number k equal to 2 (step S18), and expands the object area of the (k−1) th frame (step S19). That is, an extended area centered on the object area of the previous frame (first frame when k = 2) is set. The size of the extension region is sufficient if it can cover the range in which the object moves between adjacent frames ((k-1) th frame and kth frame).

次に、オブジェクト領域決定部109が第kフレーム(現フレーム)に対して、ステップS19で設定された拡張範囲内からステップS16で抽出したオブジェクト特徴量に応じてオブジェクト領域を抽出する(ステップS20)。このステップS20の処理は、オブジェクト拡張領域をステップS7における「抽出範囲」(図6参照)と見なしてオブジェクト領域を抽出する処理と全く同等のものである。よって、このオブジェクト拡張領域を「次フレーム抽出範囲」と呼ぶ。   Next, the object area determination unit 109 extracts an object area for the k-th frame (current frame) according to the object feature amount extracted in step S16 from the extension range set in step S19 (step S20). . The process of step S20 is completely equivalent to the process of extracting the object area by regarding the object extension area as the “extraction range” (see FIG. 6) in step S7. Therefore, this object extension area is called a “next frame extraction range”.

ステップS20の実行後、制御部105は動画像の全フレームについてのオブジェクト領域の抽出が終了したか否かを判別する(ステップS21)。次のフレームが存在するならば、フレーム番号kを1つ増加させ(ステップS22)、ステップS19及びS20が同様に実行されてオブジェクト領域が抽出される。全フレームについてのオブジェクト領域の抽出が終了したならばオブジェクト抽出動作が終了される。   After execution of step S20, the control unit 105 determines whether or not the extraction of the object area for all the frames of the moving image has been completed (step S21). If there is a next frame, the frame number k is incremented by 1 (step S22), and steps S19 and S20 are similarly executed to extract the object region. When the extraction of object areas for all frames is completed, the object extraction operation is terminated.

例えば、動画像が図9(a)に示すように第1フレーム〜第3フレームで変化するものであるとき、それらに対するオブジェクト抽出結果は図9(b)に示すようになる。先ず、第1フレームの画像からユーザが指定したオブジェクト、すなわち球状の物体を囲むようにオブジェクト指定線を描くことが行われる。このオブジェクト指定線から初期オブジェクト領域及び初期背景領域が設定され、ステップS11〜S16の実行によりオブジェクト特徴量が得られる。ここでオブジェクト特徴量を満たす画素群領域が第1フレームでのオブジェクト領域とされる。このオブジェクト領域を中心として拡張したオブジェクト拡張領域が次フレーム抽出範囲として設定される。次に、第2フレームの画像においてこの次フレーム抽出範囲内でオブジェクト領域が抽出され、以降の第3フレーム,第4フレーム,…についても第2フレームに対する処理と同様の処理が行われ、オブジェクト領域が各々抽出される。   For example, when the moving image changes from the first frame to the third frame as shown in FIG. 9A, the object extraction result for them changes as shown in FIG. 9B. First, an object designation line is drawn so as to surround an object designated by the user, that is, a spherical object, from the image of the first frame. An initial object area and an initial background area are set from the object designation line, and an object feature amount is obtained by executing steps S11 to S16. Here, the pixel group region that satisfies the object feature amount is set as the object region in the first frame. An object extension area expanded around this object area is set as the next frame extraction range. Next, in the second frame image, an object region is extracted within the next frame extraction range, and the same processing as that for the second frame is performed for the subsequent third frame, fourth frame,. Are extracted.

このように、動画像からオブジェクト領域を抽出するオブジェクト抽出動作においては、静止画像の場合と同様にユーザが1フレームずつオブジェクト指定線を指定する手法では、ユーザへの負担が大きくなってしまうので、それに対処した抽出動作が実行されている。一般的な動画像では、隣接フレーム間ではオブジェクトが移動する範囲が狭く、また、隣接フレーム間では背景及びオブジェクトの色変化が少ないとう特徴があるため、上記した第2の実施例のオブジェクト抽出動作ではこれらの特徴が利用されている。よって、第1フレームだけユーザによるオブジェクト指定線の指定操作を行えば、第2フレーム以降のオブジェクト指定線の指定操作を行わずに済むので、ユーザへの負担を静止画像からオブジェクト領域を抽出する際の負担程度に軽減しつつ、動画像からオブジェクトを確実に抽出することができる。   As described above, in the object extraction operation for extracting the object region from the moving image, the method in which the user designates the object designation line frame by frame as in the case of the still image increases the burden on the user. An extraction operation is performed to deal with it. The general moving image has a feature that the range in which an object moves between adjacent frames is narrow, and the color change of the background and the object is small between adjacent frames. Therefore, the object extraction operation of the second embodiment described above So these features are used. Therefore, if the user performs an object designation line designation operation for the first frame only, it is not necessary to perform an object designation line designation operation for the second and subsequent frames. Therefore, when extracting an object region from a still image, the burden on the user is reduced. It is possible to reliably extract an object from a moving image while reducing the burden of the above.

上記のステップS7又はS17のオブジェクト特徴量(オブジェクト支配色)に基づいてオブジェクト領域を抽出する際、初期オブジェクト領域と比較することで、より抽出精度の向上が期待できる。例えば、図10(a)に示すように、対象画像についてオブジェクト指定線が指定され(図4と同一である)、図10(b)に示すように、図中の黒で示された箇所が、上記した第1の実施例で抽出されたオブジェクト領域であると仮定する。このオブジェクト領域を画素連結成分毎に分類し、a〜dまでラベル付けを行ってパーツa〜パーツdとする。画素連結成分はオブジェクト領域において1つのパーツと見なすことができる集合部分である。ここでパーツ毎に、初期オブジェクト領域にパーツ面積の何%が含まれるかを算出し、それが閾値より小さい場合は、そのパーツをオブジェクト領域から削除するようにする。閾値を例えば、50%として設定した場合には、図10(b)の例ではパーツbが50%より小さいので、パーツbは図10(c)に示すようにオブジェクト領域から削除されることになる。このとき残ったパーツa,c,dに基づいてオブジェクト特徴量(オブジェクト支配色)を再学習しても良い。このように抽出されたオブジェクト領域のパーツが、初期オブジェクト領域に含まれる割合を算出し、その値が小さいパーツを削除することにより、オブジェクト領域抽出の精度をより向上させることができる。   When extracting an object region based on the object feature amount (object dominant color) in step S7 or S17, the extraction accuracy can be further improved by comparing with the initial object region. For example, as shown in FIG. 10A, an object designation line is designated for the target image (same as in FIG. 4), and as shown in FIG. Assume that the object region is extracted in the first embodiment. This object area is classified for each pixel connected component, and labels are assigned from a to d to become parts a to d. The pixel connected component is a collective part that can be regarded as one part in the object region. Here, for each part, what percentage of the part area is included in the initial object area is calculated, and if it is smaller than the threshold, the part is deleted from the object area. For example, when the threshold value is set as 50%, the part b is smaller than 50% in the example of FIG. 10B, so the part b is deleted from the object area as shown in FIG. 10C. Become. At this time, the object feature amount (object dominant color) may be relearned based on the remaining parts a, c, and d. The accuracy of the object area extraction can be further improved by calculating the ratio of the parts of the object area extracted in this way to be included in the initial object area and deleting the parts having a small value.

なお、図1の装置中の制御部105及びオブジェクト抽出部110をコンピュータによって構成し、メモリに記憶されたプログラムに従ってコンピュータが上記したオブジェクト抽出動作を実行するようにしても良いことは勿論である。   Of course, the control unit 105 and the object extraction unit 110 in the apparatus of FIG. 1 may be configured by a computer, and the computer may execute the above-described object extraction operation according to a program stored in the memory.

本発明はパソコン用の画像編集ソフト等のアプリケーションソフト、及びDVDレコーダ、カメラ、TV電話等の機器に適用することができる。   The present invention can be applied to application software such as image editing software for personal computers, and devices such as DVD recorders, cameras, and videophones.

101 画像入力手段
102 画像蓄積手段
103 画像表示部
104 操作部
105 制御部
106 初期オブジェクト/背景領域決定部
107 支配色推定部
108 オブジェクト特徴量抽出部
109 オブジェクト領域決定部
110 オブジェクト抽出部
DESCRIPTION OF SYMBOLS 101 Image input means 102 Image storage means 103 Image display part 104 Operation part 105 Control part 106 Initial object / background area determination part 107 Dominant color estimation part 108 Object feature-value extraction part 109 Object area determination part 110 Object extraction part

Claims (10)

画像中のオブジェクト領域を抽出するオブジェクト抽出装置であって、
操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定手段と、
前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定手段と、
前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定手段と、
前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出する支配的パラメータ抽出手段と、
前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出手段と、
前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出手段と、を備えることを特徴とするオブジェクト抽出装置。
An object extraction device for extracting an object region in an image,
Object designation line setting means for setting an object designation line consisting of a closed curve in the image according to an operation;
First area setting means for setting an inner area of the object designation line as a first area;
A second area setting means for setting, as a second area, an area obtained by subtracting the first area from an enlarged area including the first area;
Dominant parameter extracting means for extracting dominant parameters in the first region and the second region of the image;
Feature quantity extraction means for extracting an object feature quantity based on the dominant parameter;
An object extraction apparatus comprising: an area extraction unit that extracts the object area in the image based on the object feature amount.
前記第1領域の面積と前記第2領域の面積とはほぼ等しいことを特徴とする請求項1記載のオブジェクト抽出装置。   The object extraction apparatus according to claim 1, wherein an area of the first region is substantially equal to an area of the second region. 前記第2領域は前記画像の前記第1領域の近傍の部分であることを特徴とする請求項1記載のオブジェクト抽出装置。   The object extracting apparatus according to claim 1, wherein the second area is a portion in the vicinity of the first area of the image. 前記支配的パラメータは、前記画像の色、輝度及びテクスチャのうちの少なくとも1であることを特徴とする請求項1記載のオブジェクト抽出装置。   The object extracting apparatus according to claim 1, wherein the dominant parameter is at least one of color, luminance, and texture of the image. 前記特徴量抽出手段は、前記第1領域における前記支配的パラメータを前記オブジェクト特徴量とすることを特徴とする請求項1記載のオブジェクト抽出装置。   The object extracting apparatus according to claim 1, wherein the feature amount extraction unit uses the dominant parameter in the first region as the object feature amount. 前記特徴量抽出手段は、前記第1領域及び第2領域における前記支配的パラメータに基づいてサポートベクタマシンを含む機械による学習結果によって前記オブジェクト特徴量を抽出することを特徴とする請求項1記載のオブジェクト抽出装置。   The feature amount extraction unit extracts the object feature amount based on a learning result by a machine including a support vector machine based on the dominant parameter in the first region and the second region. Object extraction device. 前記領域抽出手段は、抽出した前記オブジェクト領域の集合部分毎にパーツとし、パーツが第1領域内に占める割合に基づいてそのパーツを前記オブジェクト領域に含むか否かを判別する手段を有することを特徴とする請求項1記載のオブジェクト抽出装置。   The area extraction means has a means for determining whether or not to include the part in the object area based on the ratio of the part in the first area as a part for each set part of the extracted object area. The object extracting device according to claim 1, wherein 前記画像は動画像であり、
前記オブジェクト指定線設定手段、前記第1領域設定手段、前記第2領域設定手段、前記支配的パラメータ抽出手段、前記特徴量抽出手段、及び前記領域抽出手段は前記動画像の第1フレームの画像について動作し、
前記領域抽出手段は前記動画像の第2フレーム以降のフレームの画像については前フレームの画像の前記オブジェクト領域を拡大した領域内において前記オブジェクト特徴量に基づいて現フレームの画像中の前記オブジェクト領域を抽出することを特徴とする請求項1記載のオブジェクト抽出装置。
The image is a moving image;
The object designation line setting means, the first area setting means, the second area setting means, the dominant parameter extraction means, the feature amount extraction means, and the area extraction means are for the first frame image of the moving image. Work,
The region extracting means extracts the object region in the image of the current frame based on the object feature amount in a region obtained by enlarging the object region of the image of the previous frame for the image of the second and subsequent frames of the moving image. The object extracting apparatus according to claim 1, wherein the object extracting apparatus extracts the object.
画像中のオブジェクト領域を抽出するオブジェクト抽出方法であって、
操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、
前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、
前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、
前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、
前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、
前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を備えることを特徴とするオブジェクト抽出方法。
An object extraction method for extracting an object region in an image,
An object designation line setting step for setting an object designation line consisting of a closed curve in the image according to an operation;
A first area setting step of setting an internal area of the object designation line as a first area;
A second area setting step of setting an area obtained by subtracting the first area from an enlarged area including the first area as a second area;
Extracting dominant parameters in the first region and the second region of the image;
A feature amount extracting step of extracting an object feature amount based on the dominant parameter;
A region extracting step of extracting the object region in the image on the basis of the object feature amount.
画像中のオブジェクト領域を抽出するためのプログラムであって、コンピュータに、
操作に応じて前記画像中に閉曲線からなるオブジェクト指定線を設定するオブジェクト指定線設定ステップと、
前記オブジェクト指定線の内部領域を第1領域として設定する第1領域設定ステップと、
前記第1領域を内部に含む拡大領域から前記第1領域を差し引いた領域を第2領域として設定する第2領域設定ステップと、
前記画像の前記第1領域及び前記第2領域における支配的パラメータを抽出するステップと、
前記支配的パラメータに基づいてオブジェクト特徴量を抽出する特徴量抽出ステップと、
前記オブジェクト特徴量に基づいて前記画像中の前記オブジェクト領域を抽出する領域抽出ステップと、を実行させることを特徴とするプログラム。
A program for extracting an object area in an image.
An object designation line setting step for setting an object designation line consisting of a closed curve in the image according to an operation;
A first area setting step of setting an internal area of the object designation line as a first area;
A second area setting step of setting an area obtained by subtracting the first area from an enlarged area including the first area as a second area;
Extracting dominant parameters in the first region and the second region of the image;
A feature amount extracting step of extracting an object feature amount based on the dominant parameter;
A region extraction step of extracting the object region in the image based on the object feature amount.
JP2009067843A 2009-03-19 2009-03-19 Object extraction device and method Pending JP2010224592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009067843A JP2010224592A (en) 2009-03-19 2009-03-19 Object extraction device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009067843A JP2010224592A (en) 2009-03-19 2009-03-19 Object extraction device and method

Publications (1)

Publication Number Publication Date
JP2010224592A true JP2010224592A (en) 2010-10-07

Family

ID=43041755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009067843A Pending JP2010224592A (en) 2009-03-19 2009-03-19 Object extraction device and method

Country Status (1)

Country Link
JP (1) JP2010224592A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009210A (en) * 2014-06-20 2016-01-18 株式会社リコー Data generation device, data generation method, and data generation program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128257A (en) * 1991-11-08 1993-05-25 Matsushita Electric Ind Co Ltd Picture area extracting device
JPH08101893A (en) * 1994-09-30 1996-04-16 Omron Corp Model image data registering device for image processor
JP2006102125A (en) * 2004-10-05 2006-04-20 Toshiba Corp Method for identifying region of interest with time in medical image processing apparatus and medical image processing apparatus
JP2008243226A (en) * 2008-05-29 2008-10-09 Toshiba Corp Object image extraction method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128257A (en) * 1991-11-08 1993-05-25 Matsushita Electric Ind Co Ltd Picture area extracting device
JPH08101893A (en) * 1994-09-30 1996-04-16 Omron Corp Model image data registering device for image processor
JP2006102125A (en) * 2004-10-05 2006-04-20 Toshiba Corp Method for identifying region of interest with time in medical image processing apparatus and medical image processing apparatus
JP2008243226A (en) * 2008-05-29 2008-10-09 Toshiba Corp Object image extraction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009210A (en) * 2014-06-20 2016-01-18 株式会社リコー Data generation device, data generation method, and data generation program

Similar Documents

Publication Publication Date Title
US9959649B2 (en) Image compositing device and image compositing method
US9491366B2 (en) Electronic device and image composition method thereof
US10019823B2 (en) Combined composition and change-based models for image cropping
JP5713790B2 (en) Image processing apparatus, image processing method, and program
JP4799104B2 (en) Information processing apparatus and control method therefor, computer program, and storage medium
JP6089886B2 (en) Region dividing method and inspection apparatus
JP4782105B2 (en) Image processing apparatus and image processing method
JP2007087346A (en) Information processing device, control method therefor, computer program, and memory medium
US9792695B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
WO2009147840A1 (en) Image retrieval device and image retrieval computer program applied to the image retrieval device
US8818096B2 (en) Apparatus and method for detecting subject from image
CN110738598A (en) Image adaptation method, electronic device and storage medium
JP5719141B2 (en) Information processing apparatus, processing method thereof, and program
JP6241320B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP6171651B2 (en) Image processing program and image processing apparatus
JP2013502147A (en) System and method for artifact reduction based on region of interest of image sequence
JP2006217045A (en) Index image generator and generation program
US20180089529A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN110135929B (en) System, method and storage medium for implementing virtual makeup application
JP2010224592A (en) Object extraction device and method
US11132762B2 (en) Content aware image fitting
JP2012133459A (en) Apparatus, method and program for estimating image, and computer-readable recording medium storing the program
JP2005250973A (en) Image similarity calculation system, image retrieving system, image similarity calculating method and program
JP2011090431A (en) Image processor, printing system, image processing method, and program
JP5761386B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312