JP3809210B2 - Image extraction device - Google Patents

Image extraction device Download PDF

Info

Publication number
JP3809210B2
JP3809210B2 JP34388895A JP34388895A JP3809210B2 JP 3809210 B2 JP3809210 B2 JP 3809210B2 JP 34388895 A JP34388895 A JP 34388895A JP 34388895 A JP34388895 A JP 34388895A JP 3809210 B2 JP3809210 B2 JP 3809210B2
Authority
JP
Grant status
Grant
Patent type
Prior art keywords
contour
image
region
initial
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34388895A
Other languages
Japanese (ja)
Other versions
JPH09185719A (en )
Inventor
優和 真継
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Description

【0001】 [0001]
【発明の属する技術分野】 BACKGROUND OF THE INVENTION
本発明は、任意の背景から特定対象画像の抽出または外形輪郭線の抽出を行うための画像抽出装置関する。 The present invention relates to an image extracting apparatus for extracting or the extraction of the contour of the specific object image from an arbitrary background.
【0002】 [0002]
【従来の技術】 BACKGROUND OF THE INVENTION
従来、画像からの対象物の外輪郭線を抽出する技術の一つにいわゆる動的輪郭法(M.Kass et al., “Snakes: Active Contour Models," International Journal of Computer Vision, vol. 1, pp. 321-331, 1978) が知られる。 Conventionally, a so-called active contour method One technique for extracting an outer contour line of the object from the image (M.Kass et al,.. "Snakes: Active Contour Models," International Journal of Computer Vision, vol 1, pp. 321-331, 1978) is known. この手法においては、一例として対象物を包囲するように適切に設定された初期輪郭が移動、変形して最終的に対象物の外形に収束する。 In this approach, properly set initial contour so as to surround the object to converge to the outer shape of the movement, and finally the object is deformed as an example. この動的輪郭法には次のような処理が行われる。 The following processing is carried out in the active contour method. 即ち、各点の座標を記述するためのパラメータsを用いて表される輪郭線v(s)=(x(s),y(s))に対し、評価関数【0003】 In other words, the contour line v expressed using the parameter s for describing the coordinates of each point (s) = relative (x (s), y (s)), the evaluation function [0003]
【数1】 [Number 1]
【0004】 [0004]
を最小にする輪郭線形状v(s)を求める。 The Request contour shape v that minimizes (s). ここに【0005】 Here [0005]
【数2】 [Number 2]
【0006】 [0006]
I{v(s)}はv(s)上の輝度レベルを表し、α(s)、β(s)、w 0はユーザが適宜定める。 I {v (s)} represents the luminance level on v (s), α (s ), β (s), w 0 is user determined appropriately. このように輪郭線に関して定めた上記の評価関数の最小化により対象の輪郭線を求める手法(動的輪郭法)において、初期輪郭の自動設定法としては、特開平6−251148号公報、特開平6−282652号公報に記載されたものがある。 In this way method of obtaining the target contour by minimizing the evaluation function defined with respect to the contour line (active contour method), the automatic setting method of initial contour, JP-A 6-251148, JP-A No. it is disclosed in 6-282652 JP. また輪郭収束過程の安定化法としては、特開平5−12443号公報、特開平6−138137号公報、特開平6−282649号公報に記載されたものなどがある。 As the method of stabilizing contour convergence process, there is such as described JP-A-5-12443, JP-A No. 6-138137 and JP Hei 6-282649. また輝度レベル以外の情報を用いた動的輪郭法以外の方法としては、色相画像の局部分散値に基づくエッジ抽出法(特開平5−181969号公報)などがある。 As a method other than the active contour method using information other than brightness levels, the edge extraction method based on local variance of the hue image (JP-A-5-181969 discloses), and the like.
【0007】 [0007]
【発明が解決しようとする課題】 [Problems that the Invention is to Solve
しかしながら上述した動的輪郭法においては、評価関数の画像に依存する項(例えば、上式中のE 0 )が輝度レベルのみに依存するために、背景画像と対象画像の輝度レベルが接近している領域では、収束後の輪郭形状は背景画像に影響されて本来の形状からずれてしまう。 In however active contour method described above, term depending on the image of the evaluation function (e.g., E 0 in the above formula) in order to rely only on the luminance level, approaching the luminance level of the background image and the target image in are region contour shape after convergence deviates from the original shape being influenced by the background image. 従って、輪郭抽出結果が対象自身の影や照明条件などにも影響を受け易く、また任意の背景に適用することが困難であった。 Therefore, the contour extraction result tends affected the like shadows and lighting conditions of the subject itself, also it is difficult to apply to a certain background. 特に輪郭内に存在する複雑なテクスチャパターンと背景中のテクスチャとの識別は輝度レベルの2段偏微分(E 0 )では一般的に不可能であり、結果的に任意背景中の対象物画像の輪郭への安定収束は困難を極めるものであった。 Specifically identified with texture in the complex texture pattern and background present in the contour is generally not possible with 2 Danhen differential luminance level (E 0), resulting in the object image in an arbitrary background stable convergence to the contour were those extremely difficult. また上記特開平5−181969号公報によるエッジ抽出方法は、ノイズの影響を本質的に避け難く、またエッジ検出分解能が分割された局所領域のサイズによって決まるという問題点があった。 The edge extraction process according to the JP-A 5-181969 Patent Publication, it is difficult essentially avoid the influence of noise, also there is a problem that depends on the size of the local region where the edge detection resolution is divided.
【0008】 [0008]
そこで、本発明の第1の目的は、画像中の色情報を使って動的輪郭の対象上への収束精度を向上し、かつ収束結果が輝度レベルの変動または背景画像の輝度分布の影響を受け難くすることである。 Accordingly, a first object of the present invention uses the color information in an image to improve the convergence precision onto the target active contour, and convergence result is the effect of the intensity distribution variations or background image brightness level it is possible to make it difficult received. さらに、モデル画像を用いた初期輪郭の自動設定を可能とすることである。 Furthermore, it is possible to enable automatic setting of the initial contour with model image.
本発明の第2の目的は、画像中の色成分を評価関数に組み込むことにより、輝度レベルの変動要因の影響を抑制することである。 A second object of the present invention, by incorporating the color components in the image in the evaluation function, and to suppress the influence of variation factors of luminance levels.
本発明の第3の目的は、色成分を含むモデル輪郭線画像データを与える自動輪郭線抽出を可能にすることである。 A third object of the present invention is to enable automatic contour extraction to give a model contour image data including the color components.
【0009】 [0009]
本発明の第4の目的は、動的輪郭領域法において、色成分情報と輝度レベル情報との分離により輪郭収束精度と速度の向上を可能にすることである。 A fourth object of the present invention, in the dynamic contour area method, is to enable the improvement of the contour convergence precision and speed by separation of the color component information and the luminance level information.
本発明の第5の目的は、色成分を用いた動的輪郭領域法において、輝度レベルの変動、陰影の影響を受け難くすることである。 A fifth object of the present invention, in the dynamic contour area method using a color component, the variation of the luminance level is to hardly affected by shadows.
本発明の第6の目的は、モデル輪郭線上のサンプリング点位置を予め適切に設定(形状の急峻度に応じて間隔を粗密化するなど)可能とし、収束精度、収束速度の向上を実現することである。 A sixth object of the present invention, (such as density of the intervals in accordance with the steepness of the shape) of the sampling point of the model contour advance properly settable and then, convergence accuracy, to realize an improvement in convergence speed it is.
本発明の第7の目的は、少ない演算量で第1の目的を達成することである。 A seventh object of the present invention is to achieve the first object with a small amount of calculation.
【0010】 [0010]
【課題を解決するための手段】 In order to solve the problems]
本発明に係る画像抽出装置は、例えば、 入力された検査画像上に初期の輪郭領域を設定する設定手段と、色成分をパラメータとする項を含む第1の評価関数の算出結果が所定の収束条件を満たすまで上記輪郭領域の更新を行う第1の更新処理と、上記第1の更新処理によって得られた結果と、輝度成分をパラメータとする項を含む第2の評価関数とを用いて上記第2の評価関数の算出結果が所定の収束条件を満たすまで上記輪郭領域の更新を行う第2の更新処理とを行う更新手段とを有することを特徴とする。 Image extracting apparatus according to the present invention, for example, setting means for setting an initial contour region on the input test image, the calculation result of the first evaluation function including a term of the color component and the parameter is a predetermined convergence above using the first updating process for updating the contour area until the condition, the results obtained by the first updating process and a second evaluation function including a term of the luminance component as a parameter the calculation result of the second evaluation function is characterized by having a updating means for performing a second update process for updating the contour region until a predetermined convergence condition is satisfied.
【0018】 [0018]
【発明の実施の形態】 DETAILED DESCRIPTION OF THE INVENTION
図1は第1の実施の形態による要部構成図である。 Figure 1 is a block diagram illustrating the principal components of the first embodiment. 1は検査画像を入力する画像入力部であり、例えば撮像装置が用いられる。 1 is an image input unit for inputting a test image, for example, imaging apparatus is used. 2は標準画像を格納する画像データベース、3は初期輪郭領域抽出部、4は初期輪郭領域を検査画像領域上に設定する初期輪郭領域設定部、5は輪郭近傍領域更新部であり、後述する評価関数に基づいて輪郭上の節点位置を更新し、かつ隣接する領域上の各点の位置も節点位置に基づいて更新する。 2 image database for storing the standard image, 3 an initial contour region extraction unit, 4 initial contour area setting unit for setting an initial contour region in the inspection image area, 5 is the contour region near updating unit, evaluation described later update the nodal position on the contour based on a function, and the position of each point of the adjacent regions also updated based on the nodal position. 6は輪郭内画像を出力する輪郭内領域画像出力部であり、背景から分離された被写体画像が出力される。 6 is a contour area image output unit for outputting a contour in the image, is output subject image separated from the background. また7は画像入力部1からの画像を一時的に保持するための画像記憶部、8は輪郭線抽出対象用の標準画像選択および初期輪郭領域抽出および初期輪郭領域の検査画像上での設定用パラメータ設定などを行うためのデータ入力用の端末を示す。 The 7 image storage unit for image temporarily holds from the image input unit 1, 8 for setting on the inspection image of the standard image selection and initial contour region extraction and initial contour region for contour extraction target It shows the terminal for data input for performing like parameter settings.
【0019】 [0019]
初期輪郭領域抽出部3は、画像データベース2などの記憶された特定対象物の標準カラー画像から本実施の形態における動的輪郭領域処理に必要な初期画像データを抽出するためのものである。 Initial contour region extraction unit 3 is intended for extracting the initial image data required from the standard color images stored in the specific object in the active contour area processing in the present embodiment, such as the image database 2. 外輪郭線抽出部31は、標準画像データ(無地の背景の特定被写体画像)からその対象の最も外側の外輪郭線(シルエット画像の輪郭線に相当)を抽出する。 Outer contour extraction unit 31 extracts the standard image data outermost outer contour line of the target from (specified subject image plain background) (corresponding to a contour of the silhouette images). 外輪郭線内近傍領域抽出部32は、上記外輪郭線に内接する対象物の近傍領域画像を抽出するもので、抽出した領域に輪郭線内の対象画像のテクスチャ情報または色成分情報を表すのに最小限必要な画像データを含んでいればよい。 Outer contour in the vicinity region extraction unit 32, represent an area near the image extracts a texture information or color component information of the target image in the contour of the extracted area of ​​the object to be inscribed in the outer contour line It needs to include the minimum necessary image data. 典型的には、外輪郭線上の各点から内向き法線方向に所定幅(例えば、10数画素程度または対象画像サイズの1割程度)で対象画像の部分領域の抽出を行う。 Typically, a predetermined width inwardly normal direction from each point of the outer contour (e.g., 10 about 10% of several pixels about or target image size) to extract a partial region of the target image at. 近傍領域の幅は画像上の点に応じて適宜可変としてもよい。 The width of the neighboring region may be appropriately changed in accordance with the points on the image. 輪郭近傍領域データ記憶部33は抽出された領域の画像データ(輝度、色差など)および領域内各点の座標データを記憶する。 Contour neighborhood area data storage unit 33 stores the coordinate data of the image data (luminance, color difference) and area each point of the extracted region. 尚、この輪郭近傍領域データは予め画像データベース2中に作成、保存しておいてもよい。 Incidentally, the contour area near data prepared in advance in the image database 2, may be stored.
【0020】 [0020]
初期輪郭領域設定部4は、抽出された初期輪郭領域を適切なサイズにスケーリングし、かつ検査画像上の適切な位置に設定するためのものである。 Initial contour region setting unit 4, the extracted initial contour regions scaled to the appropriate size, and is used for setting the appropriate position on the test image. この際、サイズは対応する対象画像のサイズより若干大きめに設定し、中心位置は対象画像領域の重心または真の輪郭線と初期輪郭上の各点との距離の和が概ね最小となるように設定することが望ましい。 In this case, size is set larger slightly than the size of the corresponding object image, the center position is such that the sum of the distance between each point on the center of gravity or true contour line and initial contour of the target image area is substantially minimized setting it is desirable to. 但し中心位置、サイズともに設定誤差が実際の対象画像サイズの1割程度のオーダであれば問題なく、特に精密な設定を要するものではない。 However the center position, with no problem if the order of about 10% of the actual target image size setting error in size both not particularly require precise settings.
【0021】 [0021]
図2(a)に入力画像(運動靴)を示し、図2(b)に標準画像から抽出した輪郭線とその近傍領域とを含む標準輪郭領域を示す。 Figure 2 shows the (a) input image (sports shoes), shows a standard contour region including the contour line extracted from the standard image in FIG. 2 (b) and its neighboring region. また図2(c)に上記入力画像と設定された初期輪郭領域の位置・サイズとの関係を示す。 Further illustrating the relationship between the position and size of the initial contour region set as the input image in Figure 2 (c). 同図(b)の標準輪郭領域の輝度分布は入力画像の抽出対象に近くなるように予め設定されていることはいうまでもない。 The luminance distribution of the standard contour region of FIG. (B) is set in advance to be close to the extraction target in the input image course. 但し同図(b)に示す程度に詳細なテクスチャ構造を必ずしも標準輪郭領域に含まなくてもよく、解像度を落とした分布を用いてもよい。 However it may not include necessarily standard contour region detailed texture structure to the extent shown in FIG. (B), may be used distribution reduced resolution.
【0022】 [0022]
輪郭近傍領域更新部5は、輪郭線を含む輪郭領域の各点座標値を更新するもので、輪郭領域内の輝度レベルデータは、基本的には標準画像データから抽出された初期輪郭領域の画像データであり、不変であることに注意されたい。 Contour neighborhood region updating unit 5 is intended to update each point coordinate values ​​of the contour region including the contour line, the luminance level data of the contour region, the image of the initial contour region extracted from the standard image data is basically is the data, it should be noted that it is immutable.
【0023】 [0023]
図3に輪郭近傍領域更新部5における処理フローを示す。 Figure 3 shows a process flow in the edge vicinity region updating unit 5.
輪郭領域内の点の座標の更新は、算出部51、更新部52、53により以下のようにして行う。 Coordinate update points of the contour region is performed as follows by the calculation unit 51, update unit 52, 53. まず評価関数の重み係数を初期設定し(S31)、従来の動的輪郭法に従って輪郭線上の各サンプリング点をその近傍画素(通常8画素近傍)に移動する(S32)。 First the weighting coefficients of the evaluation function is initialized (S31), to move each sampling point on the outline to the neighboring pixels (typically 8 pixels near) according to conventional active contour method (S32). 輪郭近傍領域内の点については、最近傍輪郭点の更新位置に応じた座標変換によって更新位置を決める。 The points of the contour neighboring region determines the update position by the coordinate conversion corresponding to the update position of the closest contour point. 例えば、輪郭線全体の重心位置をOとすると、領域内各点に対して最も近い輪郭線上の点と重心Oとの距離に応じて更新位置の座標を重心からの相対座標として縮尺して決めればよい。 For example, when the center of gravity of the entire contour and O, are determined to scale the coordinates of the update position in accordance with the distance between the point and the center of gravity O of the nearest contour for each point within the region as relative coordinates from the center of gravity Bayoi. 次に、次式(4)で与えられる評価関数の算出(S34)、最小値を与える更新位置の選択(S35)、更新前後の輪郭線上の点の位置の平均的な変化量などに基づく収束度の評価(収束判定、S36)を行い、収束条件を満たさない場合にはさらに移動変形処理(S32以下の処理)を行う。 Next, the calculation of the evaluation function given by the following equation (4) (S34), the selection of update position giving the minimum value (S35), based on such an average change amount of the position of a point before and after updating the contour convergence evaluation (convergence determination, S36) degrees perform, further to move deformation processing (S32 following processing) when not satisfied convergence condition. その際、評価関数の重み係数を適宜変更(S37)してもよい。 At that time, the weight coefficient of the evaluation function may be changed (S37). 上記評価関数としては【0024】 As the evaluation function [0024]
【数3】 [Number 3]
【0025】 [0025]
を用い、上記評価関数値が最小となるように収束した輪郭線形状v(s)を求める。 The used to determine the convergent contour shape v (s) as the evaluation function value is minimized. 式(4)の第一項の線積分は従来例と同様に輪郭線に沿った積分値で与えられる評価関数であればよく、必ずしも前記式(1)、(2)、(3)で与えられるものに限定されない。 May be an evaluation function given by the integral value line integral of paragraph along the conventional example as well as the contour lines of the formula (4), always the formula (1), given by (2), (3) but it is not limited to those. 第二項は前述の輪郭線を含む近傍領域Rにおける関数(E 2 ;以下の式で定義)の積分項である。 Paragraph function in a neighborhood region R including the above-mentioned contour line; the integral term (E 2 defined by the following formula). 尚、w 0 、w 1は定数を示し、また本実施の形態ではE 0 、E 1は簡単のために従来例と同じ式で与えられるものとする。 Incidentally, w 0, w 1 represents a constant, also E 0, E 1 in this embodiment is assumed to be given by the same formula as the conventional example for simplicity. またE 2 (x,y)は輪郭近傍領域中の点(x,y)における初期輪郭領域内の標準画像輝度値I m (x,y)と検査画像の輝度I(x,y)の差異を表す関数であり、例えば、 The E 2 (x, y) is the difference in points in the contour region near (x, y) the standard image luminance value I m (x, y) of the initial contour in the region in the inspection image luminance I (x, y) is a function representing the, for example,
【0026】 [0026]
【数4】 [Number 4]
【0027】 [0027]
を用いればよい。 The may be used. 以下、添え字mを有するパラメータは標準画像から抽出された輪郭近傍領域のデータを示すものとする。 Hereinafter, parameters denote the data of the extracted contour region near the standard image having a subscript m.
【0028】 [0028]
図4は本実施の形態による動作を示すもので、S41で画像入力部1より検査画像を入力し、S42で画像データベース2よりモデル画像入力した後、S43、S44で初期輪郭領域抽出及び初期輪郭領域のサイズの設定を行う。 Figure 4 shows the operation of the present embodiment, by entering the test image from the image input unit 1 in S41, after the model image input from the image database 2 in S42, S43, initial contour region extraction and initial contour in S44 to set the size of the area. そしてS45、S46、S47により前述のようにして評価関数の算出及び輪郭領域の更新を収束条件を満たすまで行い、収束したらS48でその輪郭線画像あるいは輪郭線内の画像データを出力部6より出力する。 The S45, S46, S47 by updates the calculation and contour area of ​​the evaluation function in the manner described above until convergence condition is satisfied, the output from the output section 6 the image data of the contour image or the contour in S48 Once converged to.
【0029】 [0029]
次に第2の実施の形態について説明する。 Next explained is the second embodiment.
図5は本実施の形態で用いる標準輪郭領域の例を示すもので、人体の上半身の一部を示す。 Figure 5 shows an example of a standard contour region used in the present embodiment, showing a portion of a human upper body. このように初期輪郭領域設定に用いられ標準輪郭領域の形状を単純な形状パターン(形状プリミティブ)の組み合わせモデルで表してもよい。 Thus the shape of the standard contour region used in the initial contour region setting may be represented by a combination model of a simple shape pattern (shape primitives). また同図に示すように輪郭線上の一部近傍領域のみに評価関数の色成分情報を含む輪郭領域を設定してもよい。 Or it may be set contour area including the color component information of the evaluation function to only a portion near the region of the contour line as shown in FIG. 要所のみに色情報を埋め込むことにより、入力画像と標準画像との差異による収束精度の劣化を抑制することができる。 By embedding the color information only at important, it is possible to suppress the convergence accuracy deterioration due to the difference between the input image and the standard image. 尚、色情報伊以外にテクスチャパターンの輪郭近傍上への部分的な付与を同時に行ってもよい。 Incidentally, the partial application to the contours near the texture pattern may be performed simultaneously in addition to the color information Yi.
【0030】 [0030]
本実施の形態では、評価関数に色成分項と輝度成分項とを重み付け加算することにより、対象画像の外輪郭線および輪郭内の画像抽出を行う。 In the present embodiment, by weighted addition of the color components to claim a luminance component term in the evaluation function, performs image extraction within the outer contour lines and contour lines of the target image. 評価関数の例としては、式(4)を用い、輪郭領域評価項であるE 2 (x,y)を【0031】 Examples of the evaluation function using equation (4), E 2 is an outline area evaluation section (x, y) [0031] The
【数5】 [Number 5]
【0032】 [0032]
のように与える。 It is given as. ここに、H(x,y)は輝度値で正規化した色相ベクトル、γ I 、γ Hは重み係数を示す。 Here, H (x, y) is the hue vectors normalized by luminance value, γ I, γ H denotes a weighting factor. 尚、これらの値は収束度(更新前後の輪郭線上の点の位置変化量の平均など)の値に応じて可変としてもよく、例えば背景と対象物の平均的な色相が異なる場合は、初めにγ Hの値を相対的に大に設定し、収束度が向上する(更新前後の輪郭の移動または変形量が小となる)につれて(或いは所定閾値より小のとき)色成分項の重みを低く(γを小)すればよい。 Incidentally, these values ​​if the average hue of the convergence according to the value of (average such as change in position of the points before and after updating the contour) may be variable, for example, the background and the object are different, initially set the value of the gamma H relatively large, the weight of the convergence is improved (movement or deformation of the before and after the update contour is small) as the (time from or a predetermined threshold value of the small) color component section low (the γ small) may be. これにより、背景画像と対象画像の色成分の違いを反映した信頼性の高い動的輪郭抽出が可能となる。 This allows high dynamic contour extraction reliability reflecting the difference in the color component of the background image and the target image. 色成分を考慮した画像に固有な評価関数項(輝度勾配および色成分勾配の加重和)の一例としては、各点の色成分(R,G,B)で表すと、 An example of a specific cost function terms in the image in consideration of the color components (weighted sum of the brightness gradient and the color component gradient), is represented by the color component of each point (R, G, B),
【0033】 [0033]
【数6】 [6]
【0034】 [0034]
を用いてもよい。 It may be used. また色相、彩度、明度に変換した後に同様にして画像データの勾配を評価してもよい。 The hue, saturation, may be evaluated gradient of the image data in the same manner after conversion to brightness. 尚、勾配を表す微分演算は上記したような2階微分に限定されるものではない。 Incidentally, differential operation representing the gradient is not limited to the second order differential as described above.
【0035】 [0035]
また、色成分項のみで動的輪郭領域処理(γ I =0)を行った後、その収束結果(輪郭線および輪郭近傍領域データ)を初期値として輝度レベル項を含めた動的輪郭領域処理(γ I,H >0)を行ってもよい。 In addition, after only the active contour region processing color component section (gamma I = 0), the dynamic outline area processing including luminance level section the convergence result (the contour lines and the outline near the region data) as an initial value (γ I, H> 0) may be performed. これにより対象画像領域とそれに隣接する背景画像領域との平均的な色相差異が顕著な場合、輪郭線の収束を早めることができる。 Thus if the average hue difference between the target image region and a background image region adjacent thereto is remarkable, it is possible to accelerate the convergence of the contour.
【0036】 [0036]
次に第3の実施の形態について説明する。 Next explained is the third embodiment.
本実施の形態では、初期輪郭および動的輪郭の点列データに輝度および色成分を加えた動的輪郭処理を行い、輪郭線の近傍領域処理は行わない。 In this embodiment mode, the active contour processing plus the luminance and color components in point sequence data of the initial contour and dynamic contour, the area near the processing of the contour line is not performed. 即ち、上記各実施の形態のように評価関数に輪郭線に隣接する近傍領域に関する項を含まない。 That does not include the section on neighboring region adjacent to the contour line to the evaluation function as the above-described embodiments. 図6にシステム構成例を示す。 It shows a system configuration example in FIG. 図中、初期輪郭抽出部3は標準画像のデータベースからの外輪郭線抽出部31xとその各点上の画像データ抽出部34、および記憶部33xから成る。 Drawing, made from the initial contour extraction unit 3 is the image data extraction unit 34, and the storage unit 33x on the outer contour line extracting unit 31x and each of its points from the database of the standard image. 画像データ抽出部34は標準画像データから外輪郭線を抽出する際、対象画像上の輪郭線から輝度、色成分データ(色相、彩度に変換してもよい)および各座標値を抽出する。 When the image data extraction unit 34 for extracting the outer contour line from the standard image data, and extracts from the contour line of the target image brightness, color component data (hue, may be converted to saturation) and the respective coordinate values. 本実施の形態における評価関数としては、 The evaluation function in this embodiment,
【0037】 [0037]
【数7】 [Equation 7]
【0038】 [0038]
ここにE 2 (s)は輪郭線上の画像データ(I(s):輝度、H(s):色相)の標準画像データとの差異を表す項であり、上記関数に限定されるものではない。 Here E 2 (s) is the image data of the contour (I (s): luminance, H (s): Hue) is a term representing the difference between the standard image data, but is not limited to the above functions . 輪郭更新部5は輪郭線位置の更新部52に加えて重み係数w 0 、w 1 、γ I 、γ Hの更新部55を有する。 Contour updating unit 5 has a weighting factor w 0, w 1, γ I , updating unit 55 of the gamma H in addition to the updating unit 52 of the contour line position. これにより、第2の実施の形態と同様に、背景と対象の絵柄、色成分特性、収束度に応じて重み係数を段階的に変更し、輪郭の収束精度と収束速度を向上させることができる。 Thus, as in the second embodiment, the background and the subject of the picture, the color component characteristics, a weighting factor stepwise changed, it is possible to improve the convergence precision and convergence speed of the contour in accordance with the convergence .
【0039】 [0039]
次に第4の実施の形態について説明する。 Next explained is the fourth embodiment.
本実施の形態では、第一のステップとして従来の動的輪郭処理による輪郭抽出を行い、第二のステップとして収束した輪郭線とほぼ同じサイズ、ほぼ同じ重心位置の初期輪郭領域データを検査画像上に設定し、前記実施の形態と同様の動的輪郭領域処理による輪郭線抽出を行う。 In this embodiment mode, a contour extraction by the conventional active contour processing as the first step, approximately the same size as the convergent contour as a second step, substantially the same center of gravity of the initial outline region data on the inspection image set performs edge extraction by active contour domain processing similar to the above embodiment. 第一ステップで得られる輪郭のサイズは、例えばそれに外接する短形の縦横サイズ、対角線長などで代表すればよい。 The size of the contour obtained in the first step, for example, rectangle height and width of the circumscribing thereto, may be represented by like diagonal. 尚、初期輪郭領域データについては前記実施の形態と同様に標準画像データベースから抽出される。 Note that the initial contour region data are extracted from the standard image database as with the above embodiment. 図7に本実施の形態による処理フローを示す。 It shows a process flow according to this embodiment in FIG.
【0040】 [0040]
【発明の効果】 【Effect of the invention】
発明によれば、 背景と対象の色成分の違いを反映した輪郭抽出を実現することができる。 According to the present invention, it is possible to realize a contour extraction reflecting the difference in color components of the background and the object.
【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS
【図1】本発明の第1の実施の形態を示すブロック図である。 1 is a block diagram showing a first embodiment of the present invention.
【図2】入力画像、標準輪郭領域、初期輪郭領域を示す構成図である。 [Figure 2] input image is a configuration diagram showing standard contour region, the initial contour area.
【図3】輪郭近傍領域更新部の処理を示すフローチャートである。 3 is a flowchart showing the processing of the contour region near updating unit.
【図4】第1の実施の形態の動作を示すフローチャートである。 4 is a flowchart showing the operation of the first embodiment.
【図5】第2の実施の形態を説明するための構成図である。 5 is a block diagram for explaining the second embodiment.
【図6】第3の実施の形態を示すブロック図である。 6 is a block diagram showing a third embodiment.
【図7】第4の実施の形態の動作を示すフローチャートである。 7 is a flowchart showing the operation of the fourth embodiment.
【符号の説明】 DESCRIPTION OF SYMBOLS
1 画像入力部2 画像データベース3 初期輪郭領域抽出部4 初期輪郭領域設定部5 輪郭近傍領域更新部6 輪郭内領域画像出力部 1 The image input unit 2 image database 3 initial contour region extraction unit 4 initial contour area setting unit 5 contour region near updating unit 6 contour area image output unit

Claims (2)

  1. 入力された検査画像上に初期の輪郭領域を設定する設定手段と、 Setting means for setting an initial contour region on the input test image,
    色成分をパラメータとする項を含む第1の評価関数の算出結果が所定の収束条件を満たすまで上記輪郭領域の更新を行う第1の更新処理と、上記第1の更新処理によって得られた結果と、輝度成分をパラメータとする項を含む第2の評価関数とを用いて上記第2の評価関数の算出結果が所定の収束条件を満たすまで上記輪郭領域の更新を行う第2の更新処理とを行う更新手段とを有することを特徴とする画像抽出装置。 A first updating process that the calculation result of the first evaluation function including a term of the color components and parameter updating of the outline area to the predetermined convergence condition is satisfied, the results obtained by the first updating process When a second updating process for updating the contour region calculation result of the second evaluation function until a predetermined convergence condition is satisfied by using the second evaluation function including a term of the luminance component as a parameter image extracting apparatus characterized by having a updating means for performing.
  2. 上記初期の輪郭領域は、標準画像の輪郭とこの輪郭に隣接する近傍領域とを含むものであることを特徴とする請求項に記載の画像抽出装置。 The initial contour regions, the image extracting apparatus according to claim 1, characterized in that including a neighboring region of the standard image contour and adjacent to the contour.
JP34388895A 1995-12-28 1995-12-28 Image extraction device Expired - Fee Related JP3809210B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34388895A JP3809210B2 (en) 1995-12-28 1995-12-28 Image extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34388895A JP3809210B2 (en) 1995-12-28 1995-12-28 Image extraction device

Publications (2)

Publication Number Publication Date
JPH09185719A true JPH09185719A (en) 1997-07-15
JP3809210B2 true JP3809210B2 (en) 2006-08-16

Family

ID=18365019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34388895A Expired - Fee Related JP3809210B2 (en) 1995-12-28 1995-12-28 Image extraction device

Country Status (1)

Country Link
JP (1) JP3809210B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209425A (en) 1998-11-09 2000-07-28 Canon Inc Device and method for processing image and storage medium
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
JP4701144B2 (en) * 2006-09-26 2011-06-15 富士通株式会社 Image processing apparatus, image processing method and image processing program

Also Published As

Publication number Publication date Type
JPH09185719A (en) 1997-07-15 application

Similar Documents

Publication Publication Date Title
Kimmel et al. A variational framework for retinex
US5995639A (en) Apparatus for identifying person
US6094511A (en) Image filtering method and apparatus with interpolation according to mapping function to produce final image
US6496184B1 (en) Method for inferring scenes from test images and training data using probability propagation in a markov network
US20070041640A1 (en) Image processing device
US5119439A (en) Method of and apparatus for extracting image contour data
US5907626A (en) Method for object tracking and mosaicing in an image sequence using a two-dimensional mesh
US6803920B2 (en) Method and apparatus for digital image segmentation using an iterative method
US5475507A (en) Color image processing method and apparatus for same, which automatically detects a contour of an object in an image
US20040042676A1 (en) Method and apparatus for illumination compensation of digital images
US5471535A (en) Method for detecting a contour of a given subject to be separated from images and apparatus for separating a given subject from images
US6532022B1 (en) Method and apparatus for model-based compositing
US20050280869A1 (en) Image correcting apparatus and method, and image correcting program, and look-up table creating apparatus and method, and look-up table creating program
US6807298B1 (en) Method for generating a block-based image histogram
US20040028274A1 (en) Method for generating vector data for a hand-drawn curve
US6167167A (en) Image extractions apparatus and method
US5050227A (en) Method of and apparatus for image smoothing along a tangential direction of a contour
US5150421A (en) System for automated transformation of gray level of image
US4866785A (en) Multi-valved image processing apparatus and method
US7127107B2 (en) Land partition data generating method and apparatus
US20040201753A1 (en) Signal processing device and method, and recording medium
US6724946B1 (en) Image processing method, apparatus and storage medium therefor
JPH11250267A (en) Method and device for detecting position of eye and record medium recording program for detecting position of eye
US20030174890A1 (en) Image processing device and ultrasonic diagnostic device
JP2000137788A (en) Image processing method, image processor, and record medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060522

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110526

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120526

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120526

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130526

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees