JPH0561977A - Area extracting device - Google Patents

Area extracting device

Info

Publication number
JPH0561977A
JPH0561977A JP3219889A JP21988991A JPH0561977A JP H0561977 A JPH0561977 A JP H0561977A JP 3219889 A JP3219889 A JP 3219889A JP 21988991 A JP21988991 A JP 21988991A JP H0561977 A JPH0561977 A JP H0561977A
Authority
JP
Japan
Prior art keywords
contour
area
obtaining
image
edge strength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3219889A
Other languages
Japanese (ja)
Inventor
Minoru Eito
稔 栄藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP3219889A priority Critical patent/JPH0561977A/en
Publication of JPH0561977A publication Critical patent/JPH0561977A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To realize an image area extracting device capable of stably performing the area extraction of an image by using a method in which image characteristic and the adequate contour of shape can be obtained in process to minimize energy, that is a method of so-called dynamic contour model. CONSTITUTION:The Mahalanobis distance for the mean of picture element data in a supplied initial contour is calculated. Thereby, the dynamic contour model is controlled, and the area extraction is performed. Such control and extraction can be performed by providing an edge strength arithmetic means 207 which finds edge strength by a differential value based on the Mahalanobis distance between the picture elements in the direction of outside the area and that of inside the area for the candidate position of a dynamic contour, and a shape complexity arithmetic means 208 which finds the complexity of contour shape. The contour position for the candidate position of the contour is changed so as to minimize total energy obtained by the linear sum of energy due to the shape complexity and the energy due to the edge strength by dynamic programming.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は例えば映像の編集、加工
のための領域抽出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a region extraction device for editing and processing images, for example.

【0002】[0002]

【従来の技術】領域抽出の手法は複雑多岐に渡るが、映
像の編集、加工を目的とした手法は例えば、「放送への
画像処理応用」,電子情報通信学会誌Vol.74, No.4, p
p.386-391, (1991)および「プレゼンテーションにおけ
る画像処理」、同誌、pp,392-397に紹介されている。列
挙すると、次のようなものがある。
2. Description of the Related Art Area extraction methods are complex and diverse, but methods for image editing and processing include, for example, "Image Processing Application for Broadcasting", The Institute of Electronics, Information and Communication Engineers Vol.74, No.4. , p
p.386-391, (1991) and "Image Processing in Presentations", ibid, pp, 392-397. Listed below are the following.

【0003】1)一画素ごと輪郭を手作業により指定して
いく。 2)大まかに手作業により与えられた輪郭の近傍のエッジ
を探索して連結する。
1) The contour is manually specified for each pixel. 2) Roughly search and connect edges near a given contour by hand.

【0004】3)輪郭近傍の画素について3次元色空間を
考え、3次元色空間でのヒストグラムを作る。3次元ヒ
ストグラムの中で分離性の良いものから順次分割してい
く。
3) Consider a three-dimensional color space for pixels near the contour and create a histogram in the three-dimensional color space. In the three-dimensional histogram, the one having good separability is sequentially divided.

【0005】4)色情報を利用して対象物の内部の代表点
と外部の代表点を人間が陽に指定し、これら代表点で判
別平面を計算し、分離する。
4) Using the color information, a person explicitly designates a representative point inside the object and a representative point outside the object, and a discrimination plane is calculated at these representative points and separated.

【0006】5)動的輪郭モデルと呼ばれる、(数1)に
示すエネルギーを最小化することにより滑らかな境界を
得ようとする。
5) An attempt is made to obtain a smooth boundary by minimizing the energy shown in (Equation 1), which is called an active contour model.

【0007】[0007]

【数1】 [Equation 1]

【0008】(数1)において、sは輪郭上の線素、右
辺第1項は、輪郭の大きさと滑らかさに関するエネルギ
ー(大きく、滑らかでないほど大)、第2項は画像との
適合によるエネルギー(不適合であるほど大)、第3項
は輪郭位置を強制的に変更するためのエネルギーであ
る。輪郭位置はエネルギー最小化の過程で求められる。
In (Equation 1), s is a line element on the contour, the first term on the right-hand side is energy related to the size and smoothness of the contour (larger and larger as it is not smooth), and the second term is energy due to matching with the image. The third term is the energy for forcibly changing the contour position (the larger the non-conformance, the larger). The contour position is obtained in the process of energy minimization.

【0009】[0009]

【発明が解決しようとする課題】本発明が解決しようと
する第1の課題は、動的輪郭モデルを用いて領域を抽出
しようとするとき、動的輪郭モデルの動きを決定する各
エネルギーの線形結合の係数を設定することが難しいこ
とである。
A first problem to be solved by the present invention is to linearize each energy that determines the motion of an active contour model when an area is extracted using the active contour model. It is difficult to set the coupling coefficient.

【0010】第2の課題は、画像エネルギーの値が対象
画像の変化に影響を受けないように抽出したい領域の平
均ベクトルに対するマハラノビス距離を導入することを
考えたとき、マハラノビス距離の演算は共分散行列の階
数が落ちているときはそのままでは計算できなくなるこ
とである。
The second problem is that when considering the introduction of the Mahalanobis distance to the average vector of the region to be extracted so that the value of the image energy is not affected by the change of the target image, the calculation of the Mahalanobis distance is the covariance. When the rank of the matrix is falling, it cannot be calculated as it is.

【0011】第3の課題は、一般的に抽出しようとする
画像領域は複数物体の重なりのある物体の投影となる
が、これを一つの動的輪郭で得ようとすると、輪郭の不
連続に対応できなくことである。
The third problem is that the image area to be extracted is generally a projection of an object in which a plurality of objects overlap, but if this is obtained by one dynamic contour, the contour becomes discontinuous. It is impossible to deal with it.

【0012】本願のそれぞれの発明は、以上の問題を解
決し、安定して画像中の領域を抽出する画像領域抽出装
置を提供することを目的とする。
An object of each invention of the present application is to provide an image area extracting device which solves the above problems and stably extracts an area in an image.

【0013】[0013]

【課題を解決するための手段】第1の発明は、領域マハ
ラノビス距離に基づいて画像を分離するために、固有ベ
クトルと平均ベクトルを用いて、入力画像の各画素のn
次元特徴量のK-L展開を得る直交変換手段と前記固有ベ
クトルの中で、その固有値が所定の固有値に対するしき
い値未満のものがあれば、各画素のK-L展開の中で、そ
の固有ベクトルに相当する成分の値が大きな画素を抽出
対象から除外する第1の領域決定手段と、前記第1の領
域決定手段で除外されなかった画素について、固有値が
前記所定の固有値に対するしきい値以上である成分で構
成されるK-L部分展開について、マハラノビス距離を演
算するマハラノビス距離演算手段と前記マハラノビス距
離の小さい画素を領域内として出力する第2の領域決定
手段とを備えたものである。
According to a first aspect of the invention, in order to separate an image based on a region Mahalanobis distance, an eigenvector and an average vector are used to obtain n pixels of each pixel of an input image.
Orthogonal transformation means for obtaining the KL expansion of the dimensional feature amount and the eigenvector, if the eigenvalue is less than the threshold value for a predetermined eigenvalue, the component corresponding to the eigenvector in the KL expansion of each pixel. A first area determining unit that excludes a pixel having a large value from the extraction target, and a component whose eigenvalue is greater than or equal to a threshold value with respect to the predetermined eigenvalue for pixels that are not excluded by the first area determining unit. The KL partial expansion is provided with a Mahalanobis distance calculating means for calculating the Mahalanobis distance and a second area determining means for outputting a pixel with a small Mahalanobis distance as an area.

【0014】第2の発明は、マハラノビス距離に基づい
て動的輪郭モデルを制御する領域抽出する装置であり、
そのために 動的輪郭の候補位置について、領域外方向
と領域内方向にある画素間のマハラノビス距離によりエ
ッジ強度を求めるエッジ強度演算手段と輪郭上で隣接す
る前記候補位置間で、輪郭形状の複雑さを求める形状複
雑さ演算手段と前記候補位置について、前記エッジ強度
と輪郭形状の複雑さの線形結合を評価尺度として輪郭上
で最適な系列をもとめる最適化手段とを設ける。
A second invention is a device for extracting a region for controlling an active contour model based on Mahalanobis distance,
Therefore, regarding the candidate position of the active contour, the edge strength calculation means for obtaining the edge strength from the Mahalanobis distance between the pixels in the direction outside the area and the direction in the area and the complexity of the contour shape between the candidate positions adjacent on the contour For the candidate position, a shape complexity calculating means and an optimizing means for obtaining an optimum sequence on the contour using a linear combination of the edge strength and the complexity of the contour shape as an evaluation measure are provided.

【0015】第3の発明は、物体の重なりによる輪郭の
不連続を解決するために、複数の輪郭の候補位置につい
て、重なりを判定し、輪郭の一部が他の領域に遮蔽され
ている部分を発見する被遮蔽部判定手段と、輪郭形状の
複雑さと被遮蔽部を除く候補位置でのエッジ強度の線形
結合を評価尺度として輪郭上で最適な系列をもとめる最
適化手段とを備えたものである。
In a third aspect of the invention, in order to solve the discontinuity of the contour due to the overlapping of objects, the overlapping is determined for a plurality of candidate positions of the contour, and a part of the contour is shielded by another region. And a means for determining an occluded portion for detecting the optimum sequence on the contour using the linear combination of the edge shape complexity and the edge strength at the candidate position excluding the occluded portion as an evaluation scale. is there.

【0016】[0016]

【作用】第1の発明では、共分散行列演算手段により、
共分散行列の固有値解析によりK-L展開を得るに必要な
固有値と固有ベクトルを得る。固有ベクトルの並びから
K-L変換行列を得た後、入力画像の画素についてK-L展開
を求める。前記固有値の中で、所定の固有値に対するし
きい値未満のものは、K-L変換行列の階数が落ちている
とみなされる。各画素のK-L展開の中で、前記小さな固
有値に相当する成分が大きければ、第1の領域決定手段
により除外される。これは得られるマハラノビス距離が
大きくなるためである。残る画素について階数を落とし
たK-L変換行列によりマハラノビス距離を計算し、第2
の領域決定手段により値が小さなものを領域として抽出
する。
In the first invention, the covariance matrix calculation means allows
Obtain the eigenvalues and eigenvectors required to obtain the KL expansion by eigenvalue analysis of the covariance matrix. From the sequence of eigenvectors
After obtaining the KL transformation matrix, the KL expansion is obtained for the pixels of the input image. Among the eigenvalues, those that are less than a threshold value for a predetermined eigenvalue are considered to have a lower rank in the KL transformation matrix. If the component corresponding to the small eigenvalue is large in the KL expansion of each pixel, it is excluded by the first region determining unit. This is because the obtained Mahalanobis distance becomes large. For the remaining pixels, calculate the Mahalanobis distance using the KL transformation matrix with a reduced rank,
A region having a small value is extracted as a region by the region determining unit.

【0017】第2の発明では、抽出の対象となる領域に
ついて平均ベクトルと共分散行列を計算し、これからマ
ハラノビス距離演算手段により輪郭位置の候補点近傍の
距離が求められる。エッジ強度演算手段は候補点内外の
マハラノビス距離により求められ、このエッジ強度と輪
郭形状の複雑さによって決まる評価尺度を輪郭上の総和
で最適にする最適化手段により新しい輪郭位置が求めら
れる。そして輪郭により囲まれた領域が輪郭決定手段に
より出力される。
In the second invention, the mean vector and the covariance matrix are calculated for the area to be extracted, and the Mahalanobis distance calculating means obtains the distance near the candidate point of the contour position. The edge strength calculating means is obtained from the Mahalanobis distance inside and outside the candidate point, and a new contour position is obtained by the optimizing means that optimizes the evaluation scale determined by the edge strength and the complexity of the contour shape by the sum on the contour. Then, the area surrounded by the contour is output by the contour determining means.

【0018】第3の発明では、エッジ強度の尺度は特定
しないが、複数の輪郭により、抽出対象の領域を表現す
るところが第2の発明とは異なる。被遮蔽部判定手段
が、複数の輪郭の候補位置について、重なりを判定し、
輪郭の一部が他の領域に遮蔽されているかを判定する。
被遮蔽部分では、最適化手段でそのエッジ強度は無視さ
れて計算される。そして領域決定手段では複数の座標列
で表現される領域の和として領域が抽出される。
In the third invention, the scale of the edge strength is not specified, but the region to be extracted is expressed by a plurality of contours, which is different from the second invention. The shielded portion determination means determines overlap for a plurality of contour candidate positions,
It is determined whether a part of the contour is covered by another area.
In the shielded portion, the edge strength is ignored by the optimizing means for calculation. Then, the area determining means extracts the area as the sum of the areas represented by the plurality of coordinate sequences.

【0019】[0019]

【実施例】以下第1、2、3の発明の実施例を図面を用い
て説明する。
Embodiments Embodiments of the first, second and third inventions will be described below with reference to the drawings.

【0020】図1は第1の発明の実施例のブロック図を
示すものである。図1において101は画像メモリ、102は
標本点抽出部、103は共分散行列演算部、104は主成分演
算部、105は差分演算部、106は直交変換部、107は固有
値判定部、108はマハラノビス距離演算部、109は領域抽
出部である。以上のように構成された第1の発明の動作
を説明する。
FIG. 1 shows a block diagram of an embodiment of the first invention. In FIG. 1, 101 is an image memory, 102 is a sample point extraction unit, 103 is a covariance matrix calculation unit, 104 is a principal component calculation unit, 105 is a difference calculation unit, 106 is an orthogonal transformation unit, 107 is an eigenvalue determination unit, and 108 is A Mahalanobis distance calculation unit, and 109 is a region extraction unit. The operation of the first invention configured as above will be described.

【0021】入力される画像は カラー画像であり、輝
度成分Yと 2つの色差成分IとQからなっている 画像の
RGB値をそれぞれr,g,bとするとYIQ値は(数2)で表さ
れる。
The input image is a color image, which is composed of a luminance component Y and two color difference components I and Q.
If the RGB values are r, g, and b, respectively, the YIQ value is expressed by (Equation 2).

【0022】[0022]

【数2】 [Equation 2]

【0023】カラー画像はメモリ101に格納されてお
り、標本点抽出部102により、抽出したい領域の一部が
抽出される。抽出された画素の集合をSで表現する。こ
こで共分散行列Rは(数3)として、共分散行列演算部1
03で得られる。
The color image is stored in the memory 101, and the sample point extracting unit 102 extracts a part of the area to be extracted. The set of extracted pixels is represented by S. Here, the covariance matrix R is (Equation 3), and the covariance matrix calculation unit 1
Obtained with 03.

【0024】[0024]

【数3】 [Equation 3]

【0025】E()は期待値または平均を意味する。次に
主成分分析部104により、(数4)に示す固有値λ12
3と固有ベクトルci(1≦i≦3)が計算される。
E () means an expected value or an average. Next, by the principal component analysis unit 104, the eigenvalue λ 1 > λ 2 shown in (Equation 4)
> λ 3 and the eigenvector c i (1 ≦ i ≦ 3) are calculated.

【0026】[0026]

【数4】 [Equation 4]

【0027】共分散行列演算部103で得られる平均ベク
トルE(x)を用いて、画像の全領域画素のに特徴ベクトル
との差分を 差分演算部105で求める。さらに直交変換
部106でそのK-L展開を求める。これをまとめると(数
5)となる。
Using the average vector E (x) obtained by the covariance matrix calculation unit 103, the difference calculation unit 105 calculates the difference between the feature vector and all the pixels of the image. Further, the orthogonal transformation unit 106 finds the KL expansion. If this is put together, it will become (Equation 5).

【0028】[0028]

【数5】 [Equation 5]

【0029】主成分分析部で得られた固有値をもとに固
有値判定部は、(表1),(表2)に示す動作をする。
Based on the eigenvalues obtained by the principal component analysis section, the eigenvalue determination section performs the operations shown in (Table 1) and (Table 2).

【0030】[0030]

【表1】 [Table 1]

【0031】[0031]

【表2】 [Table 2]

【0032】表2でεは量子化誤差の期待値である。表
中の7.88、10.60、12.84の定数は自由度1,2,3のχ2乗分
布の確率密度関数から99.5%以内の境界値として算出さ
れている。本実施例ではK-L展開の各要素がガウス分布
すると仮定している。マハラノビス距離演算部108は
(数6)に示すマハラノビス演算距離 Mdを求める。
In Table 2, ε is the expected value of the quantization error. The constants of 7.88, 10.60, and 12.84 in the table are calculated as boundary values within 99.5% from the probability density function of the χ 2 distribution with 1, 2, and 3 degrees of freedom. In this embodiment, it is assumed that each element of the KL expansion has a Gaussian distribution. The Mahalanobis distance calculation unit 108 obtains the Mahalanobis calculation distance Md shown in (Equation 6).

【0033】[0033]

【数6】 [Equation 6]

【0034】diは(数6) dのi番目の成分であり、Nは
表1で判定された次数である。次数が零のときはマハラ
ノビス距離はすべて零とする。領域抽出部では、固有値
評価部を通過した画素をその画素に対するマハラノビス
距離をしきい値により判定して、値の小さなものを領域
として出力する。
Di is the i-th component of (Equation 6) d, and N is the order determined in Table 1. When the order is zero, the Mahalanobis distance is all zero. The area extraction unit determines the pixels that have passed the eigenvalue evaluation unit by the threshold value of the Mahalanobis distance to the pixels, and outputs the one with the smaller value as the area.

【0035】マハラノビス距離はそのガウス性の仮定よ
り、自由度3のχ2乗分布をする。従ってマハラノビス距
離の計算は一般的には共分散行列Rを用いて(数7)で
求めることができる。しかし、標本数が小さい場合、ま
た多数でも抽出したい領域が均一な場合はRの階数が減
少する。
The Mahalanobis distance has a χ 2 distribution with three degrees of freedom based on its Gaussian assumption. Therefore, the Mahalanobis distance can be generally calculated by using the covariance matrix R (Equation 7). However, if the number of samples is small, or if a large number of regions are desired to be extracted, the rank of R decreases.

【0036】[0036]

【数7】 [Equation 7]

【0037】この場合マハラノビス距離が求められない
ことになる。これを避ける為に本実施例では、共分散行
列の固有値を調べる。12.84は自由度3のχ2乗分布で99.
5%の点が含まれる距離を表している。従って、マハラノ
ビス距離が(数6)で求められることから、第3固有値
が12.84以下であればK-L展開の第3成分が非零であれ
ば、少なくとも0.5%の危険率でその画素への帰属が棄却
されることになる。量子化誤差を考慮して、表2のよう
に棄却する画素を求めている。以後、第2成分、第1成分
についても、固有値が小さければ同様の棄却を行い、残
った画素について、マハラノビス距離を部分K-L展開で
求めて領域を距離の小さな画素を領域内画素として求め
る。
In this case, the Mahalanobis distance cannot be obtained. In order to avoid this, in this embodiment, the eigenvalue of the covariance matrix is examined. 12.84 is the χ 2 distribution with 3 degrees of freedom, which is 99.
It represents the distance that includes 5% of the points. Therefore, since the Mahalanobis distance is calculated by (Equation 6), if the third eigenvalue is 12.84 or less and the third component of the KL expansion is non-zero, the attribution to that pixel is at a risk rate of at least 0.5%. Will be rejected. Considering the quantization error, the pixels to be rejected are calculated as shown in Table 2. Thereafter, for the second component and the first component, if the eigenvalue is small, the same rejection is performed, and for the remaining pixels, the Mahalanobis distance is obtained by the partial KL expansion, and the region having a small distance is obtained as the in-region pixel.

【0038】以上本実施例によれば共分散行列から直接
マハラノビス距離を求めず、主成分分析の固有値により
しきい値処理を行うため、共分散行列の階数が落ちてい
る場合でもχ2乗分布を仮定した統計的測度により領域
抽出が行える。
As described above, according to the present embodiment, since the Mahalanobis distance is not directly calculated from the covariance matrix and threshold processing is performed by the eigenvalue of the principal component analysis, even if the rank of the covariance matrix falls, the χ 2 distribution Area extraction can be performed by a statistical measure assuming.

【0039】次に第2の発明を第2の実施例により説明す
る。図2は本実施例のブロック図である。図2において
201は画像のYIQ値(画像データ)を記憶しておくメモ
リ、202は輪郭座標内の画像データを読み込む標本抽出
部、203は標本集合の共分散行列と平均ベクトルを演算
する共分散演算部 204は平均ベクトルと共分散行列を用
いてマハラノビス距離を演算するマハラノビス距離演算
部、 205は輪郭を座標列として保持しておく座標列メモ
リ、 206は現在保持されている座標列について新座標位
置として可能な座標位置を演算する座標列候補位置演算
部、207はマハラノビス距離に基づいてエッジ強度を演
算するエッジ強度演算部、208は現在候補となる輪郭の
形状複雑さを計算する形状複雑さ演算部、 209は輪郭の
新座標位置についてエッジ強度、形状複雑さについて最
適な位置を選択し、それを新たに輪郭座標列としてメモ
リ205に書き込む新座標位置演算部である。
Next, the second invention will be described with reference to the second embodiment. FIG. 2 is a block diagram of this embodiment. In Figure 2
201 is a memory for storing the YIQ value (image data) of the image, 202 is a sample extracting unit for reading the image data in the contour coordinates, 203 is a covariance calculating unit for calculating the covariance matrix and the mean vector of the sample set 204 Is the Mahalanobis distance calculator that calculates the Mahalanobis distance using the mean vector and the covariance matrix, 205 is the coordinate string memory that holds the contour as a coordinate string, and 206 is the new coordinate position for the currently held coordinate string. A coordinate sequence candidate position calculation unit that calculates different coordinate positions, 207 is an edge strength calculation unit that calculates edge strength based on the Mahalanobis distance, and 208 is a shape complexity calculation unit that calculates the shape complexity of the contour that is currently a candidate, Reference numeral 209 denotes a new coordinate position calculation unit that selects an optimum position for edge strength and shape complexity for the new coordinate position of the contour, and writes it in the memory 205 as a new contour coordinate sequence. It

【0040】以上のように構成された実施例を以下に説
明する。座標メモリ205には(数8)に示すように長さN
の座標系列が記憶されている。
An embodiment configured as above will be described below. The coordinate memory 205 has a length N as shown in (Equation 8).
The coordinate series of is stored.

【0041】[0041]

【数8】 [Equation 8]

【0042】この初期の座標系列は、マウス等の機器を
用いて手作業によりおおまかに与えられているものとす
る。標本抽出部202はこの初期輪郭で囲まれる領域につ
いてYIQの画像データを読み出す。標本について、共分
散行列と平均ベクトルを共分散演算部203で求める。エ
ッジ強度演算部から入力される画像位置についてマハラ
ノビス距離演算部204が得られた共分散行列と平均ベク
トルによりマハラノビス距離を出力する。なお、この演
算は第1の実施例に示した同じ手順で行われる。ただ
し、第1の実施例では、共分散行列の階数が落ちている
とき(表1)、(表2)に示す条件で該当画素を除外し
ているが、ここでは十分に大きな、たとえば8bitの符号
無し固定小数点での最大値255等のマハラノビス距離を
与える。座標列候補位置演算部では図4に示すように輪
郭の前後の座標位置に対して垂直な方向に±2画素の位
置を演算する。候補位置viに対して、1画素外に位置す
る画素をvi +とすると、エッジ強度演算部はマハラノビ
ス距離演算部204から得た距離を元に(数9)に示す値E
imageを演算する。
This initial coordinate series is used for devices such as a mouse.
It should be roughly given by hand.
It The sampling unit 202 selects the area enclosed by this initial contour.
Read the YIQ image data. Co-division of the sample
The covariance calculation unit 203 obtains a dispersion matrix and an average vector. D
Image position input from the edge strength calculator
The covariance matrix and mean vector obtained by the Nobis distance calculator 204
Outputs the Mahalanobis distance according to Tor. In addition, this performance
The calculation is performed by the same procedure shown in the first embodiment. However
However, in the first embodiment, the rank of the covariance matrix has dropped.
When the corresponding pixels are excluded under the conditions shown in (Table 1) and (Table 2)
But here it is big enough, for example 8bit code
None Mahalanobis distance such as maximum 255 in fixed point
give. As shown in FIG. 4, the coordinate sequence candidate position calculation unit
± 2 pixels in the direction perpendicular to the coordinate positions before and after the contour
Calculate the position. Candidate position viIs located 1 pixel outside
Pixel to vi +Then, the edge strength calculation unit is Mahalanovi
Value E shown in (Equation 9) based on the distance obtained from the distance calculation unit 204
imageIs calculated.

【0043】[0043]

【数9】 [Equation 9]

【0044】(数9)のなかでf()はχ2乗分布の確率密
度関数 χ()はその位置におけるマハラノビス距離であ
る。マハラノビス距離がχ2乗分布することにより、
(数10)に示す確率密度の関数(数中nは自由度)を使
って(数11)として求めることができる。
In (Equation 9), f () is the probability density function of the χ 2 distribution and χ () is the Mahalanobis distance at that position. Since the Mahalanobis distance is χ 2 distributed,
It can be obtained as (Equation 11) using the function of the probability density shown in (Equation 10) (where n is the degree of freedom).

【0045】[0045]

【数10】 [Equation 10]

【0046】[0046]

【数11】 [Equation 11]

【0047】これは画素が領域内に属する確率の比がvi
+とviについて最大になるように求めていることにな
る。形状複雑さ演算部では前後する候補位置vi-1とvi+1
から(数12)に示すEshapeを計算する。
This is because the ratio of the probability that a pixel belongs to the area is v i
We want to maximize + and v i . In the shape complexity calculation unit, the candidate positions v i-1 and v i + 1 that move back and forth
Then, the E shape shown in ( Equation 12) is calculated.

【0048】[0048]

【数12】 [Equation 12]

【0049】αの項は座標位置間の距離、βの項は座標
位置間の曲がりに関する評価を表している。γの項は候
補位置が現位置に比べて外側(+2,+1)の位置であれば評
価を良とするための項である。これにより、外向する力
を与えているが、αの2乗項により、輪郭が無限に外に
膨張することは無い。以上の演算結果を用いてEimage+
Eshapeの値が輪郭全体として最小となるように新座標位
置演算部が輪郭全体の画素について位置を決定する。
これは(数11)、(数12)より動的計画法が適用で
きて、その関数漸化式は(数13)のように表現でき
る。
The term α represents the distance between coordinate positions, and the term β represents the evaluation regarding the bend between coordinate positions. The term γ is a term for making the evaluation good if the candidate position is a position outside (+ 2, + 1) of the current position. This gives an outward force, but the contour does not expand infinitely due to the squared term of α. E image +
The new coordinate position calculation unit determines the position of the pixel of the entire contour so that the value of E shape becomes the minimum for the entire contour.
The dynamic programming can be applied to this from (Equation 11) and (Equation 12), and its function recurrence formula can be expressed as (Equation 13).

【0050】[0050]

【数13】 [Equation 13]

【0051】以上の演算を用いて、輪郭の座標位置を更
新して座標列メモリ205に書き込む。この処理を繰り返
し、変更される画素の位置が無くなるか、位置の変更量
が予め定められた小さな値を下まわった時の輪郭位置で
囲まれる領域を抽出結果とする。このように本実施例で
は従来から提案されている動的輪郭モデルを、その輪郭
で囲まれる領域の統計的な分布を求め、マハラノビス距
離をエッジ強度として適用した。これにより、エッジ強
度の絶対値に意味を持たせることができる。従って、係
数α、β、γの値はマハラノビス距離の差分値の範囲に
合わせて調整することができる。また本実施例では、動
的計画法による最適化により、例えば、マハラノビス距
離12.84以上の領域には輪郭を移動させないなどの制約
を導入することができる。
Using the above calculation, the coordinate position of the contour is updated and written in the coordinate string memory 205. By repeating this processing, the area surrounded by the contour position when the position of the pixel to be changed disappears or the position change amount falls below a predetermined small value is set as the extraction result. As described above, in the present embodiment, the conventionally proposed active contour model is used to obtain the statistical distribution of the area surrounded by the contour and apply the Mahalanobis distance as the edge strength. This makes the absolute value of the edge strength meaningful. Therefore, the values of the coefficients α, β, and γ can be adjusted according to the range of the difference value of the Mahalanobis distance. Further, in the present embodiment, by the optimization by the dynamic programming, it is possible to introduce a constraint such that the contour is not moved to a region having a Mahalanobis distance of 12.84 or more.

【0052】次に第3の発明を第3の実施例を用いて説明
する。 図3は本実施例を説明するブロック図である。
図3において301は画像のYIQ値(画像データ)を記憶し
ておくメモリ、302は輪郭座標内の画像データを被遮蔽
部を除いて読み込む標本抽出部、303は標本集合の共分
散行列と平均ベクトルを演算する共分散演算部、304は
異なる標本集合毎に共分散行列と平均ベクトルを保持す
る分散情報格納メモリ、305は異なる輪郭のIDにより平
均ベクトルと共分散行列を用いてマハラノビス距離を演
算するマハラノビス距離演算部、306、307、308は輪郭
を座標列として保持しておく座標列メモリ、309は複数
の輪郭の重なりを判定して被遮蔽部を同定する重なり判
定部、310はマハラノビス距離と重なり情報を用いてエ
ッジ強度を演算するエッジ強度演算部、311は現在候補
となる輪郭の形状複雑さを計算する形状複雑さ演算部、
312は現在保持されている複数の座標列について新座標
位置として可能な座標位置を演算する座標列候補位置演
算部、313は輪郭の新座標位置についてエッジ強度、形
状複雑さについて最適な位置を選択し、それを新たに輪
郭座標列としてメモリ306、307、308に書き込む新座標
位置演算部である。なおブロック図では座標列メモリを
306、307、308の3つを示したが、実際は多数個で構成さ
れる。
Next, the third invention will be described with reference to the third embodiment. FIG. 3 is a block diagram for explaining this embodiment.
In FIG. 3, 301 is a memory for storing the YIQ value (image data) of the image, 302 is a sample extracting unit that reads the image data in the contour coordinates excluding the shielded portion, and 303 is the covariance matrix and average of the sample set. A covariance calculation unit that calculates a vector, 304 is a variance information storage memory that holds a covariance matrix and a mean vector for each different sample set, and 305 is a Mahalanobis distance that is calculated using the mean vector and the covariance matrix with different contour IDs. Mahalanobis distance calculation unit, 306, 307, and 308 are coordinate sequence memories that hold contours as coordinate sequences, 309 is an overlap determination unit that determines the overlap of multiple contours and identifies the shielded portion, and 310 is the Mahalanobis distance. And an edge strength calculation unit that calculates the edge strength using the overlap information, 311 is a shape complexity calculation unit that calculates the shape complexity of the current candidate contour,
Reference numeral 312 denotes a coordinate sequence candidate position calculation unit that calculates a coordinate position that can be used as a new coordinate position for a plurality of coordinate sequences currently held, and 313 selects an edge strength for the new coordinate position of the contour and an optimal position for shape complexity. Then, it is a new coordinate position calculation unit that newly writes it in the memories 306, 307, 308 as a contour coordinate sequence. In the block diagram, the coordinate sequence memory
Although three of 306, 307, and 308 are shown, they are actually composed of many.

【0053】以上のように構成された本実施例は第2の
実施例と、重なりを許す複数の輪郭の座標位置を更新す
る点が異なる。与えられた複数の輪郭座標は図5に示す
ように重なっているとする。ここで遮蔽されたL0の破線
部は領域R0、R1、R2の相関により求めることができる。
すなわち、R1はR0またはR2のいずれかに相関があるかを
その平均値の差により判定する。これは重なり判定部30
9で行われる。重なり判定部309での結果を用いて標本抽
出部302では輪郭内領域のうち被遮蔽部を除いて標本を
抽出する。図5ではL0に対してR0の領域のみを、L1に対
してR1とR2の領域を求める。
The present embodiment configured as described above is different from the second embodiment in that the coordinate positions of a plurality of contours that allow overlapping are updated. It is assumed that the given contour coordinates are overlapped as shown in FIG. The broken line portion of L0 shielded here can be obtained by the correlation of the regions R0, R1, and R2.
That is, whether R1 has a correlation with R0 or R2 is determined by the difference between the average values. This is the overlap determination unit 30
Done at 9. Using the result of the overlap determination unit 309, the sample extraction unit 302 extracts the sample in the contour area excluding the shielded portion. In FIG. 5, only the region of R0 is obtained for L0, and the regions of R1 and R2 are obtained for L1.

【0054】エッジ強度演算部310はさらにこの重なり
情報を用いて、座標位置と輪郭の識別子を入力として
(数13)に示すEimageを返す。log()内の展開は(数
12)と同じである。(数10)と異なる点は被遮蔽部
分ではエッジ強度を0としていることにより、滑らかに
延びる。被遮蔽部分では輪郭位置はEshapeのみで決定さ
れることになる。複数の輪郭を用いて、このように被遮
蔽部分のエッジ強度を0とすることによって、図5のXジ
ャンクション部分のように物体の投影の重なりによって
生じる不連続な輪郭を正確に表現できる。第3の実施例
では、第2の実施例と同様に輪郭位置は動的計画法によ
り、新座標位置演算部により更新されて座標列メモリ30
6、307、308に書き込まれる。停止条件は、複数の輪郭
すべてについて変更される画素の位置が無くなるか、予
め定められた小さな値を下まわることとなる。
The edge strength calculation unit 310 further uses this overlap information and returns the E image shown in (Equation 13) using the coordinate position and the contour identifier as input. The expansion in log () is the same as (Equation 12). The difference from (Equation 10) is that the shielded portion extends smoothly because the edge strength is set to 0. In the occluded part, the contour position is determined only by E shape . By setting the edge strength of the shielded portion to 0 by using a plurality of contours in this way, it is possible to accurately represent a discontinuous contour caused by overlapping projections of objects such as the X junction portion in FIG. In the third embodiment, similarly to the second embodiment, the contour position is updated by the new coordinate position calculation unit by the dynamic programming, and the coordinate sequence memory 30 is updated.
Written on 6, 307, 308. The stop condition is that the position of the pixel changed for all of the plurality of contours disappears or falls below a predetermined small value.

【0055】処理例を用いてさらに第3の実施例を説明
する。図6は入力の画像例である。(a)に原画像を示
し、(b)に線画を示す。この画像で、輪郭lを抽出するこ
とを考える。背景RBから、髪RH、顔RF、衿RS1、リボンR
R、名札RP、ベストRV、袖RS0、RS2の領域を抽出するこ
とが目的となる。ここで、ベストRVの領域抽出の動作を
図7、図8を用いて説明する。図7の(a)(b)は原画像と
その線画である。図7において、lgは領域抽出の目標と
なる輪郭、lsは利用者がマウスにより大まかに与えた初
期輪郭である。本実施例では30回の動的計画法の反復演
算が新座標位置演算部313により求められ、図8のle
示す輪郭が座標列として得られる。図9に以上の処理を
図6に示す他の部位髪RH、顔RF、衿RS1、リボンRR、名
札RP、袖RS0、RS2に行うと図9(b)に示す輪郭lH、lF、l
S1、lR、lP、lV、lS0、lS2が得られている。このように
して得られた輪郭の外周として図6(b)に示す目標とな
る輪郭lが得られる。図9(a)は輪郭lH、lF、lS1、lR
lP、lV、lS0、lS2の共通領域として得られた領域に相当
する画像である。
The third embodiment will be further described using a processing example. FIG. 6 is an example of an input image. The original image is shown in (a) and the line drawing is shown in (b). Consider extracting the contour l in this image. From background R B , hair R H , face R F , collar R S1 , ribbon R
The purpose is to extract the areas of R , name tag R P , vest R V , sleeves R S0 , R S2 . Here, the operation of extracting the region of the best R V will be described with reference to FIGS. 7 and 8. 7A and 7B show the original image and its line drawing. In FIG. 7, l g is the contour that is the target of region extraction, and l s is the initial contour roughly given by the user with the mouse. In the present embodiment, 30 iterations of dynamic programming are calculated by the new coordinate position calculation unit 313, and the contour shown by l e in FIG. 8 is obtained as a coordinate sequence. FIG. 9 shows the above processing performed on the other parts of hair R H , face R F , collar R S1 , ribbon R R , name tag R P , sleeves R S0 and R S2 shown in FIG. 9 as shown in FIG. 9 (b). Contour l H , l F , l
S1 , l R , l P , l V , l S0 , l S2 are obtained. The target contour l shown in FIG. 6B is obtained as the outer circumference of the contour thus obtained. FIG. 9A shows contours l H , l F , l S1 , l R ,
It is an image corresponding to a region obtained as a common region of l P , l V , l S0 , and l S2 .

【0056】なお、第2、第3の実施例では最適化手段は
動的計画法を用いて実現したが、変分法の枠組みで弛緩
的に実現してもよい。
In the second and third embodiments, the optimizing means is realized by using the dynamic programming method, but it may be loosely realized by the framework of the variational method.

【0057】また本実施例ではEimageを、(数11)に
示すように(数10)の比の対数として求めた。しか
し、画素値が多次元正規分布すると仮定することから、
(数11)の第3項である”log”項を無視したEimage
を用いても良い。
In this example, E image was calculated as the logarithm of the ratio of (Equation 10) as shown in (Equation 11). However, since we assume that the pixel values are multidimensional normally distributed,
E image ignoring the "log" term, which is the third term of (Equation 11)
May be used.

【0058】[0058]

【発明の効果】以上のように本発明によれば、大まかに
初期輪郭が与えられているとき、1)初期輪郭内の画像に
対するマハラノビス距離という標準化距離からエッジ強
度を求めるため動的輪郭郭モデルのパラメータ設定が容
易になる。また領域の内外判定にマハラノビス距離の絶
対値による制約を導入することができる。
As described above, according to the present invention, when a rough initial contour is given, 1) a dynamic contour contour model for obtaining an edge strength from a standardized distance called a Mahalanobis distance for an image in the initial contour. Parameter setting becomes easy. In addition, it is possible to introduce a constraint based on the absolute value of the Mahalanobis distance to the inside / outside determination of the area.

【0059】2)対象領域が均一であったり小数であった
りした場合、マハラノビス距離の演算が共分散行列の階
数が落ちるため不可能になるが、χ2乗分布を考慮した
共分散行列の固有値によるしきい値処理により部分空間
でマハラノビス距離計算可能としている。
2) When the target area is uniform or has a decimal number, it is impossible to calculate the Mahalanobis distance because the rank of the covariance matrix drops, but the eigenvalue of the covariance matrix considering the χ 2 distribution. The Mahalanobis distance can be calculated in the subspace by the threshold processing.

【0060】3)複数の輪郭により、複数物体の重なりの
ある物体の投影に生じる輪郭の不連続に対応できる。
3) With a plurality of contours, it is possible to deal with the discontinuity of the contours that occurs in the projection of an object in which a plurality of objects overlap.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における領域抽出装置の
ブロック図
FIG. 1 is a block diagram of a region extraction device according to a first embodiment of the present invention.

【図2】本発明の第2の実施例における領域抽出装置の
ブロック図
FIG. 2 is a block diagram of a region extraction device according to a second embodiment of the present invention.

【図3】本発明の第3の実施例における領域抽出装置の
ブロック図
FIG. 3 is a block diagram of a region extraction device according to a third embodiment of the present invention.

【図4】輪郭位置の変更の説明図FIG. 4 is an explanatory diagram of changing a contour position.

【図5】重なった領域の説明図FIG. 5 is an explanatory diagram of overlapping areas.

【図6】(a)は入力画像例の原画像を示す図 (b)はその線画を示す図FIG. 6A is a diagram showing an original image of an input image example, and FIG. 6B is a diagram showing the line drawing.

【図7】(a)は初期輪郭の例の原画像を示す図 (b)はその線画を示す図7A is a diagram showing an original image of an example of an initial contour, and FIG. 7B is a diagram showing the line drawing.

【図8】(a)は輪郭収束の例の原画像を示す図 (b)はその線画を示す図8A is a diagram showing an original image of an example of contour convergence, and FIG. 8B is a diagram showing the line drawing.

【図9】(a)は複数の輪郭による領域抽出の例の原画像
を示す図 (b)はその線画を示す図
9A is a diagram showing an original image of an example of region extraction by a plurality of contours, and FIG. 9B is a diagram showing the line drawing.

【符号の説明】[Explanation of symbols]

101 画像メモリ 102 標本抽出部 103 共分散行列演算部 104 主成分演算部 105 差分演算部 106 直交変換部 107 固有値判定部 108 マハラノビス距離演算部 109 領域抽出部 201 画像メモリ 202 標本抽出部 203 共分散演算部 204 マハラノビス距離演算部 205 座標列メモリ 206 座標列候補位置演算部 207 エッジ強度演算部 208 形状複雑さ演算部 209 新座標位置演算部 301 画像メモリ 302 標本抽出部 303 共分散演算部 304 分散情報格納メモリ 305 マハラノビス距離演算部 306 307 308 座標列メモリ 309 重なり判定部 310 エッジ強度演算部 311 形状複雑さ演算部 312 座標列候補演算部 313 新座標位置演算部 101 image memory 102 sample extraction unit 103 covariance matrix calculation unit 104 principal component calculation unit 105 difference calculation unit 106 orthogonal transformation unit 107 eigenvalue determination unit 108 Mahalanobis distance calculation unit 109 region extraction unit 201 image memory 202 sample extraction unit 203 covariance calculation Part 204 Mahalanobis distance calculator 205 Coordinate sequence memory 206 Coordinate sequence candidate position calculator 207 Edge strength calculator 208 Shape complexity calculator 209 New coordinate position calculator 301 Image memory 302 Sample extractor 303 Covariance calculator 304 Covariance information storage Memory 305 Mahalanobis distance calculation unit 306 307 308 Coordinate sequence memory 309 Overlap determination unit 310 Edge strength calculation unit 311 Shape complexity calculation unit 312 Coordinate sequence candidate calculation unit 313 New coordinate position calculation unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】(a)抽出する画像領域またはそれと類似の
画像領域の画素についてn次元(n≧1)の特徴量を標本ベ
クトルとして得る標本抽出手段と、 (b)前記標本抽出手段で得られた標本ベクトルから、平
均ベクトルと共分散行列を求める共分散行列演算手段
と、 (c)前記共分散行列を固有値解析により、n個の固有ベ
クトルとその固有値を得る主成分分析手段と、 (d)前記固有ベクトルと平均ベクトルを用いて、入力画
像の各画素のn次元特徴量のK-L展開を得る直交変換手段
と、 (f)前記固有ベクトルの中で、その固有値が固有値に対
するしきい値未満のものがあれば、前記各画素のK-L展
開の中で、その固有ベクトルに相当する成分の値が大き
な画素を抽出対象から除外する第1の領域決定手段と、 (g)前記第1の領域決定手段で除外されなかった画素に
ついて、固有値が前記固有値に対するしきい値以上であ
る成分からなる部分K-L展開について、マハラノビス距
離を演算するマハラノビス距離演算手段と、 (h)前記マハラノビス距離の小さな画素を領域内として
出力する第2の領域決定手段とを備えた領域抽出装置。
1. A sample extracting means for obtaining an n-dimensional (n ≧ 1) feature quantity as a sample vector for pixels of an image area to be extracted or an image area similar to the image area, and (b) being obtained by the sample extracting means. Covariance matrix computing means for obtaining a mean vector and a covariance matrix from the sampled vector, (c) principal component analysis means for obtaining n eigenvectors and their eigenvalues by eigenvalue analysis of the covariance matrix, ) Orthogonal transformation means for obtaining the KL expansion of the n-dimensional feature amount of each pixel of the input image using the eigenvector and the average vector, and (f) in the eigenvector whose eigenvalue is less than the threshold value for the eigenvalue. If there is, in the KL expansion of each pixel, a first area determining unit that excludes a pixel having a large component value corresponding to the eigenvector from the extraction target; and (g) the first area determining unit. Pixels not excluded And a partial KL expansion consisting of components whose eigenvalues are greater than or equal to the threshold value for the eigenvalues, Mahalanobis distance calculation means for calculating Mahalanobis distances, and (h) a second pixel for outputting pixels with small Mahalanobis distances as an area A region extraction device having a region determination means.
【請求項2】(a)抽出する画像領域またはそれと類似の
画像領域の画素についてn次元(n≧1)の特徴量を標本ベ
クトルとして得る標本抽出手段と、 (b)入力画像の各画素について前記標本ベクトルの平均
ベクトルに対するマハラノビス距離を計算するマハラノ
ビス距離演算手段と、 (c)抽出する画像領域を輪郭の座標列として保持するメ
モリと、 (d)前記座標列について新しい候補位置を各座標につい
て計算する候補位置演算手段と、 (e)前記候補位置について、領域外方向と領域内方向に
ある画素間のマハラノビス距離によりエッジ強度を求め
るエッジ強度演算手段と、 (f)輪郭上で隣接する前記候補位置間で、その位置の差
分から輪郭形状の複雑さを求める形状複雑さ演算手段
と、 (h)前記候補位置について、前記エッジ強度と輪郭形状
の複雑さの線形結合を評価尺度として輪郭上で最適な系
列をもとめる最適化手段と、 (g)前記最適化手段で得られた座標列で囲まれる領域を
得る領域決定手段とを備えた領域抽出装置。
2. (a) A sample extracting means for obtaining an n-dimensional (n ≧ 1) feature amount as a sample vector for pixels of an image region to be extracted or an image region similar thereto, and (b) for each pixel of an input image. Mahalanobis distance calculating means for calculating Mahalanobis distance with respect to the average vector of the sample vector, (c) a memory for holding the image region to be extracted as a coordinate sequence of the contour, (d) a new candidate position for the coordinate sequence for each coordinate Candidate position calculating means for calculating, (e) for the candidate position, edge strength calculating means for obtaining an edge strength by Mahalanobis distance between pixels in the area outside direction and the area inside direction, (f) adjacent on the contour Between the candidate positions, a shape complexity calculating means for obtaining the complexity of the contour shape from the difference between the positions, and (h) for the candidate position, a line of the edge strength and the complexity of the contour shape. An area extraction device comprising: optimization means for obtaining an optimum sequence on a contour using shape combination as an evaluation measure; and (g) area determination means for obtaining an area surrounded by the coordinate sequence obtained by the optimization means.
【請求項3】(a)画像の輝度変化に基づいて、エッジを
検出するエッジ検出手段と、 (b)輪郭を表現する座標列を複数保持するメモリと、 (c)前記座標列について新しい候補位置を各座標につい
て計算する候補位置演算手段と、 (d)前記候補位置について、前記エッジ検出手段の結果
を用いてエッジ強度を求めるエッジ強度演算手段と、 (e)輪郭上で隣接する前記候補位置間で、輪郭形状の複
雑さを求める形状複雑さ演算手段と、 (f)複数の輪郭の前記候補位置について、重なりを判定
し、輪郭の一部が他の領域に遮蔽されている部分を発見
する被遮蔽部判定手段と、 (g)前記輪郭形状の複雑さと被遮蔽部を除く候補位置で
の前記エッジ強度の線形結合を評価尺度として輪郭上で
最適な系列をもとめる最適化手段と、 (h)前記最適化手段で得られた座標列で囲まれる領域を
複数得る領域決定手段とを備えた領域抽出装置。
3. (a) Edge detection means for detecting an edge based on a change in brightness of an image, (b) a memory for holding a plurality of coordinate sequences representing an outline, and (c) a new candidate for the coordinate sequence. Candidate position calculating means for calculating a position for each coordinate; (d) edge strength calculating means for obtaining an edge strength using the result of the edge detecting means for the candidate position; and (e) the adjacent candidate on the contour. A shape complexity calculating unit that obtains the complexity of the contour shape between the positions, and (f) the overlap is determined for the candidate positions of the plurality of contours, and a portion where a part of the contour is occluded in another area is determined. Shielded portion determination means to discover, (g) an optimization means for obtaining an optimum sequence on the contour using a linear combination of the edge strength at the candidate position excluding the shielded portion and the contour shape complexity, (h) Coordinate sequence obtained by the optimization means A region extraction device having a region determining means for obtaining a plurality of regions surrounded by.
JP3219889A 1991-08-30 1991-08-30 Area extracting device Pending JPH0561977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3219889A JPH0561977A (en) 1991-08-30 1991-08-30 Area extracting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3219889A JPH0561977A (en) 1991-08-30 1991-08-30 Area extracting device

Publications (1)

Publication Number Publication Date
JPH0561977A true JPH0561977A (en) 1993-03-12

Family

ID=16742637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3219889A Pending JPH0561977A (en) 1991-08-30 1991-08-30 Area extracting device

Country Status (1)

Country Link
JP (1) JPH0561977A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298155B1 (en) 1997-07-31 2001-10-02 Sony Corporation Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon
KR100813168B1 (en) * 2006-06-08 2008-03-17 삼성전자주식회사 Method for extracting object in digital image with shape prior and system for executing the method
JP2016170602A (en) * 2015-03-12 2016-09-23 キヤノン株式会社 Image processing system, image processing method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298155B1 (en) 1997-07-31 2001-10-02 Sony Corporation Apparatus and method for generating time-series data, apparatus and method for editing curves and recording medium having program recorded thereon
KR100813168B1 (en) * 2006-06-08 2008-03-17 삼성전자주식회사 Method for extracting object in digital image with shape prior and system for executing the method
JP2016170602A (en) * 2015-03-12 2016-09-23 キヤノン株式会社 Image processing system, image processing method and program

Similar Documents

Publication Publication Date Title
CN108197587B (en) Method for performing multi-mode face recognition through face depth prediction
JP4234381B2 (en) Method and computer program product for locating facial features
US6826292B1 (en) Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation
US5901244A (en) Feature extraction system and face image recognition system
EP1677250B1 (en) Image collation system and image collation method
US7245766B2 (en) Method and apparatus for determining a region in an image based on a user input
US7164790B2 (en) System and method for progressive stereo matching of digital images
US8180161B2 (en) Image classification device and image classification program
US8238660B2 (en) Hybrid graph model for unsupervised object segmentation
US7324104B1 (en) Method of centerline generation in virtual objects
JP4564634B2 (en) Image processing method and apparatus, and storage medium
US20020136449A1 (en) Apparatus and method for extracting object based on feature matching between segmented regions in images
US9349194B2 (en) Method for superpixel life cycle management
US20040213460A1 (en) Method of human figure contour outlining in images
CN112927353B (en) Three-dimensional scene reconstruction method, storage medium and terminal based on two-dimensional target detection and model alignment
CN108182421A (en) Methods of video segmentation and device
JP2003058896A (en) Device, method and program for recognizing positioning attitude
US20070003138A1 (en) Method for segmenting an image and an image transmission system and image transmission unit therefore
US9202138B2 (en) Adjusting a contour by a shape model
Santiago et al. 2D segmentation using a robust active shape model with the EM algorithm
US6621924B1 (en) Contour extraction apparatus, a method thereof, and a program recording medium
CN113177592B (en) Image segmentation method and device, computer equipment and storage medium
WO2016038647A1 (en) Image processing device, image processing method and storage medium storing program thereof
Chiverton et al. Automatic bootstrapping and tracking of object contours
Yung et al. Efficient feature-based image registration by mapping sparsified surfaces

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees