JPH0793561A - Edge and contour extractor - Google Patents

Edge and contour extractor

Info

Publication number
JPH0793561A
JPH0793561A JP5256406A JP25640693A JPH0793561A JP H0793561 A JPH0793561 A JP H0793561A JP 5256406 A JP5256406 A JP 5256406A JP 25640693 A JP25640693 A JP 25640693A JP H0793561 A JPH0793561 A JP H0793561A
Authority
JP
Japan
Prior art keywords
image
contour
separation
edge
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5256406A
Other languages
Japanese (ja)
Other versions
JP3490482B2 (en
Inventor
Kazuhiro Fukui
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP25640693A priority Critical patent/JP3490482B2/en
Publication of JPH0793561A publication Critical patent/JPH0793561A/en
Application granted granted Critical
Publication of JP3490482B2 publication Critical patent/JP3490482B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To stably extract gradation with a few luminance differences, colors, texture edges and contours from supplied images. CONSTITUTION:This extractor is provided with a mask area storage part B extracting the image information of the mask area for a designated point in supplied images, degree of separation calculation parts 22x and 22y calculating a degree of separation from the image information extracted in the mask area storage part B, an edge intensity calculation part 23 calculating the edge intensity of the designated point from the obtained degree of separation and an edge extraction part D extracting the contour from this obtained degree of separation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は供給された画像中の濃
淡、カラー、テクスチャエッジを安定して抽出するエッ
ジおよび輪郭抽出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an edge and contour extracting device for stably extracting shades, colors and texture edges in a supplied image.

【0002】[0002]

【従来の技術】画像処理において、エッジ抽出技術は、
最も基本的で、かつ、重要な要素技術である。エッジ
は、物体輪郭、物体内部の構造、背景の構造などを反映
しており、したがって、これに続く画像理解など上位レ
ベルの処理を実現するためには、エッジを安定、かつ高
精度に抽出することが不可欠となる。
2. Description of the Related Art In image processing, the edge extraction technique is
This is the most basic and important elemental technology. Edges reflect the contour of the object, the structure inside the object, the structure of the background, etc. Therefore, in order to realize subsequent high-level processing such as image understanding, the edge is extracted stably and with high accuracy. Is essential.

【0003】これまでに、様々なエッジ抽出方法が提案
されてきた。その中で、代表的な方法は、空間微分演算
に基づく方法である。この方法は、図21に示すよう
に、輝度が急激に変化する位置は、エッジに対応すると
いう考えに基づいている。代表的な空間微分演算に基づ
く方法に、1次微分型のRoberts,Prewitt,Sobel 、2次
微分型、Lapacaian などの差分オペレータが挙げられる
[ 画像処理アルゴリズムの最新動向別冊OplusE新技術コ
ミュニケーションズ(1986)] 。また、8個のマスクを用
意して、エッジ強度、および方向を得るPrewitt,kirsc
h,Robinson らの方法も挙げられる[ 画像処理アルゴリ
ズムの最新動向(1986)]。これらの他に局所領域で、エ
ッジモデル当てはめにより、エッジ抽出を行なう方法と
して、Hueckel のモデルフィット法などの様々なエッジ
抽出法が提案されてきた。
Various edge extraction methods have been proposed so far. Among them, a typical method is a method based on spatial differential calculation. This method is based on the idea that the position where the brightness changes abruptly corresponds to the edge, as shown in FIG. Typical spatial differential operation-based methods include differential operators such as first-order differential type Roberts, Prewitt, Sobel, second-order differential type, and Lapacaian.
[Latest Trends in Image Processing Algorithms Separate Volume OplusE New Technology Communications (1986)]. In addition, 8 masks are prepared to obtain edge strength and direction. Prewitt, kirsc
The method of H. Robinson et al. is also mentioned [Latest trend of image processing algorithms (1986)]. In addition to these, various edge extraction methods such as Hueckel's model fitting method have been proposed as methods for edge extraction by edge model fitting in a local region.

【0004】現在、実際の応用分野で最も使われている
エッジ抽出法は、空間微分演算に基づいた方法である
が、ノイズの影響を受け易いという問題があった。特
に、輝度勾配の小さい(以下、弱いエッジと呼ぶ)を抽
出する場合は、ノイズの影響を受けて正確に抽出するこ
とが難しかった。
At present, the edge extraction method which is most used in the practical application field is a method based on a spatial differential operation, but it has a problem that it is easily affected by noise. In particular, when extracting a small brightness gradient (hereinafter referred to as a weak edge), it was difficult to accurately extract it due to the influence of noise.

【0005】また、図22に示すように、輝度が緩やか
に線形変化している領域と、弱いエッジ(ステップ状)
を区別できなかった。弱いエッジまで抽出しようとする
と、線形変化している領域までエッジとして誤って抽出
してしまう。ノイズの影響に対して堅固にするために、
局所領域で輝度平均を求め、これから輝度勾配を求める
方法も提案されたが、線形変化している領域の誤検出
の、問題は解決できていない。
Further, as shown in FIG. 22, a region where the luminance is linearly changed gradually and a weak edge (stepped)
Could not be distinguished. If an attempt is made to extract weak edges, even regions that change linearly will be mistakenly extracted as edges. To be robust against the effects of noise,
A method has been proposed in which the luminance average is obtained in a local region and the luminance gradient is obtained from this, but the problem of erroneous detection of a linearly changing region has not been solved.

【0006】また、演算により得られたエッジ強度画像
からエッジ領域を抽出するためには、適切なエッジ強度
をしきい値として2値化処理する必要がある。従来のエ
ッジ抽出法から得られたエッジ強度画像は、輝度階調を
255とした場合、0から255までの幅広いエッジ強
度を含んでいる。したがって、全画面に渡って固定のし
きい値の場合、しきい値を高くすると、弱いエッジが抽
出されなくなる。逆に、しきい値を下げて、弱いエッジ
を抽出しようとすると、強いエッジ(輝度勾配が、大き
い領域)が太く抽出されて不鮮明となる。したがって、
従来のエッジ抽出法では、しきい値を画素毎に動的に変
化させる必要があり、余分な計算量が必要であった。
Further, in order to extract the edge region from the edge intensity image obtained by the calculation, it is necessary to perform binarization processing with an appropriate edge intensity as a threshold value. The edge intensity image obtained by the conventional edge extraction method includes a wide range of edge intensities from 0 to 255 when the luminance gradation is 255. Therefore, in the case of a fixed threshold value over the entire screen, if the threshold value is increased, weak edges will not be extracted. On the contrary, when the weak edge is extracted by lowering the threshold value, the strong edge (area having a large luminance gradient) is thickly extracted and becomes unclear. Therefore,
In the conventional edge extraction method, it is necessary to dynamically change the threshold value for each pixel, which requires an extra amount of calculation.

【0007】さらに、輝度エッジ以外のカラー、テクス
チャーエッジの抽出には、容易には拡張できなかった。
これは、カラー、テクスチャ画像を取り扱う上で、大き
な障害となる。
Furthermore, it has not been possible to easily extend to the extraction of colors and texture edges other than luminance edges.
This is a major obstacle in handling color and texture images.

【0008】また、エッジ情報から物体輪郭を安定に抽
出するために、輪郭モデルを使ったActiveContourModel
s(Snakes) と呼ばれる方法が提案されている。図23
に、この方法の概念図を示す。この輪郭抽出法は、予め
画像中に定義された動的な輪郭モデル(スネークモデ
ル)を、エッジに引き付けられる力(Image Force )
で、物体のエッジに徐々にフィットさせてゆく方法であ
る。一般的には、輪郭モデルの滑らかさを表す内部エネ
ルギEint とエッジに引き寄せられるポテンシャルエネ
ルギEimageの総和を次のように定義する。
In order to stably extract the object contour from the edge information, ActiveContourModel using a contour model is used.
A method called s (Snakes) has been proposed. FIG. 23
Figure 2 shows a conceptual diagram of this method. This contour extraction method uses a force (Image Force) to attract a dynamic contour model (snake model) previously defined in an image to an edge.
Then, it is a method of gradually fitting to the edge of the object. Generally, the sum of the internal energy Eint representing the smoothness of the contour model and the potential energy Eimage attracted to the edge is defined as follows.

【0009】E=Σ(Eint +Eimage ) そして、輪郭抽出は、このエネルギEを最小化すること
により実現できる。図中で、(1) が初期配置された輪郭
モデル、(2) 〜(3) が輪郭抽出過程、(4) がエネルギ最
小状態で、対象物の輪郭が抽出された状態を示してい
る。
E = Σ (Eint + Eimage) Then, the contour extraction can be realized by minimizing this energy E. In the figure, (1) shows the contour model initially arranged, (2) to (3) show the contour extraction process, and (4) shows the state where the contour of the object is extracted with the minimum energy state.

【0010】この方法は、背景画像と対象物の輝度差が
明瞭なエッジから構成される対象物の輪郭抽出には、有
効である[ 福井、久野、“マルチスネークによる動物体
の輪郭追跡”、PRU92-68(1992)/藤村,横矢,山本:
“多重スケール画像を用いた非剛体物体の動的輪郭追
跡”,情処研報,CV-78-4,pp.25-32(1992)] 。特にエッ
ジが途切れて抽出される場合にも、モデルを使っている
ので、ロバストに輪郭を抽出できる。
This method is effective for extracting the contour of an object composed of a background image and an edge whose brightness difference is clear [Fukui, Kuno, "Contour tracking of moving object by multi-snake", PRU92-68 (1992) / Fujimura, Yokoya, Yamamoto:
"Dynamic contour tracking of non-rigid objects using multi-scale images", Jikosho Kenho, CV-78-4, pp.25-32 (1992)]. In particular, even when the edges are discontinuously extracted, the contour is robustly extracted because the model is used.

【0011】しかしながら、基本的には、従来の空間輝
度勾配により抽出されたエッジ情報を利用するために、
前述に述べたエッジと同様に、対象物と背景との輝度差
が小さい弱いエッジから構成される対象物の輪郭抽出
は、うまくいかないことがあった。さらに、画像から特
定のカラー、テクスチャを有する物体を抽出する場合、
カラー、テクスチャには、拡張し難かった。
However, basically, in order to utilize the edge information extracted by the conventional spatial brightness gradient,
Similar to the edges described above, the contour extraction of an object composed of weak edges having a small brightness difference between the object and the background has been sometimes unsuccessful. Furthermore, when extracting an object with a specific color or texture from the image,
It was difficult to expand in terms of color and texture.

【0012】[0012]

【発明が解決しようとする課題】現在、前述のように幅
広く使われている空間微分演算に基づく方法だが、輪郭
モデルに適用する場合も含めて、以下に述べる第1乃至
第3の問題点があった。
Although the method based on the spatial differential operation which is widely used at present as described above, there are the following first to third problems including the case of applying to the contour model. there were.

【0013】まず、第1の問題点としては、空間微分演
算がノイズの影響を受け易い点である。通常、取り込ま
れた画像は、カメラCCD 素子、照明変化、伝送路などの
ノイズを含んでおり、輝度勾配が小さいエッジ(以下、
弱いエッジと呼ぶ)は、ノイズにより発生した輝度変化
と区別することができない。したがって、輝度勾配がノ
イズより大きいエッジ(強いエッジ)は、容易に抽出で
きるが、弱いエッジを正確に抽出することは、非常に難
しかった。ノイズの影響に対して堅固にするために、局
所的な輝度平均を用いる方法も提案されているが、基本
的には、空間輝度勾配演算に基づくために、以下の第
2、3の問題点が解決できない。
First, the first problem is that the spatial differential calculation is easily affected by noise. Usually, the captured image contains noise from the camera CCD element, lighting change, transmission path, etc.
Weak edges) are indistinguishable from luminance changes caused by noise. Therefore, an edge having a luminance gradient larger than noise (strong edge) can be easily extracted, but it is very difficult to accurately extract a weak edge. A method using a local luminance average has been proposed in order to make it robust against the influence of noise. However, it is basically based on the spatial luminance gradient calculation, and therefore the following second and third problems are involved. Can not be solved.

【0014】第2は、輝度が緩やかに線形変化している
領域と、弱いエッジ(ステップ状)を区別できない点で
ある。従来のエッジ抽出法は、輝度の空間勾配に比例し
た値をエッジ強度として出力するため、弱いエッジまで
抽出しようとすると、線形変化している領域まで誤って
抽出してしまった。
Secondly, it is impossible to distinguish a weak edge (step-like) from a region where the luminance is linearly changed slowly. Since the conventional edge extraction method outputs a value proportional to the spatial gradient of the brightness as the edge strength, when an attempt is made to extract even weak edges, even a linearly changing region is erroneously extracted.

【0015】また、同じ理由により、従来のエッジ抽出
法により出力されたエッジ画像から、2値化によりエッ
ジを抽出するためには、しきい値を画素毎に、動的に変
化させる必要があった。通常は、物体表面の反射の特
性、照明などの影響により、得られた画像は、幅広いエ
ッジ強度( 輝度勾配)を含んだものとなる。
For the same reason, in order to extract an edge by binarization from the edge image output by the conventional edge extraction method, it is necessary to dynamically change the threshold value for each pixel. It was Normally, the obtained image contains a wide range of edge intensities (luminance gradients) due to the characteristics of reflection on the object surface and the influence of illumination.

【0016】例えば、図24(A)は現画像、(B)は
従来の空間微分演算(Sobel オペレータ)のエッジ強度
画像を77で2値化した画像、(C)は(B)と同じエ
ッジ強度画像を160で、2値化した画像である。
(B)では、缶の外形輪郭は多少抽出されているが、文
字輪郭が不明瞭になっている。逆に、しきい値を上げた
(C)では、文字輪郭は、鮮明に抽出されているが、テ
ーブルと背景画像との境界、缶の外形輪郭が抽出されて
いない。このように、抽出されたエッジ強度(輝度勾
配)が広範囲に分布するので、局所的に最適なしきい値
で2値化する必要がある。
For example, FIG. 24A is the current image, FIG. 24B is the image obtained by binarizing the edge intensity image of the conventional spatial differential operation (Sobel operator) with 77, and FIG. 24C is the same edge as that of FIG. The intensity image is a binary image at 160.
In (B), the outer contour of the can is extracted to some extent, but the character contour is unclear. On the contrary, in the case of increasing the threshold value (C), the character contour is clearly extracted, but the boundary between the table and the background image and the outer contour of the can are not extracted. In this way, the extracted edge intensity (luminance gradient) is distributed over a wide range, so it is necessary to locally binarize it with an optimal threshold value.

【0017】第3の問題点としては、輝度以外の色相、
彩度、テクスチャ情報などの他の画像情報には、容易に
は拡張できない点である。画像中に複数の物体が混在す
る場合、濃淡エッジ情報のみでは、エッジの物体への正
確な対応付けが難しい。カラー、テクスチャエッジの情
報を加えることにより、対応付けが容易になる。一般的
に、カラー情報を扱う場合は、RGB 空間の替わりに、人
間が理解しやすい輝度(Hue) 、色相(Sat) 、彩度(Inten
sity) から成るHSI 空間中で考える方が容易である。し
かし、従来の空間微分演算に基づくエッジ抽出法では、
色相、彩度の空間勾配は、輝度勾配に比較して変化が小
さいため、そのまま適用するのは難しかった。テクスチ
ャエッジに対しても同様であった。
The third problem is that the hue other than the luminance is
The point is that it cannot be easily extended to other image information such as saturation and texture information. When a plurality of objects are mixed in the image, it is difficult to accurately associate the edge with the object only by the grayscale edge information. Correspondence becomes easy by adding color and texture edge information. Generally, when dealing with color information, instead of the RGB space, human-understandable luminance (Hue), hue (Sat), and saturation (Inten
It is easier to think in the HSI space consisting of (sity). However, in the conventional edge extraction method based on the spatial differential operation,
It was difficult to apply the hue and saturation spatial gradients as they are because the spatial gradients are smaller than the luminance gradients. The same was true for texture edges.

【0018】また、上に述べた問題点は、前述の輪郭モ
デルを使って画像中の物体輪郭を抽出するActiveContou
r Models (Snakes) と呼ばれる方法(M.Kass,A.Witkin,
D.Terzopouls,“Snakes:Active Contour Models ”,
In Proc.1st Int.Conf.onComputerVision,pp.259-268
(1987) )にも関与してくる。
The above-mentioned problem is that ActiveContou extracts the object contour in the image by using the above-mentioned contour model.
r Models (Snakes) method (M.Kass, A.Witkin,
D. Terzopouls, “Snakes: Active Contour Models”,
In Proc. 1st Int.Conf.on ComputerVision, pp.259-268
(1987)).

【0019】この方法においては、空間微分演算から求
まるエッジ情報に基づいて、輪郭を抽出する。したがっ
て、従来のエッジ抽出における問題点と共通した問題点
を抱えている。つまり、ノイズの影響を受けやすく、輝
度差の少ないエッジから構成される輪郭の抽出は難しい
という問題点があった。また、特定カラー、テクスチャ
領域の輪郭を抽出する場合、拡張が容易でないとう問題
もあった。
In this method, the contour is extracted based on the edge information obtained from the spatial differential calculation. Therefore, it has a common problem with the conventional edge extraction. That is, there is a problem that it is difficult to extract a contour composed of edges having a small luminance difference, which is easily affected by noise. In addition, there is a problem that expansion is not easy when extracting the contour of a specific color or texture area.

【0020】本発明は、上記課題を鑑みてなされたもの
で、その目的は与えられた画像中の濃淡、カラー、テク
スチャエッジを、安定して抽出することのできるエッジ
および輪郭抽出装置を提供することにある。
The present invention has been made in view of the above problems, and an object thereof is to provide an edge and contour extracting apparatus capable of stably extracting the shade, color, and texture edge in a given image. Especially.

【0021】[0021]

【課題を解決するための手段】請求項1に係わるエッジ
抽出装置は、供給される画像中の指定された点に対する
マスク領域の画像情報を抽出する手段と、この抽出され
た画像情報から分離度を計算する分離度計算手段と、得
られた分離度から指定された点のエッジ強度を計算する
エッジ強度計算手段と、このエッジ強度計算手段で得ら
れたエッジ強度からエッジを抽出するエッジ抽出手段と
から構成される。
An edge extraction device according to a first aspect of the present invention includes a means for extracting image information of a mask area for a specified point in a supplied image, and a degree of separation from the extracted image information. , An edge strength calculation means for calculating the edge strength of a point specified from the obtained separation strength, and an edge extraction means for extracting an edge from the edge strength obtained by the edge strength calculation means. Composed of and.

【0022】請求項2に係わるエッジ抽出装置は、上記
マスク領域は2つ領域1、2に分割され、上記分離度計
算手段は、領域1に属する画像情報集合と領域2に属す
る画像情報集合の分離度を、マスク領域内の画素iの画
像特徴量をPi、領域1に属する画像特徴量の平均を数
5、領域2に属する画像特徴量の平均を数6、マスク領
域全体の画像特徴量の平均を数7、マスク領域内の全画
素数をN、領域1、2の画素数をそれぞれn1、n2とする
と、分離度ηが下式から求めることを特徴とする。
In the edge extracting apparatus according to the second aspect, the mask area is divided into two areas 1 and 2, and the separation degree calculating means divides the image information set belonging to the area 1 and the image information set belonging to the area 2. As for the degree of separation, the image feature amount of the pixel i in the mask region is Pi, the average of the image feature amounts belonging to the region 1 is 5, the average of the image feature amounts belonging to the region 2 is 6, and the image feature amount of the entire mask region is Is defined as N, the total number of pixels in the mask region is N, and the numbers of pixels in regions 1 and 2 are n1 and n2, respectively, the separation degree η is obtained from the following equation.

【0023】[0023]

【数5】 [Equation 5]

【0024】[0024]

【数6】 [Equation 6]

【0025】[0025]

【数7】 [Equation 7]

【0026】[0026]

【数8】 請求項3に係わるエッジ抽出装置は、動的輪郭モデルを
用いた輪郭抽出において、最小化すべきエネルギ関数
に、輪郭モデルの内側と外側での請求項2の画像特徴量
の分離度をパラメ−タとしたことを特徴とする。
[Equation 8] An edge extracting apparatus according to a third aspect is a contour extracting method using an active contour model, wherein an energy function to be minimized has a parameter of the degree of separation of the image feature amount of the second aspect inside and outside the contour model. It is characterized by

【0027】[0027]

【作用】本発明のエッジ抽出装置は、供給された画像中
の指定されたマスク小領域に対する分離度を求めエッジ
強度とすることで、濃淡、カラー、テクスチャエッジを
安定に抽出し得るようにしたものである。
The edge extracting apparatus of the present invention is capable of stably extracting shades, colors and texture edges by obtaining the degree of separation for the specified mask small area in the supplied image and using it as the edge strength. It is a thing.

【0028】本発明の郭抽出装置は、輪郭モデルの内側
と外側での画像特徴量の分離度を輪郭モデルの滑らかさ
をの拘束下で、最小化して、物体輪郭を安定に抽出し得
るようにしたものである。
The contour extraction apparatus of the present invention minimizes the degree of separation of the image feature amounts inside and outside the contour model under the constraint of the smoothness of the contour model to stably extract the object contour. It is the one.

【0029】[0029]

【実施例】以下図面を参照して本発明の第1実施例につ
いて説明する。まず、実施例について具体的に説明する
前に、本発明の基本的な概念について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to the drawings. First, the basic concept of the present invention will be described before specifically describing the embodiments.

【0030】前述した問題点を解決するために、エッジ
を、輝度が急変する位置として捉える従来方法に対し
て、“領域”と“領域”の境界として捉える。ここで、
“領域”とは、構成する各画素の輝度、色相、彩度、あ
るいは、領域内て定義される輝度分散などの統計量が一
定である領域を指す。領域境界を抽出するために、図3
に示すように、画像中に矩形小領域を設定する。この小
領域の形状は、円、楕円でも良い。この矩形小領域を、
2つの領域に分割し、各領域に属する画像特徴量(輝
度、色相など)の集合が、お互いにどの程度分離されて
いるかを求める。この場合には、エッジは分離の程度が
高い位置と定義できる。
In order to solve the above-mentioned problems, an edge is regarded as a boundary between "regions" and "regions" in contrast to the conventional method in which the edge is regarded as a position where brightness changes abruptly. here,
The “area” refers to an area in which the statistics such as the brightness, the hue, the saturation of each of the constituent pixels, or the brightness distribution defined in the area are constant. To extract the region boundaries, FIG.
As shown in, a rectangular small area is set in the image. The shape of this small region may be a circle or an ellipse. This rectangular small area
It is divided into two areas, and how much the sets of image feature amounts (luminance, hue, etc.) belonging to each area are separated from each other. In this case, the edge can be defined as a position with a high degree of separation.

【0031】図4のように、分割位置が、ちょうどエッ
ジ上にある場合に、2つの属性集合は、最も分離されて
いる状態となる。エッジが鈍ってゆくにつれて、2つの
集合の分離の程度は、低下してゆく。エッジが、存在し
ない平坦領域では、分離最も低くなる。
As shown in FIG. 4, when the division position is exactly on the edge, the two attribute sets are in the most separated state. As the edges become dull, the degree of separation between the two sets decreases. In the flat area where the edge is not present, the separation is the lowest.

【0032】ここで、2つの集合間の分離の程度を表す
ために、領域間の「分離度」なる量を定義する。この分
離度は、多変量解析の判別分析において、与えられたデ
ータ集合を幾つかのクラスの分割した場合、各クラス間
がどの程度分離されているかを示す量であり、集合全体
の変動に対するクラス間の変動の占める割合である(石
村、有馬、“多変量解析の多変量解析のお話し”)。し
たがって、最大では1.0 に正規化されており、最小は0.
0 に限りなく近付く。エッジは、この分離度が高い位置
と定義できる。
Here, in order to express the degree of separation between two sets, an amount called "separation degree" between regions is defined. This degree of separation is a quantity that indicates how much each class is separated when a given data set is divided into several classes in the discriminant analysis of multivariate analysis. This is the ratio of fluctuations between the two (Ishimura, Arima, “Multivariate analysis of multivariate analysis”). Therefore, the maximum is normalized to 1.0 and the minimum is 0.
It approaches 0 without limit. An edge can be defined as a position where this degree of separation is high.

【0033】具体的には、図3に示すように、画像中の
ある点(i.j)近傍に設定した矩形マスク小領域を考
える。このマスク領域を、2つの領域1、2に分割する
場合、領域間の分離度ηは、次のように定義される。
Specifically, as shown in FIG. 3, consider a rectangular mask small area set near a certain point (ij) in the image. When this mask area is divided into two areas 1 and 2, the degree of separation η between the areas is defined as follows.

【0034】[0034]

【数9】 ここで、N=矩形領域内の全画素数、n1=探索領域1 内
の画素数、n2=探索領域2 内の画素数、Piは、位置iの
画像特徴量、数10は領域1 の画像特徴量の平均値、数
11は領域2 の画像特徴量の平均値、数12は、矩形全
領域内の画像特徴量の平均値を示している。値の範囲
は、0<η≦1となる。
[Equation 9] Here, N = the total number of pixels in the rectangular area, n1 = the number of pixels in the search area 1, n2 = the number of pixels in the search area 2, Pi is the image feature amount of the position i, and the number 10 is the image of the area 1 The average value of the feature amount, the number 11 indicates the average value of the image feature amount of the area 2, and the number 12 indicates the average value of the image feature amount in the entire rectangular area. The range of values is 0 <η ≦ 1.

【0035】[0035]

【数10】 [Equation 10]

【0036】[0036]

【数11】 [Equation 11]

【0037】[0037]

【数12】 図4は、マスクの大きさをsize=8ピクセル、width=1 ピ
クセルとした場合の、輝度分布とそれに対する分離度の
値を示している。(A)は、理想ステップエッジ、
(B)〜(C)は、鈍ったステップエッジ、(D)は、
線形勾配領域、(E)は、ほぼ平坦領域を示している。
理想ステップエッジが、崩れるにつれて、分離度の値
が、1.0 から徐々に下がってゆく。完全な平坦領域に対
しては、分母の分散が0となるために上式からは、計算
できない。したがって、予め0と定義しておく。
[Equation 12] FIG. 4 shows the luminance distribution and the value of the degree of separation for the case where the mask size is size = 8 pixels and width = 1 pixels. (A) is an ideal step edge,
(B) to (C) are dull step edges, and (D) is
The linear gradient region, (E) shows a substantially flat region.
As the ideal step edge collapses, the separation value gradually decreases from 1.0. For a completely flat region, the variance of the denominator is 0, and therefore it cannot be calculated from the above equation. Therefore, it is defined as 0 in advance.

【0038】図5は、探索領域を分割位置Psepで分割し
た時の分離度の変化を示している。Psep =7で分離度
は最大となっている。この位置は、領域境界上(エッ
ジ)に一致している。エッジから離れるにつれて、分離
度は低下してゆく。
FIG. 5 shows changes in the degree of separation when the search area is divided at the division position Psep. At Psep = 7, the degree of separation is maximum. This position coincides with the area boundary (edge). As the distance from the edge increases, the degree of separation decreases.

【0039】図6に、この分離度を使って、指定された
点(i,j) のエッジ強度と方向を計算する方法を示す。図
に示すように、X、Y方向に対する2つのマスクを用意
して、それぞれ分離度を求める。求めた2つの分離度か
ら、指定された点のエッジ強度と方向を計算する。
FIG. 6 shows a method of calculating the edge strength and the direction of a specified point (i, j) by using this degree of separation. As shown in the figure, two masks for the X and Y directions are prepared, and the degree of separation is obtained for each. The edge strength and the direction of the specified point are calculated from the obtained two degrees of separation.

【0040】この分離度によるエッジ抽出の利点とし
て、ステップエッジの高さ(輝度差)には依らず、全て
の理想ステップエッジに対しては、正規化されて同じエ
ッジ強度(1.0) を出力する点が挙げられる。一方、線形
変化している領域のエッジ強度は、0.75となる。したが
って、しきい値を0.75より大きくとることにより、前述
の第2の問題点を解決できる。また、エッジは領域境界
として、2つの領域に基づいて大局的に抽出されるの
で、空間勾配に基づく方法に比べてノイズの影響に対し
て堅固になり、前述の第2の問題点に対応できる。
As an advantage of the edge extraction based on this degree of separation, the same edge strength (1.0) is output after normalization for all ideal step edges regardless of the step edge height (luminance difference). There are points. On the other hand, the edge strength of the region that changes linearly is 0.75. Therefore, by setting the threshold value larger than 0.75, the second problem described above can be solved. Further, since the edge is globally extracted as the area boundary based on the two areas, the edge is more robust against the influence of noise as compared with the method based on the spatial gradient, and the above-mentioned second problem can be addressed. .

【0041】また、前述の第3の問題点に対しては、領
域に属する集合を、分離するという考えに基づいている
ために、輝度情報の他に、領域内で定義可能な画像特徴
量(カラー、テクスチャ情報など)にも容易に拡張でき
る。
The third problem described above is based on the idea of separating the sets belonging to the area. Therefore, in addition to the brightness information, the image feature amount ( It can be easily extended to color, texture information, etc.).

【0042】次に複数の画像特徴量からエッジを抽出す
る方法について説明する。ここでは、画像特徴量とし
て、RGB の3つの輝度情報を例に説明する。分離度ηrg
b は次式から求まる。
Next, a method of extracting an edge from a plurality of image feature amounts will be described. Here, as the image feature amount, three pieces of RGB luminance information will be described as an example. Separation degree ηrg
b is calculated from the following equation.

【0043】[0043]

【数13】 σg ,σb も同様に求まる。ここで、N=探索領域内の
全画素数、n1=探索領域1 の画素数、n2=探索領域2 の
画素数、Pir は位置i のR輝度レベル、数14は領域1
内のR輝度の平均、数15は領域2内のR輝度の平均、
数16は全体のR輝度の平均、ωr ,ωg ,ωb は、R
、G 、B に対する重み(0 〜1.0 )を示している。値
の範囲は、0<η≦1.0となる。
[Equation 13] Similarly, σg and σb can be obtained. Here, N = the total number of pixels in the search area, n1 = the number of pixels in the search area 1, n2 = the number of pixels in the search area 2, Pir is the R brightness level at position i, and Equation 14 is the area 1
, The average of the R brightness in the region 2, and the number 15 is the average of the R brightness in the region 2.
Equation 16 is the average of the R brightness of the whole, and ωr, ωg, ωb are R
, G, and B (0 to 1.0). The value range is 0 <η ≦ 1.0.

【0044】[0044]

【数14】 [Equation 14]

【0045】[0045]

【数15】 [Equation 15]

【0046】[0046]

【数16】 上記以外に、RGB の各分離度を独立に計算して、3つの
分離度の加重平均値、あるいは、最大値をエッジ強度と
しても良い。また、RGB 情報から、明度(H) 、色相(S)
、彩度(I) に変換して、これに対する分離度を計算す
る。3つの分離度の加重平均値、あるいは、最大値をエ
ッジ強度としても良い。
[Equation 16] In addition to the above, each separation degree of RGB may be calculated independently, and the weighted average value or maximum value of the three separation degrees may be used as the edge strength. Also, from the RGB information, the brightness (H), hue (S)
, Saturation (I) and calculate the separability. The weighted average value of the three degrees of separation or the maximum value may be used as the edge strength.

【0047】テクスチャエッジを抽出する場合は、輝度
情報から第1次統計量(分散、3次モーメント、4次モ
ーメント)、第2次統計量(同時生起行列、差分統計
量、局座標同時生起行列)を求める。求めたいテクスチ
ャエッジの特性により、こらのテクスチャ量を組み合わ
せて、下式から分離度を計算し、エッジ強度とする。
When extracting texture edges, the first-order statistics (variance, third-order moment, fourth-order moment), second-order statistics (co-occurrence matrix, difference statistic, local coordinate co-occurrence matrix) are calculated from luminance information. ). Depending on the characteristics of the texture edge to be obtained, these texture amounts are combined, and the degree of separation is calculated from the following formula to obtain the edge strength.

【0048】画像特徴量が増えた4つ以上に増えた場合
も、同様に下式のように分離度が定義できる。
Even when the image feature amount is increased to four or more, the degree of separation can be defined by the following equation.

【0049】[0049]

【数17】 ここで、Wは、画像特徴量の数、数18は画像特徴量k
の全体での分散値、数19は平均値、数20は領域1内
での画像特徴量k の平均、数21は領域2内での画像特
徴量K の平均である。値の範囲は、0<η≦1.0とな
る。
[Equation 17] Here, W is the number of image feature amounts, and Eq. 18 is the image feature amount k
, The average value, the numerical value 20 is the average of the image characteristic amounts k 1 in the region 1, and the numerical value 21 is the average of the image characteristic amounts K 2 in the region 2. The value range is 0 <η ≦ 1.0.

【0050】[0050]

【数18】 [Equation 18]

【0051】[0051]

【数19】 [Formula 19]

【0052】[0052]

【数20】 [Equation 20]

【0053】[0053]

【数21】 以下、図1及び図2を参照して第1実施例について説明
する。図1は本発明の第1実施例に係わるエッジ抽出装
置の構成を示すブロック図、図2は第1実施例の動作を
説明するためのフロ−チャ−トである。
[Equation 21] The first embodiment will be described below with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing the configuration of an edge extracting apparatus according to the first embodiment of the present invention, and FIG. 2 is a flow chart for explaining the operation of the first embodiment.

【0054】図1において、Aはエッジを抽出する対象
物を画像を入力する画像入力部である。この画像入力部
Aはエッジを抽出する対象物を撮像するITVカメラ1
と、このITVカメラ1で撮像されたアナログ画像デ−
タをデジタルデ−タに変換するA/D変換器2と、この
A/D変換器2から出力されるテジタル画像デ−タをカ
ラ−変換するカラ−ルックアップテ−ブル3と、そのカ
ラ−変換された画像デ−タを記憶する画像メモリ4とか
ら構成される。画像メモリ4は3枚の画像メモリ4−
R、4−G、4−Bから構成されている。
In FIG. 1, A is an image input unit for inputting an image of an object whose edges are to be extracted. The image input unit A is an ITV camera 1 for capturing an image of an object whose edges are to be extracted.
And an analog image data imaged by the ITV camera 1.
A / D converter 2 for converting the digital data into digital data, a color look-up table 3 for color-converting the digital image data output from the A / D converter 2, and its color. An image memory 4 for storing the converted image data. The image memory 4 includes three image memories 4-
It is composed of R, 4-G, and 4-B.

【0055】画像入力部Aの出力は指定したマスク領域
内の画像デ−タを2つのバッファに格納するマスク領域
格納部Bに接続される。このマスク領域格納部Bはマス
ク位置を指定するマスク位置制御部11と、画像メモリ
4から指定された点に対する図6に示す2つの幅width
、長さsizeのx,y方向の矩形マスク領域の画像デー
タを読みだしてそれぞれバッファ13x,13yに格納
する画像取り込み部12、テクステャ量を計算するテク
スチャ計算部14とから構成される。この長さsizeは、
解像度に比例しており、大きくするとノイズ影響は受け
にくくなるが、解像度は荒くなる。実用上は、sizeは、
2〜6ピクセルの範囲で予め設定する。あるいは、様々
サイズのマスクに対する分散値を計算して最も大きくな
るsizeを選択しても良い。width は、1〜5ピクセルの
範囲に設定される。
The output of the image input section A is connected to the mask area storage section B which stores the image data in the specified mask area in two buffers. The mask area storage unit B has a mask position control unit 11 for designating a mask position, and two widths shown in FIG. 6 for a designated point from the image memory 4.
, An image capturing unit 12 for reading image data of a rectangular mask area of length size in the x and y directions and storing the image data in buffers 13x and 13y, respectively, and a texture calculation unit 14 for calculating a texture amount. This length size is
It is proportional to the resolution, and if it is increased, it is less susceptible to noise, but the resolution becomes rough. In practice, size is
It is preset in the range of 2 to 6 pixels. Alternatively, the size that maximizes may be selected by calculating the variance value for masks of various sizes. The width is set in the range of 1 to 5 pixels.

【0056】画像取り込み部Bはマスク領域の分離度η
を計算するエッジ計算部Cに接続される。エッジ計算部
Cは、バッファ13x,13yに格納されているx,y
方向の画像デ−タの分散度σを計算し、その分散度σが
所定値以上の場合に後続のx方向分離度計算部22x,
y方向分離度計算部22yでそれぞれx,y方向分離度
ηx,ηyを計算させる分散しきい値処理部21x,2
1y、x方向分離度計算部22x,y方向分離度計算部
22yでそれぞれ計算されたx,y方向分離度ηx,η
yから与えられた点における分離度ηを計算する分離度
計算部23、この分離度計算部23で計算された分離度
ηを、適当なスケ−ル倍、例えば255 倍するスケ−ル変
換部24、このスケ−ル変換後の分離度ηを格納する画
像メモリ25とから構成される。
The image capturing section B determines the degree of separation η of the mask area.
Is connected to the edge calculation unit C that calculates The edge calculation unit C has x, y stored in the buffers 13x, 13y.
The dispersion degree σ of the image data in the direction is calculated, and when the dispersion degree σ is equal to or more than a predetermined value, the subsequent x-direction separation degree calculation unit 22x,
Dispersion threshold processing units 21x and 2 for causing the y-direction separation calculation unit 22y to calculate the x-direction separations ηx and ηy respectively.
1y, x-direction separation degree calculation unit 22x, y-direction separation degree calculation unit 22y respectively, x, y-direction separation degree ηx, η
A separability calculator 23 for calculating the separability η at a point given by y, and a scale converter for multiplying the separability η calculated by the separability calculator 23 by an appropriate scale factor, for example, 255. 24, and an image memory 25 for storing the separation degree η after the scale conversion.

【0057】エッジ計算部Cの出力は対象物のエッジを
抽出するエッジ抽出部Dに接続それる。このエッジ抽出
部Dは、画像メモリ25に格納されている与えられた点
の分離度ηが所定しきい値で2値化処理する2値化処理
部31を備える。
The output of the edge calculation section C is connected to an edge extraction section D for extracting the edge of the object. The edge extraction unit D includes a binarization processing unit 31 that binarizes the separation degree η of a given point stored in the image memory 25 with a predetermined threshold value.

【0058】このエッジ抽出部Dの出力は画像出力部E
に接続される。この画像出力部Eは2値化処理部31で
2値化処理された画像デ−タを格納する画像メモリ41
と、画像メモリ41に格納されている画像デ−タを表示
するモニタ42とから構成されている。なお、画像メモ
リ25、2値化処理部31、画像メモリ41、モニタ4
2はそれぞれ画像バスGに接続されている。
The output of the edge extraction unit D is the image output unit E.
Connected to. The image output unit E is an image memory 41 for storing the image data binarized by the binarization processing unit 31.
And a monitor 42 for displaying the image data stored in the image memory 41. The image memory 25, the binarization processing unit 31, the image memory 41, and the monitor 4
2 are connected to the image bus G, respectively.

【0059】次に、上記のように構成された本発明の第
1実施例について図2のフロ−チャ−トを参照しながら
説明する。ITVカメラ1から入力された画像は、A/
D変換器によりデジタル化され、カラールックアップテ
ーブルを経由してカラー変換されて画像メモリ4に格納
される。
Next, the first embodiment of the present invention constructed as above will be described with reference to the flow chart of FIG. The image input from the ITV camera 1 is A /
It is digitized by the D converter, color-converted via a color lookup table, and stored in the image memory 4.

【0060】まず、マスク位置制御部11によりマスク
位置が指定される(ステップS1)。次に、画像取り込
み部12は、画像メモリ4から、指定された点に対する
図6に示す2つの幅width 、長さsizeの矩形マスク領域
の画像データを、それぞれバッファ13x,13yにそ
れぞれ格納する(ステップS2)。
First, the mask position is designated by the mask position controller 11 (step S1). Next, the image capturing unit 12 stores the image data of the rectangular mask area having the two widths width and length size shown in FIG. 6 for the specified point from the image memory 4 in the buffers 13x and 13y, respectively ( Step S2).

【0061】次に、分散しきい値処理部12x,12y
は、それぞれマスク領域内の分散値σ計算し、指定した
分散しきい値より大きい場合に限り、分離度を計算する
(ステップS31、S32,S41,S42,S52,
S53)。
Next, the distributed threshold processing units 12x and 12y.
Calculates the variance value σ in each mask area, and calculates the degree of separation only when the variance value is larger than the specified variance threshold (steps S31, S32, S41, S42, S52,
S53).

【0062】一方、マスク領域内の分散値σ計算し、指
定した分散しきい値より小さい場合は、分離度“0”を
与える(ステップS51、S53)。
On the other hand, the variance value σ in the mask area is calculated, and when it is smaller than the designated variance threshold value, the degree of separation “0” is given (steps S51 and S53).

【0063】x方向分離度計算部22xでは、バッファ
13xに格納されている領域X1、X2の輝度データか
ら、数22を使ってX 方向の分離度ηxを計算する(ス
テップS52)。同様に、Y方向分離度計算部22y
は、バッファ13yに格納されている領域Y1、Y2の
輝度データから、数23を使用して、Y方向の分離度η
yを計算する(ステップS54)。分離度計算部23
は、X方向の分離度ηxとY方向の分離度ηyから与え
られた点における分離度Out 、およびエッジ方向φを次
式で計算する(ステップS7、S8)。
The x-direction separability calculator 22x calculates the separability ηx in the X-direction from the luminance data of the regions X1 and X2 stored in the buffer 13x by using the equation 22 (step S52). Similarly, the Y-direction separation degree calculation unit 22y
Is calculated from the luminance data of the regions Y1 and Y2 stored in the buffer 13y by using the following equation 23.
y is calculated (step S54). Separation degree calculation unit 23
Calculates the degree of separation Out at a point given by the degree of separation ηx in the X direction and the degree of separation ηy in the Y direction and the edge direction φ by the following formulas (steps S7 and S8).

【0064】[0064]

【数22】 [Equation 22]

【0065】[0065]

【数23】 [Equation 23]

【0066】[0066]

【数24】 テクスチャエッジを抽出する場合は、テクスチャ量計算
部14でテクスチャ量を求め、この値を用いて分離度を
計算する。
[Equation 24] When extracting a texture edge, the texture amount calculation unit 14 obtains a texture amount, and this value is used to calculate the degree of separation.

【0067】次に全画素のエッジを計算したかを判定す
る(ステップS8)。ここで、すべての画素のエッジが
計算されていない場合には、再度、マスク位置制御部1
1は、次の画素の位置にマスク領域位置を移動させる
(ステップS2)。このような処理を繰り返すことによ
り、すべての画素のエッジが計算されると、適当なスケ
ール倍、例えば255倍して画像メモリ25に格納す
る。
Next, it is determined whether the edges of all pixels have been calculated (step S8). If the edges of all the pixels have not been calculated, the mask position control unit 1
1 moves the mask area position to the position of the next pixel (step S2). When the edges of all the pixels are calculated by repeating such processing, they are multiplied by an appropriate scale factor, for example, 255, and stored in the image memory 25.

【0068】次に、画像メモリ25に格納されている画
像デ−タが2値化処理部31で2値化した後、画像メモ
リに41に格納する(ステップS9)。
Next, after the image data stored in the image memory 25 is binarized by the binarization processing unit 31, it is stored in the image memory 41 (step S9).

【0069】そして、画像メモリ41に格納されている
処理結果を画像バスBを経由してモニタ42に表示する
(ステップS10)。
Then, the processing result stored in the image memory 41 is displayed on the monitor 42 via the image bus B (step S10).

【0070】以上のように第1実施例によれば、エッジ
を検出する対象物の画像デ−タの全位置に対するx方向
分離度ηx,y方向分離度ηyより分離度ηを計算し、
この分離度ηに基づいてエッジを抽出するようにしたの
で、エッジを安定して抽出することができる。
As described above, according to the first embodiment, the separability η is calculated from the x-direction separability ηx and the y-direction separability ηy for all positions of the image data of the object whose edge is to be detected,
Since the edges are extracted based on the degree of separation η, the edges can be extracted stably.

【0071】なお、この第1実施例ではマスク領域はx
方向とy方向の2つだけであったが、マスクの数は3つ
以上であっても良い。例えば、図7に示すような6枚に
増やして、合計6つのマスクを持つようにしても良い。
図7において、マスクは、固有の傾きのエッジに対応す
る。図中で(A)は、水平エッジ、(C)は水平から3
0度傾いたエッジに対応する。
In the first embodiment, the mask area is x
Although there are only two in the direction and the y direction, the number of masks may be three or more. For example, the number of masks may be increased to 6 as shown in FIG. 7 to have a total of 6 masks.
In FIG. 7, the mask corresponds to an edge with a unique slope. In the figure, (A) is a horizontal edge, and (C) is 3 from horizontal.
Corresponds to a 0 degree tilted edge.

【0072】こりように、6つのマスクを持った場合に
は、マスク領域格納部Bは、画像メモリ4から、マスク
領域の輝度データを6つのバッファに格納するようし、
エッジ計算部Cは、6つのバッファの輝度データを使っ
て、6方向の分離度を計算し、分離度計算部23は、こ
の6つの分離度の中で最大の分離度を求め、エッジ強度
とし、エッジの方向は、エッジ強度が最大となるマスク
の方向とすれば良い。
As described above, in the case of having six masks, the mask area storage unit B stores the brightness data of the mask area from the image memory 4 in six buffers,
The edge calculation unit C calculates the degree of separation in six directions using the luminance data of the six buffers, and the degree-of-separation calculation unit 23 obtains the maximum degree of separation among these six degrees of separation and sets it as the edge strength. The edge direction may be the direction of the mask that maximizes the edge strength.

【0073】図24(D)は、図24(A)に対する本
実施例によるエッジ抽出の結果である。マスクサイズは
6 ピクセル、分散値しきい値は16、エッジ強度のしきい
値は0.6 である。図24(D)は図24(B)及び
(C)に比較して固定のしきい値にも拘らずに、外形輪
郭と文字領域の両方とも均一に抽出されていることが分
かる。
FIG. 24D shows the result of edge extraction according to this embodiment with respect to FIG. Mask size is
The threshold is 6 pixels, the variance threshold is 16, and the edge strength threshold is 0.6. It can be seen that, in FIG. 24D, both the outer contour and the character region are uniformly extracted despite the fixed threshold value as compared with FIGS. 24B and 24C.

【0074】次に、本発明の第2実施例に係わる物体の
輪郭抽出装置について図8乃至図14を参照して説明す
る。この第2実施例は、画像中から動的輪郭モデルを用
いて安定に物体の輪郭抽出を行なう物体の輪郭抽出装置
に関する。
Next, an object contour extracting apparatus according to the second embodiment of the present invention will be described with reference to FIGS. 8 to 14. The second embodiment relates to an object contour extraction apparatus that stably extracts an object contour from an image using an active contour model.

【0075】まず、従来の動的輪郭モデルを使った輪郭
抽出について説明する。この方法は、前述したように画
像中の対象物からの輪郭抽出問題を、エネルギ最小化問
題に変換して解く手法である。画像中に輪郭モデルを定
義して、画像中の輪郭上で最小になるようなエネルギー
関数Eを定義する。
First, the contour extraction using the conventional active contour model will be described. This method is a method for converting the contour extraction problem from the object in the image into the energy minimization problem and solving it, as described above. A contour model is defined in the image, and an energy function E that minimizes the contour model in the image is defined.

【0076】E=Σ(Eint +Eimage +Eext ) ここで、Eint は、輪郭モデルの滑らかさを示すエネル
ギ−、Eimage はエッジ上で最小となるポテンシャルエ
ネルギ−、つまり、エッジに引き寄せられる力を示して
いる、Eext は外部から与えられるエネルギを示すが、
ここでは考慮しない。このエネルギが最小となる状態
が、輪郭モデルが輪郭にフィットした状態である。
E = Σ (Eint + Eimage + Eext) where Eint is the energy indicating the smoothness of the contour model, and Eimage is the minimum potential energy on the edge, that is, the force attracted to the edge. , Eext represents the energy given from the outside,
Not considered here. The state in which this energy is the minimum is the state in which the contour model fits the contour.

【0077】従来の動的輪郭モデルによる輪郭抽出は、
空間微分演算から求まるエッジに基づいていた。したが
って、前述したように輝度差の少ない輪郭、カラー、テ
クスチャ輪郭を抽出できないという問題点があった。こ
の問題点を解決するために、エネルギEimage を輪郭モ
デルの内側と外側の画像特徴量の分離度ηから決るエネ
ルギ項Esep に置き換える。
The contour extraction by the conventional active contour model is
It was based on the edge obtained from the spatial differentiation operation. Therefore, as described above, there is a problem in that contours, colors, and texture contours having a small difference in brightness cannot be extracted. In order to solve this problem, the energy Eimage is replaced with the energy term Esep determined from the degree of separation η of the image features inside and outside the contour model.

【0078】E=Σ(Eint +Esep ) Esep =A/η ここで、Aは正の定数である。Esep は、物体輪郭上で
もっとも画像特徴量が分離されるので、最小となる。
E = Σ (Eint + Esep) Esep = A / η where A is a positive constant. Esep is the smallest because the image feature amount is most separated on the object contour.

【0079】上記の最小化問題を解く様々な方法が提案
されている[A.A.Amini T.E. Weymouth, R.C. Jain:,
“Using dynamic programming for solving variationa
l problems in vision“IEEE Trans.onPattern Analysi
s and Machine Intelligence,PAMI,vol12,no9,pp.855-8
67(1990)/藤村, 横矢,山本:“多重スケール画像を用
いた非剛体物体の動的輪郭追跡”,情処研報,CV-78-4,
pp.25-32(1992)/上田,,間瀬,末永“エネルギ最小化
に基づく輪郭追跡”情処研報,CV-73,pp33-39(1991)]。
本実施例では、繰り返し計算を用いずに滑らかさをB ス
プライン曲線で近似するBスプライン輪郭モデル[R. Ci
polla, A. Blake:“The dynamic analysisof apparentc
ontours” In Proc.3rd Int. Conf.on Computer Visio
n,pp616-623(1990)]を使う。B スプライン輪郭モデルの
詳細は、既に出願済みの特許[13A92X092-1] に記載され
ている。
Various methods for solving the above minimization problem have been proposed [AAA mini TE Weymouth, RC Jain :,
“Using dynamic programming for solving variationa
l problems in vision “IEEE Trans.onPattern Analysi
s and Machine Intelligence, PAMI, vol12, no9, pp.855-8
67 (1990) / Fujimura, Yokoya, Yamamoto: “Dynamic contour tracking of non-rigid objects using multi-scale images”, Kenjo Kenkyuho, CV-78-4,
pp.25-32 (1992) / Ueda, Mase, Suenaga "Contour Tracking Based on Energy Minimization", Information Processing Research Report, CV-73, pp33-39 (1991)].
In the present embodiment, a B-spline contour model [R. Ci that approximates smoothness with a B-spline curve without using iterative calculation]
polla, A. Blake: “The dynamic analysisof apparentc
ontours ”In Proc. 3rd Int. Conf.on Computer Visio
n, pp616-623 (1990)] is used. Details of the B-spline contour model are described in the already filed patent [13A92X092-1].

【0080】図12は、分離度を輪郭モデルに適用した
例を示している。図中(A)は、初期配置された輪郭モ
デル、(B)は、1ステップ処理が進んだ状態、(C)
は、更に幾つかステップが進んだ状態、(D)はエネル
ギ−関数Eが最小になって、輪郭を抽出している状態を
示している。各サンプル点に対して設けられた矩形領域
は、分離度が最大となる分割位置を探索するための探索
領域である。小さい○がサンプル点を示している。矩形
内部の波形は、分離度の分布を示している。ベクトル
は、各ステップにおける各サンプル点の移動量、大きい
『●」』はBスプライン曲線の制御点をを示している。
FIG. 12 shows an example in which the degree of separation is applied to the contour model. In the figure, (A) is a contour model that has been initially arranged, (B) is a state in which one-step processing has progressed, (C)
Shows a state in which some steps have been further advanced, and (D) shows a state in which the energy function E is minimized and the contour is extracted. The rectangular area provided for each sample point is a search area for searching a division position where the degree of separation is maximum. Small circles indicate sample points. The waveform inside the rectangle shows the distribution of the degree of separation. The vector is the amount of movement of each sample point in each step, and the large "●" indicates the control point of the B-spline curve.

【0081】ヒューマンI/Fにおいて、顔輪郭を抽出
することは、重要な要素技術である。ここでは、本実施
例を、より具体的にするために、対象物を人間の顔とし
て図に沿って詳細に説明する。
In the human I / F, extracting the face contour is an important elemental technique. Here, in order to make the present embodiment more specific, the object will be described in detail with reference to the drawings as a human face.

【0082】図8は物体の輪郭抽出装置の構成を示すブ
ロック図である。図8において、Hは物体の画像を撮像
する画像入力部である。この画像入力部Hは対象物を撮
像するITVカメラ51と、このITVカメラ51で撮
像されたアナログ画像デ−タをデジタルデ−タに変換し
て画像バスG1に出力するA/D変換器52と、この画
像バスG1に接続され、A/D変換器52から出力され
るデジタル画像デ−タを記憶する画像メモリ53とから
構成される。
FIG. 8 is a block diagram showing the structure of the object contour extracting apparatus. In FIG. 8, H is an image input unit that captures an image of an object. The image input section H includes an ITV camera 51 for picking up an image of an object and an A / D converter 52 for converting analog image data picked up by the ITV camera 51 into digital data and outputting the digital data to an image bus G1. And an image memory 53 for storing digital image data output from the A / D converter 52 and connected to the image bus G1.

【0083】画像入力部Hは画像中から顔候補領域を抽
出して、輪郭モデルを候補領域の近傍の楕円上に初期配
置する初期配置部Iに接続される。初期配置部Iにおい
て、差分回路54とカラ−ルックアップテ−ブル(CL
UT)55が接続されている。
The image input unit H is connected to an initial placement unit I that extracts face candidate regions from the image and initially places the contour model on an ellipse near the candidate regions. In the initial arrangement unit I, the difference circuit 54 and the color lookup table (CL
UT) 55 is connected.

【0084】初期配置部Bは、顔候補領域抽出部I1
と、輪郭モデル配置部I2からなる。顔候補領域抽出部
I1は、画像メモリ53に格納されている顔を含まない
画像デ−タ(背景画像ともいう)p1と現時点に入力され
た画像デ−タp2と差分演算を行う差分回路54と、この
差分回路54の出力をしきい値処理して画像デ−タp3を
論理和回路57に出力する2値化回路56と、現時点に
入力された画像デ−タp2をカラ−変換して画像デ−タp4
として前記論理和回路57に出力するカラ−ルックアッ
プテ−ブル55と、画像デ−タp3と画像デ−タp4の論理
和を施し、外接算出回路57に出力する論理和回路57
と、この論理和回路57から出力される画像デ−タから
顔候補領域の外接長方形座標を計算し座標を内接楕円算
出回路59に出力する外接長方形算出回路58と、その
外接長方形に内接する内接楕円を計算する内接楕円計算
回路59とから構成される。
The initial arranging section B has a face candidate area extracting section I1.
And the contour model placement unit I2. The face candidate area extraction unit I1 is a difference circuit 54 that performs a difference operation between the image data (also referred to as a background image) p1 that does not include a face stored in the image memory 53 and the image data p2 that is currently input. And the binarization circuit 56 for thresholding the output of the difference circuit 54 and outputting the image data p3 to the logical sum circuit 57, and the image data p2 input at the present time to color conversion. Image data p4
As a result, the color look-up table 55, which is output to the OR circuit 57, is ORed with the image data p3 and the image data p4, and is output to the circumscribing circuit 57.
And a circumscribed rectangle calculation circuit 58 that calculates the circumscribed rectangle coordinates of the face candidate area from the image data output from the OR circuit 57 and outputs the coordinates to the inscribed ellipse calculation circuit 59, and inscribes the circumscribed rectangle. An inscribed ellipse calculation circuit 59 for calculating an inscribed ellipse.

【0085】輪郭モデル配置部I2は、図13に示すよ
うに求めた内接楕円上に輪郭モデルを配置する。この輪
郭モデル配置部I2には人間が画像を見ながら、対話的
に入力するマウス60が接続される。
The contour model placement section I2 places the contour model on the inscribed ellipse obtained as shown in FIG. A mouse 60, which a person interactively inputs while viewing an image, is connected to the contour model placement unit I2.

【0086】初期配置部Iは輪郭を抽出する輪郭抽出部
Jに接続される。輪郭抽出部Jは与えられた制御点か
ら、輪郭モデル曲線を計算する輪郭モデル計算部J1
と、輪郭モデル自身の周辺の分離度を調べ、輪郭モデル
の内側と外側間の分離度が増加する方向に、輪郭モデル
を変形してゆく輪郭モデル変形部J2と、一時点前の全
サンプル点の平均分離度と現在の平均分離度の時間変化
から、輪郭抽出処理が収束したかの判定を行なう収束判
定部J3とから構成される。
The initial placement section I is connected to a contour extracting section J for extracting contours. The contour extraction unit J calculates a contour model curve from the given control points, and the contour model calculation unit J1
And the separation degree around the contour model itself, and the contour model deforming section J2 that deforms the contour model in the direction in which the separation degree between the inside and outside of the contour model increases, and all sample points before the temporary point. Convergence determination unit J3 that determines whether or not the contour extraction processing has converged based on the temporal change in the average resolution and the current average resolution.

【0087】輪郭モデル計算部J1は、輪郭モデル配置
部I2から与えられた制御点から、輪郭モデル曲線を計
算する。図23に示したように、輪郭モデル曲線は、n
個の制御点Pi(i=0,n−1)により決るBスプライン曲線で
表される。Bスプライン曲線上には、m 個のサンプル点
Si(i=0,m-1) が設定される。
The contour model calculation unit J1 calculates the contour model curve from the control points given from the contour model arrangement unit I2. As shown in FIG. 23, the contour model curve is n
It is represented by a B-spline curve determined by the individual control points Pi (i = 0, n−1). There are m sample points on the B-spline curve.
Si (i = 0, m-1) is set.

【0088】輪郭モデル計算部J1は、与えられた制御
点から決定される輪郭モデル(Bスプライン曲線)を次
式(3)から計算する。
The contour model calculation unit J1 calculates the contour model (B-spline curve) determined from the given control points from the following equation (3).

【0089】[0089]

【数25】 ここで、mは、制御点の総数、Qixは、制御点iのY座
標、Qiyは、制御点iのY座標、Ni(s)は、Bスプライ
ン基本関数を表す。
[Equation 25] Here, m is the total number of control points, Qix is the Y coordinate of the control point i, Qiy is the Y coordinate of the control point i, and Ni (s) is the B spline basic function.

【0090】輪郭モデル変形部J2は図12に示すよう
に、各サンプル点S の周辺に矩形の探索領域を設け、そ
の探索領域の画像デ−タをバッファ(図示しない)に記
憶させる探索領域決定部61と、そのバッファに格納さ
れている画像データを境界Bで分割した場合の分離度を
計算する分離度計算部62と、分割位置B を変化させな
がら、分離度が最大となる分割境界Bmax を、ニュート
ン法により効率よく探索する最大分離度計算部63と、
各サンプル点S を、得られた分割位置Bmax に向けて移
動させて、輪郭モデルを変形するモデル変形部64とか
ら構成されている。
As shown in FIG. 12, the contour model transforming section J2 provides a rectangular search area around each sample point S, and determines the search area for storing the image data of the search area in a buffer (not shown). The division 61, the division calculation unit 62 that calculates the degree of separation when the image data stored in the buffer is divided at the boundary B, and the division boundary Bmax that maximizes the separation while changing the division position B. And a maximum separability calculation unit 63 that efficiently searches for
Each sample point S 1 is moved toward the obtained division position Bmax to deform the contour model, and a model deforming unit 64.

【0091】ところで、輪郭モデル計算部J1で決定さ
れた輪郭モデル(Bスプライン曲線)は、平均分離度計
算部65に出力され、この平均分離度計算部65におい
て全サンプル点の平均分離度が算出される。
By the way, the contour model (B-spline curve) determined by the contour model calculation unit J1 is output to the average separation degree calculation unit 65, and the average separation degree of all sample points is calculated in this average separation degree calculation unit 65. To be done.

【0092】収束判定部66は、一時点前の全サンプル
点の平均分離度と現在の平均分離度の時間変化から、輪
郭抽出処理が収束したかの判定を行なう。
The convergence determination unit 66 determines whether or not the contour extraction processing has converged, based on the time change of the average separation degree of all the sample points before the temporary point and the current average separation degree.

【0093】輪郭抽出部Jは収束した輪郭モデル形状か
ら顔領域を抽出する顔領域切り出し部Kに接続される。
顔領域切りだし部Kは前述の画像バスG1に接続される
と共に、収束判定部66からの収束信号が入力される顔
領域切り出し部71と、輪郭抽出処理が収束した時点で
抽出された顔輪郭の座標情報、輪郭曲線内部のカラー域
情報を蓄えるバッファ72と、顔領域切り出し部71か
ら出力される顔領域の画像を格納する画像メモリ73と
から構成される。
The contour extraction unit J is connected to a face area cutout unit K which extracts a face area from the converged contour model shape.
The face area cutout unit K is connected to the image bus G1 described above, and the face area cutout unit 71 to which the convergence signal from the convergence determination unit 66 is input, and the face contour extracted when the contour extraction processing converges A buffer 72 for storing the coordinate information of the above and the color gamut information inside the contour curve, and an image memory 73 for storing the image of the face area output from the face area cutout unit 71.

【0094】顔領域切り出し部Kは画像出力部Lに接続
される。画像出力部Lは表示を3種類のモードに切替え
ることが可能な表示切替えスイッチ部74と、表示切替
えスイッチ部74を介した画像を表示するモニタ75か
ら構成される。つまり、表示切替えスイッチ部74の入
力側は顔輪郭の座標情報、輪郭曲線内部のカラー域情報
を蓄えるバッファ72、顔領域の画像を格納する画像メ
モリ73、画像バスG1に接続されており、第1表示モ
ードとして、輪郭曲線のみを表示し、第2表示モードと
して顔領域の画像のみを表示し、第3表示モードとして
元画像に抽出された輪郭を重ねて表示する。
The face area cutout section K is connected to the image output section L. The image output unit L includes a display changeover switch unit 74 capable of changing over the display to one of three modes and a monitor 75 for displaying an image via the display changeover switch unit 74. That is, the input side of the display changeover switch unit 74 is connected to the face contour coordinate information, the buffer 72 for storing the color gamut information inside the contour curve, the image memory 73 for storing the face region image, and the image bus G1. In the first display mode, only the contour curve is displayed, in the second display mode, only the image of the face area is displayed, and in the third display mode, the extracted contour is displayed overlaid on the original image.

【0095】次に、上記のように構成された本発明の第
2実施例の動作を図9のフロ−チャ−トを参照して説明
する。顔候補領域抽出部I1は、画像中の輝度が変化し
ている領域を抽出する。まず、予め画像メモリ53に蓄
えられている背景画像デ−タp1と現時点に入力された画
像デ−タp2との差分演算を差分回路54で行なう。この
差分回路の出力は、2値化回路56により、しきい値処
理されて、画像デ−タp3として論理和回路に送られる
(ステップS1)。
Next, the operation of the second embodiment of the present invention constructed as described above will be described with reference to the flowchart of FIG. The face candidate area extraction unit I1 extracts an area in the image where the brightness is changed. First, the difference circuit 54 performs a difference operation between the background image data p1 stored in advance in the image memory 53 and the image data p2 input at the present time. The output of this difference circuit is thresholded by the binarization circuit 56 and sent to the OR circuit as image data p3 (step S1).

【0096】顔候補領域抽出部I1は、同じ画像デ−タ
p2から肌色領域を抽出する。画像デ−タp2は、カラール
ックアップテーブル(CLUT)で、カラー変換される。CL
UTの内容は、任意に書き換え可能である。画像中の人間
の肌色領域を抽出する場合は、予めCLUTに肌色領域に相
当するテーブルの領域を適当なデータで埋めておけば良
い。それ以外は、0とする。(ステップS2)。
The face candidate area extraction unit I1 uses the same image data.
Extract the skin color area from p2. The image data p2 is color-converted by a color lookup table (CLUT). CL
The contents of UT can be rewritten arbitrarily. When extracting a human skin color region from an image, it is sufficient to fill the CLUT in advance with a region of the table corresponding to the skin color region with appropriate data. Other than that, it is set to 0. (Step S2).

【0097】論理和回路57は、画像デ−タp3と画像デ
−タp4の論理和を施し、外接長方形算出回路58に送
る。(ステップS4)。外接長方形算出回路58は送ら
れ画像から、顔候補領域の外接長方形座標を計算し、座
標を内接楕円算出回路59に送る。内接楕円計算回路5
9は、外接長方形に内接する内接楕円を計算する(ステ
ップS6)。
The logical sum circuit 57 logically sums the image data p3 and the image data p4 and sends the logical sum to the circumscribing rectangle calculation circuit 58. (Step S4). The circumscribed rectangle calculation circuit 58 calculates the circumscribed rectangle coordinates of the face candidate area from the sent image, and sends the coordinates to the inscribed ellipse calculation circuit 59. Inscribed ellipse calculation circuit 5
9 calculates an inscribed ellipse inscribed in the circumscribed rectangle (step S6).

【0098】輪郭モデル配置部I1は、図13に示すよ
うに求めた内接楕円上に輪郭モデルを配置する(ステッ
プS7)。内接楕円上に図に示すように制御点を配置す
る。各制御点の間隔は、角度が等間隔になるように配置
する。
The contour model placement section I1 places the contour model on the inscribed ellipse obtained as shown in FIG. 13 (step S7). Control points are placed on the inscribed ellipse as shown in the figure. The control points are arranged such that the angles are evenly spaced.

【0099】輪郭モデルの初期配置に関しては、既に出
願されている特許[13A92X092-1] の方法を用いても良
い。この場合は、輪郭モデルは、一つの曲線モデルでは
なく、複数の短いセグメント曲線モデルから構成され
る。各セグメント曲線モデルは、抽出された外接長方形
の各辺に配置される。
For the initial placement of the contour model, the method of the already filed patent [13A92X092-1] may be used. In this case, the contour model is composed of a plurality of short segment curve models instead of one curve model. Each segment curve model is arranged on each side of the extracted circumscribed rectangle.

【0100】また、この初期配置処理は、人間が画像を
見ながら、対話的にマウス、キーボードなどの入力手段
により、行なっても良い。
Further, this initial placement processing may be performed interactively by a human while watching an image by using input means such as a mouse and a keyboard.

【0101】輪郭モデル計算部J1は、与えられた制御
点から、輪郭モデル曲線を計算する。つまり、輪郭モデ
ル計算部J1は、与えられた制御点から決定される輪郭
モデル(Bスプライン曲線)を前述した式(3)から計
算する。(ステップS8)。
The contour model calculation section J1 calculates a contour model curve from the given control points. That is, the contour model calculation unit J1 calculates the contour model (B-spline curve) determined from the given control points, using the above-described formula (3). (Step S8).

【0102】輪郭モデル変形部J2は、輪郭モデル自身
の周辺の分離度を調べ、輪郭モデルの内側と外側間の分
離度が増加する方向に、輪郭モデルを変形してゆく。
The contour model transformation section J2 examines the degree of separation around the contour model itself, and transforms the contour model in a direction in which the degree of separation between the inside and outside of the contour model increases.

【0103】探索領域決定部61は、図12に示すよう
に、各サンプル点S の周辺に矩形の探索領域を設ける
(ステップS9)。探索領域は、図に示すように輪郭モ
デル曲線の法線方向に内側外側に均等にとる。探索領域
決定部61は、この領域の画像データをバッファ(図示
しない)に蓄える。
As shown in FIG. 12, the search area determining section 61 provides a rectangular search area around each sample point S 1 (step S9). As shown in the figure, the search area is evenly arranged inside and outside in the normal direction of the contour model curve. The search area determination unit 61 stores the image data of this area in a buffer (not shown).

【0104】分離度計算部62は、そのバッファに格納
されている画像データを境界B で分割した場合の分離度
を計算する。最大分離度計算部63は、分割位置B を変
化させながら、分離度が最大となる分割境界Bmax を、
ニュートン法等により効率よく探索する(ステップS1
0)。
The separability calculation section 62 calculates the separability when the image data stored in the buffer is divided at the boundary B 1. The maximum separability calculation unit 63 changes the division position B while determining the division boundary Bmax at which the separability is maximum.
Efficiently search by Newton's method (step S1)
0).

【0105】分割位置Bmax が見つかったら、探索領域
決定部61は、隣のサンプル点s+1に対して同様に分
割位置を求める(ステップS9へ戻る。) 全サンプル点に対する分割位置を求まったら、モデル変
形部64は、各サンプル点S を、得られた分割位置Bma
x に向けて移動させて、輪郭モデルを変形する(ステッ
プS12)。移動量は、現在のサンプル点から分割位置
までの距離に重みを掛けた量とする。
When the division position Bmax is found, the search area determining unit 61 similarly obtains the division position for the adjacent sample point s + 1 (returns to step S9). When the division positions for all the sample points are obtained, the model transformation is performed. The unit 64 assigns each sample point S to the obtained division position Bma.
The contour model is deformed by moving it toward x (step S12). The amount of movement is an amount obtained by weighting the distance from the current sample point to the division position.

【0106】上記輪郭抽出部Jの処理は、ソフトウェ
ア、専用ハードウェアによる実現が可能である。
The processing of the contour extracting section J can be realized by software or dedicated hardware.

【0107】収束判定部66は、一時点前の全サンプル
点の平均分離度と現在の平均分離度の時間変化から、輪
郭抽出処理が収束したかの判定を行なう(ステップS1
3、14)。平均分離度の変化量が基準値より小さくな
った時点で、処理は収束したと判定され、輪郭抽出処理
を終了する。処理が収束していない場合は、再び、ステ
ップS9へ戻る。
The convergence determination unit 66 determines whether or not the contour extraction processing has converged from the time change of the average separation degree of all the sample points before the temporary point and the current average separation degree (step S1).
3, 14). When the amount of change in the average degree of separation becomes smaller than the reference value, it is determined that the processing has converged, and the contour extraction processing ends. If the processing has not converged, the process returns to step S9 again.

【0108】輪郭抽出処理が収束した時点で、抽出され
た顔輪郭の座標情報、輪郭曲線内部のカラー域情報が、
バッファ72に蓄えられる。
When the contour extraction processing converges, the coordinate information of the extracted face contour and the color gamut information inside the contour curve are
It is stored in the buffer 72.

【0109】顔領域切りだし部71は、収束した輪郭モ
デル形状から顔領域を抽出する(ステップS15)。
The face area cutout unit 71 extracts a face area from the converged contour model shape (step S15).

【0110】画像出力部Lは、表示切替えスイッチ部7
4の操作に応じて第1表示モードとして、輪郭曲線のみ
を表示し、第2表示モードとして顔領域の画像のみを表
示し、第3表示モードとして元画像に抽出された輪郭を
重ねてモニタ75に表示する。
The image output section L includes a display changeover switch section 7
According to the operation of No. 4, only the contour curve is displayed as the first display mode, only the image of the face area is displayed as the second display mode, and the extracted contour is superimposed on the original image as the third display mode. To display.

【0111】次に、図10及び図11を参照して輪郭抽
出部Jについて詳細に説明する。基本的には、図に示す
ように、2段階の処理から構成される。
Next, the contour extraction unit J will be described in detail with reference to FIGS. Basically, as shown in the figure, it is composed of two-stage processing.

【0112】人間の顔輪郭を抽出する場合、カラー情報
は重要な情報である。ここでは、予め顔(肌色)大まか
なカラー情報が既知として説明する。画像を見ながら、
マウススなどを使って、顔領域の3〜5点をサンプリン
グして、肌色の大まかなカラーマップを作成する。
When extracting the human face contour, the color information is important information. Here, it is assumed that the rough color information of the face (skin color) is known in advance. While looking at the image,
Using a mouse or the like, 3 to 5 points in the face area are sampled to create a rough color map of skin color.

【0113】第1段階では、予め与えられた対象物のカ
ラー情報を使っておおまかな輪郭を抽出する。CLUT使っ
て、カラー2値化を施し、大まかな顔(肌色)領域を抽
出し、輪郭を抽出する。しかし、この段階では、CLUTが
不完全なため、大まかな輪郭しか抽出できない。
In the first stage, a rough outline is extracted using the color information of the object given in advance. Using CLUT, color binarization is performed, rough face (skin color) areas are extracted, and contours are extracted. However, at this stage, only rough outlines can be extracted because the CLUT is incomplete.

【0114】第2段階では、前段の処理で得た輪郭の周
辺に限定して、再度、分離度が高い境界を探索し、正確
な輪郭として抽出する。この場合は、CLUTを使わずに、
R 、G 、B の3つの輝度データから前述した式(2)か
ら分離度を計算する。
In the second stage, the boundary having a high degree of separation is searched again only in the periphery of the contour obtained in the preceding process, and an accurate contour is extracted. In this case, without using CLUT,
The degree of separation is calculated from the three brightness data of R, G, and B from the above-mentioned formula (2).

【0115】第1段階では、 1.初期配置部で抽出された外接楕円上に、幾つかの制
御点を自動生成する。例えば、M 個の制御点の場合は、
360/M 度間隔で配置する。あるいは、人間が画像を見な
がらマウスで制御点を指定しても良い(ステップS
5)。 2.与えられた制御点Qix,Qiy(i=0,M−1)か
ら、Bスプライン曲線上のサンプル点の座標X(s),
Y(s)を前述した式(3)から計算する(ステップS
6)。ここで、sは、曲線上で定義されたパラメタであ
る。 3.各サンプル点s周辺にて、Bスプライン曲線の法線
方向に伸びる矩形探索領域を設定する(ステップS
7)。 4.設定された探索領域内で、分離度が最大となる分割
位置Bmax をニュートン法を用いて探索する(ステップ
S8)。 5.各サンプル点sから分割位置Bmax までの距離に重
み(0.1〜1.0)を掛けて移動量(dsx,dsy)とする。こ
の移動量を、全サンプル点に対して求める。 6.各サンプル点が(dsx,dsy)だけ移動して、変形
した輪郭モデルをP(s)とする。P(s)を最も良く近似
する新しいBスプライン曲線の制御点を求める。新しい
制御点は、次の関数Eint を最小化することにより求ま
る(ステップS9)。
In the first stage, 1. Some control points are automatically generated on the circumscribed ellipse extracted by the initial placement unit. For example, for M control points,
Place at 360 / M degree intervals. Alternatively, a human may specify a control point with a mouse while looking at the image (step S
5). 2. From the given control points Qix, Qiy (i = 0, M-1), the coordinates X (s) of the sample point on the B-spline curve,
Y (s) is calculated from the above equation (3) (step S
6). Here, s is a parameter defined on the curve. 3. A rectangular search area extending in the normal direction of the B-spline curve is set around each sample point s (step S
7). 4. Within the set search area, the division position Bmax that maximizes the degree of separation is searched for using the Newton method (step S8). 5. The distance from each sample point s to the division position Bmax is multiplied by a weight (0.1 to 1.0) to obtain a movement amount (dsx, dsy). This amount of movement is calculated for all sample points. 6. Each sample point moves by (dsx, dsy), and the deformed contour model is defined as P (s). Find a new B-spline curve control point that best approximates P (s). A new control point is obtained by minimizing the following function Eint (step S9).

【0116】[0116]

【数26】 上式に、最小自乗法を適用すると、新しい制御点は、次
の連立1次方程式を解くことにより求まる(ステップS
11)。
[Equation 26] When the least squares method is applied to the above equation, a new control point is obtained by solving the following simultaneous linear equations (step S
11).

【0117】[0117]

【数27】 7.新しい制御点に対して輪郭モデルを計算し、更新す
る(ステップS12)。 8.分離度の時間方向の変化量により収束判定を行なう
(ステップS13)。 9.未収束の場合は、ステップS7へ戻る。 10.収束の場合は、第1段階の処理を終了とする。
[Equation 27] 7. The contour model is calculated and updated for the new control point (step S12). 8. A convergence determination is made based on the amount of change in the degree of separation in the time direction (step S13). 9. If not converged, the process returns to step S7. 10. In the case of convergence, the first stage processing is ended.

【0118】第2段階も、第1段階の処理と同様である
が、分離度は式(1)の替わりに、式(2)を用いて計
算する。収束したら、顔領域を切り出して表示する。
The second stage is also similar to the process of the first stage, but the degree of separation is calculated using equation (2) instead of equation (1). After convergence, the face area is cut out and displayed.

【0119】なお、図14は、本実施例の実験結果であ
る。運動する顔の連続画像から取り出した3枚の画像に
対する顔領域抽出の結果である。領域白線が輪郭モデル
を示している。
FIG. 14 shows the experimental result of this embodiment. It is a result of face area extraction for three images extracted from continuous images of a moving face. The area white line indicates the contour model.

【0120】以上のようにして、分離度を利用して物体
の輪郭を安定して抽出することができる。
As described above, the contour of an object can be stably extracted by utilizing the degree of separation.

【0121】次に、本発明の第3実施例に係わる運動す
る物体の輪郭の一部を追跡する輪郭追跡装置について図
15乃至図17を参照して説明する。図15は全体構成
を示すブロック図である。図15において、Mは画像入
力部、Nは輪郭抽出部であり、それぞれ前述した第2実
施例の画像入力部H、輪郭抽出部Jと同様な構成であ
る。輪郭抽出部Nの出力は抽出した輪郭上の一時点前の
輪郭と相関の高い領域を探索する相関計算部Oに出力さ
れる。この相関計算部Oの出力は輪郭スライド部Pに出
力される。この輪郭スライド部Pは抽出した輪郭上をス
ライドしながら、一時点前の輪郭と相関の高い領域を探
索する。
Next, a contour tracking device for tracking a part of the contour of a moving object according to the third embodiment of the present invention will be described with reference to FIGS. FIG. 15 is a block diagram showing the overall configuration. In FIG. 15, M is an image input unit and N is a contour extraction unit, which have the same configurations as the image input unit H and the contour extraction unit J of the second embodiment described above, respectively. The output of the contour extraction unit N is output to the correlation calculation unit O that searches for a region on the extracted contour that has a high correlation with the contour one time before. The output of the correlation calculation unit O is output to the contour slide unit P. The contour slide unit P slides on the extracted contour and searches for an area having a high correlation with the contour before the temporary point.

【0122】相関計算部Oは、探索領域を設定する探索
領域設定部81と、マスク領域を設定するマスク領域設
定部82、探索領域設定部81で設定された探索領域内
でマスクをスライドさせながら、一時点前のテンプレ−
ト領域と現在のマスク領域の相関値R(s )を計算する
相関計算部83、その相関値のうち最大となる領域を探
索する最大相関探索部84から構成される。相関値R
(s )は、次式よりSSDA(残差逐次検定法)で計算す
る。
The correlation calculation section O slides the mask within the search area set by the search area setting section 81 for setting the search area, the mask area setting section 82 for setting the mask area, and the search area setting section 81. , Template before the temporary point
A correlation calculation unit 83 for calculating the correlation value R (s) between the current mask region and the current mask region, and a maximum correlation search unit 84 for searching the region having the maximum correlation value. Correlation value R
(S) is calculated by SSDA (sequential residual test method) from the following formula.

【0123】[0123]

【数28】 ここで、Mはマスクのデータ数、T(R)は、一時点前の
対象物領域側に設定したテンプレート、sは、輪郭に沿
ったパラメータ、I(i)は、i点の輝度情報である。
[Equation 28] Here, M is the number of mask data, T (R) is a template set on the side of the object region before the temporary point, s is a parameter along the contour, and I (i) is luminance information at point i. is there.

【0124】スライド部Pは、AからBへ輪郭モデルを
スライドさせる。
The slide section P slides the contour model from A to B.

【0125】このスライド部Pには画像出力部Qが接続
される。
An image output section Q is connected to the slide section P.

【0126】次に、上記のように構成された本発明の第
3実施例の動作について図16のフロ−チャ−トを参照
して説明する。通常、輪郭の一部を追跡する場合、輪郭
に垂直方向の動きは検出できるが、輪郭に水平方向の動
きは検出できないという問題(窓問題)が起こる。
Next, the operation of the third embodiment of the present invention constructed as described above will be described with reference to the flow chart of FIG. Usually, when tracing a part of the contour, there is a problem (window problem) that the movement in the vertical direction of the contour can be detected, but the movement in the horizontal direction of the contour cannot be detected.

【0127】この第3実施例では、この問題を解決する
ために、輪郭抽出後に、輪郭上をスライドして一時点前
に追跡していた輪郭領域の輝度分布と相関が高い領域を
探索し、輪郭モデルをその位置にスライドさせる。図1
7にスライド処理をしている様子を示す。図中で、(A)
は、時刻t における輪郭モデルの位置、(B) は動いた対
象物に追従して輪郭を追跡している様子、(C) は、輪郭
上をマスクが移動しながら、最大相関位置を探索してい
る様子を示している。
In the third embodiment, in order to solve this problem, after the contour extraction, a region having a high correlation with the luminance distribution of the contour region which is slid on the contour and traced before the temporary point is searched for, Slide the contour model into that position. Figure 1
7 shows how the slide process is performed. In the figure, (A)
Is the position of the contour model at time t, (B) is the state of tracking the contour by following the moving object, and (C) is the maximum correlation position searched while the mask is moving on the contour. It shows the situation.

【0128】輪郭抽出部Nは、一時点前に輪郭モデルの
位置から現在の輪郭位置まで変形する(ステップS
2)。
The contour extraction unit N transforms from the position of the contour model to the current contour position before the temporary point (step S
2).

【0129】図17に示すようにスライド部Pは、輪郭
モデルを輪郭上で点Aから点Bへスライドさせる。ま
ず、輪郭モデルに、輪郭曲線の両端E1、E2からの接
線方向に、新しく直線部Lnew を付加する(ステップS
3)。付加された直線部Lnewは、再び輪郭に引き寄せ
られる(ステップS4)。対象物領域側に探索領域を設
定する。
As shown in FIG. 17, the slide portion P slides the contour model from the point A to the point B on the contour. First, a new straight line portion Lnew is added to the contour model in the tangential direction from both ends E1 and E2 of the contour curve (step S).
3). The added straight line portion Lnew is again drawn to the contour (step S4). A search area is set on the object area side.

【0130】相関計算部83は、探索領域内でマスクを
スライドさせながら、一時点前のマスク領域と現在のマ
スク領域の相関を計算する(ステップS5、6)。最も
相関値が高くなった位置Bが、一時点前と同じ輪郭領域
であるとする。
The correlation calculator 83 calculates the correlation between the mask area before the temporary point and the current mask area while sliding the mask in the search area (steps S5 and S6). It is assumed that the position B having the highest correlation value is the same contour area as before the temporary point.

【0131】相関値R(s )は、SSDA(残差逐次検定
法)で計算する。
The correlation value R (s) is calculated by SSDA (residual sequential test method).

【0132】スライド部は、AからBへ輪郭モデルをス
ライドさせ、付加した部分Lnew を取り除く。また、ス
テップS2へ戻る。
The slide unit slides the contour model from A to B and removes the added portion Lnew. Moreover, it returns to step S2.

【0133】そして、その結果をモニタQに出力する。Then, the result is output to the monitor Q.

【0134】以上のようにこの第3実施例によれば、輪
郭の一部を追跡する場合、輪郭に、水平方向の動きも検
出できる。
As described above, according to the third embodiment, when tracing a part of the contour, the movement in the horizontal direction can be detected in the contour.

【0135】次に、本発明の第4実施例に係わる変化検
出装置について図18及び図19を参照して説明する。
この第4実施例は、画像中の僅かな変化をも安定に抽出
する変化検出装置に関する。
Next, a change detecting device according to the fourth embodiment of the present invention will be described with reference to FIGS.
The fourth embodiment relates to a change detecting device that stably extracts even a slight change in an image.

【0136】画像中の変化を検出するためには、連続す
る画像間、あるいは、予め取り込んだ背景画像との画像
差分演算を行ない、変化量がしきい値より大きい領域
を、変化領域として検出する。一般的には、ノイズに対
してロバストするために、小領域内で平均化した輝度の
差分量を変化量とする。しかしながら、背景画像と抽出
すべき対象物の輝度差が小さい場合、しきい値を下げて
変化を検出するので、ノイズも拾ってしまう。これを解
決するために、ある時点t での小領域内の輝度集合と次
時点t +dtにおける輝度集合の分離度を変化量とする。
In order to detect a change in an image, an image difference calculation is performed between consecutive images or with a background image captured in advance, and an area having a change amount larger than a threshold value is detected as a change area. . Generally, in order to be robust against noise, the amount of difference in luminance averaged within a small area is used as the amount of change. However, when the difference in brightness between the background image and the object to be extracted is small, the threshold value is lowered to detect the change, and noise is also picked up. In order to solve this, the degree of separation is defined as the degree of separation between the luminance set in the small area at a certain time t and the luminance set at the next time t + dt.

【0137】図18は変化検出装置の構成を示すブロッ
ク図である。図18において、Rは画像入力部、Sは分
離度計算部、Tはしきい値処理部、Uは画像出力部であ
る。画像入力部Rは対象物を撮像するITVカメラ1
と、このITVカメラ1で撮像されたアナログ画像デ−
タをデジタルデ−タに変換するA/D変換器2と、この
A/D変換器2から出力されるテジタル画像デ−タをカ
ラ−変換するカラ−ルックアップテ−ブル3と、そのカ
ラ−変換された画像デ−タを記憶する画像メモリ4とか
ら構成される。
FIG. 18 is a block diagram showing the structure of the change detecting device. In FIG. 18, R is an image input unit, S is a separation degree calculation unit, T is a threshold processing unit, and U is an image output unit. The image input unit R is an ITV camera 1 that images an object.
And an analog image data imaged by the ITV camera 1.
A / D converter 2 for converting the digital data into digital data, a color look-up table 3 for color-converting the digital image data output from the A / D converter 2, and its color. An image memory 4 for storing the converted image data.

【0138】分離度計算部Sは、画像メモリ4から指定
された小領域(i,j )の画像データを読みだしてそれぞ
れバッファ91aに格納する画像取り込み部92、バッ
ファ91aに格納された画像デ−タから分離度を計算す
る分離度計算部93とから構成される。
The separability calculation section S reads the image data of the specified small area (i, j) from the image memory 4 and stores the image data in the buffer 91a. The image capturing section 92 stores the image data stored in the buffer 91a. And a separation degree calculation unit 93 that calculates the separation degree from the data.

【0139】しきい値処理部Tは分離度を所定しきい値
で2値化処理して画像出力部Uのスケ−ル変換部94に
出力する。スケ−ル変換部94はしきい値処理部Tの出
力を適当なスケ−ル倍、例えば255 倍して画像メモリ9
5に出力する。こり画像メモリ95の内容はモニタ96
に出力される。
The threshold processing unit T binarizes the degree of separation with a predetermined threshold value and outputs it to the scale conversion unit 94 of the image output unit U. The scale conversion section 94 multiplies the output of the threshold value processing section T by an appropriate scale, for example, 255 times, and outputs the image memory 9
Output to 5. The contents of the image memory 95 are displayed on the monitor 96.
Is output to.

【0140】次に、上記のように構成された本発明の第
4実施例の動作について説明する。ITVカメラ1から
一時点前の時刻t に入力された画像を画像1、現在入力
された画像2と呼ぶ。入力された画像1は、A/D変換
器2によりデジタル化され、画像メモリ4に格納され
る。ここで、ITVカメラ1から一時点前の時刻t に入
力された画像を画像1、現在入力された画像2と呼ぶ。
Next, the operation of the fourth embodiment of the present invention constructed as above will be described. The image input from the ITV camera 1 at time t 1 before the temporary point is referred to as image 1 and the image 2 currently input. The input image 1 is digitized by the A / D converter 2 and stored in the image memory 4. Here, the image input from the ITV camera 1 at time t 1 before the temporary point is referred to as image 1 and the image 2 currently input.

【0141】入力された画像は、小領域に分割される。
図19にその分割の様子を示す。マスク領域データ取り
込み部92では、画像1、2から指定された小領域(i,
j)の画像特徴量をバッファ91aに格納する。図20に
バッファ91aの構成を示す。画像1の輝度データがT
1、画像2の輝度データがT2にそれぞれ格納される。
The input image is divided into small areas.
FIG. 19 shows how the division is performed. In the mask area data capturing unit 92, the small area (i,
The image feature amount of j) is stored in the buffer 91a. FIG. 20 shows the structure of the buffer 91a. The brightness data of image 1 is T
The luminance data of 1 and the image 2 are stored in T2, respectively.

【0142】バッファ91aと分離度計算部93との間
に介在する図示しない分散しきい値処理部では、バッフ
ァ91aのデータ分散値を基準値と比較して、基準より
小さい場合は、分離度を0とする。基準値としては、1
〜20に設定する。分離度計算部93は、バッファ91
aの輝度データをT1とT2に分離した時の時間方向の
分離度を計算し、しきい値回路Tに送る。しきい値回路
Tは、指定されたしきい値で2値化し、スケール変換部
94で255倍して、変化量として画像メモリ95に格
納する。
A dispersion threshold value processing unit (not shown) interposed between the buffer 91a and the separation degree calculation unit 93 compares the data distribution value of the buffer 91a with a reference value, and if it is smaller than the reference value, the separation degree is determined. Set to 0. The standard value is 1
Set to ~ 20. The separation degree calculation unit 93 uses the buffer 91.
The degree of separation in the time direction when the luminance data of a is separated into T1 and T2 is calculated and sent to the threshold circuit T. The threshold circuit T binarizes with a specified threshold value, multiplies it by 255 in the scale conversion unit 94, and stores it in the image memory 95 as a change amount.

【0143】全小領域に対する変化量が求まるまで、マ
スク領域を全画面に渡って移動させ、変化量を求める。
The mask region is moved over the entire screen until the change amount for all the small regions is obtained, and the change amount is obtained.

【0144】分離度計算部93は、汎用プロセッサで代
用することも可能である。あるいは、複数プロセッサで
代用して、幾つかの領域毎に並列処理しても良い。ま
た、ワークステーションなどの汎用計算機を用いてソフ
トウェア処理しても良い。
The separability calculation section 93 can be replaced by a general-purpose processor. Alternatively, a plurality of processors may be substituted for parallel processing in several areas. Further, software processing may be performed using a general-purpose computer such as a workstation.

【0145】画像出力部Uでは、画像メモリ95のデー
タを画像バスB2を経由してモニタ96に表示する。
The image output unit U displays the data in the image memory 95 on the monitor 96 via the image bus B2.

【0146】以上のようにこの第4実施例によれば、分
離度を利用して画像中の僅かな変化をも安定に抽出する
ことができる。
As described above, according to the fourth embodiment, it is possible to stably extract even a slight change in an image by utilizing the degree of separation.

【0147】なお、第1実施例の図1のマスク領域格納
部B、エッジ計算部C、エッジ抽出部しの処理は専用ハ
−ドウェアあるいはソフトウエアだけで実現しても良
い。
The processing of the mask area storage unit B, the edge calculation unit C, and the edge extraction unit of the first embodiment shown in FIG. 1 may be realized only by dedicated hardware or software.

【0148】[0148]

【発明の効果】以上詳述したように本発明によれば、分
離度を用いて入力された画像中からエッジおよび輪郭を
安定に抽出する装置を実現する等の実用上で多大なる効
果が期待できるエッジ及び輪郭抽出装置を提供すること
ができる。
As described above in detail, according to the present invention, a great effect is expected in practical use such as realizing a device for stably extracting edges and contours from an image input by using a degree of separation. It is possible to provide an edge and contour extraction device that can do this.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例に係わるエッジ抽出装置の
構成を示すブロック図。
FIG. 1 is a block diagram showing the configuration of an edge extraction device according to a first embodiment of the present invention.

【図2】第1実施例の動作を説明するためのフロ−チャ
−ト。
FIG. 2 is a flowchart for explaining the operation of the first embodiment.

【図3】第1実施例に係わり、エッジを領域境界として
定義する図。
FIG. 3 is a diagram relating to the first embodiment and defining an edge as a region boundary.

【図4】第1実施例に係わり、輝度分布とそれに対する
分離度の値を示す図。
FIG. 4 is a diagram showing a luminance distribution and a separation degree value for the luminance distribution, according to the first embodiment.

【図5】第1実施例に係わり、分割位置とそれに対する
分離度の値を示す図。
FIG. 5 is a diagram related to a first embodiment and showing a division position and a separation degree value for the division position.

【図6】第1実施例に係わり、分離度からエッジ強度を
計算する方法を示す図。
FIG. 6 is a diagram showing a method of calculating edge strength from a degree of separation according to the first embodiment.

【図7】本発明の第1実施例装置のエッジ抽出するため
の他のマスク形状を示す図。
FIG. 7 is a diagram showing another mask shape for edge extraction of the apparatus according to the first embodiment of the present invention.

【図8】本発明の第2実施例に係わる物体の輪郭抽出装
置の構成を示すブロック図。
FIG. 8 is a block diagram showing the configuration of an object contour extraction apparatus according to a second embodiment of the present invention.

【図9】第2実施例の動作を説明するためのフロ−チャ
−ト。
FIG. 9 is a flowchart for explaining the operation of the second embodiment.

【図10】第2実施例に係わり、輪郭抽出部Jの機能を
詳細に示すフロ−チャ−トの一部。
FIG. 10 is a part of a flowchart showing in detail the function of a contour extraction unit J according to the second embodiment.

【図11】第2実施例に係わり、輪郭抽出部Jの機能を
詳細に示すフロ−チャ−トの残り一部。
FIG. 11 is a remaining part of the flowchart showing in detail the function of the contour extracting unit J according to the second embodiment.

【図12】第2実施例に係わり、分離度を使った動的輪
郭モデルの概念を示す図。
FIG. 12 is a diagram relating to the second embodiment and showing the concept of an active contour model using the degree of separation.

【図13】第2実施例に係わり、輪郭モデルの初期配置
を説明するための図。
FIG. 13 is a diagram for explaining an initial placement of a contour model according to the second embodiment.

【図14】第2実施例に係わり、顔領域抽出の結果を示
す図。
FIG. 14 is a diagram illustrating a result of face area extraction according to the second embodiment.

【図15】本発明の第3実施例に係わる運動する物体の
輪郭の一部を追跡する輪郭追跡装置の構成を示すブロッ
ク図。
FIG. 15 is a block diagram showing the configuration of a contour tracking device for tracking a part of the contour of a moving object according to the third embodiment of the present invention.

【図16】第3実施例の動作を説明するためのフロ−チ
ャ−ト。
FIG. 16 is a flowchart for explaining the operation of the third embodiment.

【図17】第3実施例に係わり、スライド探索を説明す
るための図。
FIG. 17 is a diagram for explaining a slide search according to the third embodiment.

【図18】本発明の第4実施例に変化検出装置の構成を
示すブロック図。
FIG. 18 is a block diagram showing the configuration of a change detection device according to a fourth embodiment of the present invention.

【図19】第4実施例に係わり、画像の小領域への分割
を示す図。
FIG. 19 is a diagram illustrating division of an image into small regions according to the fourth embodiment.

【図20】第4実施例に係わり、バッファの構成を示す
図。
FIG. 20 is a diagram showing a configuration of a buffer according to the fourth embodiment.

【図21】従来のエッジの定義を説明するための図。FIG. 21 is a diagram for explaining the definition of a conventional edge.

【図22】従来の輝度が線形に変化している領域を誤っ
てエッジとして抽出してしまう場合を説明する図。
FIG. 22 is a diagram for explaining a case where a conventional area in which the brightness changes linearly is mistakenly extracted as an edge.

【図23】動的輪郭モデルを用いた物体輪郭抽出の概念
を示す図。
FIG. 23 is a diagram showing the concept of object contour extraction using an active contour model.

【図24】幅広いエッジ強度を含んだエッジ強度画像に
2値化処理を説明する図。
FIG. 24 is a diagram illustrating binarization processing for an edge strength image including a wide range of edge strengths.

【符号の説明】[Explanation of symbols]

A…画像入力部、B…マスク領域格納部、C…エッジ計
算部、D…エッジ抽出部、E…画像出力部、1…ITV
カメラ、3…カラールックアップテーブル(CLUT)、4
…画像メモリ、2…A/D変換器、11…マスク位置制
御部、12…画像取り込み部、13x,13y…バッフ
ァ、14…テクスチャ量計算部、21x,21y…分散
しきい値処理部、22x,22y…方向分離度計算部、
23…分離度計算部、24…スケール変換部、31…2
値化回路、42…モニタ。
A ... Image input section, B ... Mask area storage section, C ... Edge calculation section, D ... Edge extraction section, E ... Image output section, 1 ... ITV
Camera, 3 ... Color lookup table (CLUT), 4
Image memory, 2 ... A / D converter, 11 ... Mask position control unit, 12 ... Image capturing unit, 13x, 13y ... Buffer, 14 ... Texture amount calculation unit, 21x, 21y ... Dispersion threshold processing unit, 22x , 22y ... Directional separation degree calculation unit,
23 ... Separation degree calculation unit, 24 ... Scale conversion unit, 31 ... 2
Quantization circuit, 42 ... Monitor.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 供給される画像中の指定された点に対す
るマスク領域の画像情報を抽出する手段と、この抽出さ
れた画像情報から分離度を計算する分離度計算手段と、
得られた分離度から指定された点のエッジ強度を計算す
るエッジ強度計算手段と、このエッジ強度計算手段で得
られたエッジ強度からエッジを抽出するエッジ抽出手段
とを具備したことを特徴とするエッジ抽出装置。
1. A means for extracting image information of a mask area for a specified point in a supplied image, and a separation degree calculating means for calculating a degree of separation from the extracted image information,
It is characterized by further comprising edge strength calculation means for calculating the edge strength of a specified point from the obtained degree of separation, and edge extraction means for extracting an edge from the edge strength obtained by the edge strength calculation means. Edge extraction device.
【請求項2】 上記マスク領域は少なくとも2つ領域
1、2に分割され、上記分離度計算手段は、領域1に属
する画像情報集合と領域2に属する画像情報集合の分離
度を、マスク領域内の画素iの画像特徴量をPi、領域1
に属する画像特徴量の平均を数1、領域2に属する画像
特徴量の平均を数2、マスク領域全体の画像特徴量の平
均を数3、マスク領域内の全画素数をN、領域1、2の
画素数をそれぞれn1、n2とすると、分離度ηが下式から
求めることを特徴とする請求項1記載のエッジ抽出装
置。 【数1】 【数2】 【数3】 【数4】
2. The mask area is divided into at least two areas 1 and 2, and the separation degree calculation means determines the separation degrees of the image information set belonging to the area 1 and the image information set belonging to the area 2 in the mask area. The image feature amount of pixel i in
, The average of the image feature amounts belonging to the region 2 is the number 2, the average of the image feature amounts of the entire mask region is the number 3, the total number of pixels in the mask region is N, the region 1, The edge extraction device according to claim 1, wherein the separation degree η is obtained from the following equation, where the number of pixels of 2 is n1 and n2, respectively. [Equation 1] [Equation 2] [Equation 3] [Equation 4]
【請求項3】 動的輪郭モデルを用いた輪郭抽出におい
て、最小化すべきエネルギ関数に、輪郭モデルの内側と
外側での上記画像特徴量の分離度をパラメ−タとしたこ
とを特徴とする請求項2記載の輪郭抽出装置。
3. In the contour extraction using the active contour model, the energy function to be minimized uses the degree of separation of the image feature amount inside and outside the contour model as a parameter. Item 2. The contour extraction device according to item 2.
JP25640693A 1993-09-20 1993-09-20 Edge and contour extraction device Expired - Fee Related JP3490482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25640693A JP3490482B2 (en) 1993-09-20 1993-09-20 Edge and contour extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25640693A JP3490482B2 (en) 1993-09-20 1993-09-20 Edge and contour extraction device

Publications (2)

Publication Number Publication Date
JPH0793561A true JPH0793561A (en) 1995-04-07
JP3490482B2 JP3490482B2 (en) 2004-01-26

Family

ID=17292239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25640693A Expired - Fee Related JP3490482B2 (en) 1993-09-20 1993-09-20 Edge and contour extraction device

Country Status (1)

Country Link
JP (1) JP3490482B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6190811B1 (en) 1998-07-31 2001-02-20 Canon Kabushiki Kaisha Electrophotographic photosensitive member process cartridge and electrophotographic apparatus
US6332038B1 (en) 1998-04-13 2001-12-18 Sharp Kabushiki Kaisha Image processing device
JP2003016463A (en) * 2001-07-05 2003-01-17 Toshiba Corp Extracting method for outline of figure, method and device for pattern inspection, program, and computer- readable recording medium with the same stored therein
US6674902B1 (en) 1998-07-31 2004-01-06 Canon Kabushiki Kaisha Image processing apparatus image processing method, and storage medium
JP2007265331A (en) * 2006-03-30 2007-10-11 Hitachi Medical Corp Image recognition device
US7302096B2 (en) 2002-10-17 2007-11-27 Seiko Epson Corporation Method and apparatus for low depth of field image segmentation
JP2009134587A (en) * 2007-11-30 2009-06-18 Toyota Motor Corp Image processing device
US7706602B2 (en) * 2005-03-07 2010-04-27 Kabushiki Kaisha Toshiba Generating a three-dimensional model from a standard model and multiple two-dimensional images
US7738725B2 (en) 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
JP2011164991A (en) * 2010-02-10 2011-08-25 Toyota Motor Corp Image processing apparatus
US8116536B2 (en) 2006-08-04 2012-02-14 Sony Corporation Face detection device, imaging apparatus, and face detection method
JP2013046160A (en) * 2011-08-23 2013-03-04 Canon Inc Imaging apparatus, and control method and control program of imaging apparatus
US8897501B2 (en) 2006-08-04 2014-11-25 Sony Corporation Face detection device, imaging apparatus, and face detection method
CN112508852A (en) * 2020-11-12 2021-03-16 深圳科瑞技术股份有限公司 Method and system for detecting liquid level in liquid storage bottle
CN115063370A (en) * 2022-06-21 2022-09-16 西安翔迅科技有限责任公司 Grinding wheel wear state monitoring method based on semi-automatic labeling

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5478928B2 (en) * 2009-03-31 2014-04-23 綜合警備保障株式会社 Person identification device, person identification method, and person identification program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6332038B1 (en) 1998-04-13 2001-12-18 Sharp Kabushiki Kaisha Image processing device
US6674902B1 (en) 1998-07-31 2004-01-06 Canon Kabushiki Kaisha Image processing apparatus image processing method, and storage medium
US7076099B2 (en) 1998-07-31 2006-07-11 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US6190811B1 (en) 1998-07-31 2001-02-20 Canon Kabushiki Kaisha Electrophotographic photosensitive member process cartridge and electrophotographic apparatus
JP2003016463A (en) * 2001-07-05 2003-01-17 Toshiba Corp Extracting method for outline of figure, method and device for pattern inspection, program, and computer- readable recording medium with the same stored therein
US7302096B2 (en) 2002-10-17 2007-11-27 Seiko Epson Corporation Method and apparatus for low depth of field image segmentation
US7738725B2 (en) 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
US7706602B2 (en) * 2005-03-07 2010-04-27 Kabushiki Kaisha Toshiba Generating a three-dimensional model from a standard model and multiple two-dimensional images
JP4644794B2 (en) * 2006-03-30 2011-03-02 株式会社日立メディコ Image recognition device
JP2007265331A (en) * 2006-03-30 2007-10-11 Hitachi Medical Corp Image recognition device
US8116536B2 (en) 2006-08-04 2012-02-14 Sony Corporation Face detection device, imaging apparatus, and face detection method
KR101421716B1 (en) * 2006-08-04 2014-07-22 소니 주식회사 Face detection device, imaging apparatus and face detection method
US8897501B2 (en) 2006-08-04 2014-11-25 Sony Corporation Face detection device, imaging apparatus, and face detection method
US9495578B2 (en) 2006-08-04 2016-11-15 Sony Corporation Face detection device, imaging apparatus and face detection method
US10037455B2 (en) 2006-08-04 2018-07-31 Sony Corporation Face detection device, imaging apparatus, and face detection method
JP2009134587A (en) * 2007-11-30 2009-06-18 Toyota Motor Corp Image processing device
US8107725B2 (en) 2007-11-30 2012-01-31 Toyota Jidosha Kabushiki Kaisha Image processor and image processing method
JP2011164991A (en) * 2010-02-10 2011-08-25 Toyota Motor Corp Image processing apparatus
JP2013046160A (en) * 2011-08-23 2013-03-04 Canon Inc Imaging apparatus, and control method and control program of imaging apparatus
CN112508852A (en) * 2020-11-12 2021-03-16 深圳科瑞技术股份有限公司 Method and system for detecting liquid level in liquid storage bottle
CN115063370A (en) * 2022-06-21 2022-09-16 西安翔迅科技有限责任公司 Grinding wheel wear state monitoring method based on semi-automatic labeling

Also Published As

Publication number Publication date
JP3490482B2 (en) 2004-01-26

Similar Documents

Publication Publication Date Title
US6263113B1 (en) Method for detecting a face in a digital image
JP3490482B2 (en) Edge and contour extraction device
US6404936B1 (en) Subject image extraction method and apparatus
Parker et al. An approach to license plate recognition
WO2021051604A1 (en) Method for identifying text region of osd, and device and storage medium
US7336819B2 (en) Detection of sky in digital color images
CN111915704A (en) Apple hierarchical identification method based on deep learning
US6728400B1 (en) Apparatus, method, and storage medium for setting an extraction area in an image
EP1091320A2 (en) Processing multiple digital images
US20040114829A1 (en) Method and system for detecting and correcting defects in a digital image
EP1081648B1 (en) Method for processing a digital image
CN111666824B (en) Indicator light identification method of mobile robot based on color attribute and machine learning
JPH1023452A (en) Picture extracting device and its method
CN110766017B (en) Mobile terminal text recognition method and system based on deep learning
US20020076106A1 (en) Image processing apparatus, image processing method, and recording medium
EP0831421B1 (en) Method and apparatus for retouching a digital color image
Chen et al. Image segmentation based on mathematical morphological operator
US20060010582A1 (en) Chin detecting method, chin detecting system and chin detecting program for a chin of a human face
Liu et al. A simple and fast text localization algorithm for indoor mobile robot navigation
RU2440609C1 (en) Method for segmentation of bitmap images based on growing and merging regions
US10134163B2 (en) Dynamic detection of an object framework in a mobile device captured image
AU754884B2 (en) Automatic masking of objects in images
CN118314336B (en) Heterogeneous image target positioning method based on gradient direction
JP2000193420A (en) Eye position detecting device
KR100229565B1 (en) Method and devicw for extracting shadow region

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees