JPH09138854A - Method and device for extracting area of picture - Google Patents

Method and device for extracting area of picture

Info

Publication number
JPH09138854A
JPH09138854A JP7296570A JP29657095A JPH09138854A JP H09138854 A JPH09138854 A JP H09138854A JP 7296570 A JP7296570 A JP 7296570A JP 29657095 A JP29657095 A JP 29657095A JP H09138854 A JPH09138854 A JP H09138854A
Authority
JP
Japan
Prior art keywords
pixel
feature amount
area
extraction
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7296570A
Other languages
Japanese (ja)
Other versions
JP2924744B2 (en
Inventor
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7296570A priority Critical patent/JP2924744B2/en
Publication of JPH09138854A publication Critical patent/JPH09138854A/en
Application granted granted Critical
Publication of JP2924744B2 publication Critical patent/JP2924744B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily extract only a desired objective area from a picture constituted by means of various colors and patterns by extracting a connection area which has a picture element feature quantity extraction step and a step comparing the picture element feature quantity of a reference picture element with its nearby picture element feature quantity and further has uniform picture element feature quantity including the reference picture element. SOLUTION: A point in the objective area which is to be cut from the picture in picture data inputted from a picture input device 1 is designated by a position designation means 3. Position information on the designated reference picture element is stored in buffers 7 and 9, and the picture element feature quantity of the reference picture element is inputted to a buffer 6. One piece of data is read by a buffer 9 and 'TRUE' is set in mask picture data. The picture element feature quantity of the picture element near the picture element position which is previously judged is compared with reference point picture element feature quantity. When it is judged that masking is possible, the picture element position is inputted to the buffer 9. The judgment processing is continued until the buffer 9 becomes null.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、各種画像処理装置
において、画像中の必要な対象領域を抽出する技術、あ
るいは対象領域のマスクを作成する技術、対象領域を切
り抜く技術に関する。マスクとは、ある画像内の部分領
域を切り出して他の画像上に合成したり、文書と合成し
たりする場合に使用し、元画像のどの画素を必要とする
のかを画素単位で指定したデータを意味する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for extracting a necessary target region in an image, a technique for creating a mask for the target region, and a technique for cutting out the target region in various image processing apparatuses. A mask is a data that is used to cut out a partial area in an image and combine it with another image or to combine with a document, and specify in the pixel unit which pixel of the original image is required. Means

【0002】[0002]

【従来の技術】従来この種の画像の領域抽出装置は、抽
出したい領域の明度あるいは色相、彩度、あるいはRG
B値を指定し、指定値からあるしきい値の範囲以内の画
素のみを抽出する処理を行っていた。
2. Description of the Related Art Conventionally, this type of image area extracting apparatus has a brightness, hue, saturation, or RG of an area to be extracted.
The B value is specified, and only the pixels within a certain threshold range from the specified value are extracted.

【0003】図15及び図14を用いて従来の画像の領
域抽出装置の実施例について説明する。
An embodiment of a conventional image area extracting device will be described with reference to FIGS. 15 and 14.

【0004】従来の装置の実施例は、スキャナなど画像
の入力装置201、画像表示用のモニタ202、オペレ
ータが対象領域内の基準点を指定する位置指定手段20
4、基準点の画素値を記憶する基準画素値記憶バッファ
206、入力画像メモリ203、マスク画像メモリ20
7、基準点のRGB値、画素値を比較するしきい値処理
手段205、生成されたマスクデータを出力する出力装
置208とからなる。
An example of the conventional apparatus is an image input device 201 such as a scanner, a monitor 202 for displaying an image, and a position designating means 20 by which an operator designates a reference point in a target area.
4. Reference pixel value storage buffer 206 for storing pixel values of reference points, input image memory 203, mask image memory 20
7, threshold value processing means 205 for comparing the RGB value and pixel value of the reference point, and an output device 208 for outputting the generated mask data.

【0005】画像入力装置201から入力された画像デ
ータは入力画像メモリ203に保持され、同時にモニタ
202に表示される。オペレータは、モニタ202に表
示された画像を見ながらマスクしたい領域(対象領域)
内の一点を、位置指定手段204を用いて基準点として
指定する(ステップA101)。位置指定手段204と
しては、マウス、タブレット、キーボードなどがある。
次に基準点の画素値(R0,G0,B0)を、入力画像
メモリ203から抽出し、基準画素値記憶バッファ20
6に入れる(ステップA102)。
The image data input from the image input device 201 is held in the input image memory 203 and simultaneously displayed on the monitor 202. The operator wants to mask while looking at the image displayed on the monitor 202 (target area)
One of the points is designated as a reference point using the position designation means 204 (step A101). The position designating means 204 includes a mouse, a tablet, a keyboard and the like.
Next, the pixel value (R0, G0, B0) of the reference point is extracted from the input image memory 203, and the reference pixel value storage buffer 20
Put the data in 6 (step A102).

【0006】画像走査用位置を初期値にリセットし(ス
テップA103)、入力画像メモリ203のデータを用
いて、画像を端から端まで走査し、しきい値処理手段2
05において、各画素値(r,g,b)について、(R
0,G0,B0)と比較して抽出すべきどうかを判定す
る。抽出すべきと判定された画素については、該当する
位置のマスク画像メモリ207にTRUEをセットし、
そうでないときにはFALSEをセットする(ステップ
A104,A105,A106,A107,A108,
A109)。画像の最後まで走査した後、マスク画像メ
モリ207の内容を出力装置208に出力して終了す
る。一般に、マスク画像メモリ207の内容は、TRU
E,FALSEの2種類であり、以下、TRUEの場合
にはその画素を抽出することを、FALSEの場合には
抽出しないことを示すものとする。
The image scanning position is reset to an initial value (step A103), the image in the input image memory 203 is used to scan the image from end to end, and the threshold value processing means 2 is used.
In 05, for each pixel value (r, g, b), (R
0, G0, B0) to determine whether to extract. For pixels determined to be extracted, TRUE is set in the mask image memory 207 at the corresponding position,
If not, FALSE is set (steps A104, A105, A106, A107, A108,
A109). After scanning to the end of the image, the contents of the mask image memory 207 are output to the output device 208, and the process ends. Generally, the contents of the mask image memory 207 are
There are two types, E and FALSE. Hereinafter, it is indicated that the pixel is extracted in the case of TRUE and is not extracted in the case of FALSE.

【0007】しきい値処理手段205の判定方法として
は、Thをあるしきい値として、(R0−Th<r<R
0+Th)かつ(G0−Th<g<G0+Th)かつ
(B0−Th<b<B0+Th)ならばTRUE、それ
以外はFALSE、とする方法がある。また、RGB値
ではなく、色相、彩度、明度値に変換してから閾値処理
する方式や、判定条件として、(R0−r)2 +(G0
−g)2 +(B0−b)2 <Thを用いる方式などがあ
る。
The threshold value processing means 205 uses a threshold value of Th as a threshold value (R0-Th <r <R
0 + Th) and (G0-Th <g <G0 + Th) and (B0-Th <b <B0 + Th), TRUE, and FALSE otherwise. Further, instead of RGB values, a method of performing threshold processing after converting to hue, saturation, and lightness values, or (R0-r) 2 + (G0
-G) 2 + (B0-b) 2 <Th is used.

【0008】従来の装置の例として、他に特開平4−3
29487、特開平5−28263などがあげられる。
As another example of the conventional apparatus, Japanese Patent Laid-Open No. 4-3 is used.
29487, JP-A-5-28263 and the like.

【0009】[0009]

【発明が解決しようとする課題】従来の画像の領域抽出
装置では、抽出したい領域以外に同じ色を持つ画素が存
在すると、その部分も同様に除去されるため、オペレー
タが意図した対象領域が正確に抽出できないという問題
があった。また、抽出したい領域が、複数色の画素パタ
ーンで構成されている場合には、領域を抽出できないと
いう問題があった。
In the conventional image area extracting apparatus, if there is a pixel having the same color other than the area to be extracted, that area is also removed, so that the target area intended by the operator is accurate. There was a problem that it could not be extracted. In addition, there is a problem that the area cannot be extracted when the area to be extracted is composed of pixel patterns of a plurality of colors.

【0010】図12は、部分領域101、部分領域10
2、部分領域103、部分領域104、からなる。部分
領域101、部分領域102、部分領域103は、それ
ぞれの領域内の画素値はほぼ等しい。部分領域101と
他の領域の画素値は大きく異なっている。部分領域10
2と部分領域103は位置は離れているものの、領域内
の画素値はほぼ等しいものとする。また、部分領域10
4は、一番色画素105と二番色画素106の2つの色
の画素のパターンで構成されているものとする。
FIG. 12 shows a partial area 101 and a partial area 10.
2, a partial area 103 and a partial area 104. The pixel values in the partial areas 101, 102, and 103 are substantially equal to each other. The pixel values of the partial area 101 and other areas are significantly different. Partial area 10
Although the positions of 2 and the partial area 103 are distant from each other, the pixel values in the area are substantially the same. In addition, the partial region 10
4 is composed of a pattern of pixels of two colors, that is, the first color pixel 105 and the second color pixel 106.

【0011】従来の画像の領域抽出装置においては、部
分領域101のように、他の領域と画素値が異なるよう
な領域については抽出可能である。しかし、部分領域1
02を抽出しようとすると、画素値が等しい部分領域1
03も同時に抽出されてしまうという問題があった。ま
た、部分領域104のようなパターンで構成されている
領域に対しては、大部分の場合2つの色の画素のどちら
かしか抽出できないという問題があった。もちろん、一
番色画素105の色と二番色画素106の両方を用いて
マスクすれば、ある程度抽出可能となるが、オペレータ
に負担が掛かるだけでなく、抽出精度も非常に悪いとい
う問題があった。
In the conventional image area extracting apparatus, an area such as the partial area 101 having a pixel value different from that of other areas can be extracted. However, partial area 1
When 02 is to be extracted, the partial area 1 having the same pixel value
There was a problem that 03 was also extracted at the same time. Further, with respect to a region formed by a pattern such as the partial region 104, in most cases, there is a problem that only one of the pixels of two colors can be extracted. Of course, if masking is performed using both the color of the first color pixel 105 and the second color pixel 106, extraction can be performed to some extent, but this not only imposes a burden on the operator, but also has a problem of extremely poor extraction accuracy. It was

【0012】[0012]

【課題を解決するための手段】上述した問題点を解決す
るため、本発明の画像の領域抽出装置は、入力画像デー
タを保持する入力画像メモリと、画像データ及び領域抽
出結果を表示するモニタと、抽出する対象領域を指定す
る位置指定手段と、領域抽出の基準点の画素特徴量を保
持する基準点特徴量記憶バッファと、領域抽出の基準点
の位置を保持する基準点位置記憶バッファと、ある画素
の隣接画素のアドレスを探索する近傍画素探索手段と、
マスクすべき画素を記憶する判定済画素記憶バッファ
と、2つの画素の特徴量を比較する画素特徴量比較手段
と、ある画素の特徴量を算出する画素特徴量抽出手段
と、領域抽出結果を保持するマスク画像メモリとを備え
ていることを特徴とする。
In order to solve the above problems, an image area extracting apparatus of the present invention comprises an input image memory for holding input image data, and a monitor for displaying the image data and the area extraction result. A position designation means for designating a target region to be extracted, a reference point feature amount storage buffer for holding a pixel feature amount of a reference point for region extraction, a reference point position storage buffer for holding a position of a reference point for region extraction, Neighbor pixel search means for searching the address of a pixel adjacent to a certain pixel,
A determined pixel storage buffer that stores pixels to be masked, a pixel feature amount comparison unit that compares the feature amounts of two pixels, a pixel feature amount extraction unit that calculates the feature amount of a certain pixel, and an area extraction result are held. And a mask image memory for performing the mask image processing.

【0013】また、本発明の画像の領域抽出方法は、抽
出する対象領域内の基準画素を指定するステップと、任
意の画素の特徴量を抽出する1つ以上の異なる画素特徴
量抽出ステップと、基準画素の画素特徴量とその近傍の
画素特徴量とを比較するステップとを持った、基準画素
を含む均一な画素特徴量を持つ連結領域を抽出すること
を特徴とする。
The image area extraction method of the present invention further includes a step of designating a reference pixel in the target area to be extracted, and one or more different pixel feature amount extraction steps of extracting the feature amount of an arbitrary pixel, It is characterized by extracting a connected region having a uniform pixel feature amount including the reference pixel, which has a step of comparing the pixel feature amount of the reference pixel with the pixel feature amount in the vicinity thereof.

【0014】本発明の画像の領域抽出方法及び装置の原
理について説明する。
The principle of the image area extraction method and apparatus of the present invention will be described.

【0015】図4、図5、図7、図8は、本発明の原理
を示す流れ図である。図9、図10は、入力画像データ
を拡大した図である。画像データはスキャナ等によりデ
ジタイズされており、各画素は、図中の格子で囲まれた
小矩形として表されている。
FIG. 4, FIG. 5, FIG. 7, and FIG. 8 are flow charts showing the principle of the present invention. 9 and 10 are enlarged views of the input image data. The image data is digitized by a scanner or the like, and each pixel is represented as a small rectangle surrounded by a grid in the figure.

【0016】図4を用いて本発明の処理の流れを説明す
る。まずオペレータは、抽出したい対象領域内の画素を
指定する(ステップA1)。オペレータによって指定さ
れた画素を基準画素とする。そして、基準画素の位置
を、第一の判定済画素位置として登録し(ステップA
2,A3)、同時に基準画素の画素特徴量を計算する
(ステップA4)。次に、連結領域抽出処理を行い、対
象領域を抽出する(ステップA5)。連結領域抽出処理
では、基準画素を含む均一な画素特徴量を持つ連結領域
を抽出する。連結領域とは、画素特徴量がほぼ等しい隣
接画素の集合で構成される領域である。さらにマスク画
像データに対して膨張、収縮処理を行い、領域の形状を
補正する(ステップA6)。最後にマスク画像データを
出力する(ステップA7)。
The processing flow of the present invention will be described with reference to FIG. First, the operator designates a pixel in the target area to be extracted (step A1). The pixel designated by the operator is used as the reference pixel. Then, the position of the reference pixel is registered as the first determined pixel position (step A
2, A3), and at the same time, the pixel feature amount of the reference pixel is calculated (step A4). Next, a connected area extraction process is performed to extract the target area (step A5). In the connected area extraction processing, connected areas having a uniform pixel feature amount including the reference pixel are extracted. The connected region is a region formed by a set of adjacent pixels having substantially the same pixel feature amount. Further, the mask image data is expanded and contracted to correct the shape of the area (step A6). Finally, the mask image data is output (step A7).

【0017】図5を用いて本発明の処理の流れを説明す
る。まずオペレータは、抽出したい対象領域内の画素を
指定する(ステップA21)。オペレータによって指定
された画素を、基準画素とする。そして、基準画素の位
置を、第一の判定済画素位置として登録し(ステップA
22,A23)、基準画素の画素特徴量を計算する(ス
テップA24)。次に、連結領域抽出処理を行い、対象
領域を抽出する(ステップA25)。連結領域抽出処理
では、基準画素を含む均一な画素特徴量を持つ連結領域
を抽出する。連結領域とは、画素特徴量がほぼ等しい隣
接画素の集合で構成される領域である。そして、得られ
たマスクデータを調査し、マスクが正常に作成されたか
どうかを判定する(ステップA25)。
The processing flow of the present invention will be described with reference to FIG. First, the operator designates a pixel in the target area to be extracted (step A21). The pixel designated by the operator is used as the reference pixel. Then, the position of the reference pixel is registered as the first determined pixel position (step A
22, A23), and the pixel feature amount of the reference pixel is calculated (step A24). Next, a connected area extraction process is performed to extract the target area (step A25). In the connected area extraction processing, connected areas having a uniform pixel feature amount including the reference pixel are extracted. The connected region is a region formed by a set of adjacent pixels having substantially the same pixel feature amount. Then, the obtained mask data is examined to determine whether or not the mask is normally created (step A25).

【0018】マスク作成判定結果の一例として、マスク
TRUEの画素がn個以上抽出されたかどうかを調べる
ことがあげられる。nは通常2であるが、それ以上の数
でもかまわない。この場合TRUEがn個以上存在する
場合にはマスク作成に成功、n個未満のときは作成に失
敗したとみなす。あらかじめ何回まで特徴量を替えて処
理するかを決めておく方法もある。また、装置内のすべ
ての画素特徴量抽出手段を実行してしまった場合にも、
成功したとみなして次のステップへ進むものとする。
As an example of the mask creation determination result, it is possible to check whether or not n or more pixels of the mask TRUE have been extracted. n is usually 2, but a number larger than that may be used. In this case, when the number of TRUE is n or more, the mask creation is considered successful, and when the number is less than n, it is considered that the mask creation is unsuccessful. There is also a method of determining in advance how many times the feature amount should be changed before processing. Also, if all the pixel feature amount extraction means in the device have been executed,
Succeed and proceed to the next step.

【0019】マスクが正常に作成されなかった時は、使
用する画素特徴量を変更して(ステップA27)、もう
一度、基準画素の画素特徴量の計算(ステップA23)
から繰り返す。マスク作成結果判定処理(ステップA2
6)にて、成功したと判断されれば次のステップに進
む。次にマスク画像データに対して膨張、収縮処理を行
い、領域の輪郭を補正する(ステップA28)。最後に
マスク画像データを出力する(ステップA29)。
When the mask is not normally created, the pixel feature amount to be used is changed (step A27), and the pixel feature amount of the reference pixel is calculated again (step A23).
Repeat from Mask creation result determination process (step A2
In 6), if it is determined that it has succeeded, the process proceeds to the next step. Next, the mask image data is subjected to expansion and contraction processing to correct the contour of the area (step A28). Finally, the mask image data is output (step A29).

【0020】本発明における出力データは、TRUE,
FALSEの2種類のマスクデータであり、TRUEの
場合には、入力画像のその位置における抽出領域とする
ことを、FALSEの場合には抽出しないことを示すも
のとする。しかし、出力するデータはこれに限られるも
のではなく、画素値をTRUE,FALSEを0と25
5の値で表現したり、TRUEの位置に、入力画像の画
素値をマッピングして出力する方法などがある。
Output data in the present invention is TRUE,
It is two types of mask data of FALSE, and in the case of TRUE, it indicates that it is an extraction region at that position of the input image, and in the case of FALSE, it indicates that it is not extracted. However, the output data is not limited to this, and the pixel value is TRUE and FALSE is 0 and 25.
There is a method of expressing it with a value of 5, or a method of mapping and outputting the pixel value of the input image to the position of TRUE.

【0021】ここで、本発明における画素特徴量につい
て説明する。画素Xにおける画素特徴量をV(X)と
し、V(X)は、単一の値でもよいし、画素の特徴を表
す複数の値でもよいものとする。画素特徴量の例として
は、 ・画素値をそのまま用いる。グレー画像ならばグレース
ケールを、カラー画像の場合には、RGB値をそのまま
用いる。 ・HSV値(色相、彩度、明度値)。これらを求めるた
めの計算方法は従来よりいくつか提案されており、例え
ば文献[1]によって、RGB値から計算することがで
きる。また、XYZ値、L* * * 値、L* * *
値なども使用することができる。これらはCIE(国際
照明委員会)で定められた規格で一般に広く知られてお
り、計算方法は文献[3]等に詳しく述べられている。 ・画素の近傍に局所フィルタを作用させて得られる値。 ・HSV、XYZ等の色変換を行った後に、局所フィル
タを作用させて得られる値。 などがある。
Here, the pixel feature amount in the present invention will be described. The pixel feature amount in the pixel X is V (X), and V (X) may be a single value or a plurality of values representing the feature of the pixel. Examples of the pixel feature amount are: -The pixel value is used as it is. Grayscale is used for gray images, and RGB values are used for color images. HSV value (hue, saturation, lightness value). Several calculation methods for obtaining these have been proposed in the past, and can be calculated from RGB values according to, for example, document [1]. In addition, XYZ value, L * a * b * value, L * u * v *
Values etc. can also be used. These are generally widely known by the standard established by CIE (International Commission on Illumination), and the calculation method is described in detail in the document [3] and the like. -Value obtained by applying a local filter in the vicinity of a pixel. A value obtained by operating a local filter after performing color conversion such as HSV and XYZ. and so on.

【0022】画素の近傍に局所フィルタを作用させる方
法について、図11を用いて説明する。局所フィルタ7
0は、注目画素位置71において、局所フィルタを作用
させている場面を示す。iは画像のx方向の位置、jは
y方向の位置を表す。図では局所フィルタのサイズが3
×3であるが、一般的には、M×Nで表され、そのサイ
ズは任意である。位置i,jにおける画素値を、I
(i,j)とすると、3×3局所フィルタを作用させた
場合、その出力I′(i,j)は、 I′(i,j)=I(i−1,j−1)*a(1,1)+I(i,j−1)* a(1,2)+I(i+1,j−1)*a(1,3)+I(i−1,j)*a( 2,1)+I(i,j)*a(2,2)+I(i+1,j)*a(2,3)+I (i−1,j+1)*a(3,1)+I(i,j+1)*a(3,2)+I(i +1,j+1)*a(3,3) (1) となる。画素値がRGBのように3つある場合には、
R、G、Bのそれぞれに局所フィルタを作用させること
で、R′,G′,B′の3つの特徴量が得られることに
なる。
A method of applying a local filter to the vicinity of a pixel will be described with reference to FIG. Local filter 7
0 indicates a scene where the local filter is operated at the pixel position of interest 71. i represents the position in the x direction of the image, and j represents the position in the y direction. In the figure, the size of the local filter is 3
Although it is × 3, it is generally expressed by M × N, and its size is arbitrary. The pixel values at the positions i and j are I
Assuming that (i, j), when the 3 × 3 local filter is operated, its output I ′ (i, j) is I ′ (i, j) = I (i−1, j−1) * a. (1,1) + I (i, j-1) * a (1,2) + I (i + 1, j-1) * a (1,3) + I (i-1, j) * a (2,1) + I (i, j) * a (2,2) + I (i + 1, j) * a (2,3) + I (i-1, j + 1) * a (3,1) + I (i, j + 1) * a ( 3,2) + I (i + 1, j + 1) * a (3,3) (1). If there are three pixel values like RGB,
By applying a local filter to each of R, G, and B, three feature quantities R ′, G ′, and B ′ can be obtained.

【0023】本発明において有効な局所フィルタの一つ
に、低周波濾過フィルタがある。図中に示された低周波
濾過フィルタ72の数値は一例であり、ここでいう低周
波濾過フィルタとは、画像をフーリエ変換した後、空間
周波数の低い成分のみを濾過するような作用をするフィ
ルタを総称している。このような低周波濾過フィルタ
は、実際には注目画素の周辺の画素を加重平均するよう
な局所フィルタとして表すことができる。これらの例と
して低周波濾過フィルタ72は、周辺の画素の一様平均
をとる局所フィルタを示している。
One of the local filters effective in the present invention is a low frequency filter. The numerical values of the low-frequency filtering filter 72 shown in the figure are examples, and the low-frequency filtering filter referred to here is a filter that acts to filter only low spatial frequency components after Fourier transforming the image. Are collectively referred to. Such a low-frequency filtering filter can actually be represented as a local filter that weighted averages pixels around the pixel of interest. As an example of these, the low frequency filtering filter 72 is a local filter that takes a uniform average of peripheral pixels.

【0024】低周波濾過フィルタは、図12内の対象領
域104のような、一番色画素105と二番色画素10
6が細かいパターンとして繰り返されている領域を抽出
するのに有効である。このようなパターンを持つ領域
は、モニタ上で表示すると、双方の色が混色した色とし
て見えるので、16色など、色数の限られたモニタに任
意の色を表示するためにしばしばこのような画像が作成
されて用いられる。例えば、白と黒のパターンでグレー
の中間調を表したり、赤と青のパターンで紫を表したり
することができる。
The low frequency filtering filter includes a first color pixel 105 and a second color pixel 10 such as the target area 104 in FIG.
This is effective for extracting a region in which 6 is repeated as a fine pattern. An area having such a pattern appears as a mixed color of both colors when displayed on a monitor. Therefore, in order to display an arbitrary color on a monitor with a limited number of colors such as 16 colors, such a color is often used. An image is created and used. For example, white and black patterns can represent gray tones, and red and blue patterns can represent purple.

【0025】一番色画素105が赤、二番色画素106
が青であるとすると、モニタに表示すると人間からは、
ほぼ紫に見える。この効果を再現するために、低周波濾
過フィルタを用いるのである。対象領域104のある注
目画素の特徴量として、低周波濾過成分を用いることに
より、赤と青の加重平均値が得られるが、これは紫色の
画素値とほぼ同じである。つまり、低周波濾過フィルタ
を用いることにより、例え微細なパターンで構成された
領域であっても、人間が見たままの色としてマスク作成
作業を行うことができる。
The first color pixel 105 is red and the second color pixel 106 is
Is blue, and when displayed on a monitor
It looks almost purple. In order to reproduce this effect, a low frequency filter is used. The weighted average value of red and blue is obtained by using the low-frequency filtered component as the feature amount of a certain pixel of interest in the target region 104, which is almost the same as the purple pixel value. That is, by using the low-frequency filtering filter, it is possible to carry out the mask making work as a color as seen by a human, even in an area constituted by a fine pattern.

【0026】その他、局所フィルタとして有効なものの
例として、高周波フィルタ73、エッジ強度抽出フィル
タ74などがある。なお、図中の高周波フィルタ73、
エッジ強度フィルタ74に示された数値はほんの一例で
あり、文献[2]等にいくつかのフィルタが記載されて
いる。高周波フィルタやエッジ強度抽出フィルタは、色
は同じでテクスチャーが異なる領域を抽出するのに有効
である。
Other examples of effective local filters include a high frequency filter 73 and an edge strength extraction filter 74. The high frequency filter 73 in the figure,
The numerical values shown in the edge strength filter 74 are just examples, and some filters are described in the document [2] and the like. The high frequency filter and the edge strength extraction filter are effective for extracting regions having the same color but different textures.

【0027】次に、連結領域抽出処理(ステップA5,
A25)の内容について述べる。
Next, a connected area extracting process (step A5)
The contents of A25) will be described.

【0028】連結領域抽出処理の例として、図7があ
る。まず、出力のマスク画像データをすべてFALSE
に初期化する(ステップB1)。判定済画素位置を一つ
読み込む(ステップB2)。なお、一度読みだした位置
情報項目は登録から削除されなければならない。マスク
画像における、判定済画素の位置に、TRUEをセット
する(ステップB3)。次に判定済画素の近傍の画素を
マスク候補画素として取得する(ステップB4)。マス
ク候補画素それぞれについて、画素特徴量と基準画素特
徴量とを比較し、マスク可能ならば、その画素位置を判
定済画素位置として登録する(ステップB5,B6,B
7,B8)。そしてステップB2以下の処理を判定済画
素がなくなるまで続ける。
FIG. 7 shows an example of the connected area extracting process. First, all output mask image data is FALSE
(Step B1). One determined pixel position is read (step B2). Note that the location information item once read must be deleted from the registration. TRUE is set at the position of the determined pixel in the mask image (step B3). Next, a pixel in the vicinity of the determined pixel is acquired as a mask candidate pixel (step B4). For each mask candidate pixel, the pixel feature amount is compared with the reference pixel feature amount, and if maskable, the pixel position is registered as a determined pixel position (steps B5, B6, B).
7, B8). Then, the processing from step B2 is continued until there are no more judged pixels.

【0029】マスク可能かどうかの判断方法の例を以下
に述べる。N個の特徴量を使用するものとすると、N個
の基準画素特徴量を、Vi=(V1,V2,V3…V
n)、対象画素の特徴量を、Xi=(X1,X2,X3
…Xn)と表すことができる。それぞれの特徴量の許容
範囲を、Ti=(T1,T2,T3…Tn)とすれば、
次式の基準で判定できる。 ・もしも、1からNまですべてのiについて、|Xi−
Vi|<Tiが成り立つならばその画素はマスク可能
(TRUE)、そうでないならFALSE もしも特徴量がRGB画素値の場合には、対象画素の
R、G、Bのそれぞれの値が、基準画素の値から、ある
一定の範囲内に入っていればTRUE、そうでないなら
FALSEとなる。
An example of a method of determining whether masking is possible will be described below. Assuming that N feature quantities are used, N reference pixel feature quantities are Vi = (V1, V2, V3 ... V
n), the feature amount of the target pixel is Xi = (X1, X2, X3
... Xn) can be represented. If the allowable range of each feature amount is Ti = (T1, T2, T3 ... Tn),
It can be judged by the following formula. -If all i from 1 to N are | Xi-
If Vi | <Ti is true, the pixel can be masked (TRUE), and if not FALSE, if the feature amount is an RGB pixel value, the R, G, and B values of the target pixel are From the value, it is TRUE if it is within a certain range, and FALSE otherwise.

【0030】実際の処理の様子を図9を用いて説明す
る。基準画素53(図中のAで示されている画素)は、
あらかじめ第一の判定済画素位置54として登録されて
いる。マスク画像データにおける第一の判定済画素位置
54にTRUEをセットした後、マスク候補画素とし
て、4近傍の画素、a,b,c,dを取得し、それぞれ
の画素特徴量V(a),V(b),V(c),V(d)
を基準画素特徴量V(A)と比較する。そして、特徴量
が基準画素値に近ければ、マスク可能な画素であり、判
定済画素として登録する。この例では、a,b,c,d
すべて判定済画素に登録する。
The state of actual processing will be described with reference to FIG. The reference pixel 53 (pixel indicated by A in the figure) is
It is registered in advance as the first determined pixel position 54. After setting TRUE to the first determined pixel position 54 in the mask image data, the four neighboring pixels, a, b, c, and d, are acquired as the mask candidate pixels, and the respective pixel feature amounts V (a), V (b), V (c), V (d)
Is compared with the reference pixel feature amount V (A). If the feature amount is close to the reference pixel value, it is a maskable pixel and is registered as a determined pixel. In this example, a, b, c, d
All are registered in the judged pixels.

【0031】次に、判定済画素バッファから読み込まれ
た画素が、cであったとする。cは、第二の判定済画素
位置55に位置するので、マスク画像メモリの第二の判
定済画素位置55にTRUEをセットする。画素cの近
傍のマスク候補画素は、A,e,f,gであるが、Aは
既にマスク画像に登録されているので判定しない。e,
f,gの特徴量を比較すると、e,fはTRUEとなり
マスク可能であるが、gは、対象領域から外れるのでF
ALSEとなる。このように、基準画素の近傍から探索
画素を拡大していくことにより、基準画素を含む対象領
域を抽出することができる。
Next, it is assumed that the pixel read from the determined pixel buffer is c. Since c is located at the second determined pixel position 55, TRUE is set to the second determined pixel position 55 of the mask image memory. The mask candidate pixels in the vicinity of the pixel c are A, e, f, and g, but A is not registered because it is already registered in the mask image. e,
Comparing the feature amounts of f and g, e and f become TRUE and can be masked, but g is out of the target area, so F
Become ALSE. In this way, the target region including the reference pixel can be extracted by expanding the search pixel from the vicinity of the reference pixel.

【0032】もう一つの連結領域抽出処理(ステップA
5,A25)の例として、図8がある。まず、出力のマ
スク画像データをすべてFALSEに初期化する(ステ
ップB20)。判定済画素位置を一つ読み込む(ステッ
プB21)。判定済画素から、−X方向へ入力画像を探
索し、対象領域の境界となる画素を見付け(ステップB
22)、その境界画素をスキャン画素pとする(ステッ
プB23)。次にマスク画像におけるスキャン画素の位
置に、TRUEをセットする(ステップB24)。次
に、スキャン画素の+Y方向の隣接画素P1がマスク可
能かどうか判断し(ステップB25)、マスク可能なら
ば、p1の−X方向の隣接画素がマスク不可であるとき
に限り、p1を判定済画素として登録する(ステップB
26)。次に、スキャン画素の−Y方向の隣接画素p2
がマスク可能かどうかを判断し(ステップB27)、マ
スク可能ならば、p2の−X方向の隣接画素がマスク不
可であるときに限り、p2を判定済画素として登録する
(ステップB28)。
Another connected area extraction process (step A)
5, A25) is shown in FIG. First, all output mask image data is initialized to FALSE (step B20). One determined pixel position is read (step B21). The input image is searched in the -X direction from the determined pixels to find the pixel that becomes the boundary of the target area (step B
22), and the boundary pixel is set as the scan pixel p (step B23). Next, TRUE is set at the position of the scan pixel in the mask image (step B24). Next, it is determined whether or not the adjacent pixel P1 in the + Y direction of the scan pixel can be masked (step B25), and if maskable, p1 is determined only when the adjacent pixel in the -X direction of p1 cannot be masked. Register as a pixel (step B
26). Next, the adjacent pixel p2 in the −Y direction of the scan pixel
Is maskable (step B27), and if maskable, p2 is registered as a determined pixel (step B28) only when a pixel adjacent to p2 in the -X direction is not maskable.

【0033】次にスキャン画素の+X方向の隣接画素を
マスク可能か判断し(ステップB29)、マスク可能な
らば、スキャン画素を+X方向にインクリメントし(ス
テップB30)、ステップB24へ戻る。マスク不可な
らば、次の判定済画素についてステップB21からの処
理を繰り返す。これを判定済画素がなくなるまで続け
る。
Next, it is judged whether or not adjacent pixels in the + X direction of the scan pixel can be masked (step B29). If maskable, the scan pixel is incremented in the + X direction (step B30), and the process returns to step B24. If masking is not possible, the processing from step B21 is repeated for the next determined pixel. This is continued until there are no judged pixels.

【0034】実際の処理の様子を図10を用いて説明す
る。基準画素63(図中のAで示されている画素)は、
あらかじめ第一の判定済画素位置64として登録されて
いる。第一の判定済画素位置64から、−X方向に探索
していくと、まず境界画素pが見付かる。そこでpをス
キャン画素とする。スキャン画素の位置のマスクデータ
をTRUEにした後、その上のp1画素がマスク可能か
どうかを調査する。しかしp1は対象領域外なので、次
のステップに進み、スキャン画素の下のp2画素につい
てマスク可能かどうか調査する。p2は対象領域内なの
で次にp2の−X方向の隣接画素を調査する。すると、
p2の−X方向の隣接画素は、対象領域外でFALSE
なので、条件に合致し、判定済画素として登録する。
The state of actual processing will be described with reference to FIG. The reference pixel 63 (pixel indicated by A in the figure) is
It is registered in advance as the first determined pixel position 64. When searching in the −X direction from the first determined pixel position 64, the boundary pixel p is first found. Therefore, p is a scan pixel. After setting the mask data of the position of the scan pixel to TRUE, it is investigated whether or not the p1 pixel on it is maskable. However, since p1 is outside the target area, the process proceeds to the next step, and it is investigated whether or not p2 pixels under the scan pixels can be masked. Since p2 is within the target area, the adjacent pixel in the -X direction of p2 is examined next. Then
Adjacent pixels in the -X direction of p2 are FALSE outside the target area.
Therefore, the condition is met and the pixel is registered as a determined pixel.

【0035】スキャン画素pの+X方向の隣接画素qも
マスク可能なので、同様に上下の画素を調査し、q1が
判定済画素として登録されることがわかる。以上の様に
処理を進めていくと、やがてもう一つの境界画素rに到
達し、1ライン分の処理が終了する。このように、図8
のマスク判定処理方法では、各ラインごとに、一つの判
定済画像を記憶することになり、非常に高速に処理でき
ることがわかる。
Since the adjacent pixel q in the + X direction of the scan pixel p can also be masked, it is understood that the upper and lower pixels are similarly examined and q1 is registered as the determined pixel. When the process proceeds as described above, another boundary pixel r is eventually reached, and the process for one line ends. Thus, FIG.
It can be seen that in the mask determination processing method (1), one determined image is stored for each line, and the processing can be performed at extremely high speed.

【0036】次に、膨張収縮処理(ステップA6,A2
8)について述べる。
Next, expansion / contraction processing (steps A6 and A2)
8) will be described.

【0037】膨張処理は、領域を1画素分太める処理で
あり、収縮処理は1画素分細める処理である。本処理は
文献[4]にも記載されている。
The expansion processing is processing for thickening the area by one pixel, and the contraction processing is processing for thinning the area by one pixel. This process is also described in the document [4].

【0038】本発明においては、マスク画像はTRUE
とFALSEの画素で構成されているので、入力マスク
画像をf(i,j)、出力マスク画像をg(i,j)と
すると、次のように表す事ができる。 ・膨張: f(i,j)または、その4近傍(8近傍)
のいずれかがTRUEのとき、g(i,j)=TRU
E。それ以外はg(i,j)=FALSE ・収縮: f(i,j)または、その4近傍(8近傍)
のいずれかがFALSEのとき、g(i,j)=FAL
SE。それ以外はg(i,j)=TRUE ここで、4近傍とは画素の上下左右の4つの隣接画素の
ことを指し、8近傍とは画素の上下左右と斜め方向の8
つの隣接画素を指す。本発明では、膨張と収縮をN回ず
つ行い、領域の細かい凹凸や穴を除去する。
In the present invention, the mask image is TRUE.
Since the input mask image is f (i, j) and the output mask image is g (i, j), it can be expressed as follows. -Expansion: f (i, j) or its 4 vicinity (8 vicinity)
Is TRUE, g (i, j) = TRU
E. Other than that, g (i, j) = FALSE. Contraction: f (i, j) or its 4 neighborhoods (8 neighborhoods)
Is FALSE, g (i, j) = FAL
SE. Other than that, g (i, j) = TRUE Here, 4 neighborhoods refer to 4 adjacent pixels on the left, right, top and bottom of the pixel, and 8 neighborhoods indicate 8 in the top, bottom, left, right and diagonal directions of the pixel.
Two adjacent pixels. In the present invention, expansion and contraction are performed N times to remove fine irregularities and holes in the region.

【0039】なお、これまでの作用の説明では、オペレ
ータが基準画素として1画素を指定するものとして説明
したが、オペレータが複数画素を指定する場合には、前
記の作用を複数回繰り返して行い、その結果を統合すれ
ばよい。マスクを統合する様子を図13を用いて説明す
る。入力画像例110において、オペレータは対象領域
116を抽出しようとしたが、はじめはA領域111し
か抽出できなかった。そこで、A領域111を保存して
おいて、次にB領域112を抽出し、A領域111と統
合する。このようにして、E領域115、までを随時統
合していけば、対象領域116をすべて抽出することが
できる。
In the explanation of the operation so far, it has been explained that the operator designates one pixel as the reference pixel, but when the operator designates a plurality of pixels, the above-mentioned action is repeated a plurality of times, The results can be integrated. The manner in which the masks are integrated will be described with reference to FIG. In the input image example 110, the operator tried to extract the target area 116, but at first, only the A area 111 could be extracted. Therefore, the A area 111 is saved, and then the B area 112 is extracted and integrated with the A area 111. In this way, if the E regions 115 and so on are integrated at any time, all the target regions 116 can be extracted.

【0040】このような処理の一例を、図6をもとに説
明する。1つの基準画素について領域抽出が終了した時
点で、マスク画像メモリのデータを出力するのではな
く、第二のマスク画像メモリに転送しておく(ステップ
C3)。そして領域抽出結果をモニタに表示し(ステッ
プC4)、オペレータからの次の指示を待つ。オペレー
タから、次の基準点が指示されたら、もう一度領域抽出
処理を行い、第二のマスク画像メモリに保持されていた
前回の結果と統合する(ステップC2)。オペレータか
ら終了指示があれば、マスク画像データを出力して終了
する。
An example of such processing will be described with reference to FIG. When the area extraction is completed for one reference pixel, the data in the mask image memory is not output, but is transferred to the second mask image memory (step C3). Then, the area extraction result is displayed on the monitor (step C4), and the next instruction from the operator is awaited. When the next reference point is designated by the operator, the area extraction process is performed again, and the result is integrated with the previous result held in the second mask image memory (step C2). If there is an end instruction from the operator, the mask image data is output and the process ends.

【0041】[0041]

【発明の実施の形態】以下に、本発明の実施例である画
像の領域抽出装置を図面を用いて説明する。図1は本発
明の画像の領域抽出装置の実施例を示すブロック図であ
る。図2は本発明の画像の領域抽出装置の別の実施例を
示すブロック図である。図3は本発明の画像の領域抽出
装置の中の画素特徴量抽出手段の実施例を示すブロック
図である。
BEST MODE FOR CARRYING OUT THE INVENTION An image area extracting apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of an image area extracting device of the present invention. FIG. 2 is a block diagram showing another embodiment of the image area extraction device of the present invention. FIG. 3 is a block diagram showing an embodiment of pixel feature amount extraction means in the image area extraction device of the present invention.

【0042】本発明の第一の実施例は、スキャナやカメ
ラ等の画像入力装置1と、画像を表示するモニタ2と、
画像データを保持する入力画像メモリ4と、対象領域を
指定するための位置指定手段3と、基準点の特徴量を記
憶する基準点特徴量記憶バッファ6と、基準点の位置を
記憶する基準点位置記憶バッファ7と、近傍画素のアド
レスを計算する近傍画素探索手段8と、判定済画素位置
記憶バッファ9と、マスク画像メモリ5と、ハードディ
スクなどのデータ出力装置10と、画素特徴量を比較す
る画素特徴量比較手段11と、画素特徴量抽出手段12
と、各モジュールを制御するCPU15から構成されて
いる。
The first embodiment of the present invention is an image input device 1 such as a scanner or a camera, a monitor 2 for displaying an image,
An input image memory 4 for holding image data, a position designation means 3 for designating a target area, a reference point feature amount storage buffer 6 for storing the feature amount of a reference point, and a reference point for storing the position of the reference point. The position storing buffer 7, the neighboring pixel searching means 8 for calculating the address of the neighboring pixel, the determined pixel position storing buffer 9, the mask image memory 5, the data output device 10 such as a hard disk, and the pixel feature amount are compared. Pixel feature amount comparison means 11 and pixel feature amount extraction means 12
And a CPU 15 for controlling each module.

【0043】本発明の第二の実施例は、第一の実施例に
おいて、画素蓄積抽出手段40からなる画素特徴量抽出
手段12を有する。
The second embodiment of the present invention has the pixel feature amount extraction means 12 which is the pixel accumulation extraction means 40 in the first embodiment.

【0044】本発明の第三の実施例は、第二の実施例に
おける画素特徴量抽出手段に対し、さらに色変換手段4
4を加えた構成の、画素特徴量抽出手段12を有する。
The third embodiment of the present invention is different from the pixel feature amount extracting means in the second embodiment in that a color converting means 4 is further provided.
The pixel feature amount extraction unit 12 having a configuration in which 4 is added is included.

【0045】本発明の第四の実施例は、第二と第三の実
施例における画素特徴量抽出手段に対し、さらに低周波
濾過手段41を加えた構成の、画素特徴量抽出手段12
を有する。
In the fourth embodiment of the present invention, the pixel feature quantity extracting means 12 is constructed by adding a low frequency filtering means 41 to the pixel feature quantity extracting means in the second and third embodiments.
Having.

【0046】本発明の第五の実施例は、第一の実施例の
画素特徴量抽出手段12に替えて、N個(Nは2以上)
の異なる画素特徴量抽出手段からなる、複数の画素特徴
量抽出手段21と、マスク作成結果判定手段22とから
構成されている。
The fifth embodiment of the present invention replaces the pixel feature amount extraction means 12 of the first embodiment with N (N is 2 or more).
A plurality of pixel feature amount extracting means 21 and different mask feature result determining means 22.

【0047】本発明の第六の実施例は、第一の実施例の
画素特徴量抽出手段12に替えて、画素値抽出手段40
を有する1番目の画素特徴量抽出手段23と、画素値抽
出手段40と低周波濾過手段41を有する2番目の画素
特徴量抽出手段24とからなる複数の画素特徴量抽出手
段21と、マスク作成結果判定手段22とから構成され
ている。
In the sixth embodiment of the present invention, a pixel value extracting means 40 is used instead of the pixel feature quantity extracting means 12 of the first embodiment.
And a plurality of pixel feature amount extracting means 21 including a pixel value extracting means 40 and a second pixel feature amount extracting means 24 having a low frequency filtering means 41, and mask creation. It is composed of the result judging means 22.

【0048】本発明の第七の実施例は、第一の実施例、
第二の実施例、第三の実施例、第四の実施例、第五の実
施例、第六の実施例の構成要素に加えて、マスク領域膨
張手段13と、マスク領域収縮手段14を有する。
The seventh embodiment of the present invention is the first embodiment,
In addition to the components of the second embodiment, the third embodiment, the fourth embodiment, the fifth embodiment, and the sixth embodiment, the mask area expanding means 13 and the mask area contracting means 14 are provided. .

【0049】本発明の第八の実施例は、第一の実施例、
第二の実施例、第三の実施例、第四の実施例、第五の実
施例、第六の実施例、第七の実施例の構成要素に加え
て、第二のマスク画像メモリ26と、マスク領域統合手
段27を有する。
An eighth embodiment of the present invention is the first embodiment,
In addition to the components of the second embodiment, the third embodiment, the fourth embodiment, the fifth embodiment, the sixth embodiment and the seventh embodiment, a second mask image memory 26 and The mask area integrating means 27 is provided.

【0050】図4と、図7,図8を参照して本発明の第
一、第二、第三、第四の実施例の動作について説明す
る。
The operation of the first, second, third and fourth embodiments of the present invention will be described with reference to FIG. 4, FIG. 7 and FIG.

【0051】画像入力装置1から入力画像メモリ4に画
像データが入力され、モニタ2に表示される。画像入力
装置1は、スキャナ、カメラ等の撮像装置だけでなく、
ネットワークで接続されたデータベースからの画像取得
を行う装置等を含むものとする。オペレータは、マウ
ス、キーボード等の位置指定手段3によって、画像中か
ら切り出したい対象領域内の点を指定する(ステップA
1)。
Image data is input from the image input device 1 to the input image memory 4 and displayed on the monitor 2. The image input device 1 is not only an image pickup device such as a scanner or a camera, but also
It is assumed to include a device that acquires images from a database connected by a network. The operator designates a point in the target area to be cut out from the image by the position designation means 3 such as a mouse and a keyboard (step A).
1).

【0052】指定された点(基準画素)の位置情報(x
座標、y座標)は、まず基準点位置記憶バッファ7に記
憶される(ステップA2)。そして基準点の位置情報
は、判定済画素位置記憶バッファ9にも記憶される(ス
テップA3)。
Position information (x) of the designated point (reference pixel)
The coordinates, y coordinate) are first stored in the reference point position storage buffer 7 (step A2). Then, the position information of the reference point is also stored in the determined pixel position storage buffer 9 (step A3).

【0053】次に基準画素の画素特徴量を、画素特徴量
抽出手段12によって抽出し、出力値を基準点特徴量記
憶バッファ6に入れる(ステップA4)。画素特徴量抽
出手段12の実現方法については作用の項ですでに述べ
た。例として、当該画素のRGB値を出力するもの、色
相、彩度、明度値を出力するもの、近傍画素に局所フィ
ルタを作用させるものなどがある。
Next, the pixel feature amount of the reference pixel is extracted by the pixel feature amount extraction means 12, and the output value is put into the reference point feature amount storage buffer 6 (step A4). The method of implementing the pixel feature amount extraction means 12 has already been described in the section of operation. Examples include one that outputs the RGB value of the pixel, one that outputs the hue, saturation, and lightness value, and one that applies a local filter to neighboring pixels.

【0054】図3を用いて画素特徴量抽出手段12の例
について説明する。図3においては、入力はすべて画素
のアドレス(画素の位置)であり、出力は画素特徴量で
ある。画素特徴量抽出手段30は、画素値抽出手段40
のみからなる最も単純な構成例であり、画素アドレスが
入力されると、画素値を返却するものである。
An example of the pixel feature amount extraction means 12 will be described with reference to FIG. In FIG. 3, inputs are all pixel addresses (pixel positions), and outputs are pixel feature amounts. The pixel feature amount extraction means 30 is a pixel value extraction means 40.
This is the simplest configuration example consisting of only, and returns a pixel value when a pixel address is input.

【0055】画素特徴量抽出手段31は、画素値抽出手
段40と低周波濾過手段41からなる。低周波濾過手段
41は、図11の低周波濾過フィルタ72のような局所
フィルタを入力画素の近傍に作用させるものである。
The pixel feature amount extraction means 31 comprises a pixel value extraction means 40 and a low frequency filtering means 41. The low frequency filtering means 41 applies a local filter such as the low frequency filtering filter 72 of FIG. 11 to the vicinity of the input pixel.

【0056】画素特徴量抽出手段32は、画素値抽出手
段40とエッジ強度抽出手段42からなる。エッジ強度
抽出手段42は、図11のエッジ強度抽出フィルタ74
のような局所フィルタを入力画素の近傍に作用させるも
のである。
The pixel feature amount extraction means 32 comprises a pixel value extraction means 40 and an edge strength extraction means 42. The edge strength extraction means 42 is the edge strength extraction filter 74 of FIG.
A local filter like the one described above acts on the vicinity of the input pixel.

【0057】画素特徴量抽出手段33は、画素値抽出手
段40と高周波濾過手段43からなる。高周波濾過手段
43は、図11の高周波濾過フィルタ73のような局所
フィルタを入力画素の近傍に作用させるものである。
The pixel feature amount extracting means 33 comprises a pixel value extracting means 40 and a high frequency filtering means 43. The high frequency filtering means 43 causes a local filter such as the high frequency filtering filter 73 of FIG. 11 to act in the vicinity of the input pixel.

【0058】画素特徴量抽出手段34は、画素値抽出手
段40と色変換手段44からなる。色変換手段44は、
RGB値をHSV(色相(H)、彩度(S)、明度
(V))値、あるいはXYZ値、L* * * 値、L*
* * 値に変換するモジュールである。HSV値への
変換方法については、文献[1]などにより公知であ
る。また、XYZ、L* * * 、L* * * 値への
変換方法についても、文献[3]などにより公知であ
る。
The pixel feature amount extraction means 34 comprises a pixel value extraction means 40 and a color conversion means 44. The color conversion means 44 is
The RGB values are HSV (hue (H), saturation (S), lightness (V)) values, or XYZ values, L * a * b * values, L *.
It is a module that converts u * v * values. A method for converting to an HSV value is known by reference [1] and the like. Further, a method of converting into XYZ, L * a * b * , L * u * v * values is also known from literature [3] and the like.

【0059】画素特徴量抽出手段35は、画素値抽出手
段40と色変換手段44と、低周波濾過手段41からな
り、低周波濾過作用の後に、色変換を行った値を特徴量
として出力する。
The pixel feature amount extraction means 35 comprises a pixel value extraction means 40, a color conversion means 44, and a low frequency filtering means 41, and outputs the value after color conversion after the low frequency filtering operation as a feature amount. .

【0060】次にマスク画像メモリ5をFALSEで初
期化する(ステップB1)。次に判定済画素位置記憶バ
ッファ9より1つ判定済画素位置を読み込む(ステップ
B2)。このとき判定済画素位置記憶バッファ9から
は、読みだした位置情報項目を削除しなければならな
い。そのため判定済画素位置記憶バッファ9はスタック
として実装することもできる。マスク画像メモリ5内の
判定済画素位置にTRUEをセットする(ステップB
3)。
Next, the mask image memory 5 is initialized by FALSE (step B1). Next, one determined pixel position is read from the determined pixel position storage buffer 9 (step B2). At this time, the read position information item must be deleted from the determined pixel position storage buffer 9. Therefore, the determined pixel position storage buffer 9 can be mounted as a stack. TRUE is set to the determined pixel position in the mask image memory 5 (step B
3).

【0061】近傍画素探索手段8を用いて、マスク候補
画素として判定済画素の近傍の画素のアドレスを計算す
る(ステップB4)。マスク候補画素のアドレスから画
素特徴量抽出手段12を用いて画素特徴量を算出し、そ
の点の特徴量と基準点特徴量記憶バッファ6の内容とを
画素特徴量比較手段11によって比較し、マスク可能か
どうかを判断する(ステップB6)。
The neighboring pixel searching means 8 is used to calculate the addresses of the pixels in the vicinity of the pixels which have been judged as mask candidate pixels (step B4). A pixel feature amount is calculated from the address of the mask candidate pixel by using the pixel feature amount extraction means 12, and the feature amount at that point and the contents of the reference point feature amount storage buffer 6 are compared by the pixel feature amount comparison means 11 to obtain the mask. It is determined whether it is possible (step B6).

【0062】画素特徴量比較手段11の例としては、作
用の項で既に述べたように、その画素の特徴量が基準画
素の特徴量からある一定の範囲内にあればマスク可能と
し、そうでないならばマスク不可とするという手段があ
る。
As an example of the pixel feature quantity comparison means 11, as already described in the section of the operation, masking is possible if the feature quantity of the pixel is within a certain range from the feature quantity of the reference pixel, and it is not. In that case, there is a means to make masking impossible.

【0063】マスク可能と判断されればその画素位置
を、判定済画素位置記憶バッファ9に入力する。この近
傍画素がマスク可能かどうかの判定処理を、判定済画素
位置記憶バッファ9に空になるまで続ける。得られたマ
スク画像データは、マスク画像メモリ5に保持され、ハ
ードディスクなどのデータ出力装置10にセーブされ
る。
If it is determined that masking is possible, the pixel position is input to the determined pixel position storage buffer 9. The determination process of whether or not the neighboring pixels can be masked is continued until the determined pixel position storage buffer 9 becomes empty. The obtained mask image data is held in the mask image memory 5 and saved in the data output device 10 such as a hard disk.

【0064】また、本実施例において、前記ステップB
1以下の処理に替えて、ステップB20以下の処理を行
うことも可能である。
Further, in the present embodiment, the above step B
Instead of the processing of 1 or less, the processing of step B20 or less can be performed.

【0065】まずマスク画像メモリ5をFALSEで初
期化する(ステップB20)。次に判定済画素位置記憶
バッファ9より1つ判定済画素位置を読み込む(ステッ
プB21)。このとき判定済画素位置記憶バッファ9か
らは、読みだした位置情報項目を削除しなければならな
い。近傍画素探索手段8と、画素特徴量抽出手段12を
用いて得られた判定画素位置から、−X方向へ探索し、
対象領域の境界画素を見付け、その画素をスキャン画素
とする(ステップB22,B23)。
First, the mask image memory 5 is initialized by FALSE (step B20). Next, one determined pixel position is read from the determined pixel position storage buffer 9 (step B21). At this time, the read position information item must be deleted from the determined pixel position storage buffer 9. A search is made in the -X direction from the determination pixel position obtained by using the neighboring pixel search means 8 and the pixel feature amount extraction means 12.
A boundary pixel of the target area is found, and the pixel is set as a scan pixel (steps B22 and B23).

【0066】マスク画像メモリ5内のスキャン画素の位
置にTRUEをセットする(ステップB24)。近傍画
素探索手段8を用いて、スキャン画素の+Y方向の隣接
画素p1のアドレスを算出し、画素特徴量抽出手段12
を用いて画素特徴量を抽出する。その点の特徴量と基準
点特徴量記憶バッファ6の内容とを画像特徴量比較手段
11によって比較し、マスク可能かどうかを判断する
(ステップB6)。マスク可能と判断されればその隣接
画素の−X方向の隣接画素が、マスク可能かどうかを判
断し、−X方向の隣接画素がマスク不可ならば、p1を
判定済画素位置記憶バッファ9に入力する。スキャン画
素の−Y方向の隣接画素p2についても同様の処理を行
う。これらの処理を、判定済画素位置記憶バッファ9が
空になるまで続ける。
TRUE is set at the position of the scan pixel in the mask image memory 5 (step B24). Using the neighboring pixel search means 8, the address of the adjacent pixel p1 in the + Y direction of the scan pixel is calculated, and the pixel feature amount extraction means 12 is calculated.
To extract the pixel feature amount. The feature quantity at that point and the contents of the reference point feature quantity storage buffer 6 are compared by the image feature quantity comparison means 11 to determine whether masking is possible (step B6). If it is determined that masking is possible, it is determined whether or not the adjacent pixel in the -X direction of the adjacent pixel is maskable. If the adjacent pixel in the -X direction is not maskable, p1 is input to the determined pixel position storage buffer 9. To do. Similar processing is performed for the adjacent pixel p2 in the −Y direction of the scan pixel. These processes are continued until the determined pixel position storage buffer 9 becomes empty.

【0067】図5と、図7,図8を参照して本発明の第
五、第六の実施例の動作について説明する。
The operation of the fifth and sixth embodiments of the present invention will be described with reference to FIGS. 5, 7 and 8.

【0068】本実施例は、前段部分は第一の実施例と同
じであり、画素特徴量抽出手段として、1番目の特徴量
抽出手段23を用いる。一度マスク画像データが作成で
きた時点で、マスク作成結果判定手段22を用いて、マ
スク画像メモリの内容をチェックする。マスク作成結果
判定手段22は、領域抽出が良好な結果で終了したかど
うか、またはあらかじめ指定された画素特徴量をすべて
用いて領域抽出を実行したかどうかを判定する。マスク
作成結果判定手段22が、失敗と判断すれば、1番目の
画素特徴量抽出手段23を、2番目の画素特徴量抽出手
段24に置き換えてから、もう一度ステップA23から
処理を繰り返す。マスク作成結果判定手段22が、成功
と判断すれば、マスク画像メモリ5に保持されたデータ
は、ハードディスクなどのデータ出力装置10にセーブ
されて処理を終了する。
This embodiment is the same as the first embodiment in the former part, and uses the first feature amount extraction means 23 as the pixel feature amount extraction means. Once the mask image data can be created, the mask creation result determination means 22 is used to check the contents of the mask image memory. The mask creation result determination means 22 determines whether the region extraction has been completed with a good result, or whether the region extraction has been executed using all the pixel feature amounts designated in advance. If the mask creation result determining means 22 determines that the failure has occurred, the first pixel feature amount extracting means 23 is replaced with the second pixel feature amount extracting means 24, and the process is repeated from step A23. If the mask creation result determining unit 22 determines that the data is successful, the data held in the mask image memory 5 is saved in the data output device 10 such as a hard disk, and the process ends.

【0069】また次のマスクの画像データが作成できた
時点で、マスク作成結果判定手段22が、失敗と判断す
れば、今度は3番目の画素特徴量抽出手段を用いるとい
うふうに、成功と判断されるまで処理を繰り返す。
If the mask creation result judging means 22 judges that the image data of the next mask can be created, it is judged to be successful by using the third pixel feature quantity extracting means this time. The process is repeated until it is done.

【0070】マスク作成結果判定手段22の例として
は、TRUEの画素がn個以上かどうかを検査し、n個
以上ならば成功、n個未満ならば失敗とするものがあ
る。また、実施例内に実装されたN個の画素特徴量抽出
手段をすべて使用してしまった場合には、判定はすべて
成功とみなし、強制的に終了するものとする。
As an example of the mask creation result judging means 22, there is one that checks whether the number of pixels of TRUE is n or more, and succeeds if it is n or more and fails if it is less than n. Further, if all the N pixel feature amount extraction means implemented in the embodiment have been used, it is assumed that all the determinations are successful and the processing is forcibly ended.

【0071】図4と、図5を参照して本発明の第七の実
施例の動作について説明する。
The operation of the seventh embodiment of the present invention will be described with reference to FIGS. 4 and 5.

【0072】本実施例は、第一の実施例と第二の実施例
において、データを出力する直前に、マスク領域膨張手
段13と、マスク領域収縮手段14を用いてマスク画像
メモリ5に保持されている領域データに対して膨張収縮
処理を行うものである。処理例としては、マスクデータ
がTRUEの領域に対してはじめに膨張処理をm回行っ
て、凹凸や小さい穴などを除去した後に、収縮処理をm
回行う(mは1以上の任意の整数)。
In this embodiment, in the first embodiment and the second embodiment, the mask area expanding means 13 and the mask area contracting means 14 are used to hold the data in the mask image memory 5 immediately before outputting the data. The expansion / contraction process is performed on the existing region data. As an example of processing, an expansion process is first performed m times on a region having mask data of TRUE to remove irregularities and small holes, and then a contraction process is performed m.
Repeat (m is an arbitrary integer of 1 or more).

【0073】図6を参照して本発明の第八の実施例の動
作について説明する。本実施例は、前記実施例において
マスク画像データを出力する前に、第二のマスク画像メ
モリ26に一度データを保持する(ステップC3)。さ
らに、マスク画像メモリ5のデータを領域抽出結果とし
てモニタ2に表示し、オペレータの次の指示を待つ(ス
テップC4,C5)。そして、オペレータによって、も
う一度領域抽出することが指示されれば、領域抽出処理
C1に戻って処理を続行する。
The operation of the eighth embodiment of the present invention will be described with reference to FIG. In the present embodiment, before outputting the mask image data in the above embodiment, the data is once held in the second mask image memory 26 (step C3). Further, the data in the mask image memory 5 is displayed on the monitor 2 as the area extraction result, and the operator's next instruction is awaited (steps C4 and C5). Then, when the operator instructs to extract the area again, the process returns to the area extraction processing C1 and continues the processing.

【0074】そして、マスク画像メモリ5にある新しい
領域抽出結果は、マスク領域統合処理27によって、第
二の画像メモリ26に保持されたデータと統合される
(ステップC2)。マスク領域統合処理27の例として
は、各画素について、どちらかがTRUEならばTRU
Eとするような処理を行えば良い。仮にTRUE=1,
FALSE=0とすれば、この処理は両者のORをとる
ことと等価である。
Then, the new area extraction result in the mask image memory 5 is integrated with the data held in the second image memory 26 by the mask area integration processing 27 (step C2). As an example of the mask area integration processing 27, for each pixel, if either is TRUE, TRU
A process such as E may be performed. If TRUE = 1,
If FALSE = 0, this process is equivalent to ORing both.

【0075】統合されたデータはマスク画像メモリ5に
保持されると同時に再び第二のマスク画像メモリ26に
も転送される。そして再度モニタ2に結果が表示され、
オペレータの指示を待つ。オペレータによって、終了指
示がでたところで、データ出力装置10に、マスク画像
データ5の内容を出力して終了する(ステップC7)。
The integrated data is held in the mask image memory 5 and simultaneously transferred to the second mask image memory 26 again. And the result is displayed on the monitor 2 again,
Wait for operator instructions. When the operator issues an end instruction, the contents of the mask image data 5 are output to the data output device 10 and the process ends (step C7).

【0076】[0076]

【発明の効果】以上説明したように、本発明の画像の領
域抽出装置は、オペレータが指定した基準点を含む連結
領域(画素特徴量がほぼ等しい隣接画素の集合で構成さ
れる領域)のみを抽出できるという効果がある。これに
より、図12の対象領域102を指定しても、対象領域
103が誤って抽出されるという問題は発生しない。
As described above, the image area extraction apparatus of the present invention can only connect areas (areas composed of a set of adjacent pixels having substantially the same pixel feature amount) including the reference point designated by the operator. The effect is that it can be extracted. As a result, even if the target area 102 of FIG. 12 is designated, the problem that the target area 103 is erroneously extracted does not occur.

【0077】また、本装置は連結領域のみを処理するた
め、従来の装置に比べ処理速度が向上するという効果が
ある。
Further, since the present apparatus processes only the connection area, there is an effect that the processing speed is improved as compared with the conventional apparatus.

【0078】また、画素特徴量に低周波濾過フィルタを
用いた装置においては、図12の対象領域104のよう
なパターンで構成された領域をも抽出することができる
という効果がある。
Further, in the device using the low frequency filtering filter for the pixel feature amount, there is an effect that it is possible to extract a region constituted by a pattern like the target region 104 in FIG.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像の領域抽出装置の実施例を示すブ
ロック図。
FIG. 1 is a block diagram showing an embodiment of an image area extraction device of the present invention.

【図2】本発明の画像の領域抽出装置の実施例を示すブ
ロック図。
FIG. 2 is a block diagram showing an embodiment of an image area extraction device of the present invention.

【図3】本発明の画像の領域抽出装置の中の画素特徴量
抽出手段の実施例を示すブロック図。
FIG. 3 is a block diagram showing an embodiment of pixel feature amount extraction means in the image area extraction device of the present invention.

【図4】本発明の画像の領域抽出方法の流れ図。FIG. 4 is a flowchart of an image area extraction method of the present invention.

【図5】本発明の画像の領域抽出方法の第二の流れ図。FIG. 5 is a second flowchart of the image area extraction method of the present invention.

【図6】本発明の画像の領域抽出方法の第三の流れ図。FIG. 6 is a third flowchart of the image area extraction method of the present invention.

【図7】本発明の画像の領域抽出方法の中の連結領域抽
出処理の流れ図。
FIG. 7 is a flowchart of connected region extraction processing in the image region extraction method of the present invention.

【図8】本発明の画像の領域抽出方法の中の連結領域抽
出処理の第二の流れ図。
FIG. 8 is a second flowchart of the connected area extraction processing in the image area extraction method of the present invention.

【図9】連結領域抽出処理の説明図。FIG. 9 is an explanatory diagram of connected region extraction processing.

【図10】第二の連結領域抽出処理の説明図。FIG. 10 is an explanatory diagram of second connected area extraction processing.

【図11】局所フィルタの説明図。FIG. 11 is an explanatory diagram of a local filter.

【図12】入力画像の例。FIG. 12 is an example of an input image.

【図13】入力画像の例。FIG. 13 is an example of an input image.

【図14】従来の画像の領域抽出装置の実施例を示すブ
ロック図。
FIG. 14 is a block diagram showing an embodiment of a conventional image area extraction device.

【図15】従来の画像の領域抽出方法の流れ図。FIG. 15 is a flowchart of a conventional image area extraction method.

【符号の説明】 1 画像入力装置 2 モニタ 3 位置指定手段 4 入力画像メモリ 5 マスク画像メモリ 6 基準点特徴量記憶バッファ 7 基準点位置記憶バッファ 8 近傍画素探索手段 9 判定済画素記憶バッファ 10 データ出力装置 11 画素特徴量比較手段 12 画素特徴量抽出手段 13 マスク領域膨張手段 14 マスク領域収縮手段 15 CPU 21 複数の画素特徴量抽出手段 22 マスク作成結果判定手段 23 1番目の画素特徴量抽出手段 24 2番目の画素特徴量抽出手段 25 N番目の画素特徴量抽出手段 26 第二のマスク画像メモリ 27 マスク領域統合手段 30 画素特徴量抽出手段 31 画素特徴量抽出手段 32 画素特徴量抽出手段 33 画素特徴量抽出手段 34 画素特徴量抽出手段 35 画素特徴量抽出手段 40 画素値抽出手段 41 低周波濾過手段 42 エッジ強度抽出手段 43 高周波濾過手段 44 色変換手段 50 拡大画像 51 対象領域 52 対象領域の輪郭 53 基準画素 54 第一の判定済画素位置 55 第二の判定済画素位置 60 拡大画像 61 対象領域 62 対象領域の輪郭 63 基準画素 64 第一の判定済画素位置 65 第二の判定済画素位置 66 第三の判定済画素位置 70 局所フィルタ 71 注目画素位置 72 低周波濾過フィルタ 73 高周波濾過フィルタ 74 エッジ強度抽出フィルタ 100 入力画像例 101 対象領域 102 対象領域 103 対象領域 104 対象領域 105 1番色画素 106 2番色画素 110 入力画像例 111 A領域 112 B領域 113 C領域 114 D領域 115 E領域 116 対象領域 201 画像入力装置 202 モニタ 203 しきい値処理手段 204 位置指定手段 205 入力画像メモリ 206 基準画素置バッファ 207 マスク画像メモリ 208 出力装置[Explanation of Codes] 1 image input device 2 monitor 3 position designation means 4 input image memory 5 mask image memory 6 reference point feature amount storage buffer 7 reference point position storage buffer 8 neighborhood pixel search means 9 determined pixel storage buffer 10 data output Device 11 Pixel feature amount comparison unit 12 Pixel feature amount extraction unit 13 Mask region expansion unit 14 Mask region contraction unit 15 CPU 21 Multiple pixel feature amount extraction unit 22 Mask creation result determination unit 23 First pixel feature amount extraction unit 24 2 Th pixel feature amount extraction means 25 Nth pixel feature amount extraction means 26 Second mask image memory 27 Mask area integration means 30 Pixel feature amount extraction means 31 Pixel feature amount extraction means 32 Pixel feature amount extraction means 33 Pixel feature amount Extraction means 34 Pixel feature amount extraction means 35 Pixel feature amount extraction means 40 Pixel value extraction Outputting means 41 Low frequency filtering means 42 Edge strength extracting means 43 High frequency filtering means 44 Color conversion means 50 Enlarged image 51 Target area 52 Contour of target area 53 Reference pixel 54 First determined pixel position 55 Second determined pixel position 60 Enlarged Image 61 Target Area 62 Outline of Target Area 63 Reference Pixel 64 First Determined Pixel Position 65 Second Determined Pixel Position 66 Third Determined Pixel Position 70 Local Filter 71 Target Pixel Position 72 Low Frequency Filtering Filter 73 High Frequency Filtering Filter 74 Edge Strength Extraction Filter 100 Input Image Example 101 Target Area 102 Target Area 103 Target Area 104 Target Area 105 1st Color Pixel 106 2nd Color Pixel 110 Input Image Example 111 A Area 112 B Area 113 C Area 114 D Area 115 E area 116 Target area 201 Image input Location 202 Monitor 203 thresholding means 204 position specifying means 205 the input image memory 206 reference pixel location buffer 207 mask image memory 208 output device

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】抽出する対象領域内の基準画素を指定する
ステップと、任意の画素の特徴量を抽出する1つ以上の
異なる画素特徴量抽出ステップと、基準画素の画素特徴
量とその近傍の画素特徴量とを比較するステップとを持
った、基準画素を含む均一な画素特徴量を持つ連結領域
を抽出する画像の領域抽出方法。
1. A step of designating a reference pixel in a target region to be extracted, one or more different pixel feature amount extraction steps of extracting a feature amount of an arbitrary pixel, a pixel feature amount of a reference pixel and its vicinity. An image area extraction method for extracting a connected area having a uniform pixel feature amount including a reference pixel, the method including a step of comparing with a pixel feature amount.
【請求項2】抽出する対象領域内の基準画素を指定する
ステップと、任意の画素の特徴量を抽出する1つ以上の
異なる画素特徴量抽出ステップと、基準画素の画素特徴
量とその近傍の画素特徴量とを比較するステップと、複
数の基準画素によって抽出され対象領域を統合するステ
ップとを持った、画像の領域抽出方法。
2. A step of designating a reference pixel in a target region to be extracted, one or more different pixel feature amount extraction steps of extracting a feature amount of an arbitrary pixel, a pixel feature amount of a reference pixel and its vicinity. A method for extracting a region of an image, which comprises a step of comparing with a pixel feature amount and a step of integrating target regions extracted by a plurality of reference pixels.
【請求項3】入力画像データを保持する入力画像メモリ
と、画像データ及び領域抽出結果を表示するモニタと、
抽出する対象領域を指定する位置指定手段と、領域抽出
の基準点の画素特徴量を保持する基準点特徴量記憶バッ
ファと、領域抽出の基準点の位置を保持する基準点位置
記憶バッファと、ある画素の隣接画素のアドレスを探索
する近傍画素探索手段と、マスクすべき画素を記憶する
判定済画素記憶バッファと、2つの画素の特徴量を比較
する画素特徴量比較手段と、ある画素の特徴量を算出す
る画素特徴量抽出手段と、領域抽出結果を保持するマス
ク画像メモリとを備えたことを特徴とする画像の領域抽
出装置。
3. An input image memory for holding input image data, a monitor for displaying the image data and the area extraction result,
There are a position designating unit that designates a target region to be extracted, a reference point feature amount storage buffer that holds a pixel feature amount of a reference point for region extraction, and a reference point position storage buffer that holds a position of a reference point for region extraction. A neighboring pixel search means for searching an address of a pixel adjacent to a pixel, a determined pixel storage buffer for storing a pixel to be masked, a pixel feature amount comparison means for comparing feature amounts of two pixels, and a feature amount of a certain pixel An image area extracting device, comprising: a pixel feature amount extracting means for calculating the pixel extraction amount; and a mask image memory holding an area extraction result.
【請求項4】前記画素特徴量抽出手段は、画素値を抽出
する画素値抽出手段を備えたことを特徴とする請求項3
記載の画像の領域抽出装置。
4. The pixel feature amount extraction means includes a pixel value extraction means for extracting a pixel value.
The image area extraction device described.
【請求項5】前記画素特徴量抽出手段は、画素値を抽出
する画素値抽出手段と、色変換を行う色変換手段とを備
えたことを特徴とする請求項3記載の画像の領域抽出装
置。
5. The image area extraction device according to claim 3, wherein the pixel feature amount extraction means includes pixel value extraction means for extracting pixel values and color conversion means for color conversion. .
【請求項6】画素特徴量抽出手段は、さらに低周波濾過
手段を備えたことを特徴とする請求項4又は5記載の記
載の画像の領域抽出装置。
6. The image area extraction device according to claim 4, wherein the pixel feature amount extraction means further comprises low frequency filtering means.
【請求項7】N個(Nは2以上)の異なる前記画素特徴
量抽出手段と、1種類の画素特徴量を用いて抽出された
領域を判定するマスク作成結果判定手段とを備えたこと
を特徴とする請求項3記載の画像の領域抽出装置。
7. N (n is 2 or more) different pixel feature amount extraction means and mask creation result determination means for determining an area extracted using one type of pixel feature amount. The image area extraction device according to claim 3,
【請求項8】前記画素特徴量抽出手段に替えて、画素値
を抽出する画素値抽出手段を有する第1の画素特徴量抽
出手段と、前記画素値抽出手段と低周波濾過手段の両方
を有する第2の画素特徴量抽出手段と、1種類の画素特
徴量を用いて抽出された領域を判定するマスク作成結果
判定手段とを備えたことを特徴とする請求項3記載の画
像の領域抽出装置。
8. A first pixel feature amount extraction means having a pixel value extraction means for extracting a pixel value in place of the pixel feature amount extraction means, and both the pixel value extraction means and the low frequency filtering means. 4. The image area extraction device according to claim 3, further comprising a second pixel feature amount extraction means and a mask creation result determination means for determining an area extracted using one type of pixel feature amount. .
【請求項9】領域を1画素分太めるマスク領域膨張手段
と、領域を1画素分細めるマスク領域収縮手段とを備え
たことを特徴とする請求項3,4,5,6,7又は8記
載の画像の領域抽出装置。
9. A mask area expanding means for thickening the area by one pixel and a mask area contracting means for thinning the area by one pixel. The image area extraction device described.
【請求項10】以前の領域抽出結果を保持しておく第二
のマスク画像メモリと、マスク画像メモリと第二のマス
ク画像メモリの内容を統合するマスク領域統合手段とを
備えたことを特徴とする請求項3,4,5,6,7又は
8記載の画像の領域抽出装置。
10. A second mask image memory for holding a previous area extraction result, and a mask area integrating means for integrating the contents of the mask image memory and the second mask image memory. 9. The image area extraction device according to claim 3, 4, 5, 6, 7 or 8.
JP7296570A 1995-11-15 1995-11-15 Image region extraction method and device Expired - Lifetime JP2924744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7296570A JP2924744B2 (en) 1995-11-15 1995-11-15 Image region extraction method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7296570A JP2924744B2 (en) 1995-11-15 1995-11-15 Image region extraction method and device

Publications (2)

Publication Number Publication Date
JPH09138854A true JPH09138854A (en) 1997-05-27
JP2924744B2 JP2924744B2 (en) 1999-07-26

Family

ID=17835257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7296570A Expired - Lifetime JP2924744B2 (en) 1995-11-15 1995-11-15 Image region extraction method and device

Country Status (1)

Country Link
JP (1) JP2924744B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100623799B1 (en) * 2003-06-04 2006-09-19 세이코 엡슨 가부시키가이샤 Image data processing apparatus and image data processing method
JP2010507273A (en) * 2006-10-13 2010-03-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Auxiliary information for reconstructing digital images processed through print scan channels
JP2011015105A (en) * 2009-06-30 2011-01-20 Canon It Solutions Inc Image forming apparatus, method for controlling the same, program, and storage medium storing the program
WO2013161155A1 (en) * 2012-04-23 2013-10-31 日本電気株式会社 Image measurement device, image measurement method, and image-measuring program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100623799B1 (en) * 2003-06-04 2006-09-19 세이코 엡슨 가부시키가이샤 Image data processing apparatus and image data processing method
JP2010507273A (en) * 2006-10-13 2010-03-04 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Auxiliary information for reconstructing digital images processed through print scan channels
JP2011015105A (en) * 2009-06-30 2011-01-20 Canon It Solutions Inc Image forming apparatus, method for controlling the same, program, and storage medium storing the program
WO2013161155A1 (en) * 2012-04-23 2013-10-31 日本電気株式会社 Image measurement device, image measurement method, and image-measuring program
JPWO2013161155A1 (en) * 2012-04-23 2015-12-21 日本電気株式会社 Image measuring apparatus, image measuring method, and image measuring program
US9390313B2 (en) 2012-04-23 2016-07-12 Nec Corporation Image measurement apparatus and image measurment method measuring the cell neclei count

Also Published As

Publication number Publication date
JP2924744B2 (en) 1999-07-26

Similar Documents

Publication Publication Date Title
US6714689B1 (en) Image synthesizing method
US7340097B2 (en) Image processing apparatus, image processing method, and recording medium
JP4030830B2 (en) Striped image examination apparatus and striped image examination method
JPH1023452A (en) Picture extracting device and its method
JPH10233929A (en) Image processor and image processing method
JPH05256796A (en) Inspecting system
JP3696952B2 (en) Image composition apparatus and method
US5355446A (en) Method and apparatus for preparing picture masks
JP3490482B2 (en) Edge and contour extraction device
JP3814353B2 (en) Image segmentation method and image segmentation apparatus
JPH0320882A (en) Method for displaying, extracting, and segmenting interested area
JP2924744B2 (en) Image region extraction method and device
JP2936599B2 (en) Color image processing equipment
JPH064669A (en) Pattern matching device for gradation picture
JPH0792651A (en) Picture clipping device
JP2002208013A (en) Device for extracting image area and method for the same
JP2001053977A (en) Color picture contour line extracting device
JP4004217B2 (en) Image processing device
JP3297964B2 (en) Image processing method and apparatus
JP2804299B2 (en) Cutout mask making system
JP3302855B2 (en) Region extraction method and apparatus
JPH064665A (en) Method and device for extracting boundary
JPH01303132A (en) Picture processor
JPH10143673A (en) Picture processor
JPH0535851A (en) Inspection instrument for printed matter

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990406