JPH0812695B2 - Area extraction device - Google Patents

Area extraction device

Info

Publication number
JPH0812695B2
JPH0812695B2 JP61049112A JP4911286A JPH0812695B2 JP H0812695 B2 JPH0812695 B2 JP H0812695B2 JP 61049112 A JP61049112 A JP 61049112A JP 4911286 A JP4911286 A JP 4911286A JP H0812695 B2 JPH0812695 B2 JP H0812695B2
Authority
JP
Japan
Prior art keywords
pixel
value
background
image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61049112A
Other languages
Japanese (ja)
Other versions
JPS62221783A (en
Inventor
隆 鳥生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP61049112A priority Critical patent/JPH0812695B2/en
Publication of JPS62221783A publication Critical patent/JPS62221783A/en
Publication of JPH0812695B2 publication Critical patent/JPH0812695B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概 要〕 領域抽出装置であって、画像情報信号によって表され
る画像中の対象物が占める領域を抽出する場合、エッジ
検出手段によって該対象物の輪郭の候補点を抽出して符
号を付し、背景塗り潰し手段で背景領域にも候補点と同
一の符号を与え、当該符号が付された領域内の偽輪郭の
周辺画素を収縮することにより、対象物自体で濃淡変化
状態がある場合であっても、当該対象物が占める領域を
安定に抽出することができる。
DETAILED DESCRIPTION OF THE INVENTION [Outline] In a region extraction device, when a region occupied by an object in an image represented by an image information signal is extracted, edge detection means provides candidate points for the contour of the object. By extracting and assigning a code to the background area by applying the same code as the candidate point to the background area by means of background filling, and contracting the peripheral pixels of the false contour in the area to which the code is applied. Even if there is a shade change state, the area occupied by the object can be stably extracted.

〔産業上の利用分野〕[Industrial applications]

本発明は、領域抽出装置に関し、特に、濃淡により濃
度が変化している画像情報信号における対象物が占める
領域を抽出するようにした領域抽出装置に関するもので
ある。
The present invention relates to a region extraction device, and more particularly, to a region extraction device adapted to extract a region occupied by an object in an image information signal whose density changes depending on light and shade.

〔従来の技術〕[Conventional technology]

従来から、テレビジョンカメラ等によって得られる画
像信号において、例えば、観測している対象物が占める
領域を抽出する技術が汎用されている。
2. Description of the Related Art Conventionally, for example, a technique of extracting a region occupied by an observed object in an image signal obtained by a television camera or the like has been widely used.

例えば、ベルトコンベア上での搬送物体をその種類に
よって区分けする自動装置等にあっては、上述したよう
な技術が必須となっている。そこでは、テレビジョンカ
メラからの画像信号に基づいて所望の処理を施してい
る。
For example, in an automatic device or the like that sorts a conveyed object on a belt conveyor according to its type, the above-described technique is essential. There, desired processing is performed based on the image signal from the television camera.

ただ、最新は観測する対象物体が多岐にわたるため、
多種多様な対象物を区別して認識する必要がある。例え
ば、本の表紙のような物体表面に模様がある場合であっ
ても、その本を対象物として画像信号において抽出でき
るようにした簡単な装置構成が望まれている。
However, since the latest target objects are diverse,
It is necessary to distinguish and recognize a wide variety of objects. For example, even if there is a pattern on the surface of an object such as the cover of a book, a simple device configuration is desired that enables the book to be extracted as an object in an image signal.

かような装置構成の領域抽出方式としては、第4図に
示すようなものがあった。図において、テレビジョンカ
メラ(図示せず)での撮像に基づく画像情報信号411
は、入力部413によって変換信号415に画像情報変換され
る。ここでは、例えば、(512×512)画素のデイジタル
画像としている。1画素は、8ビットとする。
As a region extraction method of such a device configuration, there is one as shown in FIG. In the figure, an image information signal 411 based on image pickup by a television camera (not shown)
Is converted into image information by the input unit 413 into a converted signal 415. Here, for example, a (512 × 512) pixel digital image is used. One pixel has 8 bits.

しきい値設定部421からはしきい値信号423が二値化部
431に供給されている。この二値化部431では、変換信号
415によって表される各画素に対して、その画素値がし
きい値信号423でのしきい値を上回るか否かを判別す
る。上回ればその画素値を“1"とし、下回ればその画素
値を“0"として、二値化信号433を発生する。
The threshold value signal 423 from the threshold value setting unit 421 is converted into a binarization unit.
It has been supplied to 431. In this binarization unit 431, the converted signal
For each pixel represented by 415, it is determined whether the pixel value exceeds a threshold value in the threshold signal 423. If it is higher, the pixel value is set to "1", and if it is lower, the pixel value is set to "0", and the binary signal 433 is generated.

このような構成において、一様な色,明るさを有する
背景に置かれた対象物(図示せず)をテレビジョンカメ
ラで撮像して、画像情報信号411として入力しているも
のとする。その対象物も一様な色,明るさを有してお
り、且つ、背景とは異なっていれば、しきい値信号423
のしきい値を基準として、二値化部431での二値化変換
画像処理によって対象物を区別することができる。つま
り、対象と背景との画像濃度の相違により、どの濃度の
部分が対象領域に属するかが判断できるので、一般に広
く利用されている。
In such a configuration, it is assumed that an object (not shown) placed on a background having a uniform color and brightness is imaged by a television camera and input as an image information signal 411. If the object also has a uniform color and brightness and is different from the background, the threshold signal 423
The object can be distinguished by the binarization conversion image processing in the binarization unit 431 with reference to the threshold of. That is, it is generally widely used because it is possible to determine which density portion belongs to the target area based on the difference in image density between the target and the background.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

しかしながら、上述した従来方式にあっては、背景と
対象との画像濃度の相違に基づいているので、対象物の
表面の色,明るさが一様でない場合には、正確な領域判
断ができない。
However, in the above-described conventional method, since it is based on the difference in image density between the background and the target, accurate area determination cannot be performed when the color and brightness of the surface of the target are not uniform.

例えば、対象物の表面に模様があって、色,明るさが
変化していれば、一部の画素での画像濃度が背景の濃度
より低くなる場合がある。但し、対象物全体の濃度が、
背景の濃度よりも高いものとすると、濃度が低くなって
いる対象物での画素についても、二値化部431にて背景
の画素として判断されてしまい、対象領域が正確に抽出
できないといった問題点があった。
For example, if there is a pattern on the surface of the object and the color and brightness have changed, the image density at some pixels may be lower than the background density. However, the concentration of the whole object is
If the density is higher than the background density, the pixel in the target object whose density is low will be judged as the background pixel by the binarization unit 431, and the target area cannot be extracted accurately. was there.

本発明は、このような点にかんがみて創作されたもの
であり、対象物表面に、画像濃度を変化させるような模
様等があっても、当該対象物に基づく画像の領域を正確
に抽出できるようにした領域抽出装置を提供することを
目的とする。
The present invention was created in view of such a point, and even if there is a pattern or the like on the surface of the object that changes the image density, the area of the image based on the object can be accurately extracted. It is an object of the present invention to provide a region extraction device configured as described above.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は、本発明の領域抽出装置の原理ブロック図で
ある。
FIG. 1 is a block diagram showing the principle of the area extracting device of the present invention.

図において、エッジ検出手段120は、各画素が多値で
表される多値ディジタル入力画像信号の各エッジ検出対
象画素における画像濃度勾配が基準値を超えるとき当該
画素に第1の値を、前記各エッジ検出対象画素における
画像濃度勾配が基準値以下であるとき当該画素に第2の
値をそれぞれ割り当てて前記多値ディジタル入力画像信
号を2値画像にして出力する。
In the figure, when the image density gradient at each edge detection target pixel of a multi-valued digital input image signal in which each pixel is represented by multi-values exceeds a reference value, the edge detection means 120 sets the pixel to a first value, When the image density gradient in each edge detection target pixel is equal to or less than the reference value, a second value is assigned to the pixel and the multi-valued digital input image signal is output as a binary image.

背景塗り潰し手段130は、前記エッジ検出手段120から
出力された2値画像の前記第2の値を有する画素のうち
の前記多値ディジタル入力画像信号に含まれる背景の画
素として固定して選定可能な画素に連結する第2の値を
有する画素の画素値を前記第1の値に置換した2値画像
を出力する。
The background filling unit 130 can be fixedly selected as a background pixel included in the multi-valued digital input image signal among the pixels having the second value of the binary image output from the edge detection unit 120. A binary image in which the pixel value of the pixel having the second value connected to the pixel is replaced with the first value is output.

背景領域収縮手段150は、前記背景塗り潰し手段130か
ら出力された2値画像のうちの前記第2の値を有する画
素に隣接する第1の値を有する画素の画素値を前記第2
の値に置換した2値画像を出力する。
The background area contraction unit 150 sets the pixel value of the pixel having the first value adjacent to the pixel having the second value in the binary image output from the background filling unit 130 to the second pixel value.
The binary image replaced with the value of is output.

そして、前記背景領域収縮手段150から出力された2
値画像内の前記第2の値を有する画素から成る画像領域
を抽出するようにして、本発明は構成される。
The 2 output from the background area contraction means 150
The present invention is configured to extract an image region consisting of pixels having the second value in the value image.

〔作 用〕[Work]

画像情報出力111での対象の輪郭を成す候補点をエッ
ジ検出手段120によつて抽出して、該対象の輪郭の候補
点に符号(第1の値)を付す。
The candidate points forming the contour of the object in the image information output 111 are extracted by the edge detecting means 120, and the candidate points of the contour of the object are given a code (first value).

そして、背景塗り潰し手段130によつて背景の画素に
連結する領域内の各画素を第1の値で塗り潰す。
Then, the background filling means 130 fills each pixel in the region connected to the background pixel with the first value.

そして、背景塗り潰し手段130から出力された2値画
像内の第2の値を有する画素に隣接する第1の値を有す
る画素の画素値を背景領域収縮手段150によつて第2の
値に置換して抽出対象の画像領域内に抽出されることが
ある偽輪郭を消去する。
Then, the pixel value of the pixel having the first value adjacent to the pixel having the second value in the binary image output from the background filling means 130 is replaced with the second value by the background area contracting means 150. Then, the false contour that may be extracted in the image area to be extracted is erased.

本発明にあつては、抽出した輪郭候補点に基づく背景
の塗り潰しを行い、偽輪郭の収縮処理(偽輪郭の消去処
理)を行うようにしているので、抽出対象の画素領域内
に背景と混同する濃淡部分があるような濃度変化状態が
あっても、その濃度部分に輪郭を生じさせることなく当
該抽出対象の画像領域を正確に抽出することができる。
In the present invention, the background is filled based on the extracted contour candidate points, and the false contour contraction processing (false contour erasing processing) is performed. Therefore, the pixel area to be extracted is confused with the background. Even if there is a density change state in which there is a shaded portion, the image area to be extracted can be accurately extracted without generating a contour in the density portion.

背景塗り潰し手段130によって、背景、対象物の輪
郭、および対象物内部の疑似輪郭に、例えば画素値“1"
が割り当てられる。そして、塗り潰し処理後に、画素値
が“1"である領域を背景領域収縮手段150により収縮さ
せることによって、対象物の輪郭と対象物内部の疑似輪
郭が消去され背景だけが残り、背景以外の領域が対象物
の領域として抽出される。もし背景塗り潰し手段130が
ないとすると、収縮処理によって全てが背景であると認
識されてしまうので、背景塗り潰し処理と背景領域収縮
処理との2つの処理が一体となって意味のある処理を行
うことが可能になる。
For example, the pixel value “1” is applied to the background, the contour of the object, and the pseudo contour inside the object by the background filling unit 130.
Is assigned. Then, after the filling processing, the background area shrinking unit 150 shrinks the area having a pixel value of "1", so that the contour of the object and the pseudo contour inside the object are erased, and only the background remains, and the area other than the background. Is extracted as a region of the object. If the background filling unit 130 is not provided, all the background is recognized by the shrinking process. Therefore, the two processes of the background filling process and the background region shrinking process should be combined to perform a meaningful process. Will be possible.

〔実施例〕〔Example〕

以下、図面に基づいて本発明の実施例について詳細に
説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

第2図は、本発明の一実施例における領域抽出装置の
構成を示す。
FIG. 2 shows the structure of a region extraction device according to an embodiment of the present invention.

I、実施例と第1図との対応関係 ここで、本発明の実施例と第1図との対応関係を述べ
ておく。
I, Correspondence between Embodiment and FIG. 1 Here, the correspondence between the embodiment of the present invention and FIG. 1 will be described.

画像情報信号111は、画像情報信号411に相当する。 The image information signal 111 corresponds to the image information signal 411.

エッジ検出手段120は、入力部413,X方向微分部211,Y
方向微分部213,演算部231,しきい値設定部421および二
値化部431に相当する。
The edge detecting means 120 includes an input unit 413, an X-direction differentiating unit 211, and a Y-direction differentiating unit 211.
It corresponds to the direction differentiating unit 213, the calculating unit 231, the threshold setting unit 421, and the binarizing unit 431.

変換信号113は、二値化信号241に相当する。 The converted signal 113 corresponds to the binarized signal 241.

背景塗り潰し手段130は、細線化部253,輪郭点連結部2
55,背景塗り潰し257および画像メモリ251に相当する。
The background filling means 130 includes a thinning unit 253 and a contour point connecting unit 2
55, corresponding to background fill 257 and image memory 251.

背景領域収縮手段150は、背景領域収縮部259および画
像メモリ251に相当する。
The background area contraction unit 150 corresponds to the background area contraction unit 259 and the image memory 251.

塗り潰し済み信号121は、画像メモリ251と背景領域収
縮部259との間で授受される信号に相当する。
The filled signal 121 corresponds to a signal exchanged between the image memory 251 and the background area contraction unit 259.

領域抽出出力信号141は、背景領域収縮部259から画像
メモリ251に与えれる信号に相当する。
The area extraction output signal 141 corresponds to the signal given from the background area contraction unit 259 to the image memory 251.

II、実施例の構成および動作 以上のような対応関係があるものとして、以下本発明
の実施例について説明する。
II, Configuration and Operation of Embodiments Embodiments of the present invention will be described below on the assumption that there is a correspondence relationship as described above.

第2図において、第4図と同一符号は同一回路部を示
すものであり、ここではそれらの詳細は省略する。
In FIG. 2, the same reference numerals as those in FIG. 4 denote the same circuit parts, and details thereof will be omitted here.

テレビジョンカメラからの画像情報信号411における
画像情報は、入力部413によって、512×512×8ビット
のデイジタル画像に変換される。その変換信号415は、
X方向微分部211およびY方向微分部213に共通に供給さ
れる。
The image information in the image information signal 411 from the television camera is converted into a 512 × 512 × 8-bit digital image by the input unit 413. The converted signal 415 is
It is commonly supplied to the X-direction differentiator 211 and the Y-direction differentiator 213.

X方向微分部211およびY方向微分部213は、第3図
(A)および(B)に示すような形状を持つ空間フィル
タであり、入力画像のX方向およびY方向の微分値を検
出する。X方向微分部211によって変換信号415を微分し
て得たX方向微分信号221および変換信号415をY方向微
分部213で微分して得たY方向微分信号223は共に演算部
231に供給される。
The X-direction differentiator 211 and the Y-direction differentiator 213 are spatial filters having shapes as shown in FIGS. 3A and 3B, and detect X-direction and Y-direction differential values of the input image. The X-direction differential signal 221 obtained by differentiating the converted signal 415 by the X-direction differentiator 211 and the Y-direction differential signal 223 obtained by differentiating the converted signal 415 by the Y-direction differentiator 213 are both calculation parts.
231 is supplied.

演算部231は、X方向微分信号221によるX方向の微分
値とY方向微分信号223によるY方向の微分値との二乗
和の平方根をとって、その演算信号233を二値化部431に
供給する。
The arithmetic unit 231 takes the square root of the sum of squares of the differential value in the X direction by the differential signal 221 in the X direction and the differential value in the Y direction by the differential signal 223 in the Y direction, and supplies the calculated signal 233 to the binarizing unit 431. To do.

しきい値設定部421からは、予め設定されたしきい値
を表すしきい値信号423が、二値化部431に供給されてい
る。このしきい値は、微分値に対する基準値となるもの
である。
The threshold value setting unit 421 supplies a threshold value signal 423 representing a preset threshold value to the binarizing unit 431. This threshold value serves as a reference value for the differential value.

二値化部431は、デイジタル的な大きさを表す演算信
号233を、しきい値信号423のしきい値によって二値化す
る。つまり、演算信号233の値がしきい値よりも大きけ
れば“1"を、しきい値よりも小さければ“0"をそれぞれ
出力する。このようにして得られた二値化信号241での
各画素の二値化情報は、画像メモリ251において、画素
毎に対応する番地に格納される。
The binarizing unit 431 binarizes the operation signal 233 representing a digital magnitude by the threshold value of the threshold value signal 423. That is, if the value of the operation signal 233 is larger than the threshold value, “1” is output, and if it is smaller than the threshold value, “0” is output. The binarized information of each pixel in the binarized signal 241 thus obtained is stored in the image memory 251 at an address corresponding to each pixel.

対象物の輪郭では微分値が大きな値を取るので、二値
化信号241により画像メモリ251に格納された各画素のう
ち、対象物に基づく「輪郭の候補点」の画素には、“1"
が割り当てられる。また、対象物の内部に模様がある場
合には内部の濃淡変化が急激に変化する画素「偽輪郭」
においても微分値が大きな値を持つので、“1"が割り当
てられ、「輪郭の候補点」と「偽輪郭」以外の画素に
は、“0"が割り当てられた形で、画像メモリ251に格納
されたことになる。
Since the differential value takes a large value in the contour of the object, among the pixels stored in the image memory 251 by the binarized signal 241, the pixel of the “contour candidate point” based on the object is “1”.
Is assigned. Also, if there is a pattern inside the object, the pixel "false contour" in which the change in shading changes rapidly
Since the differential value also has a large value in “,” it is stored in the image memory 251 in a form in which “1” is assigned, and “0” is assigned to pixels other than “contour candidate point” and “false contour”. It was done.

このようにして、画像メモリ251に格納された“0"お
よび“1"の各画素情報を、細線化部253は全画素につい
て読み出し、“1"である画素による領域を細線化した
後、その結果を画像メモリ251に再格納する。
In this way, the thinning unit 253 reads out the pixel information of “0” and “1” stored in the image memory 251 for all pixels, thins the area defined by the pixels of “1”, and then The result is stored again in the image memory 251.

輪郭点連結部255は、画像メモリ251に格納されている
情報のうち、“1"の画素に隣接する画素についても“1"
とする。このような変更処理を、細線化部253によって
細線化結果の輪郭線に基づいて所定回数繰り返す。ま
た、“0"である画素に隣接する画素を“0"とする変更処
理を同じ回数だけ繰り返す。これによって、輪郭線での
途切れが連結される。その結果を、画像メモリ251に再
び格納する。
The contour point connecting unit 255 sets “1” for the pixel adjacent to the “1” pixel among the information stored in the image memory 251.
And Such a changing process is repeated by the thinning unit 253 a predetermined number of times based on the contour line of the thinning result. Further, the changing process for setting the pixel adjacent to the pixel which is "0" to "0" is repeated the same number of times. By this, the discontinuity in the contour line is connected. The result is stored again in the image memory 251.

連結された輪郭線を基にして、背景塗り潰し部257
は、画像メモリ251の画素“0"のうち画像の左上の隅の
画素に連結する画素を“1"に置換する。この左上の隅の
画素が、特許請求の範囲にいう「背景の画素として固定
して選定可能な画素」に相当し、従って特許請求の範囲
に述べる「固定して」とは、画像の領域抽出において、
常に背景の画素として用い得ることを意味する。そし
て、前記「左上の隅の画素に連結する画素」の「連結す
る」とは、左上の隅の画素から出発して“0"の画素が順
次隣り合って前記連結する画素まで続いていることをい
う。
Based on the connected contour lines, the background filling part 257
Replaces the pixel "0" in the image memory 251 connected to the pixel at the upper left corner of the image with "1". The pixel in the upper left corner corresponds to "a pixel that can be fixedly selected as a background pixel" in the claims. Therefore, "fixed" in the claims means extraction of an image area. At
This means that it can always be used as a background pixel. And, "to be connected" in the "pixel connected to the pixel in the upper left corner" means that the pixel of "0" starts from the pixel in the upper left corner and continues to the connected pixel next to each other. Say.

前述のような置換をした後に、置換後の画像を画像メ
モリ251に再格納する。これによって、背景の塗り潰し
が完了する。この背景の塗り潰しによって、背景、対象
物の輪郭、および対象物内部の疑似輪郭を抽出すること
ができる。
After the replacement as described above, the replaced image is stored again in the image memory 251. This completes the background filling. By filling the background, the background, the contour of the object, and the pseudo contour inside the object can be extracted.

更に、背景領域収縮部259によって、画像メモリ251に
格納されている情報“0"の画素に隣接する画素を“0"に
置換する。この処理によって、前記「輪郭の候補点」の
みならず、対象物内部の「偽エッジ」に対応する画素が
“0"に置換され、真に背景である画素だけが“1"を持
ち、対象物の輪郭および内部のすべての点「偽エッジを
含む)が“0"を持つことになる。しかる後に、画像メモ
リ251に再格納する。
Further, the background area contraction unit 259 replaces the pixel adjacent to the pixel of the information “0” stored in the image memory 251 with “0”. By this process, not only the “contour candidate points” but also the pixels corresponding to the “false edges” inside the object are replaced with “0”, and only the pixels that are truly background have “1”. The contour of the object and all the points “including false edges” inside will have “0.” Then, it is stored again in the image memory 251.

このようにして、画像メモリ251には、輪郭線で区分
けされた対象物による領域を表す情報状態が得られる。
In this way, the image memory 251 can obtain the information state representing the area of the object divided by the contour line.

III、発明の変形態様 なお、上述した本発明の実施例にあっては、テレビジ
ョンカメラでの撮像による画像情報の処理について述べ
たが、これに限られることはなく、いかなる画像信号で
あっもよい。
III, Modification of Invention In the above-described embodiment of the present invention, the processing of the image information by the image pickup by the television camera has been described, but the present invention is not limited to this, and any image signal may be used. Good.

また、「I、実施例と第1図との対応関係」におい
て、第1図と本発明の実施例との対応関係を説明した
が、これに限られることはなく、各種の変形態様がある
こと勿論である。
In addition, although the correspondence relationship between FIG. 1 and the embodiment of the present invention has been described in “I. Correspondence between Embodiment and FIG. 1”, the present invention is not limited to this, and there are various modifications. Of course.

〔発明の効果〕〔The invention's effect〕

上述したように、本発明によれば、簡単な装置構成に
よって、輪郭内で画像濃度が変化しているような対象の
輪郭領域を、被処理画像信号から正確に抽出することが
できるので、実用的には極めて有用である。
As described above, according to the present invention, it is possible to accurately extract a target contour area whose image density is changed in the contour from the image signal to be processed with a simple device configuration. Is extremely useful.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明の領域抽出装置の構成を示す原理ブロ
ック図、 第2図は、本発明の一実施例における領域抽出装置の構
成ブロック図、 第3図(A)および(B)は本発明の実施例にて用いる
微分部のフィルタの説明図、 第4図は従来例の構成図である。 図において、 111は画像情報信号、 113は変換信号、 120はエッジ検出手段、 121は塗り潰し済み信号、 130は背景塗り潰し手段、 141は領域抽出出力信号、 150は背景領域収縮手段、 211,213は微分部、 221,223は微分信号、 231は演算部、 233は演算信号、 241は二値化信号、 251は画像メモリ、 253は細線化部、 255は輪郭点連結部、 257は背景塗り潰し部、 259は背景領域収縮部、 411は画像情報信号、 413は入力部、 415は変換信号、 421はしきい値設定部、 423はしきい値信号、 431は二値化部、 433は二値化信号である。
FIG. 1 is a block diagram of the principle of the area extraction device of the present invention, FIG. 2 is a block diagram of the area extraction device of one embodiment of the present invention, and FIGS. 3 (A) and 3 (B) are FIG. 4 is an explanatory view of a filter of a differentiating part used in the embodiment of the present invention, and FIG. 4 is a configuration diagram of a conventional example. In the figure, 111 is an image information signal, 113 is a conversion signal, 120 is an edge detecting means, 121 is a filled signal, 130 is a background filling means, 141 is an area extraction output signal, 150 is a background area contracting means, and 211 and 213 are differentiating parts. , 221, 223 is a differential signal, 231 is a calculation unit, 233 is a calculation signal, 241 is a binarized signal, 251 is an image memory, 253 is a thinning unit, 255 is a contour point connection unit, 257 is a background filling unit, and 259 is a background. Region contraction unit, 411 is an image information signal, 413 is an input unit, 415 is a converted signal, 421 is a threshold setting unit, 423 is a threshold signal, 431 is a binarization unit, and 433 is a binarization signal. .

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】各画素が多値で表される多値ディジタル入
力画像信号の各エッジ検出対象画素における画像濃度勾
配が基準値を超えるとき当該画素に第1の値を、前記各
エッジ検出対象画素における画像濃度勾配が基準値以下
であるとき当該画素に第2の値をそれぞれ割り当てて前
記多値ディジタル入力画像信号を2値画像にして出力す
るエッジ検出手段と、 該エッジ検出手段から出力された2値画像の前記第2の
値を有する画素のうちの前記多値ディジタル入力画像信
号に含まれる背景の画素として固定して選定可能な画素
に連結する第2の値を有する画素の画素値を前記第1の
値に置換した2値画像を出力する背景塗り潰し手段と、 該背景塗り潰し手段から出力された2値画像のうちの前
記第2の値を有する画素に隣接する第1の値を有する画
素の画素値を前記第2の値に置換した2値画像を出力す
る背景領域収縮手段と、 を具え、該背景領域収縮手段から出力された2値画像内
の前記第2の値を有する画素から成る画像領域を抽出す
るように構成したことを特徴とする領域抽出装置。
1. When the image density gradient in each edge detection target pixel of a multivalued digital input image signal in which each pixel is represented by multivalues exceeds a reference value, a first value is assigned to the pixel and each edge detection target is detected. When the image density gradient in a pixel is equal to or less than a reference value, an edge detecting unit that assigns a second value to the pixel and outputs the multi-valued digital input image signal as a binary image, and an edge detecting unit that outputs the binary image Of the pixels having the second value of the binary image, the pixel value of the pixel having the second value fixedly connected as the background pixel included in the multi-valued digital input image signal And a background value filling means for outputting a binary image in which is replaced with the first value, and a first value adjacent to a pixel having the second value in the binary image output from the background filling means. Existence A background area contraction means for outputting a binary image in which the pixel value of a pixel is replaced with the second value, and the background area contraction means has the second value in the binary image output from the background area contraction means. An area extraction device characterized by being configured to extract an image area made up of pixels.
JP61049112A 1986-03-06 1986-03-06 Area extraction device Expired - Fee Related JPH0812695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61049112A JPH0812695B2 (en) 1986-03-06 1986-03-06 Area extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61049112A JPH0812695B2 (en) 1986-03-06 1986-03-06 Area extraction device

Publications (2)

Publication Number Publication Date
JPS62221783A JPS62221783A (en) 1987-09-29
JPH0812695B2 true JPH0812695B2 (en) 1996-02-07

Family

ID=12821984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61049112A Expired - Fee Related JPH0812695B2 (en) 1986-03-06 1986-03-06 Area extraction device

Country Status (1)

Country Link
JP (1) JPH0812695B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3200055B2 (en) * 1989-05-10 2001-08-20 キヤノン株式会社 Image processing apparatus and method
DE69029821T2 (en) * 1989-05-08 1997-06-12 Canon Kk Image processing device
CN111209908B (en) * 2019-12-31 2023-07-14 深圳奇迹智慧网络有限公司 Method, device, storage medium and computer equipment for updating annotation frame

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59174969A (en) * 1983-03-24 1984-10-03 Matsushita Electric Ind Co Ltd Picture recognizing device
JPS619775A (en) * 1984-06-25 1986-01-17 Matsushita Electric Works Ltd Picture image processor

Also Published As

Publication number Publication date
JPS62221783A (en) 1987-09-29

Similar Documents

Publication Publication Date Title
JPH09510809A (en) Method and apparatus for determining a fine azimuth of a barcode symbol in a two-dimensional CDD image
JPH03257304A (en) Position recognizing apparatus
JPH0812695B2 (en) Area extraction device
JP3753234B2 (en) Defect detection method
JP3919505B2 (en) Pattern inspection apparatus and method
JPS63153682A (en) Method and apparatus for processing contrast picture
JPH069062B2 (en) Area extraction device
JPS62138986A (en) Character recognizing device
JPH06261210A (en) Threshold determining method
JPH0760459B2 (en) Corner detector
JP3025365B2 (en) Image binarization processing device
JPH05113315A (en) Detecting method for center position of circular image data
JPH0687264B2 (en) Image binarization method
JP2940419B2 (en) Image processing device
JPH0522598A (en) Picture input device
JPH0431751A (en) Defect detecting method by visual inspection
JP2771045B2 (en) Document image segmentation method
JPH06274692A (en) Character extracting device
JPH01319872A (en) Distortion measuring method and device by lattice picture
JPH077441B2 (en) Concentration histogram detector
JPH0241786B2 (en)
JPS62251879A (en) Image contour extracting system
JPH057752B2 (en)
JPH0762873B2 (en) Contour tracking device
JPH0687263B2 (en) Image binarization method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees