JPH05108823A - Contour extracting method and device therefor - Google Patents

Contour extracting method and device therefor

Info

Publication number
JPH05108823A
JPH05108823A JP3272701A JP27270191A JPH05108823A JP H05108823 A JPH05108823 A JP H05108823A JP 3272701 A JP3272701 A JP 3272701A JP 27270191 A JP27270191 A JP 27270191A JP H05108823 A JPH05108823 A JP H05108823A
Authority
JP
Japan
Prior art keywords
pixel
case
contour
processing
picture element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3272701A
Other languages
Japanese (ja)
Inventor
Yoshihiro Ishida
良弘 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP3272701A priority Critical patent/JPH05108823A/en
Publication of JPH05108823A publication Critical patent/JPH05108823A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the extracting method of two contour points set between two picture elements combined in an oblique direction, based on a rule at the time of extracting the contour points of an 8-combined picture element area. CONSTITUTION:This method is provided with the process for setting merely one point each for constituting a contour line between a noticed picture element and a neighboring picture element at each noticed picture element, based on the state of the neighboring element, and deciding the connecting direction of the points constituting the contour line, and the process for judging the connecting state of the point constituting the contour line with an another point constituting the contour line. The position of the noticed picture element is set on picture data in the order of a luster scanning, and the process is executed at each noticed picture element based on the state of the neighboring picture element, so that the contour point can be extracted. The picture element in the neighborhood of the position of a picture element (e) is processed (step S0001). The picture element in the neighborhood of the position of a picture element C is processed (step S0002). The picture element in the neighborhood of the position of a picture element A is processed (step S0003). The picture element in the neighborhood of the position of a picture element B is processed (step S0004). Then, the processing is returned to a case 00.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ラスタ走査順に記憶さ
れた2値画像の輪郭線を抽出する方法及び装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for extracting contour lines of a binary image stored in raster scanning order.

【0002】[0002]

【従来の技術】この種の装置に関して、出願人は既に特
願平2−281958(以下先願特許と称す)を出願し
ている。この先願特許において、『注目画素と、その近
傍画素の状態により、予め定められた位置を輪郭線を構
成する点とし、近傍画素の状態により輪郭線の点の接続
方向を決定する工程と、前記輪郭線を構成する点と、輪
郭線の他の点との接続状態を判断する工程と、前記注目
画素の位置をラスタ走査順に画像データ上を更新し、注
目画素毎に近傍画素の状態に基づいて前記工程を実行
し、輪郭点を抽出する。
2. Description of the Related Art Regarding this type of apparatus, the applicant has already applied for a patent application Japanese Patent Application No. 2-281958 (hereinafter referred to as a prior patent). In this prior application patent, "a step of determining a connecting direction of a point of a contour line based on a state of a neighboring pixel by setting a predetermined position as a point forming a contour line depending on a state of a target pixel and its neighboring pixel, A step of determining a connection state between a point forming the contour line and another point of the contour line; updating the position of the target pixel on the image data in a raster scanning order, and based on the state of neighboring pixels for each target pixel. The above steps are executed to extract contour points.

【0003】以上の構成において、画像データにおける
注目画素と、その近傍画素の状態を保持し、この注目画
素をラスタ走査順に取り出し、その注目画素とその近傍
画素の状態に基づいて、水平方向及び垂直方向の画素配
列ベクトルを検出する。これら画素配列ベクトル同士の
接続状態を判別して、この判別された画素配列ベクトル
の接続状態をもとに、画像データの輪郭を抽出するよう
に動作する。』という手法を提案している。該手法は、
画像の中の全ての輪郭線を1回のラスタ走査順だけで抽
出でき、かつ、全画像データを記憶するための画像メモ
リを必要としないため、メモリの容量を少なくできる効
果を有している。また、入力画像の画素の中心位置では
なく、画素の縁単位に輪郭を抽出することによって、1
画素巾の細線に対しても有為な幅を有する輪郭線抽出法
である。更に、原画中の画素の4方向に連結した連結画
素領域の輪郭線を抽出するのみならず、8方向に連結し
た画素領域も抽出可能であることが紹介されている。
In the above arrangement, the state of the pixel of interest and its neighboring pixels in the image data is held, this pixel of interest is taken out in raster scanning order, and the horizontal and vertical directions are obtained based on the states of the pixel of interest and its neighboring pixels. The pixel array vector in the direction is detected. The connection state of these pixel array vectors is discriminated, and the contour of image data is extracted based on the discriminated connection state of the pixel array vectors. ] Is proposed. The method is
Since all the contour lines in the image can be extracted only in the order of one raster scan and the image memory for storing the entire image data is not required, the memory capacity can be reduced. .. In addition, the contour is extracted for each edge of the pixel instead of the center position of the pixel of the input image.
This is a contour line extraction method that has a significant width even for a thin line of pixel width. Further, it is introduced that not only the contour line of the connected pixel area connected in four directions of pixels in the original image can be extracted, but also the pixel area connected in eight directions can be extracted.

【0004】[0004]

【発明が解決しようとしている課題】しかしながら、上
記先願において紹介されている実施例で、8方向に連結
した(以降“8連結”と称する)連結画素領域の輪郭線
を抽出する場合の説明で開示される手法は、注目画素に
対して、斜め方向に接続する画素間の輪郭線の抽出が複
雑なものとなっていた。
However, in the embodiment introduced in the above-mentioned prior application, a description will be given in the case of extracting the contour lines of the connected pixel regions connected in eight directions (hereinafter referred to as "8 connected"). In the disclosed method, extraction of a contour line between pixels diagonally connected to a target pixel is complicated.

【0005】即ち、上記先願例では、注目画素が黒画素
の時、注目画素の周囲8画素をそれぞれ白画素か黒画素
かの状態を判定し、それぞれの状態のパターン毎に処理
内容を決定している。注目画素の縦方向及び横方向の連
結画素領域の輪郭線の抽出を行う場合には、周囲画素が
白画素の時のみ、輪郭点の定義をすればよいのに対し、
斜方向の連結画素領域の輪郭線の抽出を行う場合には、
注目画素と斜め方向の画素が双方とも黒画素である場合
にも輪郭点の定義を行う必要がある。このことから、斜
め方向に連結画素領域の輪郭線の抽出の際には、該斜め
方向に連結した2画素間に存在する画素間の位置は、そ
の2画素のそれぞれが、注目画素位置となった時の双方
において吟味され2回吟味が行われることになる。図2
に一例を示す。同図において、A及びBは斜め方向に連
結する2画素を表しており、Cは輪郭点の存在する画素
間位置である。このため、それぞれの時点での吟味に冗
長性を省き、かつ、整合性をとる必要性がある。前記、
先願例においては、この斜め接続の画素領域の輪郭点の
抽出手順が、その他の周囲画素の状態と独立して検討で
きる様に設定されておらず、各部分の抽出ルールをモジ
ュール化しずらく設定されていた。図2の場合を例にと
ると、図3に示す様に、黒画素Aが注目画素となる状態
の時に、C1及びC2の2つの垂直ベクトルの始点を輪郭
点とし、C1は流出先は定まり、流入元は未定の輪郭ベ
クトルとして、C2は流出先も流入元も未定の輪郭ベク
トルとして定義する。一方、黒画素Bが注目画素となる
状態の時に図4及び図5に示す様に、Dで示す画素位置
が白画素(図4)か、黒画素(図5)かによって、処理
の内容が異なる。これらの場合は、新たな輪郭ベクトル
は定義せず、図3で定められた輪郭ベクトルの接続状態
の更新のみを行っている。Dで示す画素位置が白画素の
場合には、C1の流入元とC2の流出先を決定している。
Dで示す画素位置が黒画素の場合には、C1の流入元の
みの決定を行っている。といった具合にである。このた
め、プログラミングの複雑さを生み、かつ、処理速度が
速くならないという点で不満を残していた。また、ハー
ド化時の回路規模の増大を招く要因となっていた。
That is, in the above-mentioned prior application, when the target pixel is a black pixel, it is determined whether the eight surrounding pixels of the target pixel are white pixels or black pixels, and the processing content is determined for each pattern in each state. is doing. When extracting the contour line of the connected pixel area in the vertical direction and the horizontal direction of the pixel of interest, it is sufficient to define the contour point only when the surrounding pixels are white pixels.
To extract the outline of the diagonally connected pixel area,
It is necessary to define contour points even when both the pixel of interest and the pixels in the diagonal direction are black pixels. From this, when extracting the contour line of the diagonally connected pixel region, the position between the pixels existing between the two pixels connected in the diagonal direction becomes the target pixel position for each of the two pixels. It will be scrutinized twice in both cases. Figure 2
Shows an example. In the figure, A and B represent two pixels connected in an oblique direction, and C is a position between pixels where a contour point exists. For this reason, it is necessary to eliminate redundancy in the examination at each point of time and ensure consistency. The
In the example of the prior application, the procedure for extracting the contour points of the diagonally connected pixel area is not set so that it can be considered independently of the states of other surrounding pixels, and the extraction rule for each part is difficult to modularize. It was set. Taking the case of FIG. 2 as an example, as shown in FIG. 3, when the black pixel A is the target pixel, the start points of the two vertical vectors C 1 and C 2 are set as contour points, and C 1 flows out. The destination is defined, the inflow source is defined as an undetermined contour vector, and C 2 is defined as a contour vector in which neither the outflow destination nor the inflow source is determined. On the other hand, when the black pixel B is the target pixel, as shown in FIGS. 4 and 5, depending on whether the pixel position indicated by D is a white pixel (FIG. 4) or a black pixel (FIG. 5), the content of the processing is different. In these cases, no new contour vector is defined, and only the connection state of the contour vector defined in FIG. 3 is updated. When the pixel position indicated by D is a white pixel, the inflow source of C 1 and the outflow destination of C 2 are determined.
When the pixel position indicated by D is a black pixel, only the inflow source of C 1 is determined. And so on. For this reason, there has been dissatisfaction in that the programming complexity is generated and the processing speed does not increase. In addition, it has been a factor that causes an increase in the circuit scale at the time of hardware implementation.

【0006】[0006]

【課題を解決するための手段】本発明は、上記先願例に
おける事情を鑑みてなされたものであり、上記先願例に
おける8連結の画素領域の輪郭点を抽出する場合の規則
について、斜め方向に連結している画素領域の抽出時に
おいて、当該斜め方向に連結する2つの黒画素間に設定
する2つの輪郭点を、該2つの黒画素が注目画素となる
それぞれの時点で一点づつ定義する手法をとることによ
って、その他の周囲画素の状態と独立して動作できる様
に、各部分の抽出ルールのモジュール化を容易にしたも
のである。
The present invention has been made in view of the circumstances in the above-mentioned prior application example, and the rule for extracting the contour points of the 8-connected pixel areas in the above-mentioned prior application example is oblique. When extracting a pixel area connected in the direction, two contour points set between two black pixels connected in the diagonal direction are defined one by one at each time point when the two black pixels are the target pixel. By adopting the method described above, the extraction rule of each part can be easily modularized so that it can operate independently of the states of other surrounding pixels.

【0007】[0007]

【実施例】前記、先願例の他の実施例におけるケース0
0、ケース01、ケース02、ケース03、ケース0
4、ケース06、ケース08、ケース09、ケース01
2を以下の方式で処理する様にする。以下、それぞれの
処理を図6〜図26に示すフローチャートに従って説明
する。
[Example] Case 0 in another example of the previous application
0, case 01, case 02, case 03, case 0
4, case 06, case 08, case 09, case 01
2 is processed by the following method. Hereinafter, each process will be described with reference to the flowcharts shown in FIGS.

【0008】なお、上記各ケースは、先願特許の8連結
の画素領域の輪郭点抽出時において、斜め方向に連結し
ている画素領域の存在の可能性を有するそれぞれの場合
に対応しており、以上の各ケースを全て考慮すること
で、斜め方向に連結する全ての場合を網羅している。
Each of the above cases corresponds to the case in which there is a possibility of existence of diagonally connected pixel areas when the contour points of the 8-connected pixel areas of the prior application are extracted. , By considering all of the above cases, all cases of diagonal connection are covered.

【0009】本発明は、基本的に上述の先願特許で記述
した手法での8連結領域に関する輪郭点の抽出方法を、
改良することにより一段と効率的な輪郭点を抽出するこ
とが主目的であるため、実施例も上述先願特許で記述し
たものを元に、その改良部分のみをここに表記する形式
で説明してゆく。また、8連結領域に関する輪郭点の抽
出部分以外に関しては、先願特許で記述した手法をその
まま踏襲した形で実施される。そのため、新たに付した
図面以外は、上記先願特許内で用いた図面をそのまま参
照する形で説明する。
The present invention basically provides a method of extracting contour points relating to 8-connected regions by the method described in the above-mentioned prior patent.
Since the main purpose is to extract more efficient contour points by making improvements, the embodiments are also described based on the description in the above-mentioned prior patent, and only the improved parts are described in the format described here. go. Further, except for the contour point extraction portion for the 8-connected region, the method described in the prior patent is directly followed. Therefore, except for the newly added drawings, the drawings used in the prior patent will be referred to as they are.

【0010】図6は、先願特願の第60図で示される場
合(ケース○○)を処理するフローチャートである。ス
テップS0001では、先願特願の第60図の画素マト
リクス601の
FIG. 6 is a flowchart for processing the case (case XX) shown in FIG. 60 of the prior application. In step S0001, the pixel matrix 601 of FIG.

【0011】[0011]

【外1】 の位置の画素近傍の処理を行い、その内容は図7のフロ
ーチャートで示される。この
[Outer 1] The processing in the vicinity of the pixel at the position is performed, and the content thereof is shown in the flowchart of FIG. this

【0012】[0012]

【外2】 の位置は、先願特願の図1における画素Dの位置に対応
している。
[Outside 2] The position of corresponds to the position of the pixel D in FIG. 1 of the prior application.

【0013】図7のフローチャートにおいて、ステップ
S2001では、(2i−1、2j−1)を水平ベクト
ルの始点として、先願特願第23図で示される水平ベク
トルの登録テーブルに登録する。ステップS2002で
は、この水平ベクトルの流出先のベクトルが未定である
として、先願特願第32図で示されるテーブル321に
登録し、カウンタ320を更新する。ステップS200
3では、前記画素Dの位置が黒画素(f(D)=1)か
否(f(D)=0)かを判定し、黒画素、即ちf(D)
=1の場合は、ステップS2006へ進み、そうでない
場合、即ち白画素f(D)=0の場合は、ステップS2
004へ進む。ステップS2004では、前記水平ベク
トルの流入元ベクトルもまた未定であるとして、先願特
願第31図で示されるテーブル311に登録し、カウン
タ310を更新する。ステップS2005では、水平ベ
クトルカウンタ230を+1して、元の処理に戻る。ま
た、ステップS2006では、ステップS2001で定
義した水平ベクトルに流入する垂直ベクトルをサーチす
る。そのサーチの手順は、先願特願第30図で説明され
ている手法に準じる。ただし同図のステップS52で
『項目番号(k−1)が示す垂直ベクトルの始点のx座
標が(2i+1)か?』とある所を、『〜(2i−1)
〜』として動作するものである。ステップS2006の
処理を終えると、ステップS2005へ進む。かくし
て、図6ステップS0001のケースeの処理を終え
る。ここでは、図8及び図9で示される様に、注目画素
と画素位置Dとの間にある水平ベクトルの一つの抽出を
行っているものである。(ここで、0は水平ベクトルの
始点を表し、〇印から出る矢印は、水平ベクトルの向く
方向(即ち、左または右)を表し、〇印に入る矢印は、
該水平ベクトルの始点に注入してくる垂直ベクトルの向
く方向(即ち、上または下)を表している。また、破線
矢印は、接続関係が未定であることを意味し、実線矢印
は接続関係がその時点で確定するベクトルであることを
意味している。
In the flowchart of FIG. 7, in step S2001, (2i-1, 2j-1) is registered in the horizontal vector registration table shown in FIG. 23 as the starting point of the horizontal vector. In step S2002, it is assumed that the vector of the outflow destination of this horizontal vector is undecided, it is registered in the table 321 shown in FIG. 32 of the prior application, and the counter 320 is updated. Step S200
In 3, it is determined whether the position of the pixel D is a black pixel (f (D) = 1) or not (f (D) = 0), and a black pixel, that is, f (D)
If = 1, the process proceeds to step S2006. If not, that is, when the white pixel f (D) = 0, step S2.
Proceed to 004. In step S2004, the inflow source vector of the horizontal vector is also determined to be undetermined, and is registered in the table 311 shown in FIG. 31 of the prior application, and the counter 310 is updated. In step S2005, the horizontal vector counter 230 is incremented by 1, and the process returns to the original process. In step S2006, a vertical vector flowing into the horizontal vector defined in step S2001 is searched. The search procedure conforms to the method described in FIG. 30 of the prior application. However, in step S52 in the figure, is the x coordinate of the starting point of the vertical vector indicated by the item number (k-1) (2i + 1)? ", There is a place"-(2i-1)
~]. When the process of step S2006 ends, the process proceeds to step S2005. Thus, the processing of case e in step S0001 of FIG. 6 is completed. Here, as shown in FIGS. 8 and 9, one horizontal vector between the pixel of interest and the pixel position D is extracted. (Here, 0 represents the starting point of the horizontal vector, the arrow from the circle indicates the direction in which the horizontal vector is facing (that is, left or right), and the arrow entering the circle indicates
It represents the direction (that is, up or down) of the vertical vector injected at the starting point of the horizontal vector. The broken line arrow means that the connection relation is undetermined, and the solid line arrow means that the connection relation is a vector to be determined at that time.

【0014】次に、ステップS0002へ進み、先願特
願第1図に示すCの位置の画素近傍の処理を行う。その
内容は、図10のフローチャートで示される。ステップ
S2101では、(2i−1、2j+1)を垂直ベクト
ルの始点として、先願特願第24図で示される垂直ベク
トルの登録テーブルに登録する。ステップS2102で
は、この垂直ベクトルの流入元のベクトルが未定である
として、先願特願第33図で示されるテーブル331に
登録し、カウンタ330を更新する。ステップS210
3では、前記画素Cの位置が黒画素(f(C)=1)か
否(f(C)=0)かを判定し、黒画素、即ち、f
(C)=1の場合は、ステップS2104へ進み、そう
でない場合、即ち白画素f(C)=0の場合は、ステッ
プS2106へ進む。ステップS2104では、前記垂
直ベクトルの流出先のベクトルも未定であるとして、先
願特許第34図で示されるテーブル341に登録し、カ
ウンタ340を更新する。ステップS2105では、垂
直ベクトルカウンタ240を+1して元の処理に戻る。
また、ステップS2106では、ステップS210で定
義した垂直ベクトルが流出する水平ベクトルをサーチす
る。そのサーチの手順は、先願特願第35図で説明され
ている手法に準じる。ステップS2106の処理を終え
ると、ステップS2005へ進む。かくして、図6ステ
ップS0002のケースCの処理を終える。ここでは、
図11及び図12で示される様に、注目画素と画素位置
Cとの間にある垂直ベクトルの一つの抽出を行っている
ものである。(ここで、△印は、垂直ベクトルの始点を
表し、△印から出る矢印は、垂直ベクトルの向く方向
(即ち、上または下)を表し、△印に入る矢印は、該垂
直ベクトルの始点に流入してくる水平ベクトルの向く方
向(即ち、左または右)を表している。また、破線矢印
は、接続関係が未定であることを意味し、実線矢印は、
接続関係がその時点で確定するベクトルであることを意
味している。
Next, the process proceeds to step S0002, and the processing in the vicinity of the pixel at the position C shown in FIG. The contents are shown in the flowchart of FIG. In step S2101, (2i-1, 2j + 1) is registered as a vertical vector start point in the vertical vector registration table shown in FIG. 24 of the prior application. In step S2102, assuming that the vector of the inflow source of this vertical vector is undecided, it is registered in the table 331 shown in FIG. 33 of the prior application, and the counter 330 is updated. Step S210
In 3, it is determined whether the position of the pixel C is a black pixel (f (C) = 1) or not (f (C) = 0), and the black pixel, that is, f
If (C) = 1, the process proceeds to step S2104. If not, that is, when the white pixel f (C) = 0, the process proceeds to step S2106. In step S2104, it is assumed that the vector of the outflow destination of the vertical vector is undecided, and it is registered in the table 341 shown in FIG. In step S2105, the vertical vector counter 240 is incremented by 1, and the process returns to the original process.
In step S2106, the horizontal vector from which the vertical vector defined in step S210 flows is searched. The search procedure conforms to the method described in FIG. 35 of the prior application. When the process of step S2106 is completed, the process proceeds to step S2005. Thus, the processing of case C in step S0002 in FIG. 6 is completed. here,
As shown in FIGS. 11 and 12, one of the vertical vectors between the pixel of interest and the pixel position C is extracted. (Here, the triangle indicates the starting point of the vertical vector, the arrow coming out of the triangle indicates the direction in which the vertical vector is facing (that is, up or down), and the arrow entering the triangle indicates the starting point of the vertical vector. The direction of the incoming horizontal vector (that is, left or right) is shown.The broken line arrow means that the connection relation is undecided, and the solid line arrow is
It means that the connection relation is a vector that is fixed at that time.

【0015】次に、ステップS0003へ進み、先願特
願第1図に示すAの位置の画素近傍の処理を行う。その
内容は、図13のフローチャートで示される。ステップ
S2201では、(2i+1,2j−1)を垂直ベクト
ルの始点として、先願特願第24図で示される垂直ベク
トルの登録テーブルに登録する。ステップS2202で
は、ステップS2201で定義した垂直ベクトルに流入
してくる水平ベクトルをサーチする。そのサーチの手順
は、先願特願第45図で説明されている手法に準じる。
ステップS2203では、前記画素Aの位置が黒画素
(f(A)=1)か否(f(A)=0)かを判定し、黒
画素即ち、f(A)=1の場合はステップS2206へ
進み、そうでない場合、即ち、白画素f(A)=0の場
合はステップS2204へ進む。ステップS2204で
は、前記垂直ベクトルの流出先のベクトルは未定である
として、先願特願第34図で示されるテーブル341に
登録し、カウンタ340を更新する。ステップS220
5では垂直ベクトルカウンタ240を+1して元の処理
に戻る。また、ステップS2206では、ステップS2
201で定義した垂直ベクトルが流出する水平ベクトル
をサーチする。そのサーチ手順は、先願特願第35図で
説明されている手法に準じる。ただし、同図のステップ
S62で『項目番号(k−1)が示すテーブル311の
水平ベクトルの始点のx座標が(2i−1)か?』とあ
る所を、『〜(2i+1)〜』として動作するものであ
る。ステップS2206の処理を終えるとステップS2
205へ進む。かくして、図6ステップS0003のケ
ースaの処理を終える。ここでは、図14及び図15で
示される様に、注目画素と画素位置Aとの間にある垂直
ベクトルの一つの抽出を行っているものである。
Next, the process proceeds to step S0003, and the processing in the vicinity of the pixel at the position A shown in FIG. The contents are shown in the flowchart of FIG. In step S2201, (2i + 1,2j-1) is registered as a vertical vector start point in the vertical vector registration table shown in FIG. 24 of the prior application. In step S2202, the horizontal vector flowing into the vertical vector defined in step S2201 is searched. The search procedure conforms to the method described in FIG. 45 of the prior application.
In step S2203, it is determined whether the position of the pixel A is a black pixel (f (A) = 1) or not (f (A) = 0), and if the pixel is a black pixel, that is, f (A) = 1, step S2206. If not, that is, if the white pixel f (A) = 0, the process proceeds to step S2204. In step S2204, the outflow destination vector of the vertical vector is determined to be undetermined, and is registered in the table 341 shown in FIG. 34 of the prior application, and the counter 340 is updated. Step S220
At 5, the vertical vector counter 240 is incremented by 1 and the process returns to the original process. In step S2206, step S2
A horizontal vector from which the vertical vector defined in 201 flows out is searched. The search procedure conforms to the method described in FIG. 35 of the prior application. However, in step S62 of the figure, is the x coordinate of the starting point of the horizontal vector of the table 311 indicated by "item number (k-1) (2i-1)?" ], A certain place operates as "~ (2i + 1) ~". When the process of step S2206 is completed, step S2
Go to 205. Thus, the process of case a in step S0003 in FIG. 6 is completed. Here, as shown in FIGS. 14 and 15, one of the vertical vectors between the pixel of interest and the pixel position A is extracted.

【0016】次に、ステップS0004に進み、先願特
許第1図に示すBの位置の画素近傍の処理を行う。その
内容は、図16のフローチャートで示される。ステップ
S2301では(2i+1,2j+1)を水平ベクトル
の始点として先願特願第23図で示される水平ベクトル
の登録テーブルに登録する。ステップS2302では、
ステップS2301で定義した水平ベクトルが流出して
ゆく垂直ベクトルをサーチする。そのサーチ手順は、先
願特願第46図で説明されている手法に準じる。ステッ
プS2303では、前記画素Bの位置が黒画素(f
(B)=1)か否(f(B)=0)かを判定し、黒画
素、即ちf(B)=1の場合はステップS2304へ進
み、そうでない場合、即ち白画素f(B)=0の場合は
ステップS2306へ進む。ステップS2304では、
前記水平ベクトルの流入元のベクトルは未定であるとし
て、先願特願第31図で示されるテーブル311に登録
し、カウンタ310を更新する。ステップS2305で
は水平ベクトルカウンタ230を+1して元の処理に戻
る。また、S2306ではS2301で定義した水平ベ
クトルの流入元の垂直ベクトルをサーチする。そのサー
チの手順は、先願特願第30図で説明されている手法に
準じる。ステップS2306の処理を終えると、ステッ
プS2305へ進む。かくして、図6ステップS000
4のケースbの処理を終える。これで、先願特願の第6
0図で示される場合(ケース○○)の処理を終了する。
Next, the process proceeds to step S0004, and the processing in the vicinity of the pixel at the position B shown in FIG. The contents are shown in the flowchart of FIG. In step S2301, (2i + 1,2j + 1) is registered in the horizontal vector registration table shown in FIG. 23 as the starting point of the horizontal vector. In step S2302,
A vertical vector in which the horizontal vector defined in step S2301 flows out is searched for. The search procedure conforms to the method described in FIG. 46 of the prior application. In step S2303, the position of the pixel B is a black pixel (f
Whether (B) = 1) or not (f (B) = 0) is determined, and in the case of a black pixel, that is, f (B) = 1, the process proceeds to step S2304; otherwise, that is, a white pixel f (B). If = 0, the process advances to step S2306. In step S2304,
Assuming that the vector of the inflow source of the horizontal vector is undecided, it is registered in the table 311 shown in FIG. 31 of the prior application, and the counter 310 is updated. In step S2305, the horizontal vector counter 230 is incremented by 1, and the process returns to the original process. In step S2306, the vertical vector at the inflow source of the horizontal vector defined in step S2301 is searched. The search procedure conforms to the method described in FIG. 30 of the prior application. When the process of step S2306 ends, the process advances to step S2305. Thus, step S000 in FIG.
The process of case b of 4 is finished. This is the 6th of the prior application
The processing in the case shown in FIG. 0 (case XX) is terminated.

【0017】図19は、先願特願の第61図で示される
場合(ケース01)を処理するフローチャートである。
FIG. 19 is a flowchart for processing the case (case 01) shown in FIG. 61 of the prior application.

【0018】まず、ステップS0101では、先願特願
の第61図の
First, in step S0101, FIG.

【0019】[0019]

【外3】 の位置の近傍の処理を行う。その処理内容は、前述の図
10に示したケースcと全く同様である。次にステップ
S0102に進み、先願特願第61図の
[Outside 3] The processing near the position of is performed. The content of the processing is exactly the same as that of the case c shown in FIG. Next, in Step S0102, the prior application Japanese Patent Application No. 61 in FIG.

【0020】[0020]

【外4】 の位置の近傍の処理を行う。その処理内容は、前述の図
16に示したケースbと全く同様である。かくして、先
願特願の第61図で示される場合(ケース01)の処理
を終了する。
[Outside 4] The processing near the position of is performed. The content of the processing is exactly the same as that of the case b shown in FIG. Thus, the processing in the case shown in FIG. 61 of the prior application (case 01) is completed.

【0021】図20は、先願特願の第62図で示される
場合(ケース02)を処理するフローチャートである。
FIG. 20 is a flowchart for processing the case (case 02) shown in FIG. 62 of the prior application.

【0022】まず、ステップS0201では、先願特願
の第62図の
First, in step S0201, FIG.

【0023】[0023]

【外5】 の位置の近傍の処理を行う。その処理内容は、前述の図
7に示したケースeと全く同様である。次に、ステップ
S0202に進み、先願特願第62図の
[Outside 5] The processing near the position of is performed. The contents of the processing are exactly the same as the case e shown in FIG. Next, in step S0202, the prior application Japanese Patent Application No. 62 shown in FIG.

【0024】[0024]

【外6】 の位置の近傍の処理を行う。その処理内容は、前述の図
10に示したケースcと全く同様である。かくして、先
願特願の第61図で示される場合(ケース02)の処理
を終了する。
[Outside 6] The processing near the position of is performed. The content of the processing is exactly the same as that of the case c shown in FIG. Thus, the processing in the case shown in FIG. 61 of the prior application (case 02) is completed.

【0025】図21は、先願特願の第63図で示される
場合(ケース03)を処理するフローチャートである。
FIG. 21 is a flow chart for processing the case (case 03) shown in FIG. 63 of the prior application.

【0026】まず、ステップS0301では、先願特願
の第63図の
First, in step S0301, FIG. 63 of the prior application is filed.

【0027】[0027]

【外7】 の位置の近傍の処理を行う。その処理内容は、前述の図
10に示したケースcと全く同様である。次にステップ
S0302に進み、先願特願第63図の
[Outside 7] The processing near the position of is performed. The content of the processing is exactly the same as that of the case c shown in FIG. Next, in Step S0302, the prior application Japanese Patent Application No. 63 shown in FIG.

【0028】[0028]

【外8】 の位置の近傍の処理を行う。その処理内容は、先願特願
の第38図に示したケースAと全く同様である。かくし
て、先願特願の第63図で示される場合(ケース03)
の処理を終了する。
[Outside 8] The processing near the position of is performed. The contents of the processing are exactly the same as the case A shown in FIG. 38 of the prior application. Thus, the case shown in FIG. 63 of the prior application (Case 03)
Ends the process.

【0029】図22は、先願特願の第64図で示される
場合(ケース04)を処理するフローチャートである。
FIG. 22 is a flow chart for processing the case (case 04) shown in FIG. 64 of the prior application.

【0030】まず、ステップS0401では、先願特願
の第64図の
First, in step S0401, FIG. 64 of the prior application is filed.

【0031】[0031]

【外9】 の位置の近傍の処理を行う。その処理内容は、前述の図
7に示したケースeと全く同様である。次にステップS
0402に進み、先願特願第64図の
[Outside 9] The processing near the position of is performed. The contents of the processing are exactly the same as the case e shown in FIG. Then step S
Proceeding to 0402,

【0032】[0032]

【外10】 の位置の近傍の処理を行う。その処理内容は、前述の図
13に示したケースaと全く同様である。かくして、先
願特願の第64図で示される場合(ケース04)の処理
を終了する。
[Outside 10] The processing near the position of is performed. The contents of the processing are exactly the same as in the case a shown in FIG. Thus, the processing in the case shown in FIG. 64 of the prior application (case 04) is completed.

【0033】図23は、先願特願の第65図で示される
場合(ケース06)を処理するフローチャートである。
FIG. 23 is a flowchart for processing the case (case 06) shown in FIG. 65 of the prior application.

【0034】まず、ステップS0601では、先願特願
の第65図の
First, in step S0601, the process of FIG.

【0035】[0035]

【外11】 の位置の近傍の処理を行う。その処理内容は、前述の図
7に示したースeと全く同様である。次にステップS0
602に進み、先願特願第65図の
[Outside 11] The processing near the position of is performed. The processing content is exactly the same as that of the source e shown in FIG. Then step S0
Proceed to 602 and proceed to FIG.

【0036】[0036]

【外12】 の位置の近傍の処理を行う。その処理内容は、先願特願
の第42図に示したケースBと全く同様である。かくし
て、先願特願の第65図で示される場合(ケース06)
の処理を終了する。
[Outside 12] The processing near the position of is performed. The contents of the processing are exactly the same as the case B shown in FIG. 42 of the prior application. Thus, in the case shown in FIG. 65 of the prior application (case 06)
Ends the process.

【0037】図24は、先願特願の第66図で示される
場合(ケース08)を処理するフローチャートである。
FIG. 24 is a flow chart for processing the case (case 08) shown in FIG. 66 of the prior application.

【0038】まずステップS0801では、先願特願の
第66図の
First, in step S0801, FIG. 66 of the prior application is filed.

【0039】[0039]

【外13】 の位置の近傍の処理を行う。その処理内容は、前述の図
13に示したケースaと全く同様である。次にステップ
S0802に進み、先願特願第66図の
[Outside 13] The processing near the position of is performed. The contents of the processing are exactly the same as in the case a shown in FIG. Next, in Step S0802, the prior application Japanese Patent Application No. 66 in FIG.

【0040】[0040]

【外14】 の位置の近傍の処理を行う。その処理内容は、前述の図
16に示したケースbと全く同様である。かくして、先
願特願の第66図で示される場合(ケース08)の処理
を終了する。
[Outside 14] The processing near the position of is performed. The content of the processing is exactly the same as that of the case b shown in FIG. Thus, the processing in the case shown in FIG. 66 of the prior application (case 08) is completed.

【0041】図25は、先願特願の第67図で示される
場合(ケース09)を処理するフローチャートである。
FIG. 25 is a flowchart for processing the case (case 09) shown in FIG. 67 of the prior application.

【0042】まずステップS0901では、先願特願の
第67図の
First, in step S0901, FIG. 67 of the prior application is filed.

【0043】[0043]

【外15】 の位置の近傍の処理を行う。その処理内容は先願特願の
第48図に示したケースDと全く同様である。次にステ
ップS0902進み、先願特願第67図の
[Outside 15] The processing near the position of is performed. The contents of the processing are exactly the same as case D shown in FIG. 48 of the prior application. Next, in step S0902, in FIG.

【0044】[0044]

【外16】 の位置の近傍の処理を行う。その処理内容は、前述の図
16に示したケースbと全く同様である。かくして、先
願特願の第67図で示される場合(ケース09)の処理
を終了する。
[Outside 16] The processing near the position of is performed. The content of the processing is exactly the same as that of the case b shown in FIG. Thus, the processing in the case shown in FIG. 67 of the prior application (case 09) is completed.

【0045】図26は、先願特願の第68図で示される
場合(ケース012)を処理するフローチャートであ
る。
FIG. 26 is a flow chart for processing the case (case 012) shown in FIG. 68 of the prior application.

【0046】まだステップS1201では、先願特願の
第68図の
Still in step S1201, FIG.

【0047】[0047]

【外17】 の位置の近傍の処理を行う。その処理内容は先願特願の
第52図に示したケースCと全く同様である。次にステ
ップS1202に進み、先願特願第68図の
[Outside 17] The processing near the position of is performed. The contents of the processing are exactly the same as the case C shown in FIG. 52 of the prior application. Next, in step S1202, the prior application Japanese Patent Application No. 68 shown in FIG.

【0048】[0048]

【外18】 の位置の近傍の処理を行う。その処理内容は、前述の図
13に示したケースaと全く同様である。かくして、先
願特願の第68図で示される場合(ケース012)の処
理を終了する。
[Outside 18] The processing near the position of is performed. The contents of the processing are exactly the same as in the case a shown in FIG. Thus, the processing in the case shown in FIG. 68 of the prior application (case 012) is completed.

【0049】以上、上述の先願特願のケース00、ケー
ス01、ケース02、ケース03、ケース04、ケース
06、ケース08、ケース09、ケース012をどの様
に改良するかに関して説明を加えたが、それ以外の部分
の実施例に関しては、先願特願の実施例に従うことによ
り実施できる。第1図に、その画像の走査方法及び注目
画素とその近傍画素の関係を示した。この図面に基づく
全体の動作の記述は、先願特願の実施例にある。
Above, description has been added regarding how to improve the above-mentioned prior application No. 00, No. 01, No. 02, No. 03, No. 04, No. 06, No. 08, No. 09, and No. 012. However, the other parts of the embodiment can be implemented by following the embodiment of the prior application. FIG. 1 shows the scanning method of the image and the relationship between the pixel of interest and its neighboring pixels. The description of the whole operation based on this drawing is in the embodiment of the prior application.

【0050】(他の実施例)ケース00、ケース03、
ケース06、ケース09、ケース012は、それぞれ図
27〜図31に示すケース00′、ケース03′、ケー
ス06′、ケース09′、ケース012′の様に構成し
ても良い。
(Other Embodiments) Case 00, Case 03,
Case 06, case 09, and case 012 may be configured as case 00 ′, case 03 ′, case 06 ′, case 09 ′, and case 012 ′ shown in FIGS. 27 to 31, respectively.

【0051】即ち、上記各ケースにおいては、 ケースeは、ケースa及びケースcより先に処理され
る。 ケースbは、ケースa及びケースcよりも後に処理さ
れる。 の2つの条件が満たされていれば良いことは容易に理解
できよう。
That is, in each of the above cases, the case e is processed before the cases a and c. Case b is processed after case a and case c. It can be easily understood that the two conditions mentioned above must be satisfied.

【0052】図32は、先願特許の第5図と同じで、前
述の本実施例の輪郭検出を行うハードウエア構成例を示
すブロック図である。前述の全てのフローチャートで表
されるプログラムは図32のメモリ520に格納されて
いる。図32において501は信号線500を介して入
力される画像データをやりとりするための入力制御(イ
ンターフェース)部であり、この信号線500よりラス
タ走査形式で順次2値画像データが入力されてくる。5
02はラッチで、501より入力された画像データを、
図示しない画素同期クロックに同期して1画素づつ順次
更新しながら保持する。次の画素同期クロックにて、ラ
ッチ502は次の画素データを入力制御回路501より
入力する。この時、既に保持していた画像データは、そ
の画像クロックに同期してラッチ503にラッチされ
て、保持される。同様にラッチ503に保持されていた
画素データは、次の画素同期クロックにて、ラッチ50
4に保持される。
FIG. 32 is the same as FIG. 5 of the prior application, and is a block diagram showing an example of a hardware configuration for carrying out the contour detection of this embodiment described above. The programs represented by all the above-mentioned flowcharts are stored in the memory 520 of FIG. In FIG. 32, reference numeral 501 is an input control (interface) unit for exchanging image data input via the signal line 500, and binary image data is sequentially input from the signal line 500 in a raster scanning format. 5
Reference numeral 02 denotes a latch, which stores the image data input from 501
Each pixel is sequentially updated and held in synchronization with a pixel synchronization clock (not shown). At the next pixel synchronization clock, the latch 502 inputs the next pixel data from the input control circuit 501. At this time, the image data already held is latched and held in the latch 503 in synchronization with the image clock. Similarly, the pixel data held in the latch 503 is latched by the latch 50 at the next pixel synchronization clock.
Held at 4.

【0053】505及び503はそれぞれ1ラスタ分の
画素データを保持するFIFO(ファーストイン・ファ
ーストアウト・メモリ)である。FIFO505は、ラ
ッチ504の出力を順次、画素同期クロックに同期して
取り込み、1ラスタ前のデータをラッチ507へ出力す
る。同様に、FIFO506も、ラッチ509の出力を
取り込み、ラッチ510に1ラスタ前の画素データを出
力する。ラッチ507、508、509及びラッチ51
0、511、512は共に前記ラッチ502、503、
504と全く同様に動作する。
Reference numerals 505 and 503 denote FIFOs (first-in first-out memory) for holding pixel data for one raster. The FIFO 505 sequentially takes in the output of the latch 504 in synchronization with the pixel synchronization clock and outputs the data one raster before to the latch 507. Similarly, the FIFO 506 also takes in the output of the latch 509 and outputs the pixel data of one raster before to the latch 510. Latches 507, 508, 509 and latch 51
0, 511, 512 are both latches 502, 503,
Works exactly the same as 504.

【0054】このようにして、ラッチ502、503、
504、507、508、509、510、511及び
512に記憶された9個の画素は、図1に示した9(3
×3)画素よりなる領域の画素データを記憶しているこ
とになる。即ち、これらラッチのデータは、それぞれ先
願特許の第1図の“B”、“2”、“C”、“1”、
In this way, the latches 502, 503,
The nine pixels stored in 504, 507, 508, 509, 510, 511 and 512 are 9 (3) shown in FIG.
× 3) Pixel data of a region including pixels is stored. That is, the data of these latches are respectively "B", "2", "C", "1", and

【0055】[0055]

【外19】 “3”、“A”、“0”、“D”に対応している。[Outside 19] It corresponds to "3", "A", "0", and "D".

【0056】513、514は共にCPU519の入力
ポートで、入力ポート513は、ラッチ510、50
2、504、512のデータを、即ち、それぞれ図1に
おける“A”、“B”、“C”、“D”の位置データを
CPU519に入力する。同様に、入力ポート514は
ラッチ511、507、503、509、508のデー
タ、即ち“1”、“2”、“3”、
Reference numerals 513 and 514 are the input ports of the CPU 519, and the input port 513 is the latches 510 and 50.
The data of 2, 504 and 512, that is, the position data of “A”, “B”, “C” and “D” in FIG. 1 are input to the CPU 519. Similarly, the input port 514 has the data of the latches 511, 507, 503, 509, and 508, that is, "1", "2", "3",

【0057】[0057]

【外20】 の位置データとして入力する。[Outside 20] Input as position data of.

【0058】515は主走査方向の画素位置を示す主走
査カウンタであり、図示しない副走査同期信号によりリ
セットされ、画素同期信号によりカウントアップする。
516は副走査方向の画素位置を示す副走査カウンタ
で、図示しないページ同期信号によりリセットされ、副
走査同期信号によりカウントアップされる。517は入
出力制御用の入出力ポートであり、入出力制御回路50
1に対し、画素データ入力の実行及び保留を指示する信
号、及び入出力制御回路501よりCPU519への画
素データ更新を知らせる信号等を保持する。521はハ
ードディスク522の入出力制御装置である。入出力ポ
ート517、主走査カウンタ515、副走査カウンタ5
16、入力ポート513、514、メモリ520、ディ
スクI/0521はバス518を介してCPU519に
接続されている。
Reference numeral 515 is a main scanning counter which indicates a pixel position in the main scanning direction, which is reset by a sub scanning synchronizing signal (not shown) and counts up by the pixel synchronizing signal.
A sub-scanning counter 516 indicates a pixel position in the sub-scanning direction, which is reset by a page sync signal (not shown) and counted up by the sub-scan sync signal. Reference numeral 517 is an input / output port for input / output control, and the input / output control circuit 50
1 holds a signal for instructing execution and suspension of pixel data input, a signal for notifying the CPU 519 of pixel data update from the input / output control circuit 501, and the like. Reference numeral 521 is an input / output control device for the hard disk 522. Input / output port 517, main scanning counter 515, sub-scanning counter 5
16, the input ports 513 and 514, the memory 520, and the disk I / 0521 are connected to the CPU 519 via the bus 518.

【0059】こうして、CPU519は入出力制御ポー
ト517を介して、画素データの更新を行い、主走査カ
ウンタ515及び副走査カウンタ516を介して、注目
画素の画素位置(i,j)を知ることができる。また、
入力ポート513及び514を介して、注目画素及びそ
の近傍の8方向の画素の状態を知ることができる。
Thus, the CPU 519 updates the pixel data via the input / output control port 517, and can know the pixel position (i, j) of the target pixel via the main scanning counter 515 and the sub-scanning counter 516. it can. Also,
Through the input ports 513 and 514, the states of the pixel of interest and the pixels in the eight directions in the vicinity thereof can be known.

【0060】このようにして注目画素の処理が終了する
と、CPU519は入出力制御ポート517を介して9
個のラッチに記憶される画素データの更新を指示し、同
時に画素データの更新完了の信号をリセットする。入出
力制御回路501は、この更新の指示を受けると、画素
データの更新指示の信号をクリアするとともに、後段の
ラッチにラッチされる画像データを更新し、この更新が
終了すると入出力制御ポート517に、更新完了の信号
を出力する。
When the processing of the pixel of interest is completed in this way, the CPU 519 sends a 9
The pixel data stored in each latch is instructed to be updated, and at the same time, the pixel data update completion signal is reset. Upon receiving this update instruction, the input / output control circuit 501 clears the pixel data update instruction signal, updates the image data latched in the latch at the subsequent stage, and when this update ends, the input / output control port 517. Then, the update completion signal is output.

【0061】CPU519は、更新指示の出力後、入出
力制御ポート517より更新完了の信号が入力されるの
を監視している。この更新完了の信号が入力されると、
新たに9個のラッチに記憶された画素データに関する処
理を実行し、以下同様にこれを繰り返すものである。ま
た、入力制御回路501は、画像領域の最終画素を注目
画素として処理し終わった際に、入出力制御ポート51
7に終了信号を出力する。
The CPU 519 monitors the input of the update completion signal from the input / output control port 517 after the output of the update instruction. When this update completion signal is input,
The processing relating to the pixel data newly stored in the nine latches is executed, and the same is repeated thereafter. In addition, the input control circuit 501, when finishing processing the last pixel of the image area as the pixel of interest, inputs / outputs the control port 51.
The end signal is output to 7.

【0062】[0062]

【発明の効果】以上説明した様に、上記先願例における
8連結の画素領域の輪郭点を抽出する場合の規則につい
て、斜めの方向に連結している2つの黒画素間に設定す
る2つの輪郭点を、該2つの黒画素が注目画素となるそ
れぞれの時点で一点づつ定義する手法をとることによっ
て、その他の周囲画素の状態と独立して動作できる様に
構成することを可能とし、かつ、各部の抽出手段をモジ
ュールとして構成しやすくすることができる。これによ
り、ハード化時の回路構成規模の減小が得られるという
効果を有する。また、ソフトウェアインプリント時にお
いても、プログラムを簡明に構成できることから、処理
速度の向上が得られるという効果を有する。
As described above, according to the rule for extracting the contour points of the 8-connected pixel areas in the above-mentioned prior application, two rules are set between two black pixels connected in an oblique direction. It is possible to configure the contour point so that it can operate independently of the states of other surrounding pixels by adopting the method of defining one point at each time point when the two black pixels become the target pixel. It is possible to easily configure the extraction means of each unit as a module. As a result, there is an effect that the circuit configuration scale can be reduced when the hardware is realized. In addition, since the program can be configured simply even during software imprint, the processing speed can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】画像の走査方向及び注目画素と、その近傍画素
の関係を示す図。
FIG. 1 is a diagram showing a relationship between a scanning direction of an image, a pixel of interest, and its neighboring pixels.

【図2】先願特願での処理を説明するための、入力の一
例を示す図。
FIG. 2 is a diagram showing an example of input for explaining a process in a prior application.

【図3】先願特願における、図2の入力に対する処理を
説明する図。
FIG. 3 is a diagram for explaining processing for the input of FIG. 2 in the prior application.

【図4】先願特願における、図2の入力に対する処理を
説明する図。
FIG. 4 is a diagram for explaining processing for the input of FIG. 2 in the prior application.

【図5】先願特願における、図2の入力に対する処理を
説明する図。
FIG. 5 is a diagram illustrating a process for the input of FIG. 2 in the prior application.

【図6】本発明における先願特願のケース00の改良さ
れた処理内容を示すフローチャート。
FIG. 6 is a flowchart showing the improved processing contents of Case 00 of the prior application of the present invention.

【図7】ケースeの処理を示すフローチャート。FIG. 7 is a flowchart showing processing of case e.

【図8】ケースeの処理内容を示す図。FIG. 8 is a diagram showing the processing contents of case e.

【図9】ケースeの処理内容を示す図。FIG. 9 is a diagram showing the processing contents of case e.

【図10】ケースcの処理を示すフローチャート。FIG. 10 is a flowchart showing the processing of case c.

【図11】ケースcの処理内容を示す図。FIG. 11 is a diagram showing the processing contents of case c.

【図12】ケースcの処理内容を示す図。FIG. 12 is a diagram showing the processing contents of case c.

【図13】ケースaの処理を示すフローチャート。FIG. 13 is a flowchart showing the processing of case a.

【図14】ケースaの処理内容を示す図。FIG. 14 is a diagram showing the processing contents of case a.

【図15】ケースaの処理内容を示す図。FIG. 15 is a diagram showing the processing contents of case a.

【図16】ケースbの処理内容を示すフローチャート。FIG. 16 is a flowchart showing the processing contents of case b.

【図17】ケースbの処理内容を示す図。FIG. 17 is a diagram showing the processing contents of case b.

【図18】ケースbの処理内容を示す図。FIG. 18 is a diagram showing the processing contents of case b.

【図19】本発明における先願特願のケース01の改良
された処理内容を示すフローチャート。
FIG. 19 is a flowchart showing the improved processing contents of Case 01 of the prior application of the present invention.

【図20】本発明における先願特願のケース02の改良
された処理内容を示すフローチャート。
FIG. 20 is a flowchart showing the improved processing contents of Case 02 of the prior application of the present invention.

【図21】本発明における先願特願のケース03の改良
された処理内容を示すフローチャート。
FIG. 21 is a flow chart showing the improved processing contents of Case 03 of the prior application of the present invention.

【図22】本発明における先願特願のケース04の改良
された処理内容を示すフローチャート。
FIG. 22 is a flow chart showing the improved processing contents of case 04 of the prior application of the present invention.

【図23】本発明における先願特願のケース06の改良
された処理内容を示すフローチャート。
FIG. 23 is a flowchart showing the improved processing contents of Case 06 of the prior application of the present invention.

【図24】本発明における先願特願のケース08の改良
された処理内容を示すフローチャート。
FIG. 24 is a flowchart showing the improved processing contents of Case 08 of the prior application of the present invention.

【図25】本発明における先願特願のケース09の改良
された処理内容を示すフローチャート。
FIG. 25 is a flowchart showing the improved processing contents of Case 09 of the prior application of the present invention.

【図26】本発明における先願特願のケース012の改
良された処理内容を示すフローチャート。
FIG. 26 is a flowchart showing the improved processing contents of Case 012 of the prior application of the present invention.

【図27】それぞれケース00、ケース03、ケース0
6、ケース09、ケース012に対する他の実施例を示
すフローチャート。
FIG. 27 shows case 00, case 03, and case 0, respectively.
6 is a flowchart showing another embodiment for Case 6, Case 09, and Case 012.

【図28】それぞれケース00、ケース03、ケース0
6、ケース09、ケース012に対する他の実施例を示
すフローチャート。
FIG. 28 shows case 00, case 03, and case 0, respectively.
6 is a flowchart showing another embodiment for Case 6, Case 09, and Case 012.

【図29】それぞれケース00、ケース03、ケース0
6、ケース09、ケース012に対する他の実施例を示
すフローチャート。
FIG. 29 shows Case 00, Case 03, and Case 0, respectively.
6 is a flowchart showing another embodiment for Case 6, Case 09, and Case 012.

【図30】それぞれケース00、ケース03、ケース0
6、ケース09、ケース012に対する他の実施例を示
すフローチャート。
FIG. 30 shows Case 00, Case 03, and Case 0, respectively.
6 is a flowchart showing another embodiment for Case 6, Case 09, and Case 012.

【図31】それぞれケース00、ケース03、ケース0
6、ケース09、ケース012に対する他の実施例を示
すフローチャート。
FIG. 31 shows Case 00, Case 03, and Case 0, respectively.
6 is a flowchart showing another embodiment for Case 6, Case 09, and Case 012.

【図32】ハード構成を示す図。FIG. 32 is a diagram showing a hardware configuration.

【符号の説明】[Explanation of symbols]

519 CPU 520 メモリ 519 CPU 520 memory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 注目画素毎に近傍画素の状態に基づい
て、該注目画素と該各近傍画素間に輪郭線を構成する点
をそれぞれ高々一点まで設定し、該輪郭線を構成する点
の接続方向を決定する工程と、前記輪郭線を構成する点
と輪郭線を構成する他の点との接続状態を判断する工程
とを有し、前記注目画素の位置をラスター走査順に画像
データ上に設定して、注目画素毎に近傍画素の状態に基
づいて上記工程を実行し、輪郭点を抽出することを特徴
とする画像の輪郭抽出方法。
1. At most one point forming a contour line between the target pixel and each of the neighboring pixels is set for each target pixel based on the state of the neighboring pixel, and connection of the points forming the contour line is established. The method includes a step of determining a direction and a step of determining a connection state between a point forming the contour line and another point forming the contour line, and setting the position of the target pixel on the image data in raster scanning order. Then, the above-described process is executed for each pixel of interest based on the state of the neighboring pixels, and the contour points are extracted.
【請求項2】 前記輪郭線を構成する点の位置が入力画
素間の中間位置であることを特徴とする請求項1に記載
の輪郭抽出方法。
2. The contour extracting method according to claim 1, wherein a position of a point forming the contour line is an intermediate position between input pixels.
【請求項3】 抽出された輪郭点の位置が入力画素間の
位置であることを特徴とする請求項1に記載の輪郭抽出
方法。
3. The contour extracting method according to claim 1, wherein the positions of the extracted contour points are positions between input pixels.
【請求項4】 画像データにおける注目画素と、その近
傍画素の状態を保持する保持手段と、前記注目画素及び
その近傍画素をラスター走査順に更新する手順と、前記
注目画素とその近傍画素の状態に基づいて、該注目画素
と該各近傍画素間のそれぞれに水平方向、または垂直方
向の輪郭ベクトルを高々一つ検出する検出手段と、前記
輪郭ベクトル同士の接続状態を判別する判別手段と、前
記判別手段により判別された接続状態をもとに、前記画
像テータの輪郭を抽出する抽出手段を有することを特徴
とする輪郭抽出装置。
4. A holding unit that holds the state of a pixel of interest in image data and its neighboring pixels, a procedure for updating the pixel of interest and its neighboring pixels in raster scan order, and a state of the pixel of interest and its neighboring pixels. A detection means for detecting at most one horizontal or vertical contour vector between the pixel of interest and each of the neighboring pixels, and a discrimination means for discriminating the connection state between the contour vectors; A contour extracting device comprising an extracting means for extracting a contour of the image data based on the connection state determined by the means.
【請求項5】 前記近傍画素は、前記注目画素を取り囲
む8個の近傍画素であることを特徴とする請求項4に記
載の輪郭抽出装置。
5. The contour extracting apparatus according to claim 4, wherein the neighboring pixels are eight neighboring pixels surrounding the target pixel.
JP3272701A 1991-10-21 1991-10-21 Contour extracting method and device therefor Pending JPH05108823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3272701A JPH05108823A (en) 1991-10-21 1991-10-21 Contour extracting method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3272701A JPH05108823A (en) 1991-10-21 1991-10-21 Contour extracting method and device therefor

Publications (1)

Publication Number Publication Date
JPH05108823A true JPH05108823A (en) 1993-04-30

Family

ID=17517587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3272701A Pending JPH05108823A (en) 1991-10-21 1991-10-21 Contour extracting method and device therefor

Country Status (1)

Country Link
JP (1) JPH05108823A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5521720A (en) * 1993-05-28 1996-05-28 Canon Kabushiki Kaisha Image processing apparatus for changing the resolution upon rotation of the image
US5579405A (en) * 1992-06-26 1996-11-26 Canon Kabushiki Kaisha Method and apparatus for contour vector image processing
US5666439A (en) * 1993-05-27 1997-09-09 Canon Kabushiki Kaisha Outline discrimination and processing
US7251053B1 (en) 1999-08-13 2007-07-31 Minolta Co., Ltd. Image processing apparatus and method
JP2009271700A (en) * 2008-05-07 2009-11-19 Canon Inc Image processing apparatus and image processing method
US7873218B2 (en) 2004-04-26 2011-01-18 Canon Kabushiki Kaisha Function approximation processing method and image processing method
US7889938B2 (en) 2006-03-31 2011-02-15 Canon Kabushiki Kaisha Method and apparatus for processing line drawings in images
US8520951B2 (en) 2008-05-02 2013-08-27 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and computer readable storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579405A (en) * 1992-06-26 1996-11-26 Canon Kabushiki Kaisha Method and apparatus for contour vector image processing
US5666439A (en) * 1993-05-27 1997-09-09 Canon Kabushiki Kaisha Outline discrimination and processing
US5521720A (en) * 1993-05-28 1996-05-28 Canon Kabushiki Kaisha Image processing apparatus for changing the resolution upon rotation of the image
USRE38177E1 (en) * 1993-05-28 2003-07-08 Canon Kabushiki Kaisha Image processing apparatus for changing the resolution upon rotation of the image
US7251053B1 (en) 1999-08-13 2007-07-31 Minolta Co., Ltd. Image processing apparatus and method
US7873218B2 (en) 2004-04-26 2011-01-18 Canon Kabushiki Kaisha Function approximation processing method and image processing method
US7889938B2 (en) 2006-03-31 2011-02-15 Canon Kabushiki Kaisha Method and apparatus for processing line drawings in images
US8520951B2 (en) 2008-05-02 2013-08-27 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and computer readable storage medium
JP2009271700A (en) * 2008-05-07 2009-11-19 Canon Inc Image processing apparatus and image processing method
US8335389B2 (en) 2008-05-07 2012-12-18 Canon Kabushiki Kaisha Image processing device and method for benzier approximation accuracy within a pre-defined data amount or predetermined processing time

Similar Documents

Publication Publication Date Title
EP0482862A2 (en) Contour extraction method and apparatus
JPH05108823A (en) Contour extracting method and device therefor
US4817186A (en) Locating individual images in a field for recognition or the like
KR20030076620A (en) Image recognition method and apparatus for the same method
JP4928325B2 (en) Image processing method, image processing apparatus, program, and storage medium
JP3256083B2 (en) Outline information extracting device and method
JP2924744B2 (en) Image region extraction method and device
JPH0652304A (en) Device and method for processing image
JP3187895B2 (en) Character area extraction method
US6356656B1 (en) Contour-information extraction apparatus and method
JP4052500B2 (en) Character detection device
JP3093950B2 (en) Outline information extracting device and method
US20020159654A1 (en) Method for processing an image of a concrete construction
JPH08272956A (en) Method and device for noise removal
JP3029762B2 (en) Pinhole treatment method
JPH07182503A (en) Method and device for processing image
JPH0969162A (en) On-vehicle image processor
JP3436003B2 (en) Image processing device
JP2001076154A (en) Method for segmenting digital image and digital image processor
EP0113471A2 (en) Method and apparatus for locating individual images in a field containing multiple images
JP2001109888A (en) Ruled-line extraction system
JP3030814B2 (en) Noise component removal method and recording medium recording noise component removal program
JP2001119585A (en) Image processing method and its device
JPH07334604A (en) Two-dimensional code reading device
JPH1079035A (en) Specific object extracting device