KR940011699B1 - Method of extracting the image contour from binary image signal - Google Patents

Method of extracting the image contour from binary image signal Download PDF

Info

Publication number
KR940011699B1
KR940011699B1 KR1019910024187A KR910024187A KR940011699B1 KR 940011699 B1 KR940011699 B1 KR 940011699B1 KR 1019910024187 A KR1019910024187 A KR 1019910024187A KR 910024187 A KR910024187 A KR 910024187A KR 940011699 B1 KR940011699 B1 KR 940011699B1
Authority
KR
South Korea
Prior art keywords
point
contour
outline
survey
binary image
Prior art date
Application number
KR1019910024187A
Other languages
Korean (ko)
Other versions
KR930015745A (en
Inventor
최재균
Original Assignee
주식회사 금성사
이헌조
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 금성사, 이헌조 filed Critical 주식회사 금성사
Priority to KR1019910024187A priority Critical patent/KR940011699B1/en
Publication of KR930015745A publication Critical patent/KR930015745A/en
Application granted granted Critical
Publication of KR940011699B1 publication Critical patent/KR940011699B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa

Abstract

To obtain the image of characters more clearly and to sample it faster, the method that samples the outline of binary image effectively is suggested. The sampling process suggested in this invent is as follows. First, an expansion operator window is installed to four directions around the focal pixel after scanning the whole area of the binary image once, and then the outline points are defined in four directions. Next, the final outline points are defined again with consideration of the interrelation among the neighbor pixels. As the result, the outline can be sampled fast because the sampling is completed with one-time scanning, and the distinct outline can be obtained because the outline is sampled to the size of +1 larger than the pixel thickness of the character.

Description

2진 영상의 윤곽선 추출방법Contour Extraction Method of Binary Image

제1도는 종래 그레이 영상과 윤곽선 추출시에 정의되는 3×3윈도우.1 is a 3x3 window defined in conventional gray image and contour extraction.

제2도는 가중치를 부여한 3×3윈도우 마스크.2 is a weighted 3 × 3 window mask.

제3도는 X방향 가중치를 부여한 3×3윈도우.3 is a 3 × 3 window weighted in the X direction.

제4도는 Y방향 가중치를 부여한 3×3윈도우.4 is a 3 × 3 window weighted in the Y direction.

제5도는 윤곽선을 추출할 일반 영상의 예.5 is an example of a general image to extract the contour.

제6도는 제5도의 영상에서 X방향 윤곽선 추출결과.6 is an X-direction contour extraction result of the image of FIG.

제7도는 제5도의 영상에서 Y방향 윤곽선 추출결과.7 is a result of contour extraction in the Y direction in the image of FIG.

제8도는 제5도의 영상에서 최종 윤곽선의 추출결과.8 is a result of extracting the final contour from the image of FIG.

제9도는 종래 가로 윤곽선 추출방법의 플로우챠트.9 is a flowchart of a conventional horizontal contour extraction method.

제10도는 종래 세로 윤곽선 추출방법의 플로우챠트.10 is a flowchart of a conventional vertical contour extraction method.

제11도는 종래의 2진 영상 윤곽선 추적방법의 예.11 is an example of a conventional binary image contour tracking method.

제12도는 종래의 2진 영상 윤곽선 추적방법에서 8방향 코드의 예.12 is an example of an eight-way code in a conventional binary image contour tracking method.

제13(a)도, 제13(b)도는 종래 2진 영상 윤곽선 추출방법으로 추출된 문자윤곽선의 예.13 (a) and 13 (b) are examples of character outlines extracted by a conventional binary image contour extraction method.

제14(a)도, 제14(b)도는 본 발명의 윤곽선 추출방법으로 추출된 문자윤곽선의 예.14 (a) and 14 (b) are examples of character outlines extracted by the contour extraction method of the present invention.

제15도의 본 발명의 윤곽선 추출방법에서 정의된 4이웃점 연산자 윈도우.Four neighboring operator window defined in the contour extraction method of the present invention of FIG.

제16도는 본 발명의 윤곽선 추출방법에서 정의된 확장 연산자 윈도우.16 is an extended operator window defined in the contour extraction method of the present invention.

제17도는 본 발명의 윤곽선 추출의 예.17 is an example of contour extraction of the present invention.

제18도는 본 발명의 윤곽선 추출방법이 실행되는 문서 인식장치의 블록구성도.18 is a block diagram of a document recognition apparatus in which the contour extraction method of the present invention is executed.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

p : 기준조사점 p0, p2, p4, p6 : 1차 외곽조사점p: reference point p0, p2, p4, p6: 1st outer point

r0, r2, r4, r6 : 2차 외곽조사점 2 : 호우스트 프로세서r0, r2, r4, r6: 2nd outer survey point 2: hoist processor

3 : 비디오 표시부 4: 호우스트 인터페이스3: video display unit 4: host interface

5 : 보조기억장치 6 : 스캐너 인터페이스5: auxiliary memory device 6: scanner interface

7 : 스캐너 8 : 버퍼7: scanner 8: buffer

9 : 어드레스 디코더 10 : 데이타 메모리9: address decoder 10: data memory

11 : 디지탈 신호처리기11: digital signal processor

본 발명은 2진 영상(Binary Image)의 윤곽선을 추출하는 방법에 관한 것으로 특히, 중심화소(Pixel) 주변의 4개 방향에 대하여 확장 연산자 윈도우를 정의하고 4가지 방향에서 윤곽점을 1차 정의한 다음 인접하는 화소와는 상관성으로부터 최종 윤곽점을 정의하므로서 문자의 2진 영상을 선명하고 고속으로 추출할 수 있도록 한 것이다.The present invention relates to a method for extracting a contour of a binary image. In particular, an extension operator window is defined for four directions around a center pixel, and the contour points are first defined in four directions. By defining the final contour point from the correlation with the adjacent pixels, it is possible to extract the binary image of the characters clearly and at high speed.

종래의 영상 윤곽선 추출방법은 그레이 영상의(흑백 계조가 통상 16 내지 256계조를 갖는 영상)의 윤곽선 추출방법과 2진 영상의 추출방법으로 대별된다.Conventional image contour extraction methods are roughly divided into a contour extraction method of a gray image (an image having a monochrome grayscale of 16 to 256 gradations) and a binary image extraction method.

그레이 영상의 윤곽선 추출은 제1도에 도시된 바와같은 3×3윈도우를 정의하고 각 부분(방:9개)에 제2도와 같이 가중치(X1-X9)를 부여하여 3×3윈도우 마스크를 정의하며 X방향(가로)에 대해서는 제3도, Y방향(세로)에 대해서는 제4도와 같이 각 방향의 가중치를 정의한 상태에서 제9도 및 제10도의 연산과정을 통해 윤곽선을 추출해낸다.Contour extraction of the gray image defines 3 × 3 windows as shown in FIG. 1, and defines 3 × 3 window masks by assigning weights (X1-X9) to each part (9 rooms) as shown in FIG. The contour is extracted through the calculation process of FIGS. 9 and 10 with the weights defined in each direction as shown in FIG. 3 in the X direction (horizontal) and in FIG. 4 in the Y direction (vertical).

제3도의 윈도우는 X방향의 윤곽선을 추출하기 위한 것이고, 제4도의 윈도우는 Y방향의 윤곽선을 추출하기 위한 것으로서 X방향에 대하여는 제3도의 가중치로부터 연산, GX=(X7+2X8+X9)-(X1+X2+X3)을 수행하고 Y방향에 대하여는 제4도의 가중치로부터 연산, GY=(X3+2X6+X9)-(X1+2X4+X7)을 수행한다.The window of FIG. 3 is for extracting the contour in the X direction, and the window of FIG. 4 is for extracting the contour in the Y direction, calculated from the weight of FIG. 3 for the X direction, GX = (X7 + 2X8 + X9)- Perform (X1 + X2 + X3) and perform calculation from the weight of FIG. 4 for the Y direction, and perform GY = (X3 + 2X6 + X9)-(X1 + 2X4 + X7).

먼저, X방향의 윤곽선 추출은 제9도와 같이, 그레이 영상의 레벨(예; 256그레이 레벨=256계조도)을 갖는 영상의 윤곽선을 흑(1), 백(0)인 2개 단계로 구분짓기 위한 임계치를 결정하고, 영상의 가로/세로(i, j)화소 영역내에서 윤곽선을 추출할 좌표(i, j)의 화소를 윈도우(X5) 위치에 대응시킨 후 GX연산을 하여 연산결과가 임계치 이상이면 그 화소를 흑(X5=1), 이하이면 그 화소를 백(X5=0)으로 정의하므로서 X방향의 윤곽선을 추출한다.First, contour extraction in the X-direction divides the contour of an image having a gray image level (e.g., 256 gray levels = 256 gray levels) into two stages, black (1) and white (0), as shown in FIG. The threshold value for the image is determined, and the pixel of the coordinate (i, j) to extract the contour in the horizontal / vertical (i, j) pixel area of the image corresponds to the position of the window (X5), and GX operation is performed to calculate the threshold value. If it is above, the pixel is defined as black (X5 = 1), and if the pixel is defined as white (X5 = 0), the contour of the X direction is extracted.

이와같이 그레이 영상을 X방향에 대하여 윤곽선 추출한 결과의 예로써 제5도의 영상을 X방향에 대하여 윤곽선 추출하면 제6도와 같은 윤곽선이 추출된다.As an example of the result of contour extraction of the gray image in the X direction, if the image of FIG. 5 is contour-extracted in the X direction, the contour as shown in FIG. 6 is extracted.

한편, Y방향의 윤곽선 추출은 제10도와 같이, 임계치 결정에 이어서 영상의 가로/세로(i, j)화소 영역내에서 윤곽선을 추출할 좌표(i, j)의 화소를 윈도우(X5) 위치에 대응시킨후 GY연산을 수행하여 연산결과가 임계치 이상이면 그 화소를 흑(X5=1), 이하이면 그 화소를 백(X5=0)으로 정의하므로서 Y방향의 윤곽선을 추출한다.On the other hand, in the contour extraction in the Y-direction, as shown in FIG. 10, the pixel having the coordinates (i, j) to extract the contour in the horizontal / vertical (i, j) pixel area of the image following the determination of the threshold is positioned at the window X5 position. After the correspondence, GY operation is performed, if the result is greater than or equal to the threshold, the pixel is defined as black (X5 = 1), and if the pixel is defined as white (X5 = 0), the contour of the Y direction is extracted.

이와같이 그레이 영상을 Y방향에 대하여 윤곽선 추출한 결과의 예로써 제5도의 영상을 Y방향에 대하여 윤곽선 추출하면 제7도와 같은 결과가 된다.As an example of the result of contour extraction in the Y direction as a result of the contour image extraction in the Y direction as shown in FIG.

이후에 상기 X방향의 윤곽선과 Y방향의 윤곽선을 논리합(ORING)하면 제8도와 같이 최종적으로 그레이 영상의 윤곽선이 추출되는 것이다.Thereafter, when ORing the contour in the X direction and the contour in the Y direction, the contour of the gray image is finally extracted as shown in FIG. 8.

한편, 2진 영상의 윤곽선 추출방법은 제11도와 같은 윤곽선 추적방식을 이용한다.On the other hand, the contour extraction method of the binary image uses the contour tracking method as shown in FIG.

즉, 상기 제1 내지 제4도에서 정의된 3×3윈도우의 각 방울 0에서 7까지 8개 방향으로 분류하고 기준점(p)을 중심으로 제11도의 화살표로 표현된 바와같이 각 방향성분을 추적하여 윤곽선을 추출하는 것이다.That is, each droplet of the 3 × 3 window defined in FIGS. 1 through 4 is divided into eight directions from 0 to 7 and each component is traced as represented by the arrow of FIG. 11 around the reference point p. To extract the contour.

제13(a)도 및 제13(b)도는 이와같은 Y방향 추적방식으로 추출한 윤곽선(문자)의 예이다. 도면에서 흑색으로 빗금친 화소가 추출한 윤곽선을 나타내며 그 내부의 백색 화소는 원래의 2진 영상이다.13 (a) and 13 (b) are examples of outlines (characters) extracted by such a Y-direction tracking method. In the figure, the black hatched pixels represent the extracted contours, and the white pixels therein are original binary images.

상기한 바와같이 기존의 윤곽선 추출방법들은 대부분 그레이 영상에서 윤곽선을 추출하기 위한 방법을 제공하는 것이고 2진 영상에서 윤곽선을 추출하는 방법은 대부분 윤곽선 추적방식에 의존한다.As described above, the existing contour extraction methods mostly provide a method for extracting a contour from a gray image, and the method of extracting a contour from a binary image mostly depends on the contour tracking method.

따라서 그레이 영상의 윤곽선 추출방법을 2진 영상의 윤곽선 추출방법에 적용하면 불필요한 연산루틴들이 반복 수행되어 윤곽선 추출에 많은 시간이 소요되는 문제점이 있고 윤곽선 추적방식에서는 3×3윈도우를 일일이 이동시켜 가면서 윤곽선을 검출해야 되는 불편을 감수해야 되었다.Therefore, if the contour extraction method of gray image is applied to the contour extraction method of binary image, unnecessary computation routines are repeatedly performed, which takes a lot of time to extract the contour. In the contour tracking method, the contour is moved by moving 3 × 3 windows one by one. You have to take the inconvenience of detecting it.

또한 윤곽선 추적방식에서는 문자의 두께를 고려하지 않고 있으므로 문자의 두께가 2픽셀(pixel) 또는 그 이하일 경우 윤곽선을 추출하게 되면 차후의 인식단계에서 정확한 특징을 찾기가 어려워지는 문제점이 있다.In addition, since the contour tracking method does not consider the thickness of the character, when the thickness of the character is 2 pixels or less, if the contour is extracted, it is difficult to find an accurate feature in a later recognition step.

제13(a)도는 이의 예를 나타낸 것으로 영문자 A의 가로획이 2픽셀 두께로 나타나 있게 되므로 ("F")차후 윤곽선 추적시에 정확한 추적경로(제11도에서 화살표 경로)를 찾아내기 어렵다.Fig. 13 (a) shows an example of this, and since the horizontal stroke of the letter A is shown to be 2 pixels thick ("F"), it is difficult to find an accurate tracking path (arrow path in Fig. 11) at the next contour tracking.

이는 마주보는 윤곽선이 적어도 1픽셀이상 서로 이격되어 있어야 정확한 윤곽선 추적이 가능하기 때문이다.This is because accurate contour tracking is possible only when the opposite contours are separated from each other by at least one pixel.

또한 종래의 윤곽선 추적방식에서는 인접한 화소(픽셀)와의 상관성을 고려하지 않기 때문에 제13(b)도에 도시된 영문자 W의 경우처럼 함몰부(F)가 있는 영상에서는 그 부분이 선명하게 구분되지 못하고 윤곽선 픽셀(흑색)로 채워지게 되므로 정확한 윤곽선 추출에 장애가 되었다.In addition, since the conventional contour tracking method does not consider correlation with adjacent pixels (pixels), in the image having depressions F as in the case of the English letter W shown in FIG. Filling with contour pixels (black) prevented accurate contour extraction.

또한 종래의 윤곽선 추적방식에서는 한 영상이 여러개의 분리된 영상으로 구성된 경우 예로써 제13도와 같은 영문자의 경우 문자외부의 윤곽선만을 추출한 후 다시 최초단계로 리턴하여 재차 윤곽선 추적을 해야만 완전한 형태의 윤곽선 추출이 가능하다.In addition, in the conventional contour tracking method, when an image is composed of several separated images, for example, in the case of an English letter as shown in FIG. This is possible.

즉, 분리된 영상을 검색하기 위하여 초기 단계부터 영상을 재검색하는 과정이 반복되어야하므로 윤곽선 추출시간이 더욱 길어지게 되는 문제점이 있다.That is, since the process of re-searching the image must be repeated from the initial stage in order to search the separated image, there is a problem in that the contour extraction time becomes longer.

본 발명은 2진 영상의 전 영역에 대하여 1회의 검색을 통해 윤곽선을 추출하며 중심화소 주변의 4개의 방향에 대하여 확장 연산자 윈도우를 정의하고 4개 방향에서 윤곽점을 1차적으로 정의한 후 인접하는 화소를 조사하여 그 인접화소가 이미 윤곽선으로 정의되어 있는가를 판별하며 이 판별 결과에 준하여 최종적인 윤곽점을 정의하므로서 윤곽선 추출시간을 단축시키고 영상의 두께가 2픽셀 이하인 경우에서도 정확한 윤곽선을 추출하며, 정확하고 안정된 특징의 추출이 가능하도록한 2진 영상의 윤곽선 추출방법을 제공함을 목적으로 하며, 이하 제14도 내지 제18도를 참조하여 본 발명에 의한 윤곽선 추출과정을 설명한다.The present invention extracts the contour through one search for the entire area of the binary image, defines the extension operator window in four directions around the center pixel, and defines the contour point in four directions, and then the adjacent pixels. We determine whether the adjacent pixels are already defined as contours, and define the final contour point based on the result of this determination, shortening the contour extraction time and extracting the correct contours even when the image thickness is 2 pixels or less. It is an object of the present invention to provide a method for extracting a contour of a binary image that enables the extraction of a stable feature. Hereinafter, the contour extraction process according to the present invention will be described with reference to FIGS. 14 to 18.

먼저, 본 발명에서 윤곽선을 정의하는 기본 연산자로서 제15도와 같은 3×3윈도우로 구성되는 4이웃점(4-neighbor) 윈도우를 정의한다.First, in the present invention, a 4-neighbor window consisting of 3x3 windows as shown in FIG. 15 is defined as a basic operator for defining an outline.

4이웃점 윈도우는 현재 조사점(p)을 중심으로 4개 방향(우측, 상측, 좌측, 하측)에 조사점(p0, p2, p4, p6)을 정의하고, 각각의 외곽조사점(po, p2, p4, p6) 외곽에 제16도와 같이 확장조사점(r0, r2, r4, r6)을 정의하여 확장 연산자 윈도우를 정의한다.The four-neighbor window defines the survey points (p0, p2, p4, p6) in four directions (right, top, left, and bottom) around the current survey point (p), and each outer survey point (po, The extended operator window is defined by defining extended search points r0, r2, r4 and r6 as shown in FIG. 16 outside p2, p4 and p6).

이와같이 확장 연산자 윈도우를 정의하고 제1단계로 문자영상의 전 영역을 조사하면서 그 픽셀값이 "1"인 픽셀을 검색한다.In this way, the extended operator window is defined, and the first step is to search the entire area of the character image and search for the pixel whose pixel value is "1".

이 단계에서 픽셀값이 "0"인 경우는 조사대상에서 제외시킨다.In this step, the pixel value of "0" is excluded from the investigation.

이어서 제2단계로 현재 조사점을 기준조사점(p)으로 하고 기준조사점(p)을 중심으로 4개 방향에 조사점(p0, r1, p2, r2, p4, r4 p6, r6)을 정의한다.In the second step, the current survey point is defined as the reference survey point (p), and the survey points (p0, r1, p2, r2, p4, r4 p6, r6) are defined in four directions around the reference survey point (p). do.

이어서 제3단계로 1차 외곽조사점(p0, p2, p4, p6)중 적어도 1개의 조사점이 "0"인 경우가 존재하는가를 조사하여 조사점(p0, p2, p4, p6)이 모두 "1"이면 제1단계부터 반복하고, 조사점(p0, p2, p4, p6) 중에서 적어도 1개의 조사점이 "0"인 경우에는 각각의 경우에 대하여 인접한 2차 외곽조사점(r0, r2, r4, r6)이 이미 윤곽점으로 결정되었는가의 여부에 따라 최종적인 윤곽점을 선정한다.Subsequently, in a third step, it is examined whether at least one of the first outer irradiation points p0, p2, p4, and p6 is "0", and all of the irradiation points p0, p2, p4 and p6 are " If it is 1 ", it repeats from a 1st step, and if at least 1 irradiation point is" 0 "among irradiation points p0, p2, p4, and p6, the secondary secondary irradiation point r0, r2, r4 which is adjacent in each case , the final contour point is selected according to whether r6) has already been determined as the contour point.

이 단계는 1차 외곽조사점(p0, p2, p4, p6)과 2차 외곽조사점(r0, r2, r4, r6)을 인접한 조사점 한쌍(p0, r0), (p2, r2), (p4, r4), (p6, r6)씩 상관성을 조사하여 1차 윤곽선 후보가 되는 윤곽점을 결정한 후 최종 윤곽점을 결정한다.This step consists of a pair of adjacent survey points (p0, r0), (p2, r2), (the first outer survey point (p0, p2, p4, p6) and the secondary outer survey points (r0, r2, r4, r6). The correlation points are determined by p4, r4) and (p6, r6), and the final contour points are determined after determining the contour points that are the primary contour candidates.

즉, 제3단계에서 1차 외곽조사점(p0)이 "0"인 경우는 우측 윤곽부를 검출하는 제4단계로서, 1차 외곽조사점(p)과 인접한 2차 외곽조사점(r0)이 이미 윤곽점으로 결정되어 있는가를 판별하고, 판별결과 윤곽점으로 결정되어 있는 경우에는 기준조사점(p)을 최종 윤곽점으로 선정하고, 2차 외곽조사점(r0)이 윤곽점으로 결정되지 않은 경우에는 1차 외곽조사점(p0)을 최종 윤곽점으로 선정한다.That is, in the third step, when the first outer irradiation point p0 is "0", the fourth operation is to detect the right contour, and the second outer irradiation point r0 adjacent to the first outer irradiation point p is If it is already determined as the contour point, and if the determination result is determined as the contour point, the reference survey point (p) is selected as the final contour point, and the secondary outer survey point (r0) is not determined as the contour point. In the following, the first outer survey point (p0) is selected as the final contour point.

한편, 제3단계에서 1차 외곽조사점(p2)이 "0"인 경우는 상측 윤곽부를 검출하는 제5단계로서, 1차 외곽조사점(p2)과 인접한 2차 외곽조사점(r2)이 이미 윤곽점으로 결정되어 있는가를 판별하고, 판별결과 윤곽점으로 결정되어 있는 경우에는 기준조사점(p)을 최종 윤곽점으로 선정하고, 2차 외곽조사점(r2)이 윤곽점으로 결정되지 않은 경우에는 1차 외곽조사점(p2)을 최종 윤곽점으로 선정한다.On the other hand, when the first outer irradiation point (p2) is "0" in the third step is a fifth step of detecting the upper contour, the secondary outer irradiation point (r2) adjacent to the primary outer irradiation point (p2) is If it is already determined as the contour point, and if the determination result is determined as the contour point, the reference survey point (p) is selected as the final contour point, and the secondary outer survey point (r2) is not determined as the contour point. In the following, the first outer survey point (p2) is selected as the final contour point.

한편, 제3단계에서 1차 외곽조사점(p4)이 "0"인 경우는 좌측 윤곽부를 검출하는 제6단계로서, 1차 외곽조사점(p4)과 인접한 2차 외곽조사점(r4)이 이미 윤곽점으로 결정되어 있는가를 판별하고, 판별결과 윤곽점으로 결정되어 있는 경우에는 기준조사점(p)을 최종 윤곽점으로 선정하고, 2차 외곽조사점(r4)이 윤곽점으로 결정되지 않은 경우에는 1차 외곽조사점(p4)을 최종 윤곽점으로 선정한다.On the other hand, in the third step, when the first outer irradiation point p4 is "0", the sixth step of detecting the left contour is a sixth step, and the secondary outer irradiation point r4 adjacent to the primary outer irradiation point p4 is If it is already determined as the contour point, and if the determination result is determined as the contour point, the reference survey point (p) is selected as the final contour point, and the secondary outer survey point (r4) is not determined as the contour point. In the following, the first outer survey point (p4) is selected as the final contour point.

한편, 상기 제3단계에서 1차 외곽조사점(p6)이 "0"인 경우는 하측 윤곽부를 검출하는 제7단계로서, 1차 외곽조사점(p6)과 인접한 2차 외곽조사점(r6)이 이미 윤곽점으로 결정되어 있는가를 판별하고, 판별결과 윤곽점으로 결정되어 있는 경우에는 기준조사점(p)을 최종 윤곽점으로 선정하고, 2차 외곽조사점(r6)이 윤곽점으로 결정되지 않은 경우에는 1차 외곽조사점(p6)을 최종 윤곽점으로 선정한다.On the other hand, in the third step, if the primary outer irradiation point (p6) is "0" as the seventh step of detecting the lower contour, the secondary outer irradiation point (r6) adjacent to the primary outer irradiation point (p6). If it is determined that the contour point is already determined, and if the determination result is determined as the contour point, the reference survey point p is selected as the final contour point, and the secondary outer survey point r6 is not determined as the contour point. In this case, the first outer survey point (p6) is selected as the final contour point.

상기한 바와 같은 과정을 거쳐서 최종 윤곽점을 선정하므로서 문자 함몰부의 선명도를 확보할 수 있고 픽셀 두께에 관계없이 정확한 윤곽선이 추출 가능하다.By selecting the final contour point through the process as described above, it is possible to ensure the sharpness of the letter recessed portion and to extract the correct contour regardless of the pixel thickness.

이와같이 윤곽선이 추출된 문자영상의 예가 제14(a)도 및 제14(b)도에 도시된 영문자 A 및 W의 윤곽선이다.An example of the character image from which the outline is extracted is the outline of the English letters A and W shown in FIGS. 14 (a) and 14 (b).

즉, 제13(a)도와 같이 픽셀두께가 2픽셀 이하인 경우 불분명한 윤곽선이 추출된 종래의 윤곽선 추출방법에 비하여 본 발명은 확장 연산자 윈도우의 최외곽 조사점(r0, r2, r4, r6)을 1회 더 비교하여 최종적인 윤곽점을 선정하므로서 제14(a)도와 같이 두께가 2픽셀 이하인 문자(또는 2진 영상)를 문자의 두께보다 +1만큼의 크기로 윤곽선이 추출되어 정밀한 윤곽선 추출이 가능한 것이다.That is, the present invention compares the outermost irradiation points r0, r2, r4, and r6 of the extension operator window to the conventional contour extraction method in which the unclear contour is extracted when the pixel thickness is 2 pixels or less as shown in FIG. 13 (a). By selecting the final contour point by comparing it once more, as shown in Article 14 (a), the contour (or binary image) having a thickness of 2 pixels or less is extracted to a size of +1 larger than the thickness of the character, so that accurate contour extraction is performed. It is possible.

또한 종래의 윤곽선 추출방법에 의하면 제13(b)도와 같이 함몰부(F)가 윤곽점으로 채워져서 불분명해지는데 비하여 본 발명은 확장 연산자 윈도우의 최외곽 조사점(r0, r2, r4, r6)을 1회 더 비교하여 최종적인 윤곽점을 선정하므로서 제14(b)도와 같이 함몰부가 윤곽점으로 채워지지 않고 선명하게 구분된다.In addition, according to the conventional contour extraction method, as shown in FIG. 13 (b), the depression F is filled with the contour point and becomes unclear, whereas the present invention provides the outermost irradiation points r0, r2, r4, r6 of the extended operator window. By comparing the one more time and selecting the final contour point, as shown in FIG. 14 (b), the depressions are not clearly filled with the contour points and are clearly distinguished.

제17도는 이와같은 윤곽선 추출의 예를 나타낸 것으로 1은 문자의 흑화소를 0은 백화소, 2는 이미 윤곽선으로 추출된 화소를 나타낸 것이다.17 shows an example of such contour extraction, in which 1 represents a black pixel of a character, 0 represents a white pixel, and 2 represents a pixel already extracted as an outline.

현재 h위치를 상기 확장 연산자 윈도우의 기준조사점(p)으로 정의하여 상기한 제1 내지 제7단계의 과정을 수행한다면, 좌측의 1차 조사점(p4)(g위치)이 "0"이므로 제6단계가 적용된다.If the current h position is defined as the reference survey point p of the extended operator window and the above processes of the first to seventh steps are performed, since the first irradiation point p4 (g position) on the left is “0” The sixth step is applied.

이 경우에 기준조사점(p)=1이고 1차 외곽조사점(p4)(g위치)과 인접한 2차 외곽조사점(r4)(f위치)이 r4=2로서 이미 윤곽점으로 결정되어 있으므로 기준조사점(p)이 윤곽점으로 선정되고 이와같이 윤곽점으로 선정된 h위치는 f위치와 1픽셀 거리만큼 이격되게 되어 상기 제14(b)도와 같이 함몰부가 채워지지 않고 선명하게 구분되는 것이다.In this case, the reference survey point p = 1 and the secondary outline search point r4 (f position) adjacent to the primary outline point p4 (g position) is already determined as the contour point as r4 = 2. The reference point p is selected as the contour point, and the h position selected as the contour point is spaced apart by one pixel from the f position, so that the depression is not filled and is clearly distinguished as shown in FIG. 14 (b).

제18도는 본 발명을 수행하는 일반적인 문서 인식 장치의 회로구성을 나타낸 것으로, 윤곽선 추출동작의 실행 조작키이가 구비되어 호우스트 프로세서(2)에 윤곽선 추출을 위한 명령어를 직접 입력시키기 위한 키이보드부(1)와, 기기 전체의 제어를 수행하는 호우스트 프로세스(2)와, 디지탈 신호 처리기(11)에 의해 추출된 문자의 윤곽선을 상기 호우스트 프로세서(2)의 제어를 받아 표시하는 비디오 표시부(3)와, 호우스트 프로세서(2)와 각 시스템(5, 6, 8, 9, 11)을 연결하는 호우스트 인터페이스(4)와, 상기 호우스트 인터페이스(4)와 연결되어 기기 제어에 관련된 데이타가 저장되는 보조기억장치(5)와, 시스템과 스캐너(7)와의 데이타 입력 인터페이스를 담당하는 스캐너 인터페이스(6)와, 입력 영상을 2진 영상으로 읽어들이는 스캐너(7)와, 상기 인터페이스(6)를 통해 스캐너(7)로 읽어들인 영상정보 또는 디지탈 신호 처리기(11)에 의해 추출된 윤곽선 추출정보를 데이타 메모리(10)에 저장하기 위하여 데이타 입출력을 담당하는 버퍼(8) 및 메모리 어드레스를 지정하는 어드레스 디코더(9)와, 스캐닝된 영상정보와 윤곽선 추출정보가 상기 버퍼(8)를 통해 저장되고 출력되는 데이타 메모리(10)와, 상기 데이타 메모리(10)에 저장된 개별 문자영상을 버퍼(8)를 통해 읽어와서 디지탈 신호 처리하여 윤곽선을 포함하는 특징을 추출하고, 이를 다시 버퍼(8)를 통해 데이타 메모리(10)에 저장하는 디지탈 신호 처리기(11)로 구성된다.18 is a circuit diagram of a general document recognizing apparatus for carrying out the present invention, and includes a keyboard unit for directly inputting a command for contour extraction to the host processor 2 having an execution operation key for contour extraction. 1), a hoist process 2 for performing control of the entire apparatus, and a video display unit 3 for displaying contours of characters extracted by the digital signal processor 11 under the control of the hoist processor 2; ), A host interface 4 connecting the host processor 2 and each of the systems 5, 6, 8, 9, and 11, and data associated with device control by connecting to the host interface 4; A secondary storage device 5 to be stored, a scanner interface 6 that is responsible for a data input interface between the system and the scanner 7, a scanner 7 that reads an input image as a binary image, and the interface 6 ) In order to store the image information read into the scanner 7 or the contour extraction information extracted by the digital signal processor 11 in the data memory 10, an address for designating a buffer 8 and a memory address in charge of data input / output A decoder 9, a data memory 10 in which scanned image information and contour extraction information are stored and output through the buffer 8, and an individual character image stored in the data memory 10 is buffered. The digital signal processor 11 includes a digital signal processor 11 that reads through the digital signal, extracts a feature including an outline, and stores the contour in the data memory 10 through the buffer 8.

이와같이 구성된 장치에 의하여 수행되는 윤곽선 추출동작은 상기한 제1 내지 제7단계에 의한 것으로, 사용자가 키이보드부(1)를 조작하여 윤곽선 추출을 지시하는 키이 명령을 입력시키면 호우스트 프로세서(2)가 이를 인식하고 호우스트 인터페이스(4)를 통해 데이타, 어드레스, 스트로브 신호(D,A, DS, IS, MS) 등을 출력하여 스캐너 인터페이스(6)와 버퍼(8), 어드레스 디코더(9), 디지탈 신호처리기(11)를 제어하며, 제어에 필요한 데이타는 보조 기억장치(5)에 저장해둔다.The contour extraction operation performed by the apparatus configured as described above is performed by the first to seventh steps, and when the user inputs a key command for instructing contour extraction by manipulating the keyboard unit 1, the host processor 2 Recognizes this and outputs data, address, strobe signals (D, A, DS, IS, MS) through the host interface 4, and the scanner interface 6, buffer 8, address decoder 9, The digital signal processor 11 is controlled, and the data necessary for the control is stored in the auxiliary memory device 5.

먼저, 인에이블, 스트로브 신호(ENB, ST)를 출력하여 스캐너(7)로 문서를 스캐닝하여 2진 영상을 읽어들이고, 그 스캐닝된 영상정보는 스캐너 인터페이스(6)의 데이타 출력단(D)을 거쳐 버퍼(8)를 통해 어드레스 디코더(9)가 지정하는 데이타 메모리(10)의 소정 어드레스(A)에 저장시킨다.First, enable and strobe signals ENB and ST are output to scan a document with a scanner 7 to read a binary image, and the scanned image information is passed through the data output terminal D of the scanner interface 6. The buffer 8 stores the data at the predetermined address A of the data memory 10 designated by the address decoder 9.

2진 영상 데이타를 데이타 메모리(10)에 저장하였으면 디지탈 신호 처리기(11)는 데이타 메모리(10)에 저장된 개별 문자영상 정보를 다시 버퍼(8)를 통해 읽어와서 디지탈 신호처리기(11)에서 상기 제1 내지 제7단계의 2진 영상 윤곽선 추출과정을 실행하며, 이 실행 결과로 추출된 윤곽선 정보를 다시 버퍼(8)를 통해 데이타 메모리(10)에 저장한다.When the binary image data is stored in the data memory 10, the digital signal processor 11 reads the individual character image information stored in the data memory 10 through the buffer 8 again and the digital signal processor 11 reads the second image data. A binary image contour extraction process of steps 1 to 7 is executed, and the contour information extracted as a result of the execution is stored in the data memory 10 through the buffer 8 again.

이와같이 하여 데이타 메모리(10)에 저장된 윤곽선 영상정보는 호우스트 프로세서(2)에서 인터페이스(4)와 버퍼(8) 및 어드레스 디코더(9)를 통해 읽어와서 비디오 표시부(3)에 표시가능하다.In this way, the contour image information stored in the data memory 10 can be read by the host processor 2 through the interface 4, the buffer 8, and the address decoder 9 and displayed on the video display unit 3. FIG.

이상에서 설명한 바와같이 본 발명에 의하면 종래의 윤곽선 추적방식에 의하여 1회의 스캐닝으로 완료되므로 고속으로 윤곽선 추출을 수행할 수 있고, 문자의 픽셀 두께보다 +1만큼의 크기로 윤곽선을 추출하므로 영상의 두께가 2픽셀 이하인 경우에도 정확하고 선명한 윤곽선 추출이 가능하며 특히 문자인식 시스템에 적용되는 경우 정확하고 안정된 특징을 추출할 수 있는 효과가 있다.As described above, according to the present invention, since the scanning is completed in one time by the conventional contour tracking method, the contour extraction can be performed at high speed, and the thickness of the image is extracted by extracting the contour by the size of +1 than the pixel thickness of the character. Even if the size is less than 2 pixels, accurate and clear outline extraction is possible, and especially when applied to a character recognition system, it is effective to extract accurate and stable features.

Claims (8)

영상의 윤곽선을 추출할 현재 화소를 기준조사점(p)으로 하고, 기준조사점(p)과 인접한 4개 방향(우측, 상측, 좌측, 하측)의 화소에 대응되는 1차 외곽조사점(p0, p2, p4, p6) 및 이와 인접한 화소에 대응되는 2차 외곽조사점(r0, r2, r4, r6)을 정의하여 확장 연산자 윈도우를 정의하고, 확장 연산자 윈도우를 현재 화소에 대응시켜 인접한 조사점과의 상관성 비교 검증을 통해 조사점(p0, p2, p4, p6)중에서 최종적인 윤곽점을 선정하는 것을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The current pixel from which the contour of the image is to be extracted is the reference irradiation point p, and the first outer irradiation point p0 corresponding to the pixels in four directions (right, upper, left, and bottom) adjacent to the reference irradiation point p. , p2, p4, p6) and the secondary outer survey points (r0, r2, r4, r6) corresponding to the adjacent pixels are defined to define the extended operator window, and the extended operator window corresponds to the current pixel A method for extracting the contour of a binary image, characterized in that the final contour point is selected from the survey points (p0, p2, p4, p6) by comparing and verifying the correlation. 제1항에 있어서, 인접한 조사점과의 상관성은 1차 외곽조사점(p0, p2, p4, p6)과 인접한 2차 외곽조사점(r0, r2, r4, r6)이 이미 윤곽점으로 선정되었는가의 여부로 판단함을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method of claim 1, wherein the correlation with the adjacent irradiation point is whether the first outer irradiation point (p0, p2, p4, p6) and the adjacent secondary irradiation point (r0, r2, r4, r6) are already selected as contour points. Contour extraction method of a binary image, characterized in that determined by. 제1항에 있어서, 인접한 조사점의 비교 검증은 동일한 방향에 정의되고 서로 인접한 1차 및 2차 외곽 조사점(p0, p2, p4, p6, r0, r2, r4, r6)을 한쌍 (p0, r0), (p2, r2), (p4, r4), (p6, r6)으로 각각 조사하여 최종적인 윤곽선을 선정하는 것을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method of claim 1, wherein the comparative verification of adjacent irradiation points is defined in the same direction and pairs (p0, p2, p4, p6, r0, r2, r4, r6) adjacent to each other. r0), (p2, r2), (p4, r4), and (p6, r6), respectively, to determine the final contour. 제3항에 있어서, 한쌍의 1차 및 2차 외곽조사점(p0, r0), (p2, r2), (p4, r4), (p6, r6)에 대하여 1차 외곽조사점(p0, p2, p4, p6)이 백화소(픽셀값=0)인 경우를 조사하고 그 결과에 따라 기준조사점(p) 또는 1차 외곽조사점(p0, p2, p4, p6)과 쌍을 이루는 2차 외곽조사점(r0, r2, r4, r6) 중에서 최종적인 윤곽점을 선정함을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method of claim 3, wherein the primary outline point (p0, p2) with respect to the pair of primary and secondary outline points (p0, r0), (p2, r2), (p4, r4), (p6, r6) , p4, p6) is the case of white pixel (pixel value = 0), and the secondary paired with the reference point (p) or the first outer point (p0, p2, p4, p6) according to the result A method for extracting the contour of a binary image, characterized by selecting a final contour point from the outer survey points r0, r2, r4, and r6. 제4항에 있어서, 기준조사점(p) 우측의 1차 외곽조사점(p0)이 백화소인 경우는 이와 쌍을 이루는 2차 외곽조사점(r0)이 이미 윤곽점으로 선정되었는가를 판별하여 2차 외곽조사점(r0)이 윤곽점이면 기준조사점(p)을 윤곽점으로 선정하고, 2차 외곽조사점(r0)이 윤관점으로 선정되지 않은 경우에는 1차 외곽조사점(p0)을 윤곽점으로 선정함을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method according to claim 4, wherein when the primary outer survey point p0 on the right side of the reference survey point p is a department, it is determined whether the secondary outer survey point r0 paired with this is already selected as the contour point. If the secondary outline point (r0) is a contour point, the reference point (p) is selected as the outline point. If the secondary outline point (r0) is not selected as the contour point, the primary outline point (p0) is selected. Contour extraction method of a binary image, characterized in that the selection as the contour point. 제4항에 있어서, 기준 조사점(p)상측의 1차 외곽조사점(p2)이 백화소인 경우는 이와 쌍을 이루는 2차 외곽조사점(r2)이 이미 윤곽점으로 선정되었는가를 판별하여 2차 외곽조사점(r2)이 윤곽점이면 기준조사점(p)을 윤곽점으로 선정하고, 2차 외곽조사점(r2)이 윤곽점으로 선정되지 않은 경우에는 1차 외곽조사점(p2)을 윤곽점으로 선정함을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method according to claim 4, wherein when the primary outer survey point p2 above the reference survey point p is a department, it is determined whether the secondary outer survey point r2 paired with this is already selected as the contour point. If the secondary outline point (r2) is a contour point, the reference point (p) is selected as the outline point. If the secondary outline point (r2) is not selected as the outline point, the primary outline point (p2) is selected. Contour extraction method of a binary image, characterized in that the selection as the contour point. 제4항에 있어서, 기준조사점(p)좌측의 1차 외곽조사점(p4)이 백화소인 경우는 이와 쌍을 이루는 2차 외곽 조사점(r4)이 이미 윤곽점으로 선정되었는가를 판별하여 2차 외곽조사점(r4)이 윤곽점이면 기준조사점(p)을 윤곽점으로 선정하고, 2차 외곽조사점(r4)이 윤곽점으로 선정되지 않은 경우에는 1차 외곽조사점(p4)을 윤곽점으로 선정함을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method according to claim 4, wherein when the first outer survey point p4 on the left side of the reference survey point p is a white pixel, it is determined whether the secondary outer survey point r4 paired with this is already selected as an outline point. If the secondary outline point (r4) is a contour point, the reference point (p) is selected as the outline point, and if the secondary outline point (r4) is not selected as the outline point, the primary outline point (p4) is selected. Contour extraction method of a binary image, characterized in that the selection as the contour point. 제4항에 있어서, 기준조사점(p)좌측의 1차 외곽조사점(p6)이 백화소인 경우에는 이와 쌍을 이루는 2차 외곽조사점(r6)이 이미 윤곽점으로 선정되었는가를 판별하여 2차 외곽조사점(r6)이 윤곽점이면 기준조사점(p)을 윤곽점으로 선정하고, 2차 외곽조사점(r6)이 윤곽점으로 선정되지 않은 경우에는 1차 외곽조사점(p6)을 윤곽점으로 선정함을 특징으로 하는 2진 영상의 윤곽선 추출 방법.The method according to claim 4, wherein if the primary outer survey point (p6) on the left side of the reference survey point (p) is a departmental pixel, it is determined whether the secondary outer survey point (r6) paired with this is already selected as the contour point. If the secondary outline point (r6) is a contour point, the reference point (p) is selected as the outline point, and if the secondary outline point (r6) is not selected as the outline point, the primary outline point (p6) is selected. Contour extraction method of a binary image, characterized in that the selection as the contour point.
KR1019910024187A 1991-12-24 1991-12-24 Method of extracting the image contour from binary image signal KR940011699B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019910024187A KR940011699B1 (en) 1991-12-24 1991-12-24 Method of extracting the image contour from binary image signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019910024187A KR940011699B1 (en) 1991-12-24 1991-12-24 Method of extracting the image contour from binary image signal

Publications (2)

Publication Number Publication Date
KR930015745A KR930015745A (en) 1993-07-24
KR940011699B1 true KR940011699B1 (en) 1994-12-23

Family

ID=19325856

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019910024187A KR940011699B1 (en) 1991-12-24 1991-12-24 Method of extracting the image contour from binary image signal

Country Status (1)

Country Link
KR (1) KR940011699B1 (en)

Also Published As

Publication number Publication date
KR930015745A (en) 1993-07-24

Similar Documents

Publication Publication Date Title
US5048107A (en) Table region identification method
US5799115A (en) Image filing apparatus and method
KR100411697B1 (en) Character reading method and address reading method
EP0807297B1 (en) Method and apparatus for separating foreground from background in images containing text
US4817171A (en) Pattern recognition system
EP0063454A2 (en) Method for recognizing machine encoded characters
US5075895A (en) Method and apparatus for recognizing table area formed in binary image of document
JPH0721320A (en) Automatic determination device of script
JPH0721319A (en) Automatic determination device of asian language
US5050224A (en) Character recognition apparatus
CN111126266A (en) Text processing method, text processing system, device, and medium
US4769849A (en) Method and apparatus for separating overlapping patterns
EP0594061B1 (en) Apparatus for verifying a container code
JP3571128B2 (en) Method and apparatus for recognizing dimensions of drawings
US5119441A (en) Optical character recognition apparatus and method using masks operation
KR940011699B1 (en) Method of extracting the image contour from binary image signal
US6208756B1 (en) Hand-written character recognition device with noise removal
KR100229810B1 (en) Method for searching image database
JP3164835B2 (en) Pre-processing method and post-processing method in human image recognition
JP2674475B2 (en) Character reader
JPH03219384A (en) Character recognizing device
JPH08272980A (en) Closed area extracting device
JPH07160810A (en) Character recognizing device
KR100239354B1 (en) Recognizing method of low quality korean character having noise image
JPH02166583A (en) Character recognizing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee