KR19990016302A - How to recognize documents in chart form - Google Patents

How to recognize documents in chart form Download PDF

Info

Publication number
KR19990016302A
KR19990016302A KR1019970038821A KR19970038821A KR19990016302A KR 19990016302 A KR19990016302 A KR 19990016302A KR 1019970038821 A KR1019970038821 A KR 1019970038821A KR 19970038821 A KR19970038821 A KR 19970038821A KR 19990016302 A KR19990016302 A KR 19990016302A
Authority
KR
South Korea
Prior art keywords
chart
extracted
extracting
recognition
recognizing
Prior art date
Application number
KR1019970038821A
Other languages
Korean (ko)
Other versions
KR100259804B1 (en
Inventor
정영태
Original Assignee
구자홍
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자 주식회사 filed Critical 구자홍
Priority to KR1019970038821A priority Critical patent/KR100259804B1/en
Publication of KR19990016302A publication Critical patent/KR19990016302A/en
Application granted granted Critical
Publication of KR100259804B1 publication Critical patent/KR100259804B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Input (AREA)

Abstract

본 발명은 OCR이나 서식 문서 인식 시스템에서 수직선과 수평선 등으로 이루어진 도표 서식을 인식하기 위한 도표 형태의 문서 인식 방법에 관한 것으로, 종래에는 프로젝선 프로파일 기법을 사용하게 되면 시간이 많이 소비되고, 깨끗하고 정확하지 않은 표 영상의 선이 흐리거나 군데군데 소실되거나 잡음이 많은 영상에서는 선이 제대로 추출되지 않는 등의 여러 가지 문제점이 있다. 따라서 본 발명은 특정 마스크에 의한 오프닝 기법을 이용하여 선 성분을 추출하는 제1단계와, 상기 제1단계에서 추출된 선 성분으로 부터 방향성분을 갖는 특징점을 추출하는 제2단계와, 상기 제2단계에서 추출한 특징점을 이용하여 도표를 재구성하는 제3단계와, 상기 제3단계에서 재구성한 도표의 셀을 추출하여 내부 항목을 인식하는 제4단계를 수행하도록 하여, OCR이나 전표등 표가 포함된 문서의 인식 성능을 향상시키고, 신용카드 자동 인식, 은행 전표 자동 인식 등 전표 인식에 아주 좋은 효과가 있도록 한 것이다.The present invention relates to a document recognition method in the form of a chart for recognizing a chart format consisting of vertical lines and horizontal lines in an OCR or a form document recognition system. There are a variety of problems such as inaccurate table image lines that are blurry, missing, or noisy. Accordingly, the present invention provides a first step of extracting a line component using an opening technique using a specific mask, a second step of extracting feature points having a direction component from the line component extracted in the first step, and the second step. The third step of reconstructing the chart using the feature points extracted in the step and the fourth step of recognizing the internal items by extracting the cells of the chart reconstructed in the third step are performed. It improves the recognition performance of documents and has a very good effect on document recognition such as automatic credit card recognition and bank slip automatic recognition.

Description

도표 형태의 문서 인식 방법How to recognize documents in chart form

본 발명은 OCR이나 서식 문서 인식 시스템에서 수직선과 수평선 등으로 이루어진 도표와 서식을 인식하는 방법에 관한 것으로, 특히 오프닝 기법을 이용하여 선을 추출하고 방향성분을 가진 특징점을 추출하여 도표를 정확하게 재구성하도록 한 도표 형태의 문서 인식 방법에 관한 것이다.The present invention relates to a method for recognizing a chart and a form consisting of vertical lines and horizontal lines in an OCR or a form document recognition system. A method of document recognition in the form of a table.

도 1은 종래 도표 형태의 문서 인식 방법에 대한 동작 과정도로서, 이에 도시된 바와같이, 입력되는 이진 영상에 대하여 수직방향과 수평방향의 누적 흑화소를 구하여 선을 추출하는 제1단계와, 상기 제1단계에서 추출한 선을 이용하여 표의 레이아웃을 구성하는 제2단계와, 상기 제2단계에서 구성한 다음 각 셀 내부의 항목을 추출하여 인식하는 제3단계로 이루어진다.1 is a flowchart illustrating a method of recognizing a document in a conventional chart form. As shown in FIG. 1, a first step of extracting lines by obtaining accumulated black pixels in a vertical direction and a horizontal direction with respect to an input binary image, and The second step of configuring the layout of the table using the lines extracted in the first step, and the third step of extracting and recognizing items in each cell after the configuration in the second step.

이와같이 각 단계로 이루어진 종래 기술에 대하여 살펴보면 다음과 같다.Looking at the prior art made of each step as follows.

스캐너를 통해 입력되는 이진 영상에 대하여 표의 수직 방향과 수평 방향의 누적 흑화소를 구하여 선을 추출한다.(S11)With respect to the binary image input through the scanner, the black line is extracted by extracting the accumulated black pixels in the vertical and horizontal directions of the table.

이와같이 누적 흑화소를 구하여 선을 추출하는 것이 프로젝션 프로파일(Projection Profile)이다.In this way, a projection profile is obtained by extracting a line by obtaining a cumulative black pixel.

이것을 재귀적으로 수행하면 수직선과 수평선을 추출할 수 있다.Doing this recursively extracts the vertical and horizontal lines.

상기 S11단계에서 추출한 선을 이용하여 표의 레이아웃을 구성한다.(S12)The layout of the table is constructed using the lines extracted in the step S11. (S12)

상기 S12단계에서와 같이 표의 레이아웃을 구성한 다음 각 셀 내부의 항목을 추출한다.As in step S12, the layout of the table is configured, and then the items inside each cell are extracted.

이렇게 추출한 항목을 인식한다.Recognize this extracted item.

이상에서와 같은 과정을 통하여 추출 인식하여 표를 분석하고, 재구성할 수 있다.Through the same process as above, it is possible to analyze and reconstruct the table by extracting and recognizing it.

그러나, 상기에서와 같은 종래기술에서 프로젝선 프로파일 기법을 사용하게 되면 시간이 많이 소비되고, 깨끗하고 정확하지 않은 표 영상의 선이 흐리거나 군데군데 소실되거나 잡음이 많은 영상에서는 선이 제대로 추출되지 않는 등의 여러 가지 문제점이 있다.However, the use of the projection line profile technique in the prior art as described above is time consuming, and lines of clean and inaccurate table images are blurry, missing, or noisy. There are various problems.

따라서 상기에서와 같은 종래 문제점을 해결하기 위한 본 발명의 목적은 OCR이나 전표등 표가 포함된 문서의 인식 성능을 획기적으로 개선하도록 한 도표 형태의 문서 인식 방법을 제공함에 있다.Accordingly, an object of the present invention for solving the conventional problems as described above is to provide a document recognition method in the form of a chart to significantly improve the recognition performance of a document containing a table such as OCR or slips.

본 발명의 다른 목적은 오프닝(Opening) 기법을 이용하여 선을 추출하고 방향성분을 가진 특징점을 추출하여 도표를 정확하게 재구성하도록 한 도표 형태의 문서 인식 방법에 관한 것이다.Another object of the present invention relates to a method of recognizing a document in a tabular form to extract a line using an opening technique and extract a feature point having a direction component to accurately reconstruct the chart.

도 1은 종래 도표 형태의 문서 인식 방법에 대한 동작 과정도.1 is a flowchart of a method of recognizing a document in a conventional chart form.

도 2는 본 발명 도표 형태의 문서 인식 방법에 대한 동작 과정도.2 is a flowchart illustrating a method of recognizing a document in the form of a chart of the present invention.

도 3은 도 2에서, 오프닝(Opening) 기법을 이용한 선 성분 추출 상태를 보여주는 설명도.FIG. 3 is an explanatory diagram showing a line component extraction state using an opening technique in FIG. 2; FIG.

도 4는 도 2에서, 아홉 가지 종류의 특징점을 보여주는 설명도.4 is an explanatory diagram showing nine kinds of feature points in FIG.

도 5는 도 4에서, 방향점의 조합에 따른 특징점의 종류를 나타내는 도표.FIG. 5 is a diagram illustrating types of feature points according to a combination of direction points in FIG. 4. FIG.

도 6은 도 4 및 도 5를 이용하여 추출한 특징점으로 구성한 망을 보여주는 설명도.6 is an explanatory diagram showing a network composed of feature points extracted using FIGS. 4 and 5;

상기 목적을 달성하기 위한 본 발명은 특정 마스크에 의한 오프닝 기법을 이용하여 선 성분을 추출하는 제1단계와, 상기 제1단계에서 추출된 선 성분으로 부터 방향성분을 갖는 특징점을 추출하는 제2단계와, 상기 제2단계에서 추출한 특징점을 이용하여 도표를 재구성하는 제3단계와, 상기 제3단계에서 재구성한 도표의 셀을 추출하여 내부 항목을 인식하는 제4단계를 수행하도록 한 것을 특징으로 한다.The present invention for achieving the above object is a first step of extracting a line component using an opening technique by a specific mask, and a second step of extracting a feature point having a direction component from the line component extracted in the first step And a third step of reconstructing the chart using the feature points extracted in the second step, and a fourth step of recognizing internal items by extracting the cells of the chart reconstructed in the third step. .

이하, 첨부한 도면에 의거하여 상세히 살펴보면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명 도표 형태의 문서 인식 방법에 대한 동작 과정도로서, 이에 도시한 바와 같이, 특정 마스크에 의한 오프닝 기법을 이용하여 선 성분을 추출하는 제1단계와, 상기 제1단계에서 추출된 선 성분으로 부터 방향성분을 갖는 특징점을 추출하는 제2단계와, 상기 제2단계에서 추출한 특징점을 이용하여 도표를 재구성하는 제3단계와, 상기 제3단계에서 재구성한 도표의 셀을 추출하여 내부 항목을 인식하는 제4단계를 수행하도록 하는 제5단계로 이루어진다.FIG. 2 is a flowchart illustrating a method of recognizing a document in a chart form according to the present invention. As shown in FIG. 2, a first step of extracting a line component using an opening technique using a specific mask and a step extracted from the first step A second step of extracting a feature point having a direction component from a line component, a third step of reconstructing a chart using the feature points extracted in the second step, and extracting a cell of the chart reconstructed in the third step A fifth step is performed to perform the fourth step of recognizing the item.

상기에서와 같이 각 단계로 이루어진 본 발명의 동작 및 작용효과에 대하여 상세히 설명하면 다음과 같다.Referring to the operation and effect of the present invention made of each step as described above in detail as follows.

스캐너를 통해 이진 영상의 표가 입력되면, 그 입력된 이진 영상에 대하여 오프닝(Opening) 기법을 적용한다.When a table of binary images is input through a scanner, an opening technique is applied to the input binary images.

상기 오프닝 기법은 이로우젼(Erosion) 기법 후에 다일레이션(Dilation) 기법을 적용하는 것을 말한다.The opening technique refers to the application of the dilation technique after the erosion technique.

상기 이로우젼 기법은 특정한 마스크를 영상 위에 놓아서 마스크가 그 영상에 포함되면 마스크의 중심점에 표시를 하는 방법이고, 다일레이션 기법은 영상의 각 흑화소에 대하여 특정한 마스크의 모양대로 채워주는 방법이다.The erosion technique is a method of placing a specific mask on an image and marking the center point of the mask when the mask is included in the image. The dilation technique is a method of filling a specific mask with respect to each black pixel of the image.

따라서, 긴 선분 모양의 마스크를 사용하여 이로우젼 기법 후 다일레이션 기법을 수행하면, 영상에서 그 선분 모양에 해당되는 부분만 남게 되고 나머지는 제거된다.Therefore, when the dilation technique is performed after the erasure technique using a long segment mask, only a part corresponding to the segment shape remains in the image and the rest is removed.

또한 원본 영상에서 중간 준간 끊어진 선 부분도 채워지게 된다.In addition, the middle part of the broken line in the original image is filled.

따라서 수평 선분 모양의 마스크와 수직 선분 모양의 마스크를 사용하면, 수평선과 수직선 성분만이 남아 있는 영상을 얻을 수 있다.Therefore, by using a horizontal segment mask and a vertical segment mask, an image in which only horizontal and vertical components remain.

즉, 도 3에서와 같이, 오프닝 기법을 이용한 선 성분이 추출된다.(S101)That is, as shown in FIG. 3, the line component using the opening technique is extracted.

상기 S101 단계에서 추출된 선 성분으로 부터 외곽선을 추출한다.The outline is extracted from the line component extracted in step S101.

외곽선에 대하여 도 4에서 1과 같은 선의 좌측과 상측(이하, 좌상(a)이라 약칭함), 도 4에서 4와 같은 선의 좌측과 하측(이하, 좌하(b)라 약칭함), 도 4에서 2와 같은 선의 우측과 상측(이하, 우상(c)이라 약칭함), 도 4에서 3과 같은 선의 우측과 하측(이하, 우하(d)라 약칭함)의 네 가지 종류의 코너를 추출한다.(S102)4, the left and upper sides (hereinafter, abbreviated as upper left (a)) of the line as shown in FIG. 4, the left and lower sides (hereinafter, abbreviated as lower left (b)) as shown in FIG. 4, and FIG. Four types of corners are extracted: the right side and the upper side (hereinafter, abbreviated as upper right c) in FIG. (S102)

상기에서와 같이 추출한 네 가지 코너의 조합으로 도 4에서와 같은 방향 성분을 가진 특징점의 종류를 정할 수 있다.The combination of the four corners extracted as described above may determine the type of the feature point having the direction component as shown in FIG. 4.

즉, 특징점 1,2,3,4는 코너 그 자체로서 이루어진 점이고, 특징점 5,6,7,8은 접함점으로서 코너 두 개가 포함된 것이고, 특징점 9는 교차점으로서 코너가 두 개 이상 포함된 것이다.That is, the feature points 1, 2, 3, and 4 are points formed by the corners themselves, and the feature points 5, 6, 7, and 8 are the tangent points and include two corners. .

이와같이 코너의 조합에 따른 특징점의 종류는 도 5의 표에 나타난 바와 같다.As described above, the types of the feature points according to the combination of the corners are as shown in the table of FIG. 5.

예를 들면, 특징점 9는, 첫 번째는 좌상과 우하로 이루어진 경우(a,d), 두 번째는 좌하와 우상으로 이루어진 경우(b,c), 세 번째는 좌상과 좌하 그리고 우상으로 이루어진 경우(a,b,c), 네 번째는 좌하와 우상 그리고 우하로 이루어진 경우(b,c,d), 다섯 번째는 우상과 우하 그리고 좌상으로 이루어진 경우(c,d,a), 여섯 번째는 우하와 좌상 그리고 좌하로 이루어진 경우(d,a,b), 일곱 번째는 좌상과 좌하와 우상 그리고 우하로 이루어진 경우(a,b,c,d)로 경우로, 7가지로 고려할 수 있다.For example, feature point 9 is the first consisting of upper left and lower right (a, d), the second consisting of lower left and upper right (b, c), and the third consisting of upper left, lower left and upper right ( a, b, c), the fourth consists of the lower left and the upper right and the lower right (b, c, d), the fifth the upper right and the lower right and the upper left (c, d, a), the sixth the lower right and The seventh case is composed of upper left and lower left (d, a, b), and the seventh case consists of upper left and lower left and upper right and lower right (a, b, c, d).

따라서, 상기 S102단계에서 구한 방향 성분을 가진 특징점을 이용하여 망을 구성한다.(S103)Therefore, a network is constructed using the feature points having the direction component obtained in step S102.

상기 각 특징점은 자신의 위치와 좌, 우, 상, 하와 같은 이웃 특징점의 정보를 갖는다.Each feature point has its own location and information of neighboring feature points such as left, right, up and down.

따라서 원본 영상에서 부터 빠진 특징점은 앞서 구성한 망의 정보를 최대한 활용하여 복원할 수 있다.Therefore, the feature points missing from the original image can be restored by making the most of the network information.

완성된 망은 표의 완벽한 레이아웃 이라고 할 수 있다.The finished net is the perfect layout of the table.

이 레이아웃을 이용하여 표를 언제든 원하는 때에 정확한 모양과 위치로 재구성할 수 있다.You can use this layout to reorganize the table at any time and into the exact shape and location you want.

도 6은 도 3을 구성한 표의 망을 보여준다.FIG. 6 shows a network of the table constituting FIG. 3.

이렇게 하여 표의 레이아웃 까지의 종료되면, 마지막으로 각 셀에 대하여 프로젝션 프로파일(Projection Profile) 또는 커넥티드 컴포넌트(Connected Component) 기법을 이용하여 필요한 각 항목을 추출한다.In this way, when the layout of the table is finished, each item necessary for each cell is extracted by using a projection profile or a connected component technique.

상기 각 항목의 추출이 끝나면, 그 추출된 항목은 인식기로 넘어가 인식된다.(S104)When the extraction of each item is finished, the extracted item is transferred to the recognizer and recognized (S104).

이상에서와 같이 선 성분을 추출하고, 이 추출한 선 성분으로 부터 특징점을 추출하여 표의 레이아웃을 구성한 후 각 셀에 대하여 필요한 항목을 추출하여 인식기로 보내 인식하도록 한다.As described above, a line component is extracted, and feature points are extracted from the extracted line components to form a table layout, and necessary items for each cell are extracted and sent to a recognizer.

상술한 바와 같이, 본 발명은 선 성분의 특징점을 이용하여 표의 레이아웃을 구성하도록 함으로써 표 형태 문서의 분석과 인식 성능을 향상시키고, 또한 신용카드 자동 인식, 은행 전표 자동 인식 등 전표 인식에 아주 좋은 효과가 있다.As described above, the present invention improves the analysis and recognition performance of the tabular document by configuring the layout of the table using the feature points of the line component, and also has a very good effect on the document recognition such as automatic credit card recognition and automatic bank slip recognition. There is.

Claims (2)

특정 마스크에 의한 오프닝 기법을 이용하여 선 성분을 추출하는 제1단계와, 상기 제1단계에서 추출된 선 성분으로 부터 방향성분을 갖는 특징점을 추출하는 제2단계와, 상기 제2단계에서 추출한 특징점을 이용하여 도표를 재구성하는 제3단계와, 상기 제3단계에서 재구성한 도표의 셀을 추출하여 내부 항목을 인식하는 제4단계로 이루어진 것을 특징으로 하는 도표 형태의 문서 인식 방법.A first step of extracting a line component using an opening technique by a specific mask, a second step of extracting a feature point having a direction component from the line component extracted in the first step, and a feature point extracted in the second step And a fourth step of reconstructing the table using the second step, and a fourth step of recognizing the internal items by extracting the cells of the table reconstructed in the third step. 제1항에 있어서, 방향 성분을 갖는 특징점은 선의 좌측과 상측, 좌측과 하측, 우측과 상측 및 우측과 하측의 네 가지 종류의 코너를 이용하여 추출하는 것을 특징으로 하는 도표 형태의 문서 인식 방법.The method of claim 1, wherein the feature point having a direction component is extracted using four types of corners: left and top, left and bottom, right and top, and right and bottom of the line.
KR1019970038821A 1997-08-14 1997-08-14 Letter cognition method for guidepost shape KR100259804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970038821A KR100259804B1 (en) 1997-08-14 1997-08-14 Letter cognition method for guidepost shape

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970038821A KR100259804B1 (en) 1997-08-14 1997-08-14 Letter cognition method for guidepost shape

Publications (2)

Publication Number Publication Date
KR19990016302A true KR19990016302A (en) 1999-03-05
KR100259804B1 KR100259804B1 (en) 2000-06-15

Family

ID=19517477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970038821A KR100259804B1 (en) 1997-08-14 1997-08-14 Letter cognition method for guidepost shape

Country Status (1)

Country Link
KR (1) KR100259804B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100466370B1 (en) * 2001-02-28 2005-01-14 닛본 덴끼 가부시끼가이샤 Method and apparatus for detecting character frames using voting process

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102161053B1 (en) 2013-09-06 2020-09-29 삼성전자주식회사 Method and apparatus for generating structure of table in images
KR20240025766A (en) 2022-08-19 2024-02-27 동의대학교 산학협력단 Method and system for recognizing document that including table structure

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100466370B1 (en) * 2001-02-28 2005-01-14 닛본 덴끼 가부시끼가이샤 Method and apparatus for detecting character frames using voting process

Also Published As

Publication number Publication date
KR100259804B1 (en) 2000-06-15

Similar Documents

Publication Publication Date Title
CN112348783B (en) Image-based person identification method and device and computer-readable storage medium
JP4646797B2 (en) Image processing apparatus, control method therefor, and program
JP2940936B2 (en) Tablespace identification method
CN105528614B (en) A kind of recognition methods of the cartoon image space of a whole page and automatic recognition system
Antonacopoulos et al. Document image analysis for World War II personal records
US20020085243A1 (en) Document processing apparatus and method
EP0843275A2 (en) Pattern extraction apparatus and method for extracting patterns
JPH03119486A (en) Method of compressing information included in entered form for storage or transfer
US6785420B2 (en) Method and apparatus for table recognition, apparatus for character recognition, and computer product
JP3204259B2 (en) Character string extraction method, handwritten character string extraction method, character string extraction device, and image processing device
CA2401065C (en) Document matching and annotation lifting
CN103377462A (en) Method and device for processing scanned image
JPH0863546A (en) Information extracting method, method and system for recovering picture
JP4077094B2 (en) Color document image recognition device
CN112861736B (en) Document table content identification and information extraction method based on image processing
CN112070649A (en) Method and system for removing specific character string watermark
JP2000207489A (en) Character extracting method and device and record medium
US8249364B2 (en) Method for resolving contradicting output data from an optical character recognition (OCR) system, wherein the output data comprises more than one recognition alternative for an image of a character
KR100569194B1 (en) Correction method of geometrical distortion for document image by camera
KR19990016302A (en) How to recognize documents in chart form
CN108804652B (en) Method and device for generating cover picture, storage medium and electronic device
CN116229098A (en) Image recognition method based on mask contour tracking and related products
Normand et al. A background based adaptive page segmentation algorithm
Ye et al. Document image matching and annotation lifting
CN112580452A (en) Method and device for processing fault tree, computer readable storage medium and processor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee