KR20240025766A - Method and system for recognizing document that including table structure - Google Patents

Method and system for recognizing document that including table structure Download PDF

Info

Publication number
KR20240025766A
KR20240025766A KR1020220103793A KR20220103793A KR20240025766A KR 20240025766 A KR20240025766 A KR 20240025766A KR 1020220103793 A KR1020220103793 A KR 1020220103793A KR 20220103793 A KR20220103793 A KR 20220103793A KR 20240025766 A KR20240025766 A KR 20240025766A
Authority
KR
South Korea
Prior art keywords
table structure
information
item
document
type
Prior art date
Application number
KR1020220103793A
Other languages
Korean (ko)
Inventor
권순각
이동석
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020220103793A priority Critical patent/KR20240025766A/en
Publication of KR20240025766A publication Critical patent/KR20240025766A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18133Extraction of features or characteristics of the image regional/local feature not essentially salient, e.g. local binary pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19113Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Character Input (AREA)

Abstract

본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법은, 단말의 적어도 하나의 프로세서에 의하여 실행되는 문서 인식 애플리케이션이 표 구조를 포함하는 문서를 인식하는 방법으로서, 소정의 표 구조를 포함하는 표 문서 촬영영상을 획득하는 단계; 상기 획득한 표 문서 촬영영상 내 표 구조의 종류를 특정하는 유형정보를 획득하는 단계; 상기 획득한 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계; 상기 수행한 맞춤형 표 항목 검출 프로세스를 기초로 상기 표 구조에 대한 경계 및 항목 데이터를 포함하는 표 구조 분석정보를 획득하는 단계; 상기 획득한 항목별 문자 인식정보를 획득하는 단계; 및 상기 획득한 문자 인식정보 및 상기 표 구조 분석정보를 기초로 상기 표 구조를 텍스트 파일 형태로 구조화한 표 구조화 정보를 제공하는 단계를 포함한다. A document recognition method including a table structure according to an embodiment of the present invention is a method in which a document recognition application executed by at least one processor of a terminal recognizes a document including a table structure, and includes a predetermined table structure. Obtaining a table document image; Obtaining type information specifying the type of table structure in the obtained table document shooting video; performing a customized table item detection process according to the obtained type information; Obtaining table structure analysis information including boundary and item data for the table structure based on the performed customized table item detection process; Obtaining character recognition information for each acquired item; and providing table structuring information in which the table structure is structured in the form of a text file based on the obtained character recognition information and the table structure analysis information.

Description

표 구조를 포함하는 문서 인식 방법 및 그 시스템{METHOD AND SYSTEM FOR RECOGNIZING DOCUMENT THAT INCLUDING TABLE STRUCTURE}Document recognition method and system including table structure {METHOD AND SYSTEM FOR RECOGNIZING DOCUMENT THAT INCLUDING TABLE STRUCTURE}

본 발명은 표 구조를 포함하는 문서 인식 방법 및 그 시스템에 관한 것이다. 보다 상세하게는, 소정의 표 구조를 포함하는 실물 문서를 상기 표 구조에 특화된 방식으로 자동 인식하고 디지털화하는 방법 및 그 시스템에 관한 것이다. The present invention relates to a document recognition method and system including a table structure. More specifically, it relates to a method and system for automatically recognizing and digitizing a physical document including a predetermined table structure in a manner specialized for the table structure.

디지털 시대로의 돌입으로 인하여 문서 기반의 업무를 자동화하는 문서 처리 자동화 솔루션이 증가하고 있다. As we enter the digital age, document processing automation solutions that automate document-based tasks are increasing.

여기서, 상기 문서 처리 자동화란, 소정의 영상에 기초한 광학 문자 인식(OCR, Optical character recognition)을 수행하고 그 결과를 디지털화하는 프로세스를 의미할 수 있다. Here, the document processing automation may refer to a process of performing optical character recognition (OCR) based on a predetermined image and digitizing the result.

자세히, 기존의 문서 처리에서는 사람이 인쇄된 문서 또는 이미지 파일 형태의 문서를 직접 보고 수작업을 통해 시스템에 입력한다. Specifically, in existing document processing, people directly view documents in the form of printed documents or image files and manually enter them into the system.

이때, 내용을 다른 항목에 잘못 입력하거나 타이핑 실수로 잘못된 내용이 입력되는 등의 오류가 발생하면 시간적, 금전적 손해가 발생할 수 있다. At this time, if an error occurs, such as incorrectly entering content in another item or entering incorrect information due to a typing mistake, time and financial damage may occur.

상기 문서 처리 자동화는, 사람이 직접 작업하는 대신 광학 문자 인식(OCR)을 통해 이미지화된 문서에서 문자들을 인식하고, 해당 문자들을 자동으로 디지털 시스템에 입력한다. The document processing automation recognizes characters in imaged documents through optical character recognition (OCR) instead of manually working with people, and automatically inputs the characters into a digital system.

이러한 문서 처리 자동화를 통하여, 해당 업무를 수행하는 작업자들의 피로를 경감할 수 있고, 사람이 직접 문서를 처리할 때 발생하는 실수를 경감시켜 업무 효율을 증대시킬 수 있다. Through such document processing automation, the fatigue of workers performing the relevant work can be reduced and work efficiency can be increased by reducing mistakes that occur when people directly process documents.

그러나 해당하는 문서 이미지에 단순히 광학 문자 인식(OCR)만 적용하는 경우, 문자는 잘 인식되지만 문서의 구조를 고려하지 않아서 실제 문서 처리 자동화에 적용하기 어렵다는 문제가 있다. However, when only optical character recognition (OCR) is applied to the corresponding document image, the characters are recognized well, but there is a problem that it is difficult to apply to actual document processing automation because the structure of the document is not considered.

특히 업무에서 많이 쓰이는 표(table)가 포함된 문서는, 해당 표 내부 각각의 항목에 특정 제목이나 내용 등을 나타내는 문자들을 포함하고 있는데, 광학 문자 인식(OCR)을 그대로 적용한다면 이러한 항목들을 상호 구분하여 얻을 수 있는 정보들이 무시된다는 문제가 있다. In particular, documents containing tables, which are often used in business, contain characters representing specific titles or contents in each item within the table. If optical character recognition (OCR) is applied as is, these items can be distinguished from each other. The problem is that the information that can be obtained is ignored.

해당하는 문서의 구조나 양식이 통일되어 있다면 상기 항목별 고유 위치를 기반으로 한 문서 처리 자동화를 구현할 수 있지만, 다양한 문서의 양식을 처리해야 하는 경우(예컨대, 다양한 업체에서 발행한 인보이스 문서를 처리해야 하는 등의 경우)에는 각각의 문서 유형마다 상기 항목별 위치가 서로 상이하여 이에 기초한 문서 처리 자동화가 어렵다는 한계가 있다. If the structure or form of the relevant document is unified, document processing automation based on the unique location of each item can be implemented. However, if the format of various documents needs to be processed (for example, invoice documents issued by various companies need to be processed) In this case, there is a limitation that the location of each item is different for each document type, making it difficult to automate document processing based on this.

또한, 문서의 유형마다 상기 각 항목들을 구분하는 방법도 다양하여(예컨대, 모든 항목들을 선분으로 구분하는 형식, 수평선으로 행을 구분하고 공백으로 열을 구분하는 형식 또는 소정의 제목과 내용을 나타내는 문자들을 하나의 박스로 구분하는 형식 등), 해당하는 표의 각 항목 영역을 정확히 검출하기 위해서는 이러한 다양한 경우들을 고려할 필요가 있다. In addition, there are various ways to distinguish each of the above items depending on the type of document (e.g., a format that separates all items with line segments, a format that separates rows with horizontal lines and columns with spaces, or characters that indicate a predetermined title and content). In order to accurately detect each item area of the corresponding table (a format that separates items into a single box, etc.), it is necessary to consider these various cases.

KRKR 0259804 0259804 B1B1

본 발명은, 상술된 바와 같은 문제점들을 해결하기 위하여 안출된 것으로서, 소정의 표 구조를 포함하는 실물 문서를 상기 표 구조에 특화된 방식으로 자동 인식하고 디지털화하는 방법 및 그 시스템을 제공하는데 목적이 있다. The present invention was created to solve the problems described above, and its purpose is to provide a method and system for automatically recognizing and digitizing a physical document including a predetermined table structure in a manner specialized for the table structure.

자세히, 본 발명의 실시예에서는, 수직선과 수평선 및/또는 문자 간 간격에 따른 배열 형태를 기초로 상기 표 구조에 최적화된 자동 인식을 수행하는 방법 및 그 시스템을 구현하고자 한다. In detail, an embodiment of the present invention seeks to implement a method and system for performing automatic recognition optimized for the table structure based on the arrangement form according to vertical and horizontal lines and/or spacing between characters.

또한, 본 발명의 실시예에서는, 상기 자동 인식한 표 구조를 기초로 소정의 구조화된 텍스트 파일을 제공하는 방법 및 그 시스템을 구현하고자 한다. Additionally, in an embodiment of the present invention, a method and system for providing a structured text file based on the automatically recognized table structure are intended to be implemented.

다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present invention and embodiments of the present invention are not limited to the technical problems described above, and other technical problems may exist.

본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법은, 단말의 적어도 하나의 프로세서에 의하여 실행되는 문서 인식 애플리케이션이 표 구조를 포함하는 문서를 인식하는 방법으로서, 소정의 표 구조를 포함하는 표 문서 촬영영상을 획득하는 단계; 상기 획득한 표 문서 촬영영상 내 표 구조의 종류를 특정하는 유형정보를 획득하는 단계; 상기 획득한 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계; 상기 수행한 맞춤형 표 항목 검출 프로세스를 기초로 상기 표 구조에 대한 경계 및 항목 데이터를 포함하는 표 구조 분석정보를 획득하는 단계; 상기 획득한 항목별 문자 인식정보를 획득하는 단계; 및 상기 획득한 문자 인식정보 및 상기 표 구조 분석정보를 기초로 상기 표 구조를 텍스트 파일 형태로 구조화한 표 구조화 정보를 제공하는 단계를 포함한다. A document recognition method including a table structure according to an embodiment of the present invention is a method in which a document recognition application executed by at least one processor of a terminal recognizes a document including a table structure, and includes a predetermined table structure. Obtaining a table document image; Obtaining type information specifying the type of table structure in the obtained table document shooting video; performing a customized table item detection process according to the obtained type information; Obtaining table structure analysis information including boundary and item data for the table structure based on the performed customized table item detection process; Obtaining character recognition information for each acquired item; and providing table structuring information in which the table structure is structured in the form of a text file based on the obtained character recognition information and the table structure analysis information.

이때, 상기 유형정보는, 상기 표 구조가 포함하는 적어도 하나의 항목을 모두 선분으로 구분하는 선분 표 유형, 또는 상기 적어도 하나의 항목을 공백 또는 공백 및 선분으로 구분하는 공백 표 유형 중 어느 하나의 유형을 포함한다. At this time, the type information is either a line segment table type that divides at least one item included in the table structure into line segments, or a blank table type that divides the at least one item into blank space or blank space and line segments. Includes.

또한, 상기 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계는, 상기 유형정보가 상기 선분 표 유형이면 수직선 및 수평선을 기초로 상기 표 구조 분석정보를 검출하는 선분 기반 표 항목 검출 프로세스를 수행하는 단계와, 상기 유형정보가 상기 공백 표 유형이면 문자 배열 형태를 기초로 상기 표 구조 분석정보를 검출하는 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계를 포함한다. In addition, the step of performing a customized table item detection process according to the type information includes performing a line segment-based table item detection process of detecting the table structure analysis information based on vertical and horizontal lines if the type information is the line segment table type. and, if the type information is the blank table type, performing a structure analysis-based table item detection process of detecting the table structure analysis information based on a character array type.

또한, 상기 선분 기반 표 항목 검출 프로세스를 수행하는 단계는, 소정의 선분 검출 알고리즘 및 소정의 꼭지점 검출 알고리즘 중 적어도 하나의 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계를 포함한다. Additionally, performing the line segment-based table item detection process includes detecting the table structure analysis information based on at least one of a predetermined line segment detection algorithm and a predetermined vertex detection algorithm.

또한, 상기 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계는, 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계를 포함한다. Additionally, performing the structure analysis-based table item detection process includes detecting the table structure analysis information based on a predetermined binarization algorithm.

또한, 상기 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계는, 상기 표 구조 촬영영상 내 소정의 픽셀에 대한 수직 및 수평 방향으로 임의의 제1 화소거리 이내에 문자출력 화소가 존재하는지 판단하는 단계와, 상기 문자출력 화소가 존재한다고 판단하면 상기 픽셀의 화소값을 255로 변환하는 제1 이진화를 수행하는 단계를 포함한다. In addition, the step of detecting the table structure analysis information based on the predetermined binarization algorithm includes determining whether a character output pixel exists within a certain first pixel distance in the vertical and horizontal directions with respect to a predetermined pixel in the table structure captured image. It includes a step of determining and, if it is determined that the character output pixel exists, performing a first binarization of converting the pixel value of the pixel to 255.

또한, 상기 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계는, 상기 제1 이진화를 수행한 표 구조 촬영영상을 기초로 상기 표 구조를 표시하는 전체 영역을 검출하는 단계를 더 포함한다. In addition, the step of detecting the table structure analysis information based on the predetermined binarization algorithm further includes detecting the entire area displaying the table structure based on the table structure captured image on which the first binarization has been performed. do.

또한, 상기 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계는, 상기 표 구조 촬영영상 내에서 상기 전체 영역에 대한 대응 영역 내 소정의 픽셀에 대한 수평 방향으로 상기 제1 화소거리 이내에 문자출력 화소가 존재하는지 판단하는 단계와, 상기 문자출력 화소가 존재한다고 판단하면 상기 픽셀의 화소값을 255로 변환하는 제2 이진화를 수행하는 단계와, 상기 제2 이진화를 수행한 대응 영역을 기초로 상기 표 구조 분석정보를 검출하는 단계를 더 포함한다. In addition, the step of detecting the table structure analysis information based on the predetermined binarization algorithm includes the step of detecting the table structure analysis information within the first pixel distance in the horizontal direction with respect to a predetermined pixel in an area corresponding to the entire area within the table structure captured image. A step of determining whether a text output pixel exists, performing a second binarization of converting the pixel value of the pixel to 255 if it is determined that the text output pixel exists, and based on the corresponding area on which the second binarization was performed. It further includes detecting the table structure analysis information.

또한, 상기 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계는, 소정의 기준점 및 기준선을 기초로 상기 표 구조의 열 또는 행을 구분하는 단계를 더 포함한다. In addition, performing the structural analysis-based table item detection process further includes dividing columns or rows of the table structure based on a predetermined reference point and reference line.

또한, 상기 표 항목별 문자 인식정보를 획득하는 단계는, 상기 표 항목별 영상에 기반한 광학 문자 인식(OCR, Optical character recognition)을 기초로 상기 문자 인식정보를 획득하는 단계를 포함한다. Additionally, the step of acquiring character recognition information for each table item includes acquiring the character recognition information based on optical character recognition (OCR) based on the image for each table item.

한편, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 시스템은, 문서 인식 애플리케이션이 저장된 적어도 하나의 메모리; 및 상기 메모리에 저장된 문서 인식 애플리케이션을 독출하여 표 구조를 포함하는 문서를 인식하는 적어도 하나의 프로세서;를 포함하고, 상기 문서 인식 애플리케이션의 명령어는, 소정의 표 구조를 포함하는 표 문서 촬영영상을 획득하는 단계와, 상기 획득한 표 문서 촬영영상 내 표 구조의 종류를 특정하는 유형정보를 획득하는 단계와, 상기 획득한 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계와, 상기 수행한 맞춤형 표 항목 검출 프로세스를 기초로 상기 표 구조에 대한 경계 및 항목 데이터를 포함하는 표 구조 분석정보를 획득하는 단계와, 상기 획득한 항목별 문자 인식정보를 획득하는 단계와, 상기 획득한 문자 인식정보 및 상기 표 구조 분석정보를 기초로 상기 표 구조를 텍스트 파일 형태로 구조화한 표 구조화 정보를 제공하는 단계를 수행하는 명령어를 포함한다. Meanwhile, a document recognition system including a table structure according to an embodiment of the present invention includes at least one memory storing a document recognition application; and at least one processor that reads the document recognition application stored in the memory to recognize a document including a table structure, wherein the command of the document recognition application acquires a captured image of a table document including a predetermined table structure. A step of obtaining type information that specifies the type of table structure in the obtained table document shooting video, performing a customized table item detection process according to the obtained type information, and Performing a customized table item detection process Obtaining table structure analysis information including boundary and item data for the table structure based on an item detection process, acquiring character recognition information for each obtained item, the obtained character recognition information and It includes a command for performing the step of providing table structuring information in which the table structure is structured in the form of a text file based on table structure analysis information.

이때, 상기 문서 인식 애플리케이션의 명령어는, 상기 유형정보가 선분 표 유형이면 수직선 및 수평선을 기초로 상기 표 구조 분석정보를 검출하는 선분 기반 표 항목 검출 프로세스를 수행하는 단계와, 상기 유형정보가 공백 표 유형이면 문자 배열 형태를 기초로 상기 표 구조 분석정보를 검출하는 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계를 수행하는 명령어를 더 포함한다. At this time, the command of the document recognition application includes performing a line segment-based table item detection process of detecting the table structure analysis information based on vertical and horizontal lines if the type information is a line segment table type, and if the type information is a blank table type. If it is a type, it further includes a command for performing a structure analysis-based table item detection process for detecting the table structure analysis information based on the character array type.

본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법 및 그 시스템은, 소정의 표 구조를 포함하는 실물 문서를 상기 표 구조에 특화된 방식으로 자동 인식하고 디지털화함으로써, 상기 실물 문서가 어떠한 유형의 표 구조를 포함하더라도 해당 표 구조에 대한 구조적인 특성을 정확하게 반영한 문서 처리 자동화를 구현할 수 있는 효과가 있다. The document recognition method and system including a table structure according to an embodiment of the present invention automatically recognize and digitize a physical document including a predetermined table structure in a manner specialized for the table structure, thereby identifying what type of document the physical document is. Even if a table structure is included, there is an effect of implementing document processing automation that accurately reflects the structural characteristics of the table structure.

또한, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법 및 그 시스템은, 수직선과 수평선 및/또는 문자 간 간격에 따른 배열 형태를 기초로 상기 표 구조에 최적화된 자동 인식을 수행함으로써, 다양한 형태의 표 구조가 포함하는 각각의 항목을 상호 구분하여 얻을 수 있는 정보들을 명확하고 용이하게 획득할 수 있으며, 해당 표 구조의 구조적인 특성을 온전하게 유지한 디지털화를 가능하게 하여 문서 처리 자동화의 성능 및 품질을 향상시킬 수 있는 효과가 있다. In addition, the method and system for recognizing a document including a table structure according to an embodiment of the present invention perform automatic recognition optimized for the table structure based on the arrangement form according to vertical and horizontal lines and/or spacing between characters, Information that can be obtained by distinguishing each item included in various types of table structures can be obtained clearly and easily, and it enables digitization while maintaining the structural characteristics of the table structure intact, enabling document processing automation. It has the effect of improving performance and quality.

또한, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법 및 그 시스템은, 위와 같이 자동 인식한 표 구조를 기초로 소정의 구조화된 텍스트 파일을 제공함으로써, 문서 처리 자동화에 수반되는 업무 효율성과 신뢰성을 증대시킴과 동시에 이를 활용한 다양한 서비스(예컨대, 소정의 데이터베이스 구축 서비스 등)의 퀄리티 또한 제고시킬 수 있는 효과가 있다. In addition, the document recognition method and system including a table structure according to an embodiment of the present invention provide a predetermined structured text file based on the automatically recognized table structure as described above, thereby improving work efficiency associated with document processing automation. It has the effect of increasing quality and reliability, while also improving the quality of various services that utilize it (for example, a certain database construction service, etc.).

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다. However, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood from the description below.

도 1은 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 단말의 내부 블록도이다.
도 3은 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시예에 따른 표 구조의 유형정보를 설명하기 위한 도면의 일례이다.
도 5는 본 발명의 실시예에 따른 선분 기반 표 항목 검출 프로세스를 설명하기 위한 도면의 일례이다.
도 6은 본 발명의 실시예에 따른 구조분석 기반 표 항목 검출 프로세스를 설명하기 위한 도면의 일례이다.
도 7은 본 발명의 실시예에 따른 기준점 기반 열 구분 프로세스를 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시예에 따른 기준점 기반 열 구분 프로세스를 설명하기 위한 도면의 일례이다.
1 is a conceptual diagram of a document recognition system including a table structure according to an embodiment of the present invention.
Figure 2 is an internal block diagram of a terminal according to an embodiment of the present invention.
Figure 3 is a flowchart illustrating a method for recognizing a document including a table structure according to an embodiment of the present invention.
Figure 4 is an example of a drawing for explaining type information of a table structure according to an embodiment of the present invention.
Figure 5 is an example of a diagram for explaining a line segment-based table item detection process according to an embodiment of the present invention.
Figure 6 is an example of a diagram for explaining a structure analysis-based table item detection process according to an embodiment of the present invention.
Figure 7 is a flowchart illustrating a reference point-based column classification process according to an embodiment of the present invention.
Figure 8 is an example of a diagram for explaining a reference point-based column classification process according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. Additionally, singular expressions include plural expressions unless the context clearly dictates otherwise. Additionally, terms such as include or have mean that the features or components described in the specification exist, and do not preclude the possibility of adding one or more other features or components. Additionally, in the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are shown arbitrarily for convenience of explanation, so the present invention is not necessarily limited to what is shown.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 시스템의 개념도이다. 1 is a conceptual diagram of a document recognition system including a table structure according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 시스템(1000: 이하, 표 문서 인식 시스템)은, 소정의 표 구조를 포함하는 실물 문서를 상기 표 구조에 특화된 방식으로 자동 인식하고 디지털화하는 표 문서 인식 서비스를 제공할 수 있다. Referring to FIG. 1, a document recognition system 1000 (hereinafter referred to as a table document recognition system) including a table structure according to an embodiment of the present invention, A table document recognition service that automatically recognizes and digitizes a physical document containing a predetermined table structure in a manner specialized for the table structure can be provided.

실시예에서, 위와 같은 표 문서 인식 서비스를 구현하는 표 문서 인식 시스템(1000)은, 단말(100), 문서 인식서버(200) 및 네트워크(300: Network)를 포함할 수 있다. In an embodiment, the table document recognition system 1000 that implements the above table document recognition service may include a terminal 100, a document recognition server 200, and a network 300.

이때, 상기 단말(100) 및 문서 인식서버(200)는, 상기 네트워크(300)를 통하여 연결될 수 있다. At this time, the terminal 100 and the document recognition server 200 may be connected through the network 300.

여기서, 실시예에 따른 상기 네트워크(300)는, 상기 단말(100) 및/또는 문서 인식서버(200) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(300)의 일례에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다. Here, the network 300 according to the embodiment refers to a connection structure capable of exchanging information between each node, such as the terminal 100 and/or the document recognition server 200. This network 300 Examples include the 3rd Generation Partnership Project (3GPP) network, Long Term Evolution (LTE) network, World Interoperability for Microwave Access (WIMAX) network, Internet, Local Area Network (LAN), and Wireless Local Area Network (Wireless LAN). , WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc., but are not limited thereto.

이하, 첨부된 도면을 참조하여 표 문서 인식 시스템(1000)을 구현하는 단말(100) 및 문서 인식서버(200)에 대해 상세히 설명한다. Hereinafter, the terminal 100 and document recognition server 200 that implement the table document recognition system 1000 will be described in detail with reference to the attached drawings.

- 단말(100: Terminal) - Terminal (100: Terminal)

본 발명의 실시예에 따른 단말(100)은, 표 문서 인식 서비스를 제공하는 문서 인식 애플리케이션(이하, 애플리케이션)이 설치된 소정의 컴퓨팅 디바이스일 수 있다. The terminal 100 according to an embodiment of the present invention may be a computing device installed with a document recognition application (hereinafter referred to as application) that provides a table document recognition service.

자세히, 하드웨어적 관점에서 단말(100)은, 애플리케이션이 설치된 모바일 타입 컴퓨팅 장치(100-1) 및/또는 데스크탑 타입 컴퓨팅 장치(100-2) 등을 포함할 수 있다. In detail, from a hardware perspective, the terminal 100 may include a mobile type computing device 100-1 and/or a desktop type computing device 100-2 on which an application is installed.

여기서, 모바일 타입 컴퓨팅 장치(100-1)는, 애플리케이션이 설치된 스마트 폰이나 테블릿 PC와 같은 모바일 장치일 수 있다. Here, the mobile type computing device 100-1 may be a mobile device such as a smart phone or tablet PC with an application installed.

예를 들어, 모바일 타입 컴퓨팅 장치(100-1)는, 스마트 폰(smart phone), 휴대폰, 디지털방송용 디바이스, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC(tablet PC) 등이 포함될 수 있다. For example, the mobile type computing device 100-1 includes smart phones, mobile phones, digital broadcasting devices, personal digital assistants (PDAs), portable multimedia players (PMPs), and tablet PCs. may be included.

또한, 데스크탑 타입 컴퓨팅 장치(100-2)는, 애플리케이션이 설치된 고정형 데스크탑 PC, 노트북 컴퓨터(laptop computer), 울트라북(ultrabook)과 같은 퍼스널 컴퓨터 등과 같이 유/무선 통신을 기반으로 표 문서 인식 서비스를 실행하기 위한 프로그램이 설치된 장치 등을 포함할 수 있다. In addition, the desktop type computing device 100-2 provides a table document recognition service based on wired/wireless communication, such as a fixed desktop PC with an application installed, a laptop computer, or a personal computer such as an ultrabook. It may include devices where programs to run are installed.

또한, 실시예에 따라서 단말(100)은, 표 문서 인식 서비스 환경을 제공하는 소정의 서버(Server) 컴퓨팅 디바이스를 더 포함할 수도 있다. Additionally, depending on the embodiment, the terminal 100 may further include a server computing device that provides a table document recognition service environment.

도 2는 본 발명의 실시예에 따른 단말(100)의 내부 블록도이다. Figure 2 is an internal block diagram of the terminal 100 according to an embodiment of the present invention.

한편, 도 2를 참조하면, 기능적 관점에서 단말(100)은, 메모리(110), 프로세서 어셈블리(120), 통신 프로세서(130), 인터페이스부(140), 입력 시스템(150), 센서 시스템(160) 및 디스플레이 시스템(170)을 포함할 수 있다. 이러한 구성요소들은 단말(100)의 하우징 내에 포함되도록 구성될 수 있다. Meanwhile, referring to FIG. 2, from a functional perspective, the terminal 100 includes a memory 110, a processor assembly 120, a communication processor 130, an interface unit 140, an input system 150, and a sensor system 160. ) and a display system 170. These components may be configured to be included within the housing of the terminal 100.

자세히, 메모리(110)에는, 애플리케이션(111)이 저장되며, 애플리케이션(111)은 표 문서 인식 서비스 환경을 제공하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. In detail, the application 111 is stored in the memory 110 , and the application 111 may store one or more of various applications, data, and commands for providing a table document recognition service environment.

즉, 메모리(110)는, 표 문서 인식 서비스 환경을 생성하기 위하여 사용될 수 있는 명령 및 데이터 등을 저장할 수 있다. That is, the memory 110 can store commands and data that can be used to create a table document recognition service environment.

또한, 상기 메모리(110)는, 프로그램 영역과 데이터 영역을 포함할 수 있다. Additionally, the memory 110 may include a program area and a data area.

여기서, 실시예에 따른 프로그램 영역은, 단말(100)을 부팅하는 운영체제(OS: Operating System) 및 기능요소들 사이에 연계될 수 있으며, 데이터 영역은, 단말(100)의 사용에 따라 발생하는 데이터가 저장될 수 있다. Here, the program area according to the embodiment may be linked between the operating system (OS) and functional elements that boot the terminal 100, and the data area is data generated according to the use of the terminal 100. can be saved.

또한, 메모리(110)는, 적어도 하나 이상의 비일시적 컴퓨터 판독 가능 저장매체와, 일시적 컴퓨터 판독 가능 저장매체를 포함할 수 있다. Additionally, the memory 110 may include at least one non-transitory computer-readable storage medium and a temporary computer-readable storage medium.

예를 들어, 메모리(110)는, ROM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet) 상에서 상기 메모리(110)의 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수 있다. For example, the memory 110 may be a variety of storage devices such as ROM, EPROM, flash drive, hard drive, etc., and web storage that performs the storage function of the memory 110 on the Internet. may include.

프로세서 어셈블리(120)는, 표 문서 인식 서비스 환경을 생성하기 위한 다양한 작업을 수행하기 위해, 메모리(110)에 저장된 애플리케이션(111)의 명령들을 실행할 수 있는 적어도 하나 이상의 프로세서를 포함할 수 있다. The processor assembly 120 may include at least one processor capable of executing instructions of the application 111 stored in the memory 110 to perform various tasks for creating a table document recognition service environment.

실시예에서 프로세서 어셈블리(120)는, 표 문서 인식 서비스를 제공하기 위하여 메모리(110)의 애플리케이션(111)을 통해 구성요소의 전반적인 동작을 컨트롤할 수 있다. In an embodiment, the processor assembly 120 may control the overall operation of components through the application 111 of the memory 110 to provide a table document recognition service.

이러한 프로세서 어셈블리(120)는, 중앙처리장치(CPU) 및/또는 그래픽처리장치(GPU) 등이 포함된 단말(100)에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리(110)에 저장된 운영체제(OS) 및/또는 응용 프로그램 등을 실행할 수 있고, 단말(100)에 탑재된 각 구성요소들을 제어할 수 있다. This processor assembly 120 may be a system-on-chip (SOC) suitable for the terminal 100 that includes a central processing unit (CPU) and/or a graphics processing unit (GPU), and the operating system stored in the memory 110. (OS) and/or application programs can be executed, and each component mounted on the terminal 100 can be controlled.

또한, 프로세서 어셈블리(120)는, 각 구성요소와 내부적으로 시스템 버스(System Bus)에 의해 통신을 수행할 수 있고, 로컬 버스(Local Bus)를 비롯한 소정의 버스 구조들을 하나 이상 포함할 수 있다. Additionally, the processor assembly 120 may internally communicate with each component through a system bus and may include one or more bus structures, including a local bus.

또한, 프로세서 어셈블리(120)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함하여 구현될 수 있다. In addition, the processor assembly 120 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and controllers. ), micro-controllers, microprocessors, and other electrical units for performing functions.

통신 프로세서(130)은, 외부의 장치와 통신하기 위한 하나 이상의 장치를 포함할 수 있다. 이러한 통신 프로세서(130)은, 무선 네트워크를 통해 통신할 수 있다. The communication processor 130 may include one or more devices for communicating with external devices. This communication processor 130 can communicate through a wireless network.

자세히, 통신 프로세서(130)은, 표 문서 인식 서비스 환경을 구현하기 위한 콘텐츠 소스를 저장한 단말(100)과 통신할 수 있으며, 유저 입력을 받는 컨트롤러와 같은 다양한 유저 입력 컴포넌트와 통신할 수 있다. In detail, the communication processor 130 can communicate with the terminal 100 that stores content sources for implementing a table document recognition service environment, and can communicate with various user input components such as a controller that receives user input.

실시예에서, 통신 프로세서(130)은, 표 문서 인식 서비스와 관련된 각종 데이터를 타 단말(100) 및/또는 외부의 서버 등과 송수신할 수 있다. In an embodiment, the communication processor 130 may transmit and receive various data related to the table document recognition service to another terminal 100 and/or an external server.

이러한 통신 프로세서(130)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced),5G NR(New Radio), WIFI) 또는 근거리 통신방식 등을 수행할 수 있는 통신장치를 통해 구축된 이동 통신망 상에서 기지국, 외부의 단말(100), 임의의 서버 중 적어도 하나와 무선으로 데이터를 송수신할 수 있다.This communication processor 130 uses technical standards or communication methods for mobile communication (e.g., Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G New Radio (NR), WIFI). Alternatively, data can be transmitted and received wirelessly with at least one of a base station, an external terminal 100, and an arbitrary server on a mobile communication network established through a communication device capable of performing short-distance communication.

센서 시스템(160)은, 이미지 센서(161), 위치 센서(IMU, 163), 오디오 센서(165), 거리 센서, 근접 센서, 접촉 센서 등 다양한 센서를 포함할 수 있다. The sensor system 160 may include various sensors such as an image sensor 161, a position sensor (IMU) 163, an audio sensor 165, a distance sensor, a proximity sensor, and a contact sensor.

여기서, 이미지 센서(161)는, 단말(100) 주위의 물리적 공간에 대한 영상(즉, 이미지 및/또는 동영상 등)을 촬영할 수 있다. Here, the image sensor 161 can capture images (that is, images and/or videos, etc.) of the physical space around the terminal 100.

실시예에서, 이미지 센서(161)는, 표 문서 인식 서비스와 관련된 각종 영상(실시예로, 표 문서 촬영영상 등)을 촬영하여 획득할 수 있다. In an embodiment, the image sensor 161 may capture and acquire various images (eg, a table document photographed image, etc.) related to the table document recognition service.

또한, 이미지 센서(161)는, 단말(100)의 전면 또는/및 후면에 배치되어 배치된 방향측을 촬영하여 영상을 획득할 수 있으며, 단말(100)의 외부를 향해 배치된 카메라를 통해 물리적 공간을 촬영할 수 있다. In addition, the image sensor 161 is disposed on the front or/and rear of the terminal 100 and can acquire an image by photographing the direction in which the terminal 100 is placed. You can photograph space.

이러한 이미지 센서(161)는, 이미지 센서장치와 영상 처리 모듈을 포함할 수 있다. 자세히, 이미지 센서(161)는, 이미지 센서장치(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. This image sensor 161 may include an image sensor device and an image processing module. In detail, the image sensor 161 can process still images or moving images obtained by an image sensor device (eg, CMOS or CCD).

또한, 이미지 센서(161)는, 영상 처리 모듈을 이용하여 이미지 센서장치를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.Additionally, the image sensor 161 may use an image processing module to process still images or moving images obtained through the image sensor device to extract necessary information and transmit the extracted information to the processor.

이러한 이미지 센서(161)는, 적어도 하나 이상의 카메라를 포함하는 카메라 어셈블리일 수 있다. 카메라 어셈블리는, 가시광선 대역을 촬영하는 일반 카메라를 포함할 수 있으며, 적외선 카메라, 스테레오 카메라 등의 특수 카메라를 더 포함할 수 있다. This image sensor 161 may be a camera assembly including at least one camera. The camera assembly may include a general camera that photographs a visible light band, and may further include a special camera such as an infrared camera or a stereo camera.

또한, 위와 같은 이미지 센서(161)는, 실시예에 따라서 단말(100)에 포함되어 동작할 수도 있고, 외부의 장치(예컨대, 외부의 서버 등)에 포함되어 상술된 통신 프로세서(130) 및/또는 인터페이스부(140)에 기초한 연동을 통하여 동작할 수도 있다.In addition, the image sensor 161 as described above may be included and operated in the terminal 100, depending on the embodiment, or may be included in an external device (e.g., an external server, etc.) and may be included in the above-described communication processor 130 and/or Alternatively, it may operate through linkage based on the interface unit 140.

위치 센서(IMU, 163)는, 단말(100)의 움직임 및 가속도 중 적어도 하나 이상을 감지할 수 있다. 예를 들어, 가속도계, 자이로스코프, 자력계와 같은 다양한 위치 센서의 조합으로 이루어질 수 있다. The position sensor (IMU, 163) can detect at least one of the movement and acceleration of the terminal 100. For example, it may consist of a combination of various position sensors such as an accelerometer, gyroscope, or magnetometer.

또한, 위치 센서(IMU, 163)는, 통신 프로세서(130)의 GPS와 같은 위치 통신 프로세서(130)과 연동하여, 단말(100) 주변의 물리적 공간에 대한 공간 정보를 인식할 수 있다. Additionally, the location sensor (IMU) 163 may recognize spatial information about the physical space around the terminal 100 in conjunction with the location communication processor 130, such as the GPS of the communication processor 130.

오디오 센서(165)는, 단말(100) 주변의 소리를 인식할 수 있다. The audio sensor 165 can recognize sounds around the terminal 100.

자세히, 오디오 센서(165)는, 단말(100)을 사용하는 유저의 음성 입력을 감지할 수 있는 마이크로폰을 포함할 수 있다. In detail, the audio sensor 165 may include a microphone capable of detecting voice input from a user using the terminal 100.

실시예에서 오디오 센서(165)는 표 문서 인식 서비스를 위해 필요한 음성 데이터를 유저로부터 입력 받을 수 있다.In an embodiment, the audio sensor 165 may receive voice data required for a table document recognition service from the user.

인터페이스부(140)은, 단말(100)을 하나 이상의 다른 장치와 통신 가능하게 연결할 수 있다. 자세히, 인터페이스부(140)은, 하나 이상의 상이한 통신 프로토콜과 호환되는 유선 및/또는 무선 통신 장치를 포함할 수 있다. The interface unit 140 can connect the terminal 100 to communicate with one or more other devices. In detail, the interface unit 140 may include a wired and/or wireless communication device compatible with one or more different communication protocols.

이러한 인터페이스부(140)을 통해 단말(100)은, 여러 입출력 장치들과 연결될 수 있다. Through this interface unit 140, the terminal 100 can be connected to various input/output devices.

예를 들어, 인터페이스부(140)은, 헤드셋 포트나 스피커와 같은 오디오 출력장치와 연결되어, 오디오를 출력할 수 있다. For example, the interface unit 140 may be connected to an audio output device such as a headset port or a speaker to output audio.

예시적으로 오디오 출력장치가 인터페이스부(140)을 통해 연결되는 것으로 설명하였으나, 단말(100) 내부에 설치되는 실시예도 포함될 수 있다. As an example, the audio output device is connected through the interface unit 140, but embodiments in which the audio output device is installed inside the terminal 100 may also be included.

또한, 예를 들면 인터페이스부(140)은, 키보드 및/또는 마우스와 같은 입력장치와 연결되어, 유저 입력을 획득할 수도 있다. Additionally, for example, the interface unit 140 may be connected to an input device such as a keyboard and/or mouse to obtain user input.

이러한 인터페이스부(140)은, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port), 전력 증폭기, RF 회로, 송수신기 및 기타 통신 회로 중 적어도 하나를 포함하여 구성될 수 있다. This interface unit 140 connects devices equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. Port, audio I/O (Input/Output) port, video I/O (Input/Output) port, earphone port, power amplifier, RF circuit, transceiver and other communication circuits It may be configured to include at least one of:

입력 시스템(150)은 표 문서 인식 서비스와 관련된 유저의 입력(예를 들어, 제스처, 음성 명령, 버튼의 작동 또는 다른 유형의 입력)을 감지할 수 있다. The input system 150 may detect user input (e.g., a gesture, voice command, button operation, or other type of input) related to the table document recognition service.

자세히, 입력 시스템(150)은 소정의 버튼, 터치 센서 및/또는 유저 모션 입력을 수신하는 이미지 센서(161) 등을 포함할 수 있다. In detail, the input system 150 may include a predetermined button, a touch sensor, and/or an image sensor 161 that receives a user motion input.

또한, 입력 시스템(150)은, 인터페이스부(140)을 통해 외부 컨트롤러와 연결되어, 유저의 입력을 수신할 수 있다. Additionally, the input system 150 is connected to an external controller through the interface unit 140 and can receive user input.

디스플레이 시스템(170)은, 표 문서 인식 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. The display system 170 can output various information related to the table document recognition service as a graphic image.

실시예로, 디스플레이 시스템(170)은, 표 문서 인식 서비스를 위한 각종 사용자 인터페이스, 표 문서 촬영영상, 표 구조 분석정보, 문자 인식정보 및/또는 표 구조화 정보 등을 표시할 수 있다. In an embodiment, the display system 170 may display various user interfaces for table document recognition services, table document images, table structure analysis information, character recognition information, and/or table structure information.

이러한 디스플레이는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.These displays include liquid crystal display (LCD), thin film transistor-liquid crystal display (TFT LCD), organic light-emitting diode (OLED), and flexible display. , a 3D display, or an e-ink display.

이러한 단말(100)의 하우징 내에는 상기 구성요소들이 배치될 수 있으며, 사용자 인터페이스는 유저 터치 입력을 수신하도록 구성된 디스플레이(171) 상에 터치 센서(173)를 포함할 수 있다. The above components may be disposed within the housing of the terminal 100, and the user interface may include a touch sensor 173 on the display 171 configured to receive user touch input.

자세히, 디스플레이 시스템(170)은, 이미지를 출력하는 디스플레이(171)와, 유저의 터치 입력을 감지하는 터치 센서(173)를 포함할 수 있다.In detail, the display system 170 may include a display 171 that outputs an image and a touch sensor 173 that detects a user's touch input.

예시적으로 디스플레이(171)는 터치 센서(173)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 단말(100)과 유저 사이의 입력 인터페이스를 제공하는 유저 입력부로써 기능함과 동시에, 단말(100)과 유저 사이의 출력 인터페이스를 제공할 수 있다. For example, the display 171 may be implemented as a touch screen by forming a mutual layer structure or being integrated with the touch sensor 173. This touch screen can function as a user input unit that provides an input interface between the terminal 100 and the user, and at the same time, can provide an output interface between the terminal 100 and the user.

한편, 실시예에 따라서 단말(100)은, 후술되는 문서 인식서버(200)에서 수행하는 기능 동작의 적어도 일부를 더 수행할 수도 있다. Meanwhile, depending on the embodiment, the terminal 100 may further perform at least part of the functional operations performed by the document recognition server 200, which will be described later.

- 문서 인식서버(200: Character recognition server) - Document recognition server (200: Character recognition server)

본 발명의 실시예에 따른 문서 인식서버(200)는, 표 문서 인식 서비스를 제공하기 위한 일련의 프로세스를 수행할 수 있다. The document recognition server 200 according to an embodiment of the present invention can perform a series of processes to provide a table document recognition service.

자세히, 실시예에서 문서 인식서버(200)는, 단말(100)과 같은 외부의 장치에서 표 문서 인식 프로세스를 구동하기 위해 필요한 데이터를 상기 외부의 장치와 교환함으로써, 상기 표 문서 인식 서비스를 제공할 수 있다. In detail, in the embodiment, the document recognition server 200 provides the table document recognition service by exchanging data necessary to drive the table document recognition process in an external device such as the terminal 100 with the external device. You can.

보다 상세히, 실시예에서 문서 인식서버(200)는, 외부의 장치(실시예에서, 모바일 타입 컴퓨팅 장치(100-1) 및/또는 데스크탑 타입 컴퓨팅 장치(100-2) 등)에서 애플리케이션(111)이 동작할 수 있는 환경을 제공할 수 있다. In more detail, in the embodiment, the document recognition server 200 uses the application 111 in an external device (in the embodiment, a mobile type computing device 100-1 and/or a desktop type computing device 100-2, etc.). An environment in which this can operate can be provided.

이를 위해, 문서 인식서버(200)는, 애플리케이션(111)이 동작하기 위한 응용 프로그램, 데이터 및/또는 명령어 등을 포함할 수 있고, 이에 기초한 각종 데이터를 상기 외부의 장치와 송수신할 수 있다. To this end, the document recognition server 200 may include an application program, data, and/or commands for operating the application 111, and may transmit and receive various data based thereon with the external device.

또한, 실시예에서 문서 인식서버(200)는, 소정의 표 문서 촬영영상을 획득할 수 있다. Additionally, in the embodiment, the document recognition server 200 may acquire a captured image of a predetermined table document.

여기서, 실시예에 따른 상기 표 문서 촬영영상은, 소정의 표 구조를 포함하는 실물 문서를 촬영한 영상을 의미할 수 있다. Here, the table document captured image according to the embodiment may mean an image captured of an actual document including a predetermined table structure.

또한, 실시예에서 문서 인식서버(200)는, 상기 획득한 표 문서 촬영영상을 기초로 표 구조 유형정보를 획득할 수 있다. Additionally, in the embodiment, the document recognition server 200 may obtain table structure type information based on the acquired table document photographed image.

여기서, 실시예에 따른 상기 유형정보는, 소정의 표 구조가 구현되는 방식 즉, 상기 표 구조의 형상이나 양식 등을 개시하는 방식에 따라서 해당 표 형태의 종류를 특정하는 정보일 수 있다. Here, the type information according to the embodiment may be information that specifies the type of the table format according to the method in which the table structure is implemented, that is, the method of disclosing the shape or form of the table structure.

또한, 실시예에서 문서 인식서버(200)는, 상기 획득한 표 구조 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행할 수 있다. Additionally, in the embodiment, the document recognition server 200 may perform a customized table item detection process according to the obtained table structure type information.

여기서, 실시예에 따른 상기 맞춤형 표 항목 검출 프로세스는, 위와 같이 획득한 표 구조 유형정보에 최적화된 방식으로 해당 표 구조의 경계영역 및 해당 표 구조가 포함하는 적어도 하나의 표 항목 각각을 구분하여 검출하는 프로세스를 의미할 수 있다. Here, the customized table item detection process according to the embodiment detects each of the boundary area of the table structure and at least one table item included in the table structure in a manner optimized for the table structure type information obtained as above. It can mean a process that does.

또한, 실시예에서 문서 인식서버(200)는, 상기 검출한 표 항목을 기초로 문자 인식정보를 획득할 수 있다. Additionally, in the embodiment, the document recognition server 200 may obtain character recognition information based on the detected table item.

여기서, 실시예에 따른 상기 문자 인식정보는, 소정의 표 항목이 포함하는 문자를 광학 문자 인식을 통하여 획득한 정보일 수 있다. Here, the character recognition information according to the embodiment may be information obtained through optical character recognition of characters included in a predetermined table item.

또한, 실시예에서 문서 인식서버(200)는, 상기 획득한 문자 인식정보를 기초로 표 구조화 정보를 제공할 수 있다. Additionally, in the embodiment, the document recognition server 200 may provide table structure information based on the obtained character recognition information.

여기서, 실시예에 따른 상기 표 구조화 정보는, 소정의 표 구조를 기 설정된 방식(예컨대, CSV 또는 JSON 포맷 방식 등)에 따라서 구조화한 텍스트 파일 형태로 변환한 정보를 의미할 수 있다. Here, the table structured information according to the embodiment may mean information converted from a predetermined table structure into a structured text file format according to a preset method (eg, CSV or JSON format, etc.).

또한, 실시예에서 문서 인식서버(200)는, 표 문서 인식 서비스를 구현하기 위한 각종 응용 프로그램, 명령어 및/또는 데이터 등을 저장하고 관리할 수 있다. Additionally, in the embodiment, the document recognition server 200 may store and manage various application programs, commands, and/or data for implementing a table document recognition service.

실시예로, 문서 인식서버(200)는, 적어도 하나 이상의 표 문서 촬영영상, 표 구조 유형정보, 표 구조 분석정보, 기준점 정보, 기준선 정보, 문자 인식정보, 표 구조화 정보, 각종 데이터 처리 알고리즘(실시예에서, 맞춤형 표 항목 검출 알고리즘 등) 및/또는 각종 사용자 인터페이스 등을 저장 및 관리할 수 있다. In an embodiment, the document recognition server 200 includes at least one table document captured video, table structure type information, table structure analysis information, reference point information, baseline information, character recognition information, table structuring information, and various data processing algorithms (implementation). For example, customized table item detection algorithms, etc.) and/or various user interfaces, etc. may be stored and managed.

다만, 본 발명의 실시예에서 문서 인식서버(200)가 수행할 수 있는 기능 동작은 상술된 바에 한정되지 않으며, 또 다른 기능 동작을 더 수행할 수도 있다. However, the functional operations that the document recognition server 200 can perform in the embodiment of the present invention are not limited to those described above, and other functional operations may also be performed.

한편, 도 1을 더 참조하면, 실시예에서 위와 같은 문서 인식서버(200)는, 데이터 처리를 위한 적어도 하나 이상의 프로세서 모듈(210: Processor Module)과, 외부의 장치와의 데이터 교환을 위한 적어도 하나 이상의 커뮤니케이션 모듈(220: Communication Module)과, 표 문서 인식 서비스의 제공을 위한 각종 응용 프로그램, 데이터 및/또는 명령어들을 저장하는 적어도 하나 이상의 메모리 모듈(230: Memory Module)을 포함하는 소정의 컴퓨팅 장치로 구현될 수 있다. Meanwhile, referring further to FIG. 1, in the embodiment, the document recognition server 200 as described above includes at least one processor module 210 for data processing and at least one processor module 210 for data exchange with an external device. It is a predetermined computing device including the above communication module (220) and at least one memory module (230) that stores various applications, data, and/or commands for providing a table document recognition service. It can be implemented.

여기서, 상기 메모리 모듈(230)은, 표 문서 인식 서비스를 제공하기 위한 운영체제(OS), 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. Here, the memory module 230 may store one or more of an operating system (OS), various application programs, data, and commands for providing a table document recognition service.

또한, 상기 메모리 모듈(230)은, 프로그램 영역과 데이터 영역을 포함할 수 있다. Additionally, the memory module 230 may include a program area and a data area.

여기서, 실시예에 따른 프로그램 영역은, 서버를 부팅하는 운영체제(OS: Operating System) 및 기능요소들 사이에 연계될 수 있으며, 데이터 영역은, 서버의 사용에 따라 발생하는 데이터가 저장될 수 있다. Here, the program area according to the embodiment may be linked between the operating system (OS) that boots the server and functional elements, and the data area may store data generated according to the use of the server.

실시예에서, 이러한 메모리 모듈(230)은, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 메모리 모듈(230)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다. In an embodiment, the memory module 230 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and may be a web device that performs the storage function of the memory module 230 on the Internet. It could also be storage (web storage).

또한, 메모리 모듈(230)은, 서버 상에 탈착 가능한 형태의 기록매체일 수 있다. Additionally, the memory module 230 may be a recording medium that is removable from the server.

한편, 상기 프로세서 모듈(210)은, 표 문서 인식 서비스를 구현하기 위하여 전술한 각 유닛(unit)의 전반적인 동작을 컨트롤할 수 있다. Meanwhile, the processor module 210 can control the overall operation of each unit described above in order to implement a table document recognition service.

이러한 프로세서 모듈(210)은, 중앙처리장치(CPU) 및/또는 그래픽처리장치(GPU) 등이 포함된 서버에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리 모듈(230)에 저장된 운영체제(OS) 및/또는 응용 프로그램 등을 실행할 수 있고, 서버에 탑재된 각 구성요소들을 제어할 수 있다. This processor module 210 may be a system-on-chip (SOC) suitable for a server that includes a central processing unit (CPU) and/or graphics processing unit (GPU), and the operating system (OS) stored in the memory module 230 ) and/or application programs, etc., and control each component mounted on the server.

또한, 프로세서 모듈(210)은, 각 구성요소와 내부적으로 시스템 버스(System Bus)에 의해 통신을 수행할 수 있고, 로컬 버스(Local Bus)를 비롯한 소정의 버스 구조들을 하나 이상 포함할 수 있다. Additionally, the processor module 210 may internally communicate with each component through a system bus and may include one or more bus structures, including a local bus.

또한, 프로세서 모듈(210)은, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. In addition, the processor module 210 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and controllers. ), micro-controllers, microprocessors, and other electrical units for performing functions.

이상의 설명에서는, 본 발명의 실시예에 따른 문서 인식서버(200)가 상술된 바와 같은 기능 동작을 수행한다고 설명하였으나, 실시예에 따라서 문서 인식서버(200)에서 수행하는 기능 동작의 적어도 일부를 외부의 장치(예컨대, 단말(100) 등)에서 수행할 수도 있고, 상기 외부의 장치에서 수행하는 기능 동작의 적어도 일부를 상기 문서 인식서버(200)에서 더 수행할 수도 있는 등 다양한 실시예가 가능할 수 있다. In the above description, it has been described that the document recognition server 200 according to the embodiment of the present invention performs the functional operations as described above. However, depending on the embodiment, at least part of the functional operation performed by the document recognition server 200 is externally performed. Various embodiments may be possible, such as performing the function in the device (e.g., terminal 100, etc.), and at least part of the functional operation performed in the external device may be further performed in the document recognition server 200. .

- 표 구조를 포함하는 문서 인식 방법 - Document recognition method including table structure

이하, 본 발명의 실시예에 따른 단말(100)의 적어도 하나 이상의 프로세서에 의하여 실행되는 애플리케이션(111)이 표 구조를 포함하는 문서를 인식하는 방법을 첨부된 도 3 내지 도 8을 참조하여 상세히 설명한다. Hereinafter, a method for the application 111 executed by at least one processor of the terminal 100 according to an embodiment of the present invention to recognize a document including a table structure will be described in detail with reference to FIGS. 3 to 8 attached. do.

본 발명의 실시예에서 상기 단말(100)의 적어도 하나 이상의 프로세서는, 적어도 하나 이상의 메모리(110)에 저장된 적어도 하나 이상의 애플리케이션(111)을 실행하거나 백그라운드 상태로 동작하게 할 수 있다. In an embodiment of the present invention, at least one processor of the terminal 100 may execute at least one application 111 stored in at least one memory 110 or operate in a background state.

이하, 상기 적어도 하나 이상의 프로세서가 상기 애플리케이션(111)의 명령어를 실행하기 위해 동작하여 상술된 표 문서 인식 서비스를 제공하는 방법을 수행하는 것을 상기 애플리케이션(111)이 수행하는 것으로 단축하여 설명한다. Hereinafter, the method of providing the above-described table document recognition service by operating the at least one processor to execute instructions of the application 111 will be briefly described as being performed by the application 111.

도 3은 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법을 설명하기 위한 흐름도이다. Figure 3 is a flowchart illustrating a method for recognizing a document including a table structure according to an embodiment of the present invention.

도 3을 참조하면, 실시예에서 상기 단말(100)의 적어도 하나 이상의 프로세서에 의하여 실행되거나 백그라운드 상태로 동작하는 애플리케이션(111)은, 표 문서 촬영영상을 획득할 수 있다. (S101) Referring to FIG. 3, in the embodiment, the application 111 executed by at least one processor of the terminal 100 or operating in the background may acquire a table document captured image. (S101)

여기서, 실시예에 따른 상기 표 문서 촬영영상이란, 소정의 표 구조를 포함하는 실물 문서(이하, 표 문서)를 촬영한 영상을 의미할 수 있다. Here, the table document captured image according to the embodiment may mean an image captured of an actual document (hereinafter referred to as a table document) including a predetermined table structure.

실시예에서 상기 표 문서는, 서로 다른 다양한 형상이나 양식을 기초로 구현되는 적어도 하나의 표 구조를 포함할 수 있다. In an embodiment, the table document may include at least one table structure implemented based on various different shapes or styles.

예를 들어, 상기 표 구조는, 해당하는 표 구조가 포함하는 적어도 하나의 항목별 위치(좌표), 크기, 타 항목과의 경계 결정방식 및/또는 내부 텍스트의 카테고리 및 개수(예컨대, 제목 카테고리, 내용 카테고리 또는 제목 카테고리+내용 카테고리 등) 등에 따라서 서로 다른 다양한 형태로 구현될 수 있다. For example, the table structure includes the position (coordinates), size, boundary determination method with other items, and/or the category and number of internal text (e.g., title category, It can be implemented in a variety of different forms depending on the content category (content category or title category + content category, etc.).

실시예에서, 애플리케이션(111)은, 이미지 센서(161) 및/또는 외부의 디바이스(예컨대, 문서 인식서버(200) 등)와 연동하여 위와 같은 소정의 표 문서를 촬영한 상기 표 문서 촬영영상을 획득할 수 있다. In an embodiment, the application 111 captures a table document captured image in conjunction with the image sensor 161 and/or an external device (e.g., document recognition server 200, etc.). It can be obtained.

또한, 실시예에서 애플리케이션(111)은, 상기 획득한 표 문서 촬영영상을 기초로 표 구조 유형정보를 획득할 수 있다. (S103) Additionally, in the embodiment, the application 111 may obtain table structure type information based on the acquired table document photographed image. (S103)

즉, 실시예에서 애플리케이션(111)은, 상기 획득한 표 문서 촬영영상이 포함하는 적어도 하나의 표 구조별 유형정보를 획득할 수 있다. That is, in the embodiment, the application 111 may obtain type information for at least one table structure included in the acquired table document captured image.

도 4는 본 발명의 실시예에 따른 표 구조의 유형정보를 설명하기 위한 도면의 일례이다. Figure 4 is an example of a drawing for explaining type information of a table structure according to an embodiment of the present invention.

여기서, 도 4를 참조하면, 실시예에 따른 상기 유형정보란, 소정의 표 구조가 구현되는 방식 즉, 상기 표 구조의 형상이나 양식 등을 개시하는 방식에 따라서 해당 표 형태의 종류를 특정하는 정보일 수 있다. Here, referring to FIG. 4, the type information according to the embodiment is information that specifies the type of the table format according to the manner in which a given table structure is implemented, that is, the manner in which the shape or form of the table structure is disclosed. It can be.

실시예에서, 이러한 유형정보는, 해당 표 구조가 포함하는 적어도 하나의 항목(이하, 표 항목)을 모두 선분으로 구분하는 선분 표 유형 또는 상기 적어도 하나의 표 항목을 공백 또는 공백과 선분에 기초하여 구분하는 공백 표 유형 등을 포함할 수 있다. In an embodiment, this type information may be a line segment table type that divides at least one item (hereinafter referred to as table item) included in the corresponding table structure into line segments, or the at least one table item is divided based on a space or a space and a line segment. It can include separator blank table types, etc.

자세히, 실시예에서 애플리케이션(111)은, 상기 획득한 표 문서 촬영영상 내 각 표 구조에 대한 유형정보를 설정하는 사용자 입력을 획득할 수 있다. In detail, in the embodiment, the application 111 may obtain a user input for setting type information for each table structure in the acquired table document captured image.

그리하여 애플리케이션(111)은, 상기 획득한 사용자 입력을 토대로 상기 표 문서 촬영영상 내 각 표 구조에 대한 유형정보를 결정할 수 있다. Accordingly, the application 111 may determine type information for each table structure in the table document captured image based on the obtained user input.

다른 실시예로, 애플리케이션(111)은, 상기 획득한 표 구조 촬영영상을 기초로 광학 문자 인식(OCR, Optical character recognition)을 수행할 수 있다. In another embodiment, the application 111 may perform optical character recognition (OCR) based on the acquired table structure captured image.

또한, 본 실시예에서 애플리케이션(111)은, 상기 광학 문자 인식(OCR)을 기초로 감지된 문자별 위치좌표가 소정의 분포도에 따라서 분산 배치된 영역(이하, 문자 분산영역)을 검출할 수 있다. Additionally, in this embodiment, the application 111 can detect an area (hereinafter referred to as a character distribution area) where the positional coordinates of each character detected based on the optical character recognition (OCR) are distributed according to a predetermined distribution chart. .

그리고 본 실시예에서 애플리케이션(111)은, 상기 검출된 문자 분산영역 내 각 문자 간 영역(이하, 간격 영역) 상에 소정의 선분이 존재하는지 여부를 판단할 수 있다. And in this embodiment, the application 111 can determine whether a predetermined line segment exists on the area between each character (hereinafter, the gap area) within the detected character distribution area.

또한, 본 실시예에서 애플리케이션(111)은, 상기 문자 분산영역 내 모든 간격 영역 상에 소정의 선분이 존재하면, 해당 문자 분산영역 상의 표 구조에 대한 유형정보를 선분 표 유형으로 결정할 수 있다. Additionally, in this embodiment, if a predetermined line segment exists on all spacing areas within the character distribution area, the application 111 may determine the type information for the table structure on the character distribution area as a line segment table type.

반면, 본 실시예에서 애플리케이션(111)은, 상기 문자 분산영역 내 적어도 일부 간격 영역 상에 소정의 선분이 미존재하면, 해당 문자 분산영역 상의 표 구조에 대한 유형정보를 공백 표 유형으로 결정할 수 있다. On the other hand, in this embodiment, if a predetermined line segment does not exist on at least part of the spacing area within the character distribution area, the application 111 may determine the type information for the table structure on the character distribution area as a blank table type. .

즉, 실시예에 따라서 애플리케이션(111)은, 별도의 사용자 입력이 없어도 OCR 기반의 간단한 알고리즘을 사용하여 자동으로 상기 표 구조 촬영영상 내 각 표 구조에 대한 유형정보를 획득할 수 있다. That is, depending on the embodiment, the application 111 may automatically obtain type information for each table structure in the table structure captured image using a simple OCR-based algorithm even without separate user input.

또한, 실시예에서 애플리케이션(111)은, 상기 획득한 표 구조 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행할 수 있다. (S105) Additionally, in the embodiment, the application 111 may perform a customized table item detection process according to the obtained table structure type information. (S105)

여기서, 실시예에 따른 상기 맞춤형 표 항목 검출 프로세스란, 위와 같이 획득한 표 구조 유형정보(실시예에서, 선분 표 유형 또는 공백 표 유형 등)에 최적화된 방식으로 해당 표 구조의 경계영역(이하, 표 경계) 및 해당 표 구조가 포함하는 적어도 하나의 표 항목 각각을 구분하여 검출하는 프로세스를 의미할 수 있다. Here, the customized table item detection process according to the embodiment refers to the boundary area of the table structure (hereinafter referred to as It may refer to a process of distinguishing and detecting table boundaries) and at least one table item included in the corresponding table structure.

이때, 실시예에 따라서 상기 검출한 표 항목 각각에는, 각 표 항목에 대응되는 영역에 대한 위치좌표가 매칭되어 있을 수 있다. At this time, depending on the embodiment, each of the detected table items may be matched with location coordinates for an area corresponding to each table item.

실시예에서, 이러한 맞춤형 표 항목 검출 프로세스는, 상기 표 구조 유형정보가 선분 표 유형이면 실행되는 선분 기반 표 항목 검출 프로세스(이하, 선분 표 검출 프로세스) 및/또는 상기 표 구조 유형정보가 공백 표 유형이면 실행되는 구조분석 기반 표 항목 검출 프로세스(이하, 공백 표 검출 프로세스) 등을 포함할 수 있다. In an embodiment, this customized table item detection process may include a line segment-based table item detection process (hereinafter referred to as a line segment table detection process), which is executed if the table structure type information is a line segment table type, and/or if the table structure type information is a blank table type. It may include a structural analysis-based table item detection process (hereinafter referred to as a blank table detection process) that is executed in the background.

도 5는 본 발명의 실시예에 따른 선분 기반 표 항목 검출 프로세스를 설명하기 위한 도면의 일례이다. Figure 5 is an example of a diagram for explaining a line segment-based table item detection process according to an embodiment of the present invention.

자세히, 도 5를 참조하면, 실시예에서 애플리케이션(111)은, 상기 표 구조 유형정보가 선분 표 유형이면, 수직선과 수평선을 기초로 상술된 표 경계 및 각각의 표 항목(이하, 표 구조 분석정보)을 검출하는 선분 표 검출 프로세스를 실행할 수 있다. In detail, referring to FIG. 5, in the embodiment, if the table structure type information is a line segment table type, the application 111 determines the above-described table boundary and each table item (hereinafter referred to as table structure analysis information) based on vertical and horizontal lines. ) can be executed.

도 5의 (a)를 참조하면, 보다 상세히, 실시예에서 애플리케이션(111)은, 1) 소정의 선분 검출 알고리즘 및/또는 꼭지점 검출 알고리즘을 기반으로 해당 표 구조에 대한 표 경계 데이터를 획득할 수 있다. Referring to (a) of FIG. 5, in more detail, in the embodiment, the application 111 may: 1) obtain table boundary data for the corresponding table structure based on a predetermined line segment detection algorithm and/or vertex detection algorithm; there is.

자세히, 실시예로 애플리케이션(111)은, 상기 소정의 선분 검출 알고리즘 및/또는 꼭지점 검출 알고리즘을 이용하여 상기 표 구조 촬영영상에 대한 이미지 분석을 수행할 수 있다. In detail, in an embodiment, the application 111 may perform image analysis on the table-structured captured image using the predetermined line segment detection algorithm and/or vertex detection algorithm.

그리고 실시예에서 애플리케이션(111)은, 상기 수행한 이미지 분석의 결과를 토대로 해당하는 표 구조의 외곽선 및/또는 꼭짓점을 검출할 수 있다. And in the embodiment, the application 111 may detect the outline and/or vertex of the corresponding table structure based on the results of the image analysis performed above.

예시적으로, 애플리케이션(111)은, 캐니 에지 검출 알고리즘(Canny edge detection Algorithm)을 사용하여 상기 표 구조 촬영영상 내 표 구조의 외곽선을 검출하고, 더글라스-포이커 알고리즘(Douglas-peucker Algorithm)을 토대로 상기 외곽선을 이루는 꼭짓점을 검출할 수 있다. Illustratively, the application 111 detects the outline of the table structure in the table structure captured image using the Canny edge detection algorithm and based on the Douglas-Peucker Algorithm. Vertices forming the outline can be detected.

또한, 실시예에서 애플리케이션(111)은, 상기 검출한 외곽선 및/또는 꼭짓점에 기초하여 상기 표 구조에 대한 표 경계 데이터를 획득할 수 있다. Additionally, in the embodiment, the application 111 may obtain table boundary data for the table structure based on the detected outline and/or vertex.

실시예로, 애플리케이션(111)은, 상기 검출한 외곽선 및/또는 꼭짓점을 형성하는 선분들(즉, 수직선과 수평선)을 기준으로 각 경계영역을 형성하는 표 경계 데이터를 획득할 수 있다. In an embodiment, the application 111 may obtain table boundary data forming each boundary area based on the detected outlines and/or line segments (i.e., vertical and horizontal lines) forming the vertices.

도 5의 (b)를 참조하면, 계속해서, 실시예에서 애플리케이션(111)은, 2) 상기 선분 검출 알고리즘 및/또는 꼭지점 검출 알고리즘에 기초하여 검출한 외곽선 및/또는 꼭지점을 기반으로 해당 표 구조가 포함하는 각각의 표 항목 데이터를 획득할 수 있다. Referring to (b) of FIG. 5, in the embodiment, the application 111 2) creates a corresponding table structure based on the outline and/or vertex detected based on the line segment detection algorithm and/or vertex detection algorithm. Data for each table item included can be obtained.

자세히, 실시예에서 애플리케이션(111)은, 상술된 바와 같이 검출된 외곽선에 대하여 검출한 꼭짓점이 4개인 경우, 해당 외곽선(이하, 사각박스 외곽선)을 상기 표 구조가 포함하는 각각의 표 항목 구분자로 설정할 수 있다. In detail, in the embodiment, when there are four detected vertices for the detected outline as described above, the application 111 uses the corresponding outline (hereinafter referred to as a square box outline) as a separator for each table item included in the table structure. You can set it.

그리고 실시예에서 애플리케이션(111)은, 상기 설정된 표 항목 구분자가 각기 포함하는 영역 즉, 상기 표 항목 구분자를 외곽선으로 하는 사각박스 영역을 토대로 상기 표 구조에 대한 표 항목 데이터를 획득할 수 있다. And in an embodiment, the application 111 may obtain table item data for the table structure based on the area included in each of the set table item separators, that is, a square box area with the table item separator as an outline.

즉, 실시예에서 애플리케이션(111)은, 상기 표 항목 구분자를 외곽선으로 하는 각각의 사각박스 영역을 해당하는 표 구조의 표 항목 영역으로서 설정하여 상기 표 항목 데이터를 획득할 수 있다. That is, in the embodiment, the application 111 may obtain the table item data by setting each square box area with the table item separator as an outline as a table item area of the corresponding table structure.

그리하여 애플리케이션(111)은, 소정의 표 구조 촬영영상 내에서 선분 표 유형을 가지는 표 구조에 대한 분석정보(즉, 실시예에서 해당하는 표 구조에 대한 경계 및 항목 데이터)를 비교적 적은 데이터 처리로 구현되는 알고리즘을 활용하여 빠르고 정확하게 획득할 수 있다. Accordingly, the application 111 implements analysis information about a table structure having a line segment table type (i.e., boundary and item data for the corresponding table structure in the embodiment) within a predetermined table structure captured image with relatively little data processing. It can be obtained quickly and accurately by using the algorithm that is used.

이때, 실시예에서 애플리케이션(111)은, 각각의 표 항목 간 중복 검출을 회피하기 위하여, 상기 사각박스 영역 간 포함관계를 판별할 수 있다. At this time, in the embodiment, the application 111 may determine the inclusion relationship between the square box areas in order to avoid duplicate detection between each table item.

그리고 실시예에서 애플리케이션(111)은, 상기 포함관계 판별의 결과 적어도 둘 이상의 사각박스 영역을 포함하는 영역(이하, 중첩 박스영역)을 색출할 수 있다. And in the embodiment, the application 111 may search for an area containing at least two or more square box areas (hereinafter referred to as an overlapping box area) as a result of the determination of the inclusion relationship.

또한, 실시예에서 애플리케이션(111)은, 상기 색출된 중첩 박스영역을 형성하는 사각박스 외곽선을 상기 표 항목 구분자로부터 제외시킬 수 있다. Additionally, in the embodiment, the application 111 may exclude the outline of a square box forming the identified overlapping box area from the table item separator.

즉, 실시예에서 애플리케이션(111)은, 적어도 둘 이상의 표 항목을 포함하는 영역은 상기 표 항목 데이터에서 제외시킴으로써, 해당 표 구조 내 각각의 표 항목들을 중복없이 구분 및 검출할 수 있다. That is, in the embodiment, the application 111 can distinguish and detect each table item in the corresponding table structure without duplication by excluding an area containing at least two or more table items from the table item data.

다시 돌아와서, 또한 실시예에서 애플리케이션(111)은, 3) 상술된 바와 같이 획득한 표 경계 및 표 항목 데이터를 기초로 상기 표 구조 분석정보를 생성할 수 있다. Returning again, also in the embodiment, the application 111 may 3) generate the table structure analysis information based on the table boundary and table item data obtained as described above.

이처럼, 실시예에서 애플리케이션(111)은, 상기 표 구조 유형정보가 선분 표 유형일 시 상술된 프로세스를 따라서 해당 표 구조에 대한 표 구조 분석정보를 검출하는 선분 표 검출 프로세스를 수행할 수 있다. As such, in the embodiment, when the table structure type information is a line segment table type, the application 111 may perform a line segment table detection process to detect table structure analysis information for the table structure according to the above-described process.

도 6은 본 발명의 실시예에 따른 구조분석 기반 표 항목 검출 프로세스를 설명하기 위한 도면의 일례이다. Figure 6 is an example of a diagram for explaining a structure analysis-based table item detection process according to an embodiment of the present invention.

한편, 도 6을 참조하면, 실시예에서 애플리케이션(111)은, 상기 표 구조 유형정보가 공백 표 유형이면, 문자 간 간격에 기반한 문자 배열 형태를 기초로 상기 표 구조 분석정보를 검출하는 공백 표 검출 프로세스를 실행할 수 있다. Meanwhile, referring to FIG. 6, in the embodiment, if the table structure type information is a blank table type, the application 111 detects the table structure analysis information based on the character arrangement type based on the spacing between characters. The process can be executed.

자세히, 실시예에서 애플리케이션(111)은, 1) 소정의 이진화 알고리즘을 기초로 해당 표 구조가 포함하는 각각의 표 항목 데이터를 획득할 수 있다. In detail, in the embodiment, the application 111 may: 1) obtain each table item data included in the table structure based on a predetermined binarization algorithm.

보다 상세히, 실시예에서 애플리케이션(111)은, 실행길이 평활 알고리즘(RLSA, Run-Length Smoothing Algorithm)과 같은 소정의 이진화 알고리즘을 이용하여 상기 표 구조 촬영영상에 대한 이진화를 수행할 수 있다. In more detail, in the embodiment, the application 111 may perform binarization on the table-structured captured image using a predetermined binarization algorithm such as a Run-Length Smoothing Algorithm (RLSA).

참고적으로, 상기 실행길이 평활 알고리즘이란, 소정의 영상(실시예에서, 표 구조 촬영영상) 내 흰색 화소에 대하여 수직 및/또는 수평 방향으로 임의의 거리 L 화소거리 이내에 소정의 문자를 출력하는 화소(즉, 흰색 이외의 색상을 표시하는 화소 등)가 존재하는지 판단하고, 상기 L 화소거리 이내에 소정의 문자를 출력하는 화소(이하, 문자출력 화소)가 존재한다고 판단되면, 해당 문자출력 화소의 픽셀값(Pixel value)을 255 즉, 흰색 화소로 변환함으로써 이진화를 구현하는 알고리즘일 수 있다. For reference, the run length smoothing algorithm refers to a pixel that outputs a predetermined character within a random distance L pixel distance in the vertical and/or horizontal direction with respect to a white pixel in a predetermined image (in the embodiment, a table structure captured image). (i.e., a pixel displaying a color other than white, etc.) is determined to exist, and if it is determined that a pixel that outputs a certain character (hereinafter referred to as a character output pixel) exists within the L pixel distance, the pixel of the corresponding character output pixel It may be an algorithm that implements binarization by converting the pixel value to 255, that is, a white pixel.

구체적으로, 도 6의 (a)를 참조하면, 실시예에서 애플리케이션(111)은, 소정의 이진화 알고리즘을 기초로, 상기 표 구조 촬영영상 내 흰색 화소에 대하여 수직 및 수평 방향으로 임의의 거리 L 화소거리 이내에 상기 문자출력 화소가 존재하면, 해당 문자출력 화소의 픽셀값을 255로 변환하는 제1 이진화를 수행할 수 있다. Specifically, referring to (a) of FIG. 6, in the embodiment, the application 111, based on a predetermined binarization algorithm, divides L pixels at a random distance in the vertical and horizontal directions with respect to the white pixels in the table structure captured image. If the text output pixel exists within the distance, first binarization can be performed to convert the pixel value of the text output pixel to 255.

또한, 실시예에서 애플리케이션(111)은, 위와 같이 제1 이진화된 표 구조 촬영영상(이하, 제1 이진화 영상)을 기초로 해당 표 구조를 표시하는 전체 영역을 검출할 수 있다. Additionally, in the embodiment, the application 111 may detect the entire area displaying the table structure based on the first binarized table structure captured image (hereinafter, first binarized image) as described above.

자세히, 실시예로 애플리케이션(111)은, 상기 제1 이진화 영상 내에서 소정의 거리 이내의 인접 영역에 포함되는 적어도 하나의 활성화 화소(즉, 픽셀값이 255로 변환된 화소)를 하나로 그룹화할 수 있다. In detail, in an embodiment, the application 111 may group at least one activated pixel (i.e., a pixel whose pixel value is converted to 255) included in an adjacent area within a predetermined distance within the first binarized image into one. there is.

그리고 실시예에서 애플리케이션(111)은, 위와 같이 그룹화된 활성화 화소 영역들을 모두 포함하는 최소 영역에 기초한 사각박스 영역(이하, 총체 사각박스 영역)을 추출할 수 있다. And in the embodiment, the application 111 may extract a rectangular box area (hereinafter referred to as total rectangular box area) based on the minimum area including all activated pixel areas grouped as above.

또한, 실시예에서 애플리케이션(111)은, 상기 추출된 총체 사각박스 영역을 상기 표 구조가 차지하는 전체 영역으로서 설정함으로써, 상기 제1 이진화 영상에 기초한 상기 표 구조의 전체 영역을 검출할 수 있다. Additionally, in the embodiment, the application 111 may detect the entire area of the table structure based on the first binarized image by setting the extracted total square box area as the entire area occupied by the table structure.

또한, 도 6의 (b)를 참조하면, 실시예에서 애플리케이션(111)은, 상기 표 구조 촬영영상 내에서 상기 검출된 표 구조 전체 영역에 대응되는 영역(이하, 표 대응 영역)을 기초로 제2 이진화를 수행할 수 있다. In addition, referring to (b) of FIG. 6, in the embodiment, the application 111 creates a table structure based on the area corresponding to the entire detected table structure area (hereinafter, table corresponding area) within the table structure captured image. 2 Binarization can be performed.

자세히, 실시예에서 애플리케이션(111)은, 소정의 이진화 알고리즘을 기초로, 상기 표 대응 영역 내 흰색 화소에 대하여 수평 방향으로 임의의 거리 L 화소거리 이내에 상기 문자출력 화소가 존재하면, 해당 문자출력 화소의 픽셀값을 255로 변환하는 제2 이진화를 수행할 수 있다. In detail, in the embodiment, based on a predetermined binarization algorithm, if the text output pixel exists within a certain distance L pixel distance in the horizontal direction with respect to the white pixel in the table corresponding area, the corresponding text output pixel is selected. A second binarization can be performed to convert the pixel value of to 255.

그리고 애플리케이션(111)은, 상기 제2 이진화된 표 대응 영역(이하, 제2 이진화 영상)을 기초로 해당 표 구조가 포함하는 각각의 표 항목 데이터를 획득할 수 있다. And the application 111 may obtain each table item data included in the table structure based on the second binarized table corresponding area (hereinafter, second binarized image).

자세히, 실시예에서 애플리케이션(111)은, 상기 제2 이진화 영상 내에서 소정의 거리 이내의 인접 영역에 포함되는 적어도 하나의 활성화 화소(즉, 픽셀값이 255로 변환된 화소)를 하나로 그룹화할 수 있다. In detail, in the embodiment, the application 111 may group at least one activated pixel (i.e., a pixel whose pixel value is converted to 255) included in an adjacent area within a predetermined distance within the second binarized image into one. there is.

또한, 실시예에서 애플리케이션(111)은, 위와 같이 그룹화된 활성화 화소 영역 각각을 상기 각각의 표 항목으로서 지정함으로써, 상기 표 항목 데이터를 획득할 수 있다. Additionally, in the embodiment, the application 111 may obtain the table item data by designating each activated pixel area grouped as above as each table item.

이때, 실시예에서 애플리케이션(111)은, 하나의 표 구조가 포함하는 표 항목들이 수직 방향으로 중첩되는지 여부를 판단할 수 있다. At this time, in the embodiment, the application 111 may determine whether table items included in one table structure overlap in the vertical direction.

이를 통해 애플리케이션(111)은, 동일한 행(row)에 속하는 표 항목 요소들을 검출 및 통합할 수 있다. Through this, the application 111 can detect and integrate table item elements belonging to the same row.

자세히, 실시예에서 애플리케이션(111)은, 적어도 둘 이상의 표 항목에 대하여, 상단에 위치하는 표 항목(이하, 상측 경계상자)과 하단에 위치하는 표 항목(이하, 하측 경계상자) 각각의 좌표정보를 기초로 상기 수직 방향으로의 중첩 여부를 판단할 수 있다. In detail, in the embodiment, the application 111 provides coordinate information for each of the table items located at the top (hereinafter referred to as upper bounding box) and the table items located at the bottom (hereinafter referred to as lower bounding boxes) for at least two or more table items. Based on this, it can be determined whether there is overlap in the vertical direction.

보다 상세히, 상기 상측 경계상자의 수직 좌표정보를 (ymin(A), ymax(A))라 하고 상기 하측 경계상자의 수직 좌표정보를 (ymin(B), ymax(B))라고 할 때, 하기 [수식 1]에 따른 조건을 충족하는지 판단할 수 있다. In more detail, assuming that the vertical coordinate information of the upper bounding box is (ymin(A), ymax(A)) and the vertical coordinate information of the lower bounding box is (ymin(B), ymax(B)), It can be determined whether the conditions according to [Formula 1] are met.

[수식 1][Formula 1]

또한, 실시예에서 애플리케이션(111)은, 상기 [수식 1]에 따른 조건을 충족하는 경우, 해당하는 표 항목들이 수직 방향으로 중첩된 것으로 판단할 수 있다. Additionally, in the embodiment, if the conditions according to [Equation 1] are met, the application 111 may determine that the corresponding table items overlap in the vertical direction.

그리하면 애플리케이션(111)은, 상기 중첩된 것으로 판단된 표 항목들을 하나의 표 항목으로 통합할 수 있다. Then, the application 111 can integrate the table items determined to be overlapping into one table item.

즉, 실시예에서 애플리케이션(111)은, 상기 획득한 표 항목 중 적어도 일부 표 항목이 수직 방향으로 중첩되는 경우 해당 표 항목들을 하나로 통합할 수 있고, 이를 통해 동일한 행에 속하는 표 항목을 보다 높은 정확도로 검출해 명확히 인식할 수 있다. That is, in the embodiment, the application 111 may integrate the table items into one when at least some of the obtained table items overlap in the vertical direction, and through this, table items belonging to the same row can be combined with higher accuracy. It can be detected and clearly recognized.

또한, 실시예에서 애플리케이션(111)은, 2) 위와 같이 획득한 표 항목 데이터에 기초하여 해당 표 구조에 대한 표 경계 데이터를 획득할 수 있다. Additionally, in the embodiment, the application 111 may 2) obtain table boundary data for the corresponding table structure based on the table item data obtained as above.

자세히, 실시예에서 애플리케이션(111)은, 상기 획득한 표 항목 데이터에 따른 각각의 표 항목별 배치 형태(즉, 위치좌표)를 기초로 해당 표 구조의 행/열 정보를 제공하는 항목 배열정보를 획득할 수 있다. In detail, in the embodiment, the application 111 provides item arrangement information that provides row/column information of the table structure based on the arrangement type (i.e., location coordinates) of each table item according to the acquired table item data. It can be obtained.

실시예에서, 상기 항목 배열정보는, 해당하는 표 구조의 전체 행/열 개수 및/또는 행/열 별 위치좌표 정보 등을 포함할 수 있다. In an embodiment, the item arrangement information may include the total number of rows/columns of the corresponding table structure and/or location coordinate information for each row/column.

보다 상세히, 실시예로 애플리케이션(111)은, 소정의 제1 수평선 대비 하단에 위치하고 소정의 제2 수평선 대비 상단에 위치하며 나열된 적어도 하나의 표 항목을 검출하고 이를 제1 행 그룹으로 설정할 수 있다. In more detail, in an embodiment, the application 111 may detect at least one table item listed below and above a predetermined first horizontal line and set it as the first row group.

또한, 애플리케이션(111)은, 상기 제2 수평선 대비 하단에 위치하고 소정의 제3 수평선 상에 나열된 적어도 하나의 표 항목을 검출하고 이를 제2 행 그룹으로 설정할 수 있다. Additionally, the application 111 may detect at least one table item located below the second horizontal line and listed on a predetermined third horizontal line and set it as the second row group.

동일한 방식으로, 애플리케이션(111)은, 소정의 제N 수평선 대비 하단에 위치하고 소정의 제N+1 수평선 대비 상단에 위치하며 나열된 적어도 하나의 표 항목이 불출될 때까지 상술된 행 그룹 설정 프로세스를 반복 수행할 수 있다. In the same manner, the application 111 repeats the row group setting process described above until at least one table item listed and located below the predetermined Nth horizontal line and located above the predetermined N+1th horizontal line is retrieved. It can be done.

그리고 애플리케이션(111)은, 상기 표 항목이 불출되면, 해당 시점까지 설정된 제1 내지 제N 행 그룹에 기초하여 상기 표 구조의 행 정보를 결정할 수 있다. And when the table item is issued, the application 111 can determine row information of the table structure based on the first to Nth row groups set up to that point.

한편, 실시예로 애플리케이션(111)은, 소정의 제1 수직선의 일측(이하, 우측에 기준하여 설명)에 위치하고 소정의 제2 수직선의 타측(이하, 좌측에 기준하여 설명)에 위치하며 나열된 적어도 하나의 표 항목을 검출하고 이를 제1 열 그룹으로 설정할 수 있다. Meanwhile, in the embodiment, the application 111 is located on one side of a predetermined first vertical line (hereinafter described with reference to the right side) and on the other side of a predetermined second vertical line (hereinafter described with reference to the left side) and is located at least as listed. You can detect one table item and set it as the first column group.

또한, 애플리케이션(111)은, 소정의 제2 수직선의 우측에 위치하고 소정의 제3 수직선의 좌측에 위치하며 나열된 적어도 하나의 표 항목을 검출하고 이를 제2 열 그룹으로 설정할 수 있다.Additionally, the application 111 may detect at least one table item listed to the right of a second vertical line and to the left of a third vertical line and set it as the second column group.

동일한 방식으로, 애플리케이션(111)은, 소정의 제N 수직선 대비 우측에 위치하고 소정의 제N+1 수직선 대비 좌측에 위치하며 나열된 적어도 하나의 표 항목이 불출될 때까지 상술된 열 그룹 설정 프로세스를 반복 수행할 수 있다. In the same manner, the application 111 repeats the above-described column group setting process until at least one table item listed and located to the right relative to the predetermined N-th vertical line and to the left relative to the predetermined N+1-th vertical line is retrieved. It can be done.

그리고 애플리케이션(111)은, 상기 표 항목이 불출되면, 해당 시점까지 설정된 제1 내지 제N 열 그룹에 기초하여 상기 표 구조의 열 정보를 결정할 수 있다. And when the table item is issued, the application 111 can determine the column information of the table structure based on the first to Nth column groups set up to that point.

또한, 애플리케이션(111)은, 위와 같이 결정한 행 정보와 열 정보를 포함하여 상기 표 구조에 대한 항목 배열정보를 생성 및 획득할 수 있다. Additionally, the application 111 can generate and obtain item arrangement information for the table structure, including the row information and column information determined as above.

계속해서, 실시예에서 애플리케이션(111)은, 상기 획득한 항목 배열정보를 토대로 상기 표 경계 데이터를 획득할 수 있다. Subsequently, in the embodiment, the application 111 may obtain the table boundary data based on the obtained item arrangement information.

즉, 애플리케이션(111)은, 상기 획득한 항목 배열정보에 따른 행/열 정보를 기준으로 해당하는 각각의 표 항목 간의 경계영역을 형성하는 표 경계 데이터를 획득할 수 있다. That is, the application 111 can obtain table boundary data that forms a boundary area between each corresponding table item based on row/column information according to the obtained item arrangement information.

이때, 실시예에서 애플리케이션(111)은, 상기와 같은 열 정보를 도출할 시 동일한 열에 귀속되는 표 항목 요소를 보다 정확하게 구분하기 위하여, 기준점 기반 열 구분 프로세스를 수행할 수 있다. At this time, in the embodiment, the application 111 may perform a reference point-based column classification process to more accurately distinguish table item elements belonging to the same column when deriving the above column information.

여기서, 실시예에 따른 상기 기준점 기반 열 구분 프로세스란, 동일한 열에 귀속되는 표 항목 요소들은 같은 정렬방향(예컨대, 모두 왼쪽, 가운데, 오른쪽 또는 양쪽 정렬 등)을 가진다는 전제를 기초로 해당하는 표 구조 내 표 항목들에 대한 열 정보를 도출하는 프로세스를 의미할 수 있다. Here, the reference point-based column classification process according to the embodiment refers to a table structure based on the premise that table item elements belonging to the same column have the same alignment direction (e.g., all aligned to the left, center, right, or both sides, etc.). This can refer to the process of deriving column information about my table items.

이하의 설명에서는, 효과적인 설명을 위하여 상기 정렬방향을 가운데 정렬에 기준하여 설명하나 이에 한정되는 것은 아니다. In the following description, for effective explanation, the alignment direction will be described based on center alignment, but is not limited thereto.

도 7은 본 발명의 실시예에 따른 기준점 기반 열 구분 프로세스를 설명하기 위한 흐름도이고, 도 8은 본 발명의 실시예에 따른 기준점 기반 열 구분 프로세스를 설명하기 위한 도면의 일례이다. FIG. 7 is a flowchart for explaining a reference point-based column classification process according to an embodiment of the present invention, and FIG. 8 is an example of a drawing for explaining a reference point-based column classification process according to an embodiment of the present invention.

자세히, 도 7 및 도 8을 참조하면, 실시예에서 애플리케이션(111)은, 1] 상기 행 정보에 따른 첫 번째 행(즉, 제1 행 그룹)에 포함되는 적어도 하나의 표 항목(이하, 첫 행 항목요소: FRE)을 독출할 수 있다. (S201)In detail, referring to FIGS. 7 and 8, in the embodiment, the application 111: 1] at least one table item (hereinafter referred to as first) included in the first row (i.e., first row group) according to the row information. Row item element: FRE) can be read. (S201)

즉, 애플리케이션(111)은, 상기 제1 행 그룹 상에서 수평 방향으로 소정의 문자(예컨대, 단어 및/또는 문장 블록 등)를 포함하는 적어도 하나의 표 항목 각각을 상기 첫 행 항목요소(FRE)로서 획득할 수 있다. That is, the application 111 selects each of at least one table item containing a predetermined character (e.g., a word and/or sentence block, etc.) in the horizontal direction on the first row group as the first row item element (FRE). It can be obtained.

또한, 실시예에서 애플리케이션(111)은, 2] 또한, 실시예에서 애플리케이션(111)은, 상기 독출한 첫 행 항목요소(FRE) 각각에 대하여 중앙 기준점(CBP)을 설정할 수 있다. (S203)Additionally, in the embodiment, the application 111 may set a central reference point (CBP) for each of the read first row element elements (FRE). (S203)

자세히, 실시예에서 애플리케이션(111)은, 소정의 제1 첫 행 항목요소의 경계 영역을 나타내는 경계상자(이하, 성분 경계상자) 상의 최좌측 지점을 기초로 상기 제1 첫 행 항목요소에 대한 좌측 기준점(FLP)을 설정할 수 있다. In detail, in an embodiment, the application 111 determines the left side for a given first first row element based on the leftmost point on the bounding box (hereinafter referred to as component bounding box) representing the boundary area of the first first row element. You can set a reference point (FLP).

또한, 실시예에서 애플리케이션(111)은, 상기 제1 첫 행 항목요소의 성분 경계상자 상의 최우측 지점을 기초로 상기 제1 첫 행 항목요소에 대한 우측 기준점(FRP)을 설정할 수 있다. Additionally, in the embodiment, the application 111 may set a right reference point (FRP) for the first first row item element based on the rightmost point on the component bounding box of the first first row item element.

그리고 실시예에서 애플리케이션(111)은, 상기 제1 첫 행 항목요소에 대하여 설정한 좌측 기준점(FLP)과 우측 기준점(FRP)을 기초로 상기 제1 첫 행 항목요소의 중앙 기준점(CBP)을 설정할 수 있다. And in the embodiment, the application 111 sets the center reference point (CBP) of the first first row element based on the left reference point (FLP) and right reference point (FRP) set for the first first row element. You can.

실시예로, 애플리케이션(111)은, 상기 제1 첫 행 항목요소의 좌측 기준점(FLP) 및 우측 기준점(FRP) 각각에 대한 위치좌표에 기초하여 상기 좌측 기준점(FLP) 및 우측 기준점(FRP) 간의 정중앙 지점을 도출할 수 있다. In an embodiment, the application 111 determines the distance between the left reference point (FLP) and the right reference point (FRP) based on the position coordinates for each of the left reference point (FLP) and right reference point (FRP) of the first first row item element. The exact center point can be derived.

그리고 애플리케이션(111)은, 상기 도출된 정중앙 지점을 상기 중앙 기준점(CBP)으로서 설정할 수 있다. And the application 111 may set the derived exact center point as the central reference point (CBP).

또한, 실시예에서 애플리케이션(111)은, 3] 상기 설정한 중앙 기준점(CBP)으로부터 하측 수직방향으로 연장되는 기준선(이하, 중앙 기준선: CBL)을 설정할 수 있다. (S205)Additionally, in the embodiment, the application 111 may set a reference line (hereinafter, central reference line: CBL) extending vertically downward from the 3] set central reference point (CBP). (S205)

이때, 상기 중앙 기준선(CBL)은, 상기 제1 첫 행 항목요소의 하측 영역 상에 위치하는 적어도 하나의 표 항목 영역 상을 가로지르는 형상으로 구현될 수 있다. At this time, the central reference line (CBL) may be implemented in a shape that crosses at least one table item area located on the lower area of the first first row item element.

또한, 실시예에서 애플리케이션(111)은, 4] 상기 각각의 첫 행 항목요소(FRE)별 적어도 하나의 종속 항목요소(DE)를 검출할 수 있다. (S207)Additionally, in the embodiment, the application 111 may 4] detect at least one dependent item element (DE) for each first row item element (FRE). (S207)

여기서, 실시예에 따른 상기 종속 항목요소(DE)란, 소정의 첫 행 항목요소(FRE)의 하측 영역(이하, 종속 영역) 상에 수직 방향을 따라서 위치하는 적어도 하나의 표 항목을 의미할 수 있다. Here, the dependent item element (DE) according to the embodiment may mean at least one table item located along the vertical direction on the lower area (hereinafter, dependent area) of a predetermined first row item element (FRE). there is.

자세히, 실시예에서 애플리케이션(111)은, 상술된 표 항목 데이터에 기초하여, 상기 제1 첫 행 항목요소의 종속 영역 상에서 수직 방향으로 배치된 적어도 하나의 표 항목을 상기 제1 첫 행 항목요소에 대한 종속 항목요소(DE)로서 검출할 수 있다. In detail, in an embodiment, the application 111 may, based on the above-described table item data, add at least one table item arranged vertically on a dependent area of the first first row item element to the first first row item element. It can be detected as a dependent element (DE).

또한, 실시예에서 애플리케이션(111)은, 5] 상기 검출된 적어도 하나의 종속 항목요소(DE)별 좌측 기준점(이하, 종속 좌측점: SLP) 및 상기 종속 항목요소(DE)별 우측 기준점(이하, 종속 우측점: SRP)을 설정할 수 있다. (S209)Additionally, in the embodiment, the application 111 configures 5] a left reference point (hereinafter referred to as dependent left point: SLP) for each detected at least one dependent element element (DE) and a right reference point (hereinafter referred to as dependent left point) for each dependent element element (DE). , dependent right point: SRP) can be set. (S209)

자세히, 실시예에서 애플리케이션(111)은, 소정의 제1 종속 항목요소의 경계 영역을 나타내는 경계상자(이하, 종속 경계상자) 상의 최좌측 지점을 기초로 상기 제1 종속 항목요소에 대한 종속 좌측점(SLP)을 설정할 수 있다. In detail, in the embodiment, the application 111 determines the dependent left point for the first dependent element based on the leftmost point on the bounding box (hereinafter referred to as dependent bounding box) representing the boundary area of the first dependent element. (SLP) can be set.

또한, 애플리케이션(111)은, 소정의 제1 종속 항목요소의 종속 경계상자 상의 최우측 지점을 기초로 상기 제1 종속 항목요소에 대한 종속 우측점(SRP)을 설정할 수 있다. Additionally, the application 111 may set a dependent right point (SRP) for a first dependent element based on the rightmost point on the dependent bounding box of the first dependent element.

또한, 실시예에서 애플리케이션(111)은, 6] 상기 설정한 종속 좌측점(SLP) 및 종속 우측점(SRP)과 상기 중앙 기준선(CBL)과의 수평거리가 소정의 거리(d) 이하이면, 해당 종속 항목요소(DE)를 상기 첫 행 항목요소(FRE)와 동일한 열에 속하는 표 항목으로 결정할 수 있다. (S211)In addition, in the embodiment, the application 111: 6] If the horizontal distance between the set dependent left point (SLP) and dependent right point (SRP) and the central reference line (CBL) is less than a predetermined distance (d), The corresponding dependent element element (DE) can be determined as a table item belonging to the same column as the first row element element (FRE). (S211)

즉, 실시예로 애플리케이션(111)은, 상기 제1 종속 항목요소의 종속 좌측점(SLP) 및 종속 우측점(SRP)과 상기 제1 첫 행 항목요소에 따른 중앙 기준선(CBL) 간의 수평거리가 소정의 거리(d) 이하라고 판단되면, 상기 제1 종속 항목요소를 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 표 항목으로 결정할 수 있다. That is, in an embodiment, the application 111 determines that the horizontal distance between the dependent left point (SLP) and dependent right point (SRP) of the first dependent item element and the central reference line (CBL) according to the first first row item element is If it is determined that the distance d is less than a predetermined distance, the first dependent item element may be determined to be a table item belonging to the same column as the first first row item element.

이와 같이, 애플리케이션(111)은, 상술된 바와 같이 실행되는 기준점 기반 열 구분 프로세스를 구현함으로써, 공백 표 유형을 가지는 소정의 표 구조(실시예에서, 공백으로 열이 구분되는 표 구조 등)에 대한 열 정보를 도출할 시 같은 열(column)에 속하는 표 항목들을 보다 명확하게 구분 및 검출할 수 있다. In this way, application 111 can create a table structure for a given table structure with a blank table type (in an embodiment, a table structure with columns separated by blanks, etc.) by implementing a reference point-based column separation process that is implemented as described above. When deriving column information, table items belonging to the same column can be more clearly distinguished and detected.

실시예에서 따라서, 애플리케이션(111)은, 상기 종속 좌측점(SLP) 및 상기 종속 우측점(SRP)을 기초로 상기 적어도 하나의 종속 항목요소별 정중앙 지점을 나타내는 종속 중앙점을 설정할 수 있다. According to the embodiment, the application 111 may set a dependent center point indicating the exact center point for each of the at least one dependent item element based on the dependent left point (SLP) and the dependent right point (SRP).

또한, 본 실시예에서 애플리케이션(111)은, 상기 설정된 종속 중앙점이 상기 중앙 기준선(CBL) 상에 포함되는지 여부를 판단할 수 있다. Additionally, in this embodiment, the application 111 may determine whether the set dependent center point is included in the central baseline (CBL).

이때, 본 실시예에서 애플리케이션(111)은, 상기 중앙 기준선(CBL) 상에 소정의 종속 중앙점이 불포함되면, 상기 중앙 기준선(CBL) 상에 종속 중앙점이 불포함된 종속 항목요소(이하, 타정렬 항목요소)의 정렬방향을 판별할 수 있다. At this time, in this embodiment, if a predetermined dependent center point is not included on the central reference line (CBL), the application 111 operates the dependent item element (hereinafter, other sort item) that does not include the dependent center point on the central reference line (CBL). element) can be determined.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 제1 첫 행 항목요소에 대한 좌측 기준점(FLP) 및/또는 상기 제1 첫 행 항목요소에 대한 우측 기준점(FRP) 중 적어도 하나를 기초로 제2 서브 기준선을 설정할 수 있다. In detail, in this embodiment, the application 111 is based on at least one of the left reference point (FLP) for the first first row element and/or the right reference point (FRP) for the first first row element. 2 You can set a sub baseline.

보다 상세히, 본 실시예에서 애플리케이션(111)은, 상기 좌측 기준점(FLP)으로부터 하측 수직방향으로 연장되는 제2 좌측 서브 기준선 및/또는 상기 우측 기준점(FRP)으로부터 하측 수직방향으로 연장되는 제2 우측 서브 기준선을 설정할 수 있다. In more detail, in this embodiment, the application 111 may include a second left sub-baseline extending vertically downward from the left reference point (FLP) and/or a second right sub-reference line extending vertically downward from the right reference point (FRP). You can set a sub baseline.

또한, 본 실시예에서 애플리케이션(111)은, 상기 설정된 제2 서브 기준선을 토대로 상기 타정렬 항목요소에 대한 정렬방향을 판별할 수 있다. Additionally, in this embodiment, the application 111 may determine the alignment direction for the other alignment item elements based on the set second sub reference line.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 제2 좌측 서브 기준선 상에 상기 타정렬 항목요소의 종속 좌측점(SLP)이 포함되는지 여부를 판단할 수 있다. In detail, in this embodiment, the application 111 may determine whether the dependent left point (SLP) of the other sorted item element is included in the second left sub reference line.

그리고 애플리케이션(111)은, 상기 종속 좌측점(SLP)이 상기 제2 좌측 서브 기준선 상에 포함되면, 해당 타정렬 항목요소의 정렬방향을 좌측 정렬로 판별할 수 있다. And, if the dependent left point (SLP) is included in the second left sub reference line, the application 111 may determine the alignment direction of the corresponding other aligned item element as left alignment.

동일한 방식으로, 본 실시예에서 애플리케이션(111)은, 상기 제2 우측 서브 기준선 상에 상기 타정렬 항목요소의 종속 우측점(SRP)이 포함되는지 여부를 판단할 수 있다. In the same way, in this embodiment, the application 111 may determine whether the dependent right point (SRP) of the other sorted item element is included in the second right sub reference line.

그리고 애플리케이션(111)은, 상기 종속 우측점(SRP)이 상기 제2 우측 서브 기준선 상에 포함되면, 해당 타정렬 항목요소의 정렬방향을 우측 정렬로 판별할 수 있다. And, if the dependent right point (SRP) is included in the second right sub reference line, the application 111 may determine the alignment direction of the corresponding other aligned item element to be right aligned.

또한, 본 실시예에서 애플리케이션(111)은, 위와 같이 판별된 정렬방향을 기초로 해당하는 타정렬 항목요소가 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 표 항목인지 결정할 수 있다. Additionally, in this embodiment, the application 111 may determine whether the corresponding other sorted item element belongs to the same column as the first first row item element based on the sorting direction determined as above.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 타정렬 항목요소가 좌측 정렬로 판별되면, 상기 제2 좌측 서브 기준선과 해당 타정렬 항목요소의 종속 우측점(SRP) 간의 수평거리를 산출할 수 있다. In detail, in this embodiment, if the other-aligned item element is determined to be left-aligned, the application 111 can calculate the horizontal distance between the second left sub reference line and the dependent right point (SRP) of the other-aligned item element. there is.

또한, 본 실시예에서 애플리케이션(111)은, 상기 산출한 수평거리가 소정의 거리(d) 이하이면, 해당 타정렬 항목요소를 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 표 항목으로 결정할 수 있다. Additionally, in this embodiment, if the calculated horizontal distance is less than or equal to a predetermined distance d, the application 111 may determine the other sorted item element to be a table item belonging to the same column as the first first row item element. there is.

동일한 방식으로, 본 실시예에서 애플리케이션(111)은, 상기 타정렬 항목요소가 우측 정렬로 판별되면, 상기 제2 우측 서브 기준선과 해당 타정렬 항목요소의 종속 좌측점(SLP) 간의 수평거리를 산출할 수 있다. In the same way, in this embodiment, the application 111 calculates the horizontal distance between the second right sub reference line and the dependent left point (SLP) of the other alignment item element when the other alignment item element is determined to be right aligned. can do.

또한, 본 실시예에서 애플리케이션(111)은, 상기 산출한 수평거리가 소정의 거리(d) 이하이면, 해당 타정렬 항목요소를 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 표 항목으로 결정할 수 있다. Additionally, in this embodiment, if the calculated horizontal distance is less than or equal to a predetermined distance d, the application 111 may determine the other sorted item element to be a table item belonging to the same column as the first first row item element. there is.

한편, 실시예에 따라서 애플리케이션(111)은, 제2 첫 행 항목요소(즉, 제2 열의 첫 행 항목요소)에 대한 좌측 기준점(FLP)을 기초로 제2-2 좌측 서브 기준선을 설정할 수 있다. Meanwhile, depending on the embodiment, the application 111 may set the 2-2 left sub-baseline based on the left reference point (FLP) for the second first row element (i.e., the first row element of the second column). .

또한, 본 실시예에서 애플리케이션(111)은, 상술된 제1 첫 행 항목요소(즉, 제1 열의 첫 행 항목요소)에 대한 제2 좌측 서브 기준선과 상기 제2 첫 행 항목요소(즉, 제2 열의 첫 행 항목요소)에 대한 제2-2 좌측 서브 기준선에 기초하여, 상기 제1 첫 행 항목요소 및 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 적어도 하나의 종속 항목요소(이하, 제1 열 항목요소)에 대한 가운데 정렬을 구현할 수 있다. In addition, in this embodiment, the application 111 is configured to use a second left sub-baseline for the above-described first first row element (i.e., first row element of the first column) and the second first row element (i.e., first row element of the first column). Based on the 2-2 left sub-baseline for the first row element of 2 columns, the first first row element and at least one dependent element belonging to the same column as the first first row element (hereinafter, the first row element) Center alignment for 1 column item elements can be implemented.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 제2 좌측 서브 기준선과 상기 상기 제2-2 좌측 서브 기준선을 기초로 상기 제1 첫 행 항목요소에 대한 신규 중앙 기준선을 설정할 수 있다. In detail, in this embodiment, the application 111 may set a new center reference line for the first first row element based on the second left sub reference line and the 2-2 left sub reference line.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 제2 좌측 서브 기준선 및 상기 제2-2 좌측 서브 기준선의 정중앙 지점으로부터 하측 수직방향으로 연장되는 신규 중앙 기준선을 설정할 수 있다. In detail, in this embodiment, the application 111 may set a new central reference line extending vertically downward from the exact center point of the second left sub-reference line and the 2-2 left sub-reference line.

또한, 본 실시예에서 애플리케이션(111)은, 상기 설정된 신규 중앙 기준선을 기초로 상기 제1 첫 행 항목요소의 중앙 기준점(CBP) 및 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 적어도 하나의 종속 항목요소 각각의 종속 중앙점이 모두 일치되도록 정렬할 수 있다. In addition, in this embodiment, the application 111 determines the central reference point (CBP) of the first first row element based on the set new central baseline and at least one dependent belonging to the same column as the first first row element. Item elements can be aligned so that all dependent center points match.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 중앙 기준점(CBP) 및 상기 각각의 종속 중앙점이 상기 신규 중앙 기준선 상에 위치하도록 배치하여 상기 가운데 정렬을 수행할 수 있다. In detail, in this embodiment, the application 111 may perform the center alignment by arranging the central reference point (CBP) and each of the dependent center points so that they are located on the new central reference line.

다른 한편, 실시예에 따라서 애플리케이션(111)은, 상술된 제1 첫 행 항목요소(즉, 제1 열의 첫 행 항목요소)에 대한 제2 좌측 서브 기준선과 상기 제2 첫 행 항목요소(즉, 제2 열의 첫 행 항목요소)에 대한 제2-2 좌측 서브 기준선에 기초하여, 상기 제1 열 항목요소에 대한 양쪽 정렬을 구현할 수 있다. On the other hand, according to the embodiment, the application 111 may configure the second left sub-baseline for the above-described first first row element (i.e., the first row element of the first column) and the second first row element (i.e., Based on the 2-2 left sub reference line for the first row element of the second column, bilateral alignment of the first row element can be implemented.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 제2 좌측 서브 기준선 상에 상기 제1 첫 행 항목요소의 좌측 기준점(FLP) 및 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 적어도 하나의 종속 항목요소 각각의 종속 좌측점(SLP)이 배치되도록 상기 제1 열 항목요소 각각에 대한 글자 간격 및/또는 크기를 조정할 수 있다. In detail, in this embodiment, the application 111 configures the left reference point (FLP) of the first first row element on the second left sub baseline and at least one dependent belonging to the same column as the first first row element. The letter spacing and/or size for each of the first row item elements may be adjusted so that the dependent left point (SLP) of each item element is arranged.

또한, 본 실시예에서 애플리케이션(111)은, 상기 제2-2 좌측 서브 기준선 상에 상기 제1 첫 행 항목요소의 우측 기준점(FRP) 및 상기 제1 첫 행 항목요소와 동일한 열에 귀속되는 적어도 하나의 종속 항목요소 각각의 종속 우측점(SRP)이 배치되도록 상기 제1 열 항목요소 각각에 대한 글자 간격 및/또는 크기를 조정할 수 있다.Additionally, in this embodiment, the application 111 sets a right reference point (FRP) of the first first row element on the 2-2 left sub-baseline and at least one column belonging to the same column as the first first row element. The letter spacing and/or size for each of the first row item elements can be adjusted so that the dependent right point (SRP) of each dependent item element is arranged.

그리하여 본 실시예에서 애플리케이션(111)은, 상기 제2 좌측 서브 기준선 및 상기 제2-2 좌측 서브 기준선에 기초한 상기 제1 열 항목요소의 양쪽 정렬을 수행할 수 있다. Accordingly, in this embodiment, the application 111 may perform alignment on both sides of the first column element based on the second left sub reference line and the 2-2 left sub reference line.

본 발명의 실시예에서는, 전술된 바와 같이 기준점 기반 열(column) 구분 프로세스가 구현되는 방법에 대하여 기술하였으나, 통상의 기술자가 실시할 수 있는 수준에 따라서 상술된 기능 동작들을 준용해 기준점 기반 행(row) 구분 프로세스를 구현하는 방법 또한 본 발명의 실시예에 포함될 수 있다. In the embodiment of the present invention, the method of implementing the reference point-based column classification process has been described as described above, but the above-described functional operations are applied according to the level at which a person skilled in the art can perform the reference point-based row ( A method of implementing a row) classification process may also be included in embodiments of the present invention.

다시 돌아와서, 또한 실시예에서 애플리케이션(111)은, 3) 상술된 바와 같이 획득한 표 항목 및 표 경계 데이터를 기초로 상기 표 구조 분석정보를 생성할 수 있다. Returning again, also in the embodiment, the application 111 may 3) generate the table structure analysis information based on the table items and table boundary data obtained as described above.

즉, 실시예에서 애플리케이션(111)은, 상기 표 구조 유형정보가 공백 표 유형일 시 상술된 프로세스를 따라서 해당 표 구조에 대한 표 구조 분석정보를 검출하는 공백 표 검출 프로세스를 수행할 수 있다. That is, in the embodiment, when the table structure type information is a blank table type, the application 111 may perform a blank table detection process to detect table structure analysis information for the table structure according to the above-described process.

따라서 애플리케이션(111)은, 소정의 표 구조 촬영영상 내에서 공백 표 유형을 가지는 표 구조에 대한 분석정보(즉, 실시예에서 해당하는 표 구조에 대한 경계 및 항목 데이터)를 체계적인 알고리즘에 따라서 높은 정확도로 획득할 수 있다. Therefore, the application 111 collects analysis information (i.e., boundary and item data for the corresponding table structure in the embodiment) about the table structure having a blank table type within a predetermined table structure captured image with high accuracy according to a systematic algorithm. It can be obtained with

전술된 바와 같이, 실시예에서 애플리케이션(111)은, 소정의 표 문서 촬영영상이 포함하는 표 구조의 유형(즉, 실시예에서 선분 표 유형 또는 공백 표 유형 등)별로 최적화된 프로세스를 통해 해당 표 구조가 가지는 경계 및 항목 데이터를 검출함으로써, 상기 표 문서 촬영영상이 어떠한 유형의 표 구조를 포함하더라도 해당 표 구조의 경계 및 항목 데이터를 높은 정확도로 구분 및 검출하여 상기 표 구조에 대한 구조적인 특성(실시예에서, 행/열 정보 등)을 명확하게 파악할 수 있으며, 이를 통해 추후 상기 표 문서 촬영영상에 기초한 문서 처리 자동화(즉, 상기 표 문서 촬영영상에 기반한 광학 문자 인식(OCR)을 수행하고 그 결과를 디지털화하는 프로세스)의 성능을 향상시킬 수 있다. As described above, in the embodiment, the application 111 processes the table through an optimized process for each type of table structure included in the captured image of a predetermined table document (i.e., line segment table type or blank table type, etc. in the embodiment). By detecting the boundary and item data of the table structure, no matter what type of table structure the table document video contains, the boundary and item data of the table structure can be classified and detected with high accuracy to determine the structural characteristics of the table structure ( In the embodiment, row/column information, etc.) can be clearly identified, and through this, document processing based on the captured image of the table document is later performed (i.e., optical character recognition (OCR) based on the captured image of the table document is performed). The performance of the process of digitizing the results can be improved.

또한, 실시예에서 애플리케이션(111)은, 상기 검출한 표 항목을 기초로 문자 인식정보를 획득할 수 있다. (S107) Additionally, in the embodiment, the application 111 may obtain character recognition information based on the detected table item. (S107)

여기서, 실시예에 따른 상기 문자 인식정보란, 소정의 표 항목이 포함하는 문자를 광학 문자 인식(OCR)을 통하여 획득한 정보일 수 있다. Here, the character recognition information according to the embodiment may be information obtained through optical character recognition (OCR) on characters included in a given table item.

자세히, 실시예에서 애플리케이션(111)은, 소정의 광학 문자 인식(OCR) 엔진(예컨대, DocTr 등)을 이용하여 상기 검출한 각각의 표 항목별 문자를 인식할 수 있다. In detail, in the embodiment, the application 111 may recognize the detected character for each table item using a predetermined optical character recognition (OCR) engine (eg, DocTr, etc.).

실시예로, 애플리케이션(111)은, 상기 검출한 각각의 표 항목별 영상을 소정의 광학 문자 인식(OCR) 엔진에 입력할 수 있다. In an embodiment, the application 111 may input the detected image for each table item into a predetermined optical character recognition (OCR) engine.

그리하면, 애플리케이션(111)은, 상기 영상을 입력받은 광학 문자 인식(OCR) 엔진으로부터 상기 각각의 표 항목별 문자를 인식한 결과 데이터(즉, 문자 인식정보)를 획득할 수 있다. Then, the application 111 can obtain data (i.e., character recognition information) as a result of recognizing characters for each table item from the optical character recognition (OCR) engine that receives the image.

이때, 실시예에 따라서 애플리케이션(111)은, 상기 획득한 표 항목별 문자 인식정보를 대응되는 각 표 항목별 위치좌표에 매칭하여 저장 및 관리할 수 있다. At this time, depending on the embodiment, the application 111 may store and manage the obtained character recognition information for each table item by matching the location coordinates for each table item.

또한, 실시예에서 애플리케이션(111)은, 상기 획득한 문자 인식정보를 기초로 표 구조화 정보를 제공할 수 있다. (S109) Additionally, in the embodiment, the application 111 may provide table structuring information based on the obtained character recognition information. (S109)

여기서, 실시예에 따른 상기 표 구조화 정보란, 소정의 표 구조를 기 설정된 방식(예컨대, CSV 또는 JSON 포맷 방식 등)에 따라서 구조화한 텍스트 파일 형태로 변환한 정보를 의미할 수 있다. Here, the table structured information according to the embodiment may mean information converted from a predetermined table structure into a structured text file format according to a preset method (eg, CSV or JSON format, etc.).

자세히, 실시예에서 애플리케이션(111)은, 해당 표 구조에 대하여 획득한 상기 표 구조 분석정보(즉, 실시예에서 표 경계 및 각각의 표 항목 데이터)와 상기 문자 인식정보(즉, 표 항목별 포함하는 문자 데이터)를 토대로 상기 표 구조화 정보를 생성 및 제공할 수 있다. In detail, in the embodiment, the application 111 may include the table structure analysis information (i.e., table boundary and each table item data in the embodiment) and the character recognition information (i.e., table item-specific information) acquired for the corresponding table structure. The table structured information can be created and provided based on character data).

보다 상세히, 실시예에서 애플리케이션(111)은, 상기 표 구조 분석정보의 표 경계 데이터에 따라서 구분되는 각 영역(별 위치좌표)에 대하여, 이에 대응되는 표 항목의 문자 인식정보를 매칭할 수 있다. In more detail, in the embodiment, the application 111 may match the character recognition information of the table item corresponding to each area (separate location coordinates) divided according to the table boundary data of the table structure analysis information.

또한, 실시예에서 애플리케이션(111)은, 상기 문자 인식정보를 매칭한 각 영역(이하, 셀 영역)을 쉼표 및/또는 줄 바꿈을 이용하여 구분하는 구조화를 수행할 수 있다. Additionally, in the embodiment, the application 111 may perform structuring to separate each area (hereinafter, cell area) matching the character recognition information using commas and/or line breaks.

실시예로, 애플리케이션(111)은, 서로 다른 셀 영역이 수평(행) 방향으로 배열된 경우, 상기 서로 다른 셀 영역을 쉼표로 구분할 수 있다. In an embodiment, the application 111 may separate the different cell regions with commas when the different cell regions are arranged in the horizontal (row) direction.

또한, 실시예에서 애플리케이션(111)은, 서로 다른 셀 영역이 수직(열) 방향으로 배열된 경우, 상기 서로 다른 셀 영역을 줄 바꿈을 이용하여 구분할 수 있다. Additionally, in the embodiment, the application 111 may distinguish the different cell regions using line breaks when the different cell regions are arranged in the vertical (column) direction.

그리하여 실시예에서 애플리케이션(111)은, 위와 같이 구조화된 정보를 소정의 파일 형식(예컨대, CSV 또는 JSON 파일 포맷 형식 등)으로서 제공할 수 있다. Therefore, in the embodiment, the application 111 may provide the structured information as above in a predetermined file format (eg, CSV or JSON file format, etc.).

다른 실시예에서, 애플리케이션(111)은, 상술된 표 항목별 위치좌표와 상기 문자 인식정보에 기초하여 상기 표 구조화 정보를 생성 및 제공할 수 있다. In another embodiment, the application 111 may generate and provide the table structured information based on the above-described location coordinates for each table item and the character recognition information.

자세히, 본 실시예에서 애플리케이션(111)은, 상기 표 항목별 위치좌표에 매칭되어 저장된 문자 인식정보를 상기 표 항목별 위치좌표에 따라서 배열할 수 있다. In detail, in this embodiment, the application 111 may arrange the character recognition information stored by matching the position coordinates of each table item according to the position coordinates of each table item.

또한, 본 실시예에서 애플리케이션(111)은, 상기 배열한 각 표 항목별 문자 인식정보를 쉼표 및/또는 줄 바꿈을 이용하여 구분하는 구조화를 수행할 수 있다. Additionally, in this embodiment, the application 111 may perform structuring to separate the character recognition information for each table item arranged above using commas and/or line breaks.

실시예로, 애플리케이션(111)은, 서로 다른 표 항목의 문자 인식정보가 수평(행) 방향으로 배열된 경우, 상기 서로 다른 문자 인식정보를 쉼표로 구분할 수 있다. In an embodiment, when the character recognition information of different table items is arranged in the horizontal (row) direction, the application 111 may separate the different character recognition information with commas.

또한, 실시예에서 애플리케이션(111)은, 서로 다른 표 항목의 문자 인식정보가 수직(열) 방향으로 배열된 경우, 상기 서로 다른 문자 인식정보를 줄 바꿈으로 구분할 수 있다. Additionally, in the embodiment, when the character recognition information of different table items is arranged in a vertical (column) direction, the application 111 may separate the different character recognition information with a line break.

그리하여 실시예에서 애플리케이션(111)은, 위와 같이 구조화된 정보를 소정의 파일 형식(예컨대, CSV 또는 JSON 파일 포맷 형식 등)으로서 제공할 수 있다. Therefore, in the embodiment, the application 111 may provide the structured information as above in a predetermined file format (eg, CSV or JSON file format, etc.).

이와 같이, 애플리케이션(111)은, 특정 표 구조의 유형에 따른 맞춤형 검출 방식으로 도출된 표 구조 분석정보를 기초로 해당 표 구조를 기 설정된 방식(예컨대, CSV 또는 JSON 포맷 방식 등)에 따라서 구조화하여 텍스트 파일 형태로 제공함으로써, 특정 표 문서 촬영영상 내 표 구조의 형태 정보를 높은 정확도로 반영한 디지털화를 수행할 수 있고, 이를 통해 다양한 형태의 표 구조를 포함하여 구현될 수 있는 영상들에 대한 문서 처리 자동화(즉, 해당 영상에 기반한 광학 문자 인식(OCR)을 수행하고 그 결과를 디지털화하는 프로세스)의 품질을 향상시켜 그 업무 효율성 및 신뢰성 또한 증대시킬 수 있으며, 상기 디지털화된 표 문서를 활용하는 다양한 서비스(예컨대, 소정의 데이터베이스 구축 서비스 등)의 퀄리티 또한 제고시킬 수 있다. In this way, the application 111 structures the table structure according to a preset method (e.g., CSV or JSON format method, etc.) based on table structure analysis information derived by a customized detection method according to the type of specific table structure. By providing it in the form of a text file, it is possible to perform digitization that reflects the form information of the table structure within the captured video of a specific table document with high accuracy, and through this, document processing for images that can be implemented including various types of table structures. By improving the quality of automation (i.e., the process of performing optical character recognition (OCR) based on the image and digitizing the results), work efficiency and reliability can also be increased, and various services that utilize the digitized tabular documents can be provided. The quality of (for example, certain database construction services, etc.) can also be improved.

이상, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법 및 그 시스템은, 소정의 표 구조를 포함하는 실물 문서를 상기 표 구조에 특화된 방식으로 자동 인식하고 디지털화함으로써, 상기 실물 문서가 어떠한 유형의 표 구조를 포함하더라도 해당 표 구조에 대한 구조적인 특성을 정확하게 반영한 문서 처리 자동화를 구현할 수 있는 효과가 있다. As described above, the document recognition method and system including a table structure according to an embodiment of the present invention automatically recognize and digitize a physical document including a predetermined table structure in a manner specialized for the table structure, so that the physical document is Even if a tangible table structure is included, there is an effect of implementing document processing automation that accurately reflects the structural characteristics of the table structure.

또한, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법 및 그 시스템은, 수직선과 수평선 및/또는 문자 간 간격에 따른 배열 형태를 기초로 상기 표 구조에 최적화된 자동 인식을 수행함으로써, 다양한 형태의 표 구조가 포함하는 각각의 항목을 상호 구분하여 얻을 수 있는 정보들을 명확하고 용이하게 획득할 수 있으며, 해당 표 구조의 구조적인 특성을 온전하게 유지한 디지털화를 가능하게 하여 문서 처리 자동화의 성능 및 품질을 향상시킬 수 있는 효과가 있다. In addition, the method and system for recognizing a document including a table structure according to an embodiment of the present invention perform automatic recognition optimized for the table structure based on the arrangement form according to vertical and horizontal lines and/or spacing between characters, Information that can be obtained by distinguishing each item included in various types of table structures can be obtained clearly and easily, and it enables digitization while maintaining the structural characteristics of the table structure intact, enabling document processing automation. It has the effect of improving performance and quality.

또한, 본 발명의 실시예에 따른 표 구조를 포함하는 문서 인식 방법 및 그 시스템은, 위와 같이 자동 인식한 표 구조를 기초로 소정의 구조화된 텍스트 파일을 제공함으로써, 문서 처리 자동화에 수반되는 업무 효율성과 신뢰성을 증대시킴과 동시에 이를 활용한 다양한 서비스(예컨대, 소정의 데이터베이스 구축 서비스 등)의 퀄리티 또한 제고시킬 수 있는 효과가 있다. In addition, the document recognition method and system including a table structure according to an embodiment of the present invention provide a predetermined structured text file based on the automatically recognized table structure as described above, thereby improving work efficiency associated with document processing automation. It has the effect of increasing quality and reliability, while also improving the quality of various services that utilize it (for example, a certain database construction service, etc.).

한편, 이상에서 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing according to the invention and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For the sake of brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connections or connection members of lines between components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in actual devices, various functional connections or physical connections may be replaced or added. Can be represented as connections, or circuit connections. Additionally, if there is no specific mention such as “essential,” “important,” etc., it may not be a necessary component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to preferred embodiments of the present invention, those skilled in the art or those skilled in the art will understand the spirit of the present invention as described in the patent claims to be described later. It will be understood that the present invention can be modified and changed in various ways without departing from the technical scope. Therefore, the technical scope of the present invention should not be limited to what is described in the detailed description of the specification, but should be defined by the scope of the patent claims.

Claims (12)

단말의 적어도 하나의 프로세서에 의하여 실행되는 문서 인식 애플리케이션이 표 구조를 포함하는 문서를 인식하는 방법으로서,
소정의 표 구조를 포함하는 표 문서 촬영영상을 획득하는 단계;
상기 획득한 표 문서 촬영영상 내 표 구조의 종류를 특정하는 유형정보를 획득하는 단계;
상기 획득한 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계;
상기 수행한 맞춤형 표 항목 검출 프로세스를 기초로 상기 표 구조에 대한 경계 및 항목 데이터를 포함하는 표 구조 분석정보를 획득하는 단계;
상기 획득한 항목별 문자 인식정보를 획득하는 단계; 및
상기 획득한 문자 인식정보 및 상기 표 구조 분석정보를 기초로 상기 표 구조를 텍스트 파일 형태로 구조화한 표 구조화 정보를 제공하는 단계를 포함하는
표 구조를 포함하는 문서 인식 방법.
A method in which a document recognition application executed by at least one processor of a terminal recognizes a document including a table structure, comprising:
Obtaining an image of a table document including a predetermined table structure;
Obtaining type information specifying the type of table structure in the obtained table document shooting video;
performing a customized table item detection process according to the obtained type information;
Obtaining table structure analysis information including boundary and item data for the table structure based on the performed customized table item detection process;
Obtaining character recognition information for each acquired item; and
Providing table structuring information in which the table structure is structured in the form of a text file based on the obtained character recognition information and the table structure analysis information.
A method for recognizing documents containing a table structure.
제1 항에 있어서,
상기 유형정보는,
상기 표 구조가 포함하는 적어도 하나의 항목을 모두 선분으로 구분하는 선분 표 유형, 또는 상기 적어도 하나의 항목을 공백 또는 공백 및 선분으로 구분하는 공백 표 유형 중 어느 하나의 유형을 포함하는
표 구조를 포함하는 문서 인식 방법.
According to claim 1,
The type information above is,
A line segment table type in which all at least one item included in the table structure is separated by a line segment, or a blank table type in which the at least one item is separated by a space or a space and a line segment.
A method for recognizing documents containing a table structure.
제2 항에 있어서,
상기 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계는,
상기 유형정보가 상기 선분 표 유형이면 수직선 및 수평선을 기초로 상기 표 구조 분석정보를 검출하는 선분 기반 표 항목 검출 프로세스를 수행하는 단계와,
상기 유형정보가 상기 공백 표 유형이면 문자 배열 형태를 기초로 상기 표 구조 분석정보를 검출하는 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계를 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 2,
The step of performing a customized table item detection process according to the type information is,
If the type information is the line segment table type, performing a line segment-based table item detection process to detect the table structure analysis information based on vertical and horizontal lines;
If the type information is the blank table type, performing a structure analysis-based table item detection process to detect the table structure analysis information based on the character array type.
A method for recognizing documents containing a table structure.
제3 항에 있어서,
상기 선분 기반 표 항목 검출 프로세스를 수행하는 단계는,
소정의 선분 검출 알고리즘 및 소정의 꼭지점 검출 알고리즘 중 적어도 하나의 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계를 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 3,
The step of performing the line segment-based table item detection process is,
Comprising the step of detecting the table structure analysis information based on at least one algorithm of a predetermined line segment detection algorithm and a predetermined vertex detection algorithm.
A method for recognizing documents containing a table structure.
제3 항에 있어서,
상기 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계는,
소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계를 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 3,
The step of performing the structural analysis-based table item detection process is,
Including detecting the table structure analysis information based on a predetermined binarization algorithm.
A method for recognizing documents containing a table structure.
제5 항에 있어서,
상기 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계는,
상기 표 구조 촬영영상 내 소정의 픽셀에 대한 수직 및 수평 방향으로 임의의 제1 화소거리 이내에 문자출력 화소가 존재하는지 판단하는 단계와,
상기 문자출력 화소가 존재한다고 판단하면 상기 픽셀의 화소값을 255로 변환하는 제1 이진화를 수행하는 단계를 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 5,
The step of detecting the table structure analysis information based on the predetermined binarization algorithm is,
determining whether a text output pixel exists within an arbitrary first pixel distance in the vertical and horizontal directions with respect to a predetermined pixel in the table structure captured image;
When it is determined that the character output pixel exists, performing first binarization to convert the pixel value of the pixel to 255.
A method for recognizing documents containing a table structure.
제6 항에 있어서,
상기 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계는,
상기 제1 이진화를 수행한 표 구조 촬영영상을 기초로 상기 표 구조를 표시하는 전체 영역을 검출하는 단계를 더 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 6,
The step of detecting the table structure analysis information based on the predetermined binarization algorithm is,
Further comprising the step of detecting the entire area displaying the table structure based on the table structure captured image on which the first binarization has been performed.
A method for recognizing documents containing a table structure.
제7 항에 있어서,
상기 소정의 이진화 알고리즘을 기초로 상기 표 구조 분석정보를 검출하는 단계는,
상기 표 구조 촬영영상 내에서 상기 전체 영역에 대한 대응 영역 내 소정의 픽셀에 대한 수평 방향으로 상기 제1 화소거리 이내에 문자출력 화소가 존재하는지 판단하는 단계와,
상기 문자출력 화소가 존재한다고 판단하면 상기 픽셀의 화소값을 255로 변환하는 제2 이진화를 수행하는 단계와,
상기 제2 이진화를 수행한 대응 영역을 기초로 상기 표 구조 분석정보를 검출하는 단계를 더 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 7,
The step of detecting the table structure analysis information based on the predetermined binarization algorithm is,
determining whether a text output pixel exists within the first pixel distance in the horizontal direction with respect to a predetermined pixel in an area corresponding to the entire area within the table structure captured image;
If it is determined that the character output pixel exists, performing a second binarization to convert the pixel value of the pixel to 255;
Further comprising detecting the table structure analysis information based on the corresponding region on which the second binarization was performed.
A method for recognizing documents containing a table structure.
제5 항에 있어서,
상기 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계는,
소정의 기준점 및 기준선을 기초로 상기 표 구조의 열 또는 행을 구분하는 단계를 더 포함하는
표 구조를 포함하는 문서 인식 방법.
According to clause 5,
The step of performing the structural analysis-based table item detection process is,
Further comprising dividing columns or rows of the table structure based on predetermined reference points and baselines.
A method for recognizing documents containing a table structure.
제1 항에 있어서,
상기 표 항목별 문자 인식정보를 획득하는 단계는,
상기 표 항목별 영상에 기반한 광학 문자 인식(OCR, Optical character recognition)을 기초로 상기 문자 인식정보를 획득하는 단계를 포함하는
표 구조를 포함하는 문서 인식 방법.
According to claim 1,
The step of acquiring character recognition information for each table item is,
Comprising the step of acquiring the character recognition information based on optical character recognition (OCR) based on the image for each table item.
A method for recognizing documents containing a table structure.
문서 인식 애플리케이션이 저장된 적어도 하나의 메모리; 및
상기 메모리에 저장된 문서 인식 애플리케이션을 독출하여 표 구조를 포함하는 문서를 인식하는 적어도 하나의 프로세서;를 포함하고,
상기 문서 인식 애플리케이션의 명령어는,
소정의 표 구조를 포함하는 표 문서 촬영영상을 획득하는 단계와,
상기 획득한 표 문서 촬영영상 내 표 구조의 종류를 특정하는 유형정보를 획득하는 단계와,
상기 획득한 유형정보에 따른 맞춤형 표 항목 검출 프로세스를 수행하는 단계와,
상기 수행한 맞춤형 표 항목 검출 프로세스를 기초로 상기 표 구조에 대한 경계 및 항목 데이터를 포함하는 표 구조 분석정보를 획득하는 단계와,
상기 획득한 항목별 문자 인식정보를 획득하는 단계와,
상기 획득한 문자 인식정보 및 상기 표 구조 분석정보를 기초로 상기 표 구조를 텍스트 파일 형태로 구조화한 표 구조화 정보를 제공하는 단계를 수행하는 명령어를 포함하는
표 구조를 포함하는 문서 인식 시스템.
at least one memory storing a document recognition application; and
At least one processor that reads the document recognition application stored in the memory to recognize a document including a table structure,
The command of the document recognition application is,
Obtaining a table document image containing a predetermined table structure;
Obtaining type information specifying the type of table structure in the obtained table document shooting video;
performing a customized table item detection process according to the obtained type information;
Obtaining table structure analysis information including boundary and item data for the table structure based on the customized table item detection process performed;
Obtaining character recognition information for each acquired item;
A command for performing the step of providing table structuring information in which the table structure is structured in the form of a text file based on the obtained character recognition information and the table structure analysis information.
A document recognition system with a tabular structure.
제11 항에 있어서,
상기 문서 인식 애플리케이션의 명령어는,
상기 유형정보가 선분 표 유형이면 수직선 및 수평선을 기초로 상기 표 구조 분석정보를 검출하는 선분 기반 표 항목 검출 프로세스를 수행하는 단계와,
상기 유형정보가 공백 표 유형이면 문자 배열 형태를 기초로 상기 표 구조 분석정보를 검출하는 구조분석 기반 표 항목 검출 프로세스를 수행하는 단계를 수행하는 명령어를 더 포함하는
표 구조를 포함하는 문서 인식 시스템.
According to claim 11,
The command of the document recognition application is,
If the type information is a line segment table type, performing a line segment-based table item detection process to detect the table structure analysis information based on vertical and horizontal lines;
If the type information is a blank table type, it further includes a command for performing a structure analysis-based table item detection process for detecting the table structure analysis information based on the character array type.
A document recognition system with a tabular structure.
KR1020220103793A 2022-08-19 2022-08-19 Method and system for recognizing document that including table structure KR20240025766A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220103793A KR20240025766A (en) 2022-08-19 2022-08-19 Method and system for recognizing document that including table structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220103793A KR20240025766A (en) 2022-08-19 2022-08-19 Method and system for recognizing document that including table structure

Publications (1)

Publication Number Publication Date
KR20240025766A true KR20240025766A (en) 2024-02-27

Family

ID=90058902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220103793A KR20240025766A (en) 2022-08-19 2022-08-19 Method and system for recognizing document that including table structure

Country Status (1)

Country Link
KR (1) KR20240025766A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100259804B1 (en) 1997-08-14 2000-06-15 구자홍 Letter cognition method for guidepost shape

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100259804B1 (en) 1997-08-14 2000-06-15 구자홍 Letter cognition method for guidepost shape

Similar Documents

Publication Publication Date Title
US10013624B2 (en) Text entity recognition
US9922431B2 (en) Providing overlays based on text in a live camera view
US10430648B2 (en) Method of processing content and electronic device using the same
US9436883B2 (en) Collaborative text detection and recognition
US9043349B1 (en) Image-based character recognition
US9058644B2 (en) Local image enhancement for text recognition
US20140253592A1 (en) Method for providing augmented reality, machine-readable storage medium, and portable terminal
US20150154442A1 (en) Handwriting drawing apparatus and method
US20190272425A1 (en) Visual feedback of process state
US9569679B1 (en) Adaptive image sampling for text detection
CN112163577B (en) Character recognition method and device in game picture, electronic equipment and storage medium
US20140380191A1 (en) Method and apparatus for design review collaboration across multiple platforms
US20190114070A1 (en) Electronic apparatus and control method thereof
KR20190021130A (en) Method for detecting similar image based on facial image and the appratus thereof
CN111507354A (en) Information extraction method, device, equipment and storage medium
JP2014216006A (en) System, program and method for receiving input of user
US9230181B2 (en) Handwritten document retrieval apparatus and method
US9262689B1 (en) Optimizing pre-processing times for faster response
US11514648B2 (en) Aligning input image data with model input data to generate image annotations
US9740711B2 (en) Automatic registration
Turk et al. Computer vision for mobile augmented reality
JP5284523B1 (en) Information processing system, program, and processing method of information processing system
KR20240025766A (en) Method and system for recognizing document that including table structure
US10354409B2 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium
US20180322124A1 (en) Automatic registration