KR102259477B1 - Smart information input method and smart information input system - Google Patents
Smart information input method and smart information input system Download PDFInfo
- Publication number
- KR102259477B1 KR102259477B1 KR1020190032997A KR20190032997A KR102259477B1 KR 102259477 B1 KR102259477 B1 KR 102259477B1 KR 1020190032997 A KR1020190032997 A KR 1020190032997A KR 20190032997 A KR20190032997 A KR 20190032997A KR 102259477 B1 KR102259477 B1 KR 102259477B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- company
- category
- matching
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G06K9/00442—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/12—Detection or correction of errors, e.g. by rescanning the pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
Abstract
본 발명은 객체의 이미지로부터 추출한 객체정보를 기업정보와 매칭시켜 정확한 객체정보를 획득하면서, 객체정보의 획득을 위해 사용된 추가적인 기업정보를 제공할 수 있는 스마트 정보 입력방법 및 스마트 정보 입력시스템이 개시된다. 본 발명의 일 실시예에 따른 스마트 정보 입력방법은 명함, 사업자등록증, 영수증을 적어도 포함하는 객체를 스캔하여 객체에 대한 이미지정보를 획득하는 제1 단계; 이미지정보와 서버로부터 수신된 기업정보를 비교하여 연계되는 추출정보를 추출하는 제2 단계; 추출정보의 문자열이 속하는 카테고리를 판별하여 카테고리별 분류정보를 획득하는 제3 단계; 카테고리별 분류정보와 기업정보를 비교분석하여 객체정보 및 일치하지 않은 오류 객체정보를 획득하는 제4 단계; 오류 객체정보의 문자열을 기업정보로 보정하여 객체정보를 획득하는 제5 단계; 및 제4 단계에서, 카테고리별 분류정보와 매칭되는 기업정보 중 카테고리별 분류정보와 일치하지 않는 추가정보를 추출하는 제6 단계;를 포함한다.The present invention discloses a smart information input method and a smart information input system that can provide additional company information used for obtaining object information while obtaining accurate object information by matching object information extracted from an image of an object with enterprise information do. A smart information input method according to an embodiment of the present invention comprises: a first step of scanning an object including at least a business card, a business registration certificate, and a receipt to obtain image information about the object; a second step of comparing the image information with the company information received from the server and extracting linked extracted information; a third step of determining a category to which the character string of the extracted information belongs to obtain classification information for each category; a fourth step of obtaining object information and mismatched error object information by comparing and analyzing classification information for each category and company information; a fifth step of obtaining object information by correcting a string of error object information with company information; and in the fourth step, a sixth step of extracting additional information that does not match the category-specific classification information from among the company information matching the category-specific classification information.
Description
본 발명은 스마트 정보 입력방법 및 스마트 정보 입력시스템에 관한 것으로, 보다 자세하게는 객체의 이미지로부터 추출한 객체정보를 기업정보와 매칭시켜 정확한 객체정보를 획득하면서, 객체정보의 획득을 위해 사용된 추가적인 기업정보를 제공할 수 있는 스마트 정보 입력방법 및 스마트 정보 입력시스템에 관한 것이다.The present invention relates to a smart information input method and a smart information input system, and more particularly, to obtain accurate object information by matching object information extracted from an image of an object with enterprise information, and additional enterprise information used to obtain object information It relates to a smart information input method and a smart information input system that can provide
종래에는 명함, 사업자등록증, 영수증 등의 객체에 대한 전자정보인 객체정보를 저장하는 경우, 사용자가 촬영한 객체이미지 또는 사용자가 직접 입력한 정보에 의거하여 객체정보를 저장하는 것이 일반적이었다.Conventionally, when storing object information, which is electronic information on objects such as business cards, business registration certificates, and receipts, it is common to store object information based on an object image photographed by a user or information directly input by a user.
이와 같이, 객체정보를 저장하는 선행기술로는 대한민국등록특허 제10-0784332호 및 대한민국등록특허 제10-0664421호에서는, 카메라로부터 입력된 명함에 대한 영상 또는 이미지를 확인하면서 사용자가 객체정보(명함정보)를 획득하는 장치 및 방법이 개시된다.In this way, as a prior art for storing object information, in Korean Patent No. 10-0784332 and Korean Patent No. 10-0664421, while checking an image or image of a business card input from a camera, a user uses object information (business card) information) are disclosed.
그러나 선행기술은 사용자가 명함을 촬영하여 명함 이미지를 획득하는 경우, 화각, 반사 등 촬영의 기술적 한계와 미흡한 이미지 인식 기술에 의해 부정확한 정보가 객체정보로 반영될 수 있어, 획득한 객체정보가 정확한 정보를 반영하지 않을 수 있는 문제점이 있었다.However, in the prior art, when a user acquires a business card image by photographing a business card, inaccurate information may be reflected as object information due to technical limitations of shooting, such as angle of view and reflection, and insufficient image recognition technology. There was a problem that the information could not be reflected.
또한, 사용자가 정보를 직접 입력하는 경우에는 객체정보에 필요한 정보가 의도적 또는 실수로 잘못 입력될 때가 있기 때문에, 정확한 정보의 반영이 저해되어 객체정보가 정확하지 않다는 문제점이 있었다.In addition, when the user directly inputs information, there is a problem in that the object information is not accurate because the reflection of accurate information is inhibited because the information necessary for the object information is intentionally or mistakenly entered incorrectly.
한편, 종래에는 촬영 대상인 명함, 사업자등록증, 영수증 등에만 국한되어, 촬영 대상에 기재된 정보만을 객체정보로 저장함으로써, 사용자에게 촬영 대상의 정보에만 국한된 객체정보를 제공할 뿐이며, 국한된 객체정보로부터 확대된 다양한 정보의 제공이 어려운 문제점이 있었다.On the other hand, in the prior art, it is limited only to business cards, business registration certificates, receipts, etc., which are the shooting targets, and by storing only the information written on the shooting target as object information, object information limited only to the shooting target information is provided to the user, and it is expanded from the limited object information. There was a problem in that it was difficult to provide a variety of information.
따라서, 본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로서, 본 발명은 명함, 사업자등록증, 영수증 등을 적어도 포함하는 객체에 대한 객체정보의 부정확성을 개선하는데 그 목적이 있다.Accordingly, the present invention has been devised to solve the above problems, and an object of the present invention is to improve the inaccuracy of object information for an object including at least a business card, a business registration certificate, a receipt, and the like.
그리고 본 발명은 객체정보 뿐 아니라, 객체정보의 획득을 위해 사용된 추가적인 기업정보를 제공하는데 그 목적이 있다.And an object of the present invention is to provide not only object information, but also additional company information used for obtaining object information.
한편, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problem to be achieved in the present invention is not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly to those of ordinary skill in the technical field to which the present invention belongs from the following description. It will be understandable.
상기와 같은 목적을 달성하기 위한 기술적 방법으로서, 본 발명의 일 실시예에 따른 스마트 정보 입력방법은 명함, 사업자등록증, 영수증을 적어도 포함하는 객체를 스캔하여 객체에 대한 이미지정보를 획득하는 제1 단계; 이미지정보와 서버로부터 수신된 기업정보를 비교하여 연계되는 추출정보를 추출하는 제2 단계; 추출정보의 문자열이 속하는 카테고리를 판별하여 카테고리별 분류정보를 획득하는 제3 단계; 카테고리별 분류정보와 기업정보를 비교분석하여 객체정보 및 일치하지 않은 오류 객체정보를 획득하는 제4 단계; 오류 객체정보의 문자열을 기업정보로 보정하여 객체정보를 획득하는 제5 단계; 및 제4 단계에서, 카테고리별 분류정보와 매칭되는 기업정보 중 카테고리별 분류정보와 일치하지 않는 추가정보를 추출하는 제6 단계;를 포함한다.As a technical method for achieving the above object, the smart information input method according to an embodiment of the present invention scans an object including at least a business card, a business license, and a receipt to obtain image information about the object. ; a second step of comparing the image information with the company information received from the server and extracting linked extracted information; a third step of determining a category to which the character string of the extracted information belongs to obtain classification information for each category; a fourth step of obtaining object information and mismatched error object information by comparing and analyzing classification information for each category and company information; a fifth step of obtaining object information by correcting a string of error object information with company information; and in the fourth step, a sixth step of extracting additional information that does not match the category-specific classification information from among the company information matching the category-specific classification information.
일 실시예에서 제1 단계는, OCR 솔루션을 이용하여 객체를 스캔한다.In one embodiment the first step is to scan the object using an OCR solution.
일 실시예에서 이미지정보는, OCR 솔루션에 의해 광학 인식 문자열로 변환된 OCR정보이다.In an embodiment, the image information is OCR information converted into an optical recognition string by an OCR solution.
일 실시예에서 추출정보는, 기업정보와 매칭되는 이미지정보의 문자열인 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지 중 하나 이상을 포함하는 정보이다.In one embodiment, the extracted information is a company name, address, phone number, fax number, URL, e-mail, postal code, postal address, representative name, business registration number, corporate registration number, business opening that is a string of image information matching the company information Information that includes one or more of the date, year, and location of the place of business.
일 실시예에서 제3 단계는, 카테고리 솔루션을 이용하여 추출정보의 카테고리를 판별하고, 카테고리 솔루션은, 기업명, 주소, 우편번호, 전화번호, 팩스번호, 이메일, 사업장소재지, 개업연월일 중 하나 이상의 카테고리를 포함한다.In one embodiment, in the third step, the category of extracted information is determined using the category solution, and the category solution is one or more categories of company name, address, zip code, phone number, fax number, email, business location, and opening date. includes
일 실시예에서 제4 단계는, 비교분석을 위한 기업정보가 제2 단계에서 서버, 메모리, 인터넷, 메일 중 하나로부터 수신, 수집, 제공받거나 서버, 메모리, 인터넷, 메일 중 하나 또는 업체에서 일괄적으로 수신되어 데이터베이스에 저장된 기업정보이다.In one embodiment, in the fourth step, the company information for comparative analysis is received, collected, or provided from one of the server, memory, Internet, and mail in the second step, or collectively in one or the company of the server, memory, Internet, and mail. It is the company information received and stored in the database.
일 실시예에서 제4 단계는, 하나 이상의 매칭 솔루션을 이용하여 객체정보를 획득하고, 매칭 솔루션은, 문자열 유사도를 기반으로 매칭하는 문자비교 기반 매칭 솔루션, 좌표 위치변환을 기반으로 매칭하는 주소 기반 매칭 솔루션, 우편번호를 이용한 우편번호 기반 매칭 솔루션 및 딥러닝 기반의 매칭 솔루션 중 하나 이상을 포함한다.In one embodiment, the fourth step is to obtain object information by using one or more matching solutions, and the matching solution is a character comparison-based matching solution matching based on string similarity, address-based matching matching based on coordinate position transformation solution, including at least one of a zip code-based matching solution using a zip code, and a deep learning-based matching solution.
일 실시예에서 추가정보는, 기업명, 기업유형, 기업규모, 기업상태, 벤처기업유무, 상장일자, 홈페이지, 이메일, 사업자번호, 전화번호, 우편번호, 우편번호주소 상시근로자수, 제품명, 총자산, 자본총계, 매출액, 영업이익, 당기순이익 등의 기업 일반정보 및 성명, 주민등록번호, 취임일자, 퇴임일자, 현직여부, 직위, 동업계종사연수대표자, 동업계종사월수대표자, 동업계종사기간년 등의 기업 대표 정보를 포함하는 제1 추가정보; 및In one embodiment, the additional information is, company name, company type, company size, company status, venture business existence, listing date, homepage, email, business number, phone number, zip code, zip code address number of full-time workers, product name, total assets, Company general information such as total capital, sales, operating profit, net profit, etc. and name, resident registration number, inauguration date, retirement date, current status, position, representative of the same industry training, number of months in the same industry, year in the same industry, etc. first additional information including company representative information; And
기업 일반정보, 기업 대표정보, 기업연혁, 목적사업, 관계회사, 주주현황, 주요시설 등의 기업추적정보, 건설실적, 지적재산권, 보유자격 및 면허, 주요거래처 등의 기업추가정보, 종합신용등급 등의 기업보안정보, 재무계정코드, 재무제표 정보, 연결재무제표 정보 등의 기업회계정보를 포함하는 제2 추가정보;를 포함한다.Company general information, company representative information, company history, purpose business, affiliated companies, shareholder status, company tracking information such as major facilities, construction performance, intellectual property rights, qualifications and licenses, additional company information such as major customers, comprehensive credit rating and second additional information including corporate security information, such as corporate security information, financial account code, financial statement information, and corporate accounting information such as consolidated financial statement information;
일 실시예에서 제6 단계는, 제1 추가정보 및 제2 추가정보 중 적어도 하나의 추가정보를 추출한다.In an embodiment, the sixth step extracts at least one of the first additional information and the second additional information.
상기와 같은 목적을 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 스마트 정보 입력시스템은 명함, 사업자등록증, 영수증을 적어도 포함하는 객체를 스캔하여 객체에 대한 이미지정보를 획득하는 스캐너부; 이미지정보와 서버로부터 수신된 기업정보를 비교하여 연계되는 추출정보를 추출하는 제1 추출부; 추출정보의 문자열이 속하는 카테고리를 판별하여 카테고리별 분류정보를 획득하는 카테고리 판별부; 카테고리별 분류정보와 기업정보를 비교분석하여 객체정보 및 일치하지 않은 오류 객체정보를 획득하는 비교분석부; 오류 객체정보의 문자열을 기업정보로 보정하여 객체정보를 획득하는 보정부; 및 비교분석부로부터 카테고리별 분류정보와 매칭되는 기업정보 중 카테고리별 분류정보와 일치하지 않는 추가정보를 추출하는 제2 추출부;를 포함하여 이루어진다.As a technical means for achieving the above object, a smart information input system according to an embodiment of the present invention includes: a scanner unit that scans an object including at least a business card, a business registration certificate, and a receipt to obtain image information about the object; a first extracting unit for extracting linked extracted information by comparing the image information with the corporate information received from the server; a category determining unit for determining a category to which the character string of the extracted information belongs to obtain classification information for each category; a comparative analysis unit for obtaining object information and mismatched error object information by comparing and analyzing classification information for each category and company information; a correction unit for obtaining object information by correcting a character string of error object information with company information; and a second extraction unit for extracting additional information that does not match the classification information for each category among the company information matching the classification information for each category from the comparison and analysis unit.
그리고 본 발명의 일 실시예에 따른 스마트 정보 입력시스템은, 서버에 저장되는 기업정보를 기반으로 기업의 상태변화를 감지하는 감지부; 및 감지부가 감지한 상태변화 정보를 단말로 전송하기 위한 통신부;를 더 포함하여 이루어진다.And the smart information input system according to an embodiment of the present invention, the sensing unit for detecting a change in the state of the company based on the company information stored in the server; and a communication unit for transmitting the state change information detected by the sensing unit to the terminal.
본 발명의 일 실시예에 따르면, 명함, 사업자등록증, 영수증 등을 적어도 포함하는 객체에 대한 객체정보의 부정확성을 개선할 수 있다.According to an embodiment of the present invention, it is possible to improve the inaccuracy of object information for an object including at least a business card, a business registration certificate, a receipt, and the like.
그리고 본 발명의 일 실시예에 따르면, 사용자에게 객체정보 뿐 아니라, 객체정보의 획득을 위해 사용된 추가적인 기업정보를 제공할 수 있다.And, according to an embodiment of the present invention, it is possible to provide the user with not only object information, but also additional company information used for obtaining object information.
한편, 본 발명에서 얻을 수 있는 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description. I will be able to.
도 1은 본 발명의 일 실시예에 따른 스마트 정보 입력시스템의 개략구성도이다.
도 2 내지 6은 본 발명의 일 실시예에 따른 스마트 정보 입력방법의 과정을 도시한 개략도이다.
도 7은 본 발명의 일 실시예에 따른 스마트 정보 입력방법의 단계흐름도이다.1 is a schematic configuration diagram of a smart information input system according to an embodiment of the present invention.
2 to 6 are schematic diagrams illustrating the process of a smart information input method according to an embodiment of the present invention.
7 is a step flow diagram of a smart information input method according to an embodiment of the present invention.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. 또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE INVENTION The detailed description to be disclosed below together with the accompanying drawings is intended to describe exemplary embodiments of the present invention, and is not intended to represent the only embodiments in which the present invention may be practiced. The following detailed description includes specific details to provide a thorough understanding of the present invention. However, those of ordinary skill in the art to which the present invention pertains knows that the present invention may be practiced without these specific details. In addition, throughout the specification, when a part is said to "comprising or including" a certain element, it does not exclude other elements, but may further include other elements unless otherwise stated. Means that. In addition, when it is determined that detailed descriptions of known functions or configurations may unnecessarily obscure the subject matter of the present invention in describing the embodiments of the present invention, detailed descriptions thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification.
스마트 정보 입력시스템Smart information input system
이하에서는, 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 스마트 정보 입력시스템(이하에서는, "입력시스템"이라 한다.)를 자세히 설명하도록 하겠다.Hereinafter, a smart information input system (hereinafter, referred to as an “input system”) according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
이들 도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 입력시스템(20)은 서버(10) 및 단말기(30)와 각각 통신한다. 이러한 입력시스템(20)은 통신부(200), 스캐너부(210), 데이터베이스(220), 제1 추출부(230), 카테고리 판별부(240), 비교분석부(250), 보정부(260), 제2 추출부(270), 감지부(280) 및 제어부(290)를 포함하여 이루어진다.As shown in these figures, the
또한, 입력시스템(20)은 서버(10) 뿐 아니라, 후술될 기업정보(224)를 인터넷, 메모리, 메일 등을 통해 수신한다. 다만, 입력시스템(20)은 후술될 기업정보(224)를 서버(10), 인터넷, 메모리, 메일 뿐 아니라, 다른 구성으로부터도 기업정보(224)를 수신할 수 있다.In addition, the
더 나아가, 입력시스템(20)은 하나의 시스템으로 구성될 수 있으나, 서버(10) 또는 단말기(30)에 구성되거나, 구성의 일부는 서버(10) 남은 구성의 일부는 단말기(30)에 구성될 수 있다.Furthermore, the
통신부(200)는 서버(10), 인터넷, 메모리, 메일 중 하나와 단말기(30) 또는 서버(10), 인터넷, 메모리, 메일 중 하나와 단말기(30)가 위치한 네트워크 사이의 무선통신과 유선통신을 가능하게 하며, 입력시스템(20)에 포함되는 구성 간의 정보 송수신을 위해 하나 이상의 모듈을 포함하여 이루어진다. 이러한 통신부(200)는 일 예로 이동통신 모듈(201), 무선통신 모듈(203), 근거리통신 모듈(205), 유선통신 모듈(207)이 구비된다.The
이동통신 모듈(201)은 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선신호를 송수신한다.The
무선통신 모듈(203)은 무선통신을 위한 모듈로서, 내장 설치되거나 외장 설치된다. 이러한 무선통신 모듈(203)은 WLAN(Wireless LAN), Wi-Fi, Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access)중 적어도 하나를 이용하여 무선통신을 수행한다.The
근거리통신 모듈(205)은 근거리통신을 위한 모듈로서, 내장 설치되거나 외장 설치된다. 이러한 근거리통신 모듈(205)은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(infrared Data Association, IrDA), UWB(Ultra Wideband), ZigBee 중 적어도 하나를 이용하여 근거리통신을 수행한다.The short-
유선통신 모듈(207)은 유선통신을 위한 모듈로서, 내장 설치되거나 외장설치된다. 이러한 유선통신 모듈(207)은 근거리 유선통신이 가능한 이더넷(Ethernet)을 이용하여 유선통신을 수행한다.The
스캐너부(210)는 객체(40)를 스캔하여 이미지정보를 획득한다. 구체적으로, 스캐너부(210)는 객체(40)의 이미지인 객체이미지(45)를 OCR 솔루션(211)을 이용하여 스캔하여 OCR정보(213)를 획득한다. 여기서, OCR(Optical character reader)이라 함은, 광학 문자 인식이라 하며, 이는 이미지 스캔으로 얻을 수 있는 문자의 이미지 또는 영상을 컴퓨터가 편집 가능한 문자코드 등의 형식으로 변환하는 소프트웨어를 의미한다. 즉, 스캐너부(210)는 객체이미지(45)를 광학 인식 문자열이 포함된 OCR정보(213)로 변환하는 것이다.The
한편, 객체(40)라 함은, 명함(40a), 사업자등록증(40b) 및 영수증(40c)을 적어도 포함하는 OCR 스캔이 가능한 종이 또는 문서 등을 의미한다. 다만, 객체(40)는 상술한 명함(40a), 사업자등록증(40b), 영수증(40c)으로만 국한되는 것은 아니며, OCR 스캔이 가능한 것이라면 어떠한 실시 예라도 무관하다.On the other hand, the
데이터베이스(220)는 스캐너부(210)에서 획득된 OCR정보(213)가 객체(40)별로 저장되고, 서버(10), 메모리, 인터넷, 메일 중 하나로부터 수신, 수집, 제공받거나 서버(10), 메모리, 인터넷, 메일 중 하나 또는 업체에서 일괄적으로 수신한 기업과 관련된 기업정보(224)가 저장된다. 이러한 데이터베이스(220)는 일 예로, 객체 DB(221) 및 기업 DB(223)를 포함하여 이루어진다.The
객체 DB(221)에는 객체(40)별로 분류되는 OCR정보(222)가 저장된다. 이러한 객체 DB(221)에 저장된 OCR정보(222)는 제1 추출부(230)로 송신된다.
기업 DB(223)에는 서버(10)로부터 수신한 기업정보(224)가 저장된다. 여기서, 기업정보(224)이라 함은 한국기업, 나이스신용평가정보, 이크레더블, 금융감독원(DART), 크레딧데이터(국민연금), 한국기업평가, 한국신용평가, 나이스신용평가, 서울신용평가 등을 포함하는 서버(10)로부터 수신하는 기업과 관련된 정보를 의미한다. 이러한 기업정보(224)는 심플 기업정보와 디테일 기업정보로 분류된다. 여기서, 심플 기업정보라 함은, 기업 일반 정보(예: 기업명, 기업유형, 기업규모, 기업상태, 벤처기업유무, 상장일자, 홈페이지, 이메일, 사업자번호, 전화번호, 우편번호, 우편번호주소 상시근로자수, 제품명, 총자산, 자본총계, 매출액, 영업이익, 당기순이익 등) 및 기업 대표 정보(예: 성명, 주민등록번호, 취임일자, 퇴임일자, 현직여부, 직위, 동업계종사연수대표자, 동업계종사월수대표자, 동업계종사기간년 등)를 의미한다. 그리고 디테일 기업정보라 함은, 기업 일반 정보(예: 기업개요, 주요재무정보 등), 기업 대표 정보(예: 대표자 정보, 대표자 인물 정보, 대표자 경력 정보, 대표자 학력 정보, 경영진 주요 정보 등), 기업추적정보(예: 기업연혁, 목적사업, 관계회사, 주주현황, 주요시설 등), 기업추가정보(예: 건설실적, 지적재산권, 보유자격 및 면허, 주요거래처 등), 기업보안정보(예: 종합신용등급 등), 기업회계정보(예: 재무계정코드, 재무제표 정보, 연결재무제표 정보 등)를 의미한다.The
제1 추출부(230)는 OCR정보(222)와 기업정보(224)를 비교하여 연계되는 추출정보(233)를 추출한다. 이러한 제1 추출부(230)는 추출정보(233)를 추출하기 위한 제1 추출 솔루션(231)이 구비된다.The
제1 추출 솔루션(231)은 기업정보(224)와 매칭되는 OCR정보(222)의 문자열을 추출하는 소프트웨어다.The
추출정보(223)는 기업정보(224)와 매칭되는 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지 중 하나 이상을 포함하는 정보이다. 다만, 추출정보(223)는 상술한 정보 중 하나의 정보로 한정하는 것은 아니며, 기업과 관련된 정보라면 모두 추출정보(223)에 포함될 수 있다. 이와 같은, 추출정보(223)는 일 예로, 객체(40)가 명함(40a)인 경우에는 OCR정보(222)로부터 전화번호, 팩스번호, URL, 이메일, 기업명, 우편번호, 주소가 획득되며, 기업정보(224)와 매칭되는 정보이다. 또한, 객체(40)가 사업자등록증(40b)인 경우에는 OCR정보(222)로부터 사업자등록번호, 법인등록번호, 기업명, 대표자, 개업연월일, 사업장소재지가 획득되며, 기업정보(224)와 매칭되는 정보이다. 그리고 객체(40)가 영수증(40c)인 경우에는 OCR정보(222)로부터 사업자등록번호, 법인등록번호, 전화번호, 팩스번호, 회사명, 대표자, 사업장소재지가 획득되며, 기업정보(224)와 매칭되는 정보이다.The extracted
카테고리 판별부(240)는 추출정보(223)의 문자열이 속하는 카테고리를 판별하여 카테고리별 분류정보(243)를 획득한다. 이러한 카테고리 판별부(240)는 카테고리별 분류정보(243)를 획득하기 위한 카테고리 솔루션(241)이 구비된다.The
카테고리 솔루션(241)은 추출정보(233)의 문자열을 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지를 적어도 포함하는 카테고리로 분류하는 소프트웨어다.The
카테고리별 분류정보(243)는 카테고리 솔루션(241)에 의해 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지 중 하나 이상의 카테고리로 분류된 정보를 의미한다. 다만, 카테고리별 분류정보(243)는 상술한 카테고리로 분류된 정보로 한정하는 것은 아니며, 기업과 관련된 카테고리라면 모두 카테고리별 분류정보(243)에 포함될 수 있다.
비교분석부(250)는 카테고리별 분류정보(243)와 기업정보(224)를 비교분석하여 객체정보(253)를 획득한다. 이러한 비교분석부(250)는 객체정보(253)를 획득하기 위해 매칭 솔루션(251)이 구비된다. 한편, 기업정보(224)는 서버(10)로부터 수신하는 것은 아니며, 데이터베이스(220, 바람직하게는 기업 DB(224))로부터 수신하는 정보를 의미한다.The
매칭 솔루션(251)은 일 예로, 카테고리별 분류정보(243)와 기업정보(224) 간의 문자열 유사도를 기반으로 매칭하는 문자비교 기반 매칭 솔루션, 주소를 이용한 주소 기반 매칭 솔루션, 우편번호를 이용한 우편번호 기반 매칭 솔루션 및 딥러닝(머신러닝) 학습을 이용한 딥러닝(머신러닝) 솔루션이 적어도 구비되는 소프트웨어다. 더 나아가, 주소 기반 매칭 솔루션은 주소의 표현형식이 다를 경우, 즉 문자열로 비교가 불가한 경우에 지도의 좌표 위치변환을 이용하여 매칭한다.The
객체정보(253)는 기업정보(224)와 카테고리별 분류정보(243)를 비교분석하여 매칭된 정보를 의미한다. 이러한 객체정보(253)는 일 예로, 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지 중 하나 이상의 카테고리를 포함하는 카테고리별 분류정보(243)와 기업정보(224)를 매칭한 정보이다. 다만, 객체정보(253)는 상술한 매칭 정보로 한정하는 것은 아니며, 기업과 관련된 카테고리와 매칭되는 정보라면 모두 객체정보(253)에 포함될 수 있다.The
한편, 매칭 솔루션(251)은 객체정보(253)뿐 아니라, 기업정보(224)와 카테고리별 분류정보(243)의 매칭을 통해 일치하지 않는 오류 객체정보(255)를 획득한다.On the other hand, the
보정부(260)는 매칭 솔루션(251)의 매칭을 통해 획득한 오류 객체정보(255)를 기업정보(224)를 기반으로 객체정보(263)로 보정한다. 이러한 보정부(260)는 오류 객체정보(255)를 객체정보(263)로 보정하기 위해 보정 솔루션(261)이 구비된다. 한편, 기업정보(224)는 서버(10)로부터 수신하는 것은 아니며, 데이터베이스(220, 바람직하게는 기업 DB(224))로부터 수신하는 정보를 의미한다.The
보정 솔루션(261)은 비교분석부(250)에서 매칭 솔루션(251)을 통해 정확하게 매칭 또는 인식되지 않은 오류 객체정보(255)의 문자열을 기업정보(224)와 매칭되게 보정하는 소프트웨어다. 즉, 객체정보(263)는 정보의 파악이 불가능한 오류 객체정보(255)를 기업정보(224)로 보정한 정보를 의미한다.The
제2 추출부(270)는 매칭 솔루션(251)에서 카테고리별 분류정보(243)와 매칭되는 기업정보(224) 중 카테고리별 분류정보(243)와 일치하지 않는 추가정보를 추출한다. 이러한 제2 추출부(270)는 추가정보를 추출하기 위해 제2 추출 솔루션(271)이 구비된다.The
제2 추출 솔루션(271)은 카테고리별 분류정보(243)와 일치하지 않은 기업정보(224)의 카테고리를 분류하여 추가정보를 추출한다.The
한편, 추가정보는 제1 추가정보(273)와 제2 추가정보(275)로 분류된다.Meanwhile, the additional information is classified into the first
제1 추가정보(273)는 기업 일반 정보(예: 기업명, 기업유형, 기업규모, 기업상태, 벤처기업유무, 상장일자, 홈페이지, 이메일, 사업자번호, 전화번호, 우편번호, 우편번호주소 상시근로자수, 제품명, 총자산, 자본총계, 매출액, 영업이익, 당기순이익 등) 및 기업 대표 정보(예: 성명, 주민등록번호, 취임일자, 퇴임일자, 현직여부, 직위, 동업계종사연수대표자, 동업계종사월수대표자, 동업계종사기간년 등)를 포함한다. 즉, 제1 추가정보(273)는 심플 기업정보 중에서 카테고리별 분류정보(243)와 일치하지 않는 추가정보를 의미한다.The first
제2 추가정보(275)는 기업 일반 정보(예: 기업개요, 주요재무정보 등), 기업 대표 정보(예: 대표자 정보, 대표자 인물 정보, 대표자 경력 정보, 대표자 학력 정보, 경영진 주요 정보 등), 기업추적정보(예: 기업연혁, 목적사업, 관계회사, 주주현황, 주요시설 등), 기업추가정보(예: 건설실적, 지적재산권, 보유자격 및 면허, 주요거래처 등), 기업보안정보(예: 종합신용등급 등), 기업회계정보(예: 재무계정코드, 재무제표 정보, 연결재무제표 정보 등)를 포함한다. 즉, 제2 추가정보(275)는 디테일 기업정보 중에서 카테고리별 분류정보(243)와 일치하지 않는 추가정보를 의미한다.The second
이를 통해, 입력시스템(20)은 객체정보(253, 263)와 추가정보를 단말기(30)로 송신한다. 이때, 입력시스템(20)이 송신하는 추가정보는 제1 추가정보(273) 및 제2 추가정보(275) 중 적어도 하나이다.Through this, the
감지부(280)는 서버(10)에 저장되는 기업정보를 기반으로 기업의 상태변화를 감지한다. 여기서, 기업의 상태변화라 함은, 심플 기업정보와 디테일 기업정보의 변경 또는 추가, 법정관리로 변경, 총자산, 납입자본금, 자본총계 등의 변동, 매출액, 영업이익, 당기순이익 추가, 대표자 변동을 의미한다. 이때, 감지부(280)가 감지한 기업의 상태변화는 단말기(30)로 송신된다.The
한편, 입력시스템(20)은 감지부(280)가 기업의 상태변화를 감지하면, 이를 알리기 위한 알림부(미도시)가 구비될 수 있다.On the other hand, the
제어부(290)는 입력시스템(20)의 구성들과 연결되어 상기 구성들을 제어한다. 이러한 제어부(290)는 대표적인 실시예로는 마이컴, CPU, 단말기(30) 등이 될 수 있고, 이를 포함하는 컴퓨터로 구성되는 것이 바람직할 것이다.The
단말기(30)는 통신부(300), 애플리케이션(310), 입력부(320), 출력부(330), 메모리(340) 및 제어부(350)를 포함하여 이루어진다.The terminal 30 includes a
통신부(300)는 입력시스템(20)과 통신을 위해 이동통신 모듈, 무선통신 모듈, 근거리통신 모듈 등이 구비된다.The
애플리케이션(310)은 입력시스템(20)으로부터 객체정보(253, 263)와 추가정보를 수신하기 위해 실행되는 프로그램이다. 이러한 애플리케이션(310)이 실행될 때, 입력시스템(20)으로부터 객체정보(253, 263)와 추가정보(바람직하게는, 제1 추가정보(273) 및 제2 추가정보(275) 중 적어도 하나)를 수신하게 된다.The
입력부(320)는 애플리케이션(310)의 실행 및 입력시스템(20)에서 정보가 획득될 객체(40)의 정보(바람직하게는, 객체이미지(45))를 입력하기 위해 구비된다.The
출력부(330)는 입력시스템(20)로부터 수신하는 객체정보(253, 263)와 추가정보(바람직하게는, 제1 추가정보(273) 및 제2 추가정보(275) 중 적어도 하나)를 출력하기 위해 구비된다.The
메모리(340)는 애플리케이션(310) 및 객체(40)별로 객체이미지(45)를 저장하기 위해 구비된다.The
제어부(350)는 상술한 단말기(30)의 구성들과 연결되어 상기 구성들을 제어한다. 이러한 제어부(350)의 대표적인 실시예로는 컴퓨터(예: 마이컴, CPU) 등이 될 수 있고, 여기서는, 단말기(30) 내부에 구비 가능한 CPU인 것이 바람직할 것이다.The
스마트 정보 입력방법Smart information input method
이하에서는, 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 스마트 정보 입력방법(이하에서는, "입력방법"이라 한다.)를 자세히 설명하도록 하겠다.Hereinafter, a smart information input method (hereinafter, referred to as an “input method”) according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
먼저, 스캐너부(210)가 OCR 솔루션(211)을 통해 명함(40a), 사업자등록증(40b), 영수증(40c)를 적어도 포함하는 객체(40)의 객체이미지(45)를 스캔하여 객체(40)에 대한 이미지정보를 획득한다(S10). 여기서, 이미지정보라 함은, 객체(40)를 스캔하여 획득한 객체이미지(45)를 광학 문자 인식(OCR)을 이용하여 문자열로 변환환 OCR정보(213)를 의미한다.First, the
S10 단계 후, OCR정보(213)은 객체 DB(221)에 객체(40)별 OCR정보(222)로 저장되고, 제1 추출부(230)는 제1 추출 솔루션(231)을 통해 객체 DB(221)에 저장된 OCR정보(222)와 서버(10)로부터 수신된 기업정보(224)를 비교하여 연계되는 추출정보(233)를 추출한다(S20). 여기서, 추출정보(233)라 함은, 기업정보(224)와 매칭되는 OCR정보(222)의 문자열을 추출하여 획득한 정보를 의미한다.After step S10, the
S20 단계 후, 카테고리 판별부(240)는 카테고리 솔루션(241)을 이용하여 추출정보(233)의 문자열이 속하는 카테고리를 판별한다(S30). 여기서, 카테고리는 상술한 바와 같이, 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지를 적어도 포함하는 카테고리를 의미한다. 이러한 카테고리 판별부(240)는 카테고리를 판별하여 카테고리별 분류정보(243)를 획득한다.After step S20, the
S30 단계 후, 비교분석부(250)는 매칭 솔루션(251)을 통해 카테고리별 분류정보(243)와 기업정보(224)를 비교분석하여 객체정보(253)를 획득한다(S40). 더 나아가, S40 단계에서 비교분석부(250)는 객체정보(253) 뿐 아니라, 카테고리별 분류정보(243)와 기업정보(224)의 매칭에서 일치하지 않는 오류 객체정보(255)를 획득한다.After step S30, the
S40 단계 후, 보정부(260)는 보정 솔루션(261)을 통해 오류 객체정보(255)의 문자열을 기업정보(224)와 매칭되게 보정하여 객체정보(263)를 획득한다(S50).After step S40, the
S50 단계 후, S40 단계에서, 카테고리별 분류정보(243)와 매칭되는 기업정보(224) 중 카테고리별 분류정보(243)와 일치하지 않는 추가정보를 추출한다(S60). 여기서, 추가정보라 함은, 제1 추가정보(273)와 제2 추가정보(275)를 의미한다.After the step S50, in the step S40, additional information that does not match the
S60 단계 후, 입력시스템(20)은 S40 단계에서 획득한 객체정보(253), S50 단계에서 획득한 객체정보(263), S60 단계에서 획득한 제1 추가정보(273)와 제2 추가정보(275) 중 적어도 하나를 단말기(30)에 송신한다. 그 후, 사용자는 단말기(30)를 통해 수신한 정보들을 확인할 수 있게 된다.After step S60, the
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
10: 서버,
20: 스마트 정보 입력시스템,
200: 통신부, 201: 이동통신 모듈,
203: 무선통신 모듈, 205: 근거리통신 모듈,
207: 유선통신 모듈, 210: 스캐너부,
211: OCR 솔루션, 213: OCR정보,
220: 데이터베이스, 221: 객체 DB,
222: OCR정보, 223: 기업 DB,
224: 기업정보, 230: 제1 추출부,
231: 제1 추출 솔루션, 233: 추출정보,
240: 카테고리 판별부, 241: 카테고리 솔루션,
243: 카테고리별 분류정보, 250: 분석부,
251: 매칭 솔루션, 253: 객체정보,
255: 오류 객체정보, 260: 보정부,
261: 보정 솔루션, 263: 보정 객체정보,
270: 제2 추출부, 271: 제2 추출 솔루션,
273: 제1 추가정보, 275: 제2 추가정보,
280: 감지부, 290: 제어부,
30: 단말기,
300: 통신부, 310: 애플리케이션,
320: 입력부, 330: 출력부,
340: 메모리, 350: 제어부,
40: 객체,
40a: 명함, 40b: 사업자등록증,
40c: 영수증, 45: 객체이미지.10: server,
20: smart information input system,
200: communication unit, 201: mobile communication module;
203: wireless communication module, 205: short-range communication module,
207: wired communication module, 210: scanner unit,
211: OCR solution, 213: OCR information,
220: database, 221: object DB,
222: OCR information, 223: company DB,
224: company information, 230: first extraction unit,
231: first extraction solution, 233: extraction information,
240: category determination unit, 241: category solution,
243: classification information by category, 250: analysis unit,
251: matching solution, 253: object information,
255: error object information, 260: correction unit,
261: correction solution, 263: correction object information,
270: a second extraction unit, 271: a second extraction solution;
273: first additional information, 275: second additional information;
280: sensing unit, 290: control unit;
30: terminal;
300: communication unit, 310: application,
320: input unit, 330: output unit,
340: memory, 350: control unit,
40: object,
40a: business card, 40b: business registration certificate,
40c: receipt, 45: object image.
Claims (11)
제1 추출부가 상기 이미지정보와 서버로부터 수신된 기업정보를 비교하여 연계되는 추출정보를 추출하는 제2 단계;
카테고리 판별부가 상기 추출정보의 문자열이 속하는 카테고리를 판별하여 카테고리별 분류정보를 획득하는 제3 단계;
비교분석부가 상기 카테고리별 분류정보와 상기 기업정보를 비교분석하여 객체정보 및 일치하지 않은 오류 객체정보를 획득하는 제4 단계;
보정부가 상기 오류 객체정보의 문자열을 상기 기업정보로 보정하여 객체정보를 획득하는 제5 단계; 및
제2 추출부가 상기 제4 단계에서, 상기 카테고리별 분류정보와 매칭되는 기업정보 중 상기 카테고리별 분류정보와 일치하지 않는 추가정보를 추출하는 제6 단계;를 포함하며,
상기 제3 단계는,
상기 카테고리 판별부가 카테고리 솔루션을 통해 상기 추출정보의 문자열이 속하는 카테고리를 판별하여 상기 카테고리별 분류정보를 획득하고,
상기 카테고리 솔루션은,
상기 추출정보의 문자열을 기업명, 주소, 우편번호, 전화번호, 팩스번호, 이메일, 사업장 소재지, 개업연월일 중 하나 이상의 카테고리로 분류하며,
상기 제4 단계는,
상기 비교분석부가 하나 이상의 매칭 솔루션을 통해 상기 카테고리별 분류정보와 상기 기업정보를 비교분석하여 상기 객체정보를 획득하고,
상기 매칭 솔루션은,
상기 카테고리별 분류정보와 상기 기업정보 간의 문자열 유사도를 기반으로 매칭하는 문자비교 기반 매칭 솔루션, 상기 카테고리별 분류정보와 상기 기업정보 간의 주소를 매칭하는 주소 기반 매칭 솔루션 및 상기 카테고리별 분류정보와 상기 기업정보 간의 우편번호를 매칭하는 우편번호 기반 매칭 솔루션 중 하나 이상을 포함하며,
상기 주소 기반 매칭 솔루션은,
상기 카테고리별 분류정보의 주소와 상기 기업정보의 주소 표현형식이 달라 문자열로 비교가 불가능한 경우, 지도의 좌표 위치변환을 이용하여 매칭하고,
상기 비교분석부에 의해 획득된 객체정보, 상기 보정부에 의해 획득된 객체정보 및 상기 제2 추출부에 의해 획득된 추가정보는 단말기로 송신되는 것을 특징으로 하는 스마트 정보 입력방법.A first step of obtaining image information about the object by a scanner unit scanning an object including at least a business card, a business registration certificate, a receipt;
a second step of extracting, by a first extracting unit, extracted information linked by comparing the image information with the company information received from the server;
a third step of obtaining classification information for each category by determining a category to which the character string of the extracted information belongs;
a fourth step of comparing and analyzing the classification information for each category and the company information by a comparative analysis unit to obtain object information and mismatched error object information;
a fifth step of obtaining object information by a correction unit correcting the character string of the erroneous object information with the company information; and
A sixth step of extracting, by a second extraction unit, additional information that does not match the classification information for each category from among the company information matching the classification information for each category in the fourth step;
The third step is
The category determining unit determines the category to which the character string of the extracted information belongs through the category solution to obtain the classification information for each category,
The category solution is
Classifying the string of the extracted information into one or more categories of company name, address, zip code, phone number, fax number, email, business location, and date of opening,
The fourth step is
The comparative analysis unit obtains the object information by comparing and analyzing the classification information for each category and the company information through one or more matching solutions,
The matching solution is
A character comparison-based matching solution for matching based on the string similarity between the classification information for each category and the company information, an address-based matching solution for matching addresses between the classification information for each category and the company information, and the classification information for each category and the company one or more of a zip code-based matching solution for matching zip codes between information;
The address-based matching solution is
If the address of the classification information for each category and the address expression format of the company information are different and cannot be compared with a character string, matching is performed using the coordinate location transformation of the map,
The object information obtained by the comparison analysis unit, the object information obtained by the correction unit, and the additional information obtained by the second extraction unit are transmitted to the terminal.
상기 제1 단계는,
상기 스캐너부가 OCR 솔루션을 이용하여 상기 객체를 스캔하는 것을 특징으로 하는 스마트 정보 입력방법.The method of claim 1,
The first step is
Smart information input method, characterized in that the scanner unit scans the object using an OCR solution.
상기 이미지정보는,
상기 OCR 솔루션에 의해 광학 인식 문자열로 변환된 OCR정보인 것을 특징으로 하는 스마트 정보 입력방법.The method of claim 2,
The image information is
Smart information input method, characterized in that the OCR information converted into an optical recognition string by the OCR solution.
상기 추출정보는,
상기 기업정보와 매칭되는 상기 이미지정보의 문자열인 기업명, 주소, 전화번호, 팩스번호, URL, 이메일, 우편번호, 우편주소, 대표 성명, 사업자등록번호, 법인등록번호, 개업연월일, 사업장소재지 중 하나 이상의 정보인 것을 특징으로 하는 스마트 정보 입력방법.The method of claim 1,
The extracted information is
One of the company name, address, phone number, fax number, URL, email, postal code, postal address, representative name, business registration number, corporate registration number, opening date, and location of business that is a character string of the image information that matches the company information Smart information input method, characterized in that the above information.
상기 제4 단계는,
비교분석을 위한 기업정보가 상기 제2 단계에서 상기 서버, 메모리, 인터넷, 메일 중 하나로부터 수신, 수집, 제공받거나 상기 서버, 상기 메모리, 상기 인터넷, 상기 메일 중 하나 또는 업체에서 일괄적으로 수신되어, 데이터베이스에 저장된 기업정보인 것을 특징으로 하는 스마트 정보 입력방법.The method of claim 1,
The fourth step is
Company information for comparative analysis is received, collected, or provided from one of the server, memory, Internet, and mail in the second step, or is collectively received from one or a company of the server, the memory, the Internet, and the mail. , a smart information input method, characterized in that the company information stored in the database.
상기 추가정보는,
기업명, 기업유형, 기업규모, 기업상태, 벤처기업유무, 상장일자, 홈페이지, 이메일, 사업자번호, 전화번호, 우편번호, 우편번호주소 상시근로자수, 제품명, 총자산, 자본총계, 매출액, 영업이익, 당기순이익을 포함하는 기업 일반정보와, 성명, 주민등록번호, 취임일자, 퇴임일자, 현직여부, 직위, 동업계종사연수대표자, 동업계종사월수대표자, 동업계종사기간년을 포함하는 기업 대표 정보로 이루어지는 제1 추가정보; 및
상기 기업 일반정보, 상기 기업 대표정보, 기업연혁, 목적사업, 관계회사, 주주현황, 주요시설을 포함하는 기업추적정보와, 건설실적, 지적재산권, 보유자격 및 면허, 주요거래처를 포함하는 기업추가정보와, 종합신용등급을 포함하는 기업보안정보와, 재무계정코드, 재무제표 정보, 연결재무제표 정보를 포함하는 기업회계정보로 이루어지는 제2 추가정보;를 포함하는 것을 특징으로 하는 스마트 정보 입력방법.The method of claim 1,
The additional information is
Company name, company type, company size, company status, existence of venture company, listing date, website, email, business number, phone number, zip code, zip code address number of full-time employees, product name, total assets, total capital, sales, operating profit, Company general information including net income, name, resident registration number, inauguration date, resignation date, current position, position, representative of the company including the representative of the same industry, the representative of the number of months in the same industry, and the year of service in the same industry first additional information; and
Addition of company including general information of the company, company representative information, company history, purpose business, affiliated companies, shareholder status, company tracking information including major facilities, construction performance, intellectual property rights, qualifications and licenses, and major customers Smart information input method comprising: information, corporate security information including comprehensive credit rating, and second additional information comprising corporate accounting information including financial account code, financial statement information, and consolidated financial statement information; .
상기 제6 단계는,
상기 제2 추출부가 상기 제1 추가정보 및 상기 제2 추가정보 중 적어도 하나의 추가정보를 추출하는 것을 특징으로 하는 스마트 정보 입력방법.The method of claim 8,
The sixth step is
The smart information input method, characterized in that the second extraction unit extracts at least one of the first additional information and the second additional information.
상기 이미지정보와 서버로부터 수신된 기업정보를 비교하여 연계되는 추출정보를 추출하는 제1 추출부;
상기 추출정보의 문자열이 속하는 카테고리를 판별하여 카테고리별 분류정보를 획득하는 카테고리 판별부;
상기 카테고리별 분류정보와 상기 기업정보를 비교분석하여 객체정보 및 일치하지 않은 오류 객체정보를 획득하는 비교분석부;
상기 오류 객체정보의 문자열을 상기 기업정보로 보정하여 객체정보를 획득하는 보정부; 및
상기 비교분석부로부터 상기 카테고리별 분류정보와 매칭되는 기업정보 중 상기 카테고리별 분류정보와 일치하지 않는 추가정보를 추출하는 제2 추출부;를 포함하며,
상기 카테고리 판별부는,
카테고리 솔루션을 통해 상기 추출정보의 문자열이 속하는 카테고리를 판별하여 상기 카테고리별 분류정보를 획득하고,
상기 카테고리 솔루션은,
상기 추출정보의 문자열을 기업명, 주소, 우편번호, 전화번호, 팩스번호, 이메일, 사업장 소재지, 개업연월일 중 하나 이상의 카테고리로 분류하며,
상기 비교분석부는,
하나 이상의 매칭 솔루션을 통해 상기 카테고리별 분류정보와 상기 기업정보를 비교분석하여 상기 객체정보를 획득하고,
상기 매칭 솔루션은,
상기 카테고리별 분류정보와 상기 기업정보 간의 문자열 유사도를 기반으로 매칭하는 문자비교 기반 매칭 솔루션, 상기 카테고리별 분류정보와 상기 기업정보 간의 주소를 매칭하는 주소 기반 매칭 솔루션 및 상기 카테고리별 분류정보와 상기 기업정보 간의 우편번호를 매칭하는 우편번호 기반 매칭 솔루션 중 하나 이상을 포함하며,
상기 주소 기반 매칭 솔루션은,
상기 카테고리별 분류정보의 주소와 상기 기업정보의 주소 표현형식이 달라 문자열로 비교가 불가능한 경우, 지도의 좌표 위치변환을 이용하여 매칭하고,
상기 비교분석부에 의해 획득된 객체정보, 상기 보정부에 의해 획득된 객체정보 및 상기 제2 추출부에 의해 획득된 추가정보는 단말기로 송신되는 것을 특징으로 하는 스마트 정보 입력시스템.a scanner unit that scans an object including at least a business card, a business license, and a receipt to obtain image information about the object;
a first extraction unit for comparing the image information and the company information received from the server and extracting related extraction information;
a category determining unit for obtaining classification information for each category by determining a category to which the character string of the extracted information belongs;
a comparative analysis unit that compares and analyzes the classification information for each category and the company information to obtain object information and mismatched error object information;
a correction unit for obtaining object information by correcting the character string of the error object information with the company information; and
a second extraction unit for extracting additional information that does not match the classification information for each category from among the company information matching the classification information for each category from the comparison and analysis unit;
The category determining unit,
By determining the category to which the character string of the extracted information belongs through the category solution, the classification information for each category is obtained,
The category solution is
Classifying the string of the extracted information into one or more categories of company name, address, zip code, phone number, fax number, email, business location, and date of opening,
The comparative analysis unit,
Comparing and analyzing the classification information for each category and the company information through one or more matching solutions to obtain the object information,
The matching solution is
A character comparison-based matching solution for matching based on the string similarity between the classification information for each category and the company information, an address-based matching solution for matching addresses between the classification information for each category and the company information, and the classification information for each category and the company one or more of a zip code-based matching solution for matching zip codes between information;
The address-based matching solution is
If the address of the classification information for each category and the address expression format of the company information are different and cannot be compared with a character string, matching is performed using the coordinate location transformation of the map,
The object information obtained by the comparison and analysis unit, the object information obtained by the correction unit, and the additional information obtained by the second extraction unit are transmitted to the terminal.
서버에 저장되는 기업정보를 기반으로 기업의 상태변화를 감지하는 감지부; 및
상기 감지부가 감지한 상태변화 정보를 단말로 전송하기 위한 통신부;를 더 포함하는 것을 특징으로 하는 스마트 정보 입력시스템.The method of claim 10,
a sensing unit for detecting a change in the state of the company based on the company information stored in the server; and
The smart information input system further comprising; a communication unit for transmitting the state change information detected by the sensing unit to the terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190032997A KR102259477B1 (en) | 2019-03-22 | 2019-03-22 | Smart information input method and smart information input system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190032997A KR102259477B1 (en) | 2019-03-22 | 2019-03-22 | Smart information input method and smart information input system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200112465A KR20200112465A (en) | 2020-10-05 |
KR102259477B1 true KR102259477B1 (en) | 2021-06-01 |
Family
ID=72809498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190032997A KR102259477B1 (en) | 2019-03-22 | 2019-03-22 | Smart information input method and smart information input system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102259477B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102574061B1 (en) * | 2021-01-18 | 2023-09-08 | 주식회사 인슈로보 | Information extraction system and information extraction method for personalized insurance recommendation |
KR102528099B1 (en) * | 2021-03-04 | 2023-05-02 | 이장욱 | Brokerage systems and method for product of certified small and medium-sized enterprises having undergone differentiated corporate certification procedures |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174309A (en) * | 2016-03-25 | 2017-09-28 | 大日本印刷株式会社 | Portable information device, server device, data input supporting system, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100664421B1 (en) | 2006-01-10 | 2007-01-03 | 주식회사 인지소프트 | Portable terminal and method for recognizing name card using having camera |
KR100784332B1 (en) | 2006-05-11 | 2007-12-13 | 삼성전자주식회사 | Apparatus and method for photographing a business card in portable terminal |
CN101945057B (en) * | 2010-08-31 | 2012-10-10 | 上海合合信息科技发展有限公司 | Method for obtaining information provided by contact through network after input of contact information |
-
2019
- 2019-03-22 KR KR1020190032997A patent/KR102259477B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174309A (en) * | 2016-03-25 | 2017-09-28 | 大日本印刷株式会社 | Portable information device, server device, data input supporting system, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20200112465A (en) | 2020-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887153B (en) | Finance and tax processing method and system | |
US10423826B2 (en) | Systems and methods for classifying payment documents during mobile image processing | |
US6533168B1 (en) | Method and apparatus for computer-readable purchase receipts using multi-dimensional bar codes | |
US10740372B2 (en) | System and method for extracting data from a non-structured document | |
US20100127871A1 (en) | System and method for verification of shipped products using rfid tags | |
US20160379184A1 (en) | Dynamic resource management associated with payment instrument exceptions processing | |
US20150120564A1 (en) | Check memo line data lift | |
CN102682091A (en) | Cloud-service-based visual search method and cloud-service-based visual search system | |
KR102259477B1 (en) | Smart information input method and smart information input system | |
US20190354919A1 (en) | Methods and systems for automating package handling tasks through deep-learning based package label parsing | |
US20170091873A1 (en) | Computerized person-to-person asset routing system | |
US20160379186A1 (en) | Element level confidence scoring of elements of a payment instrument for exceptions processing | |
US20110052075A1 (en) | Remote receipt analysis | |
US11694499B2 (en) | Systems and methods for updating an image registry for use in fraud detection related to financial documents | |
US20140268250A1 (en) | Systems and methods for receipt-based mobile image capture | |
Vukićević et al. | A smart Warehouse 4.0 approach for the pallet management using machine vision and Internet of Things (IoT): A real industrial case study | |
WO2021014537A1 (en) | Information processing system, information code generation system, information processing method, and information code generation method | |
US10049350B2 (en) | Element level presentation of elements of a payment instrument for exceptions processing | |
US20140350718A1 (en) | Correction of customer mailing information | |
US9597714B2 (en) | Routing of an unknown mail item | |
US9823958B2 (en) | System for processing data using different processing channels based on source error probability | |
US9898710B2 (en) | Routing different parts of a mail item to different destinations | |
US9390393B2 (en) | Routing from a mail sorting assembly similarly addressed mail items to different destinations | |
JP2018190064A (en) | Accounting processing system | |
US9466044B2 (en) | Use of organization chart to direct mail items from central receiving area to organizational entities using clusters based on a union of libraries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |