KR20230139449A - A recognizing method of assembled stamp using image feature analysis - Google Patents

A recognizing method of assembled stamp using image feature analysis Download PDF

Info

Publication number
KR20230139449A
KR20230139449A KR1020220037778A KR20220037778A KR20230139449A KR 20230139449 A KR20230139449 A KR 20230139449A KR 1020220037778 A KR1020220037778 A KR 1020220037778A KR 20220037778 A KR20220037778 A KR 20220037778A KR 20230139449 A KR20230139449 A KR 20230139449A
Authority
KR
South Korea
Prior art keywords
character
outline
information
print
data
Prior art date
Application number
KR1020220037778A
Other languages
Korean (ko)
Inventor
이영수
표영빈
이가영
Original Assignee
대한민국(관리부서: 행정안전부 국립과학수사연구원장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(관리부서: 행정안전부 국립과학수사연구원장) filed Critical 대한민국(관리부서: 행정안전부 국립과학수사연구원장)
Priority to KR1020220037778A priority Critical patent/KR20230139449A/en
Priority to PCT/KR2023/002944 priority patent/WO2023191325A1/en
Publication of KR20230139449A publication Critical patent/KR20230139449A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/15Cutting or merging image elements, e.g. region growing, watershed or clustering-based techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18086Extraction of features or characteristics of the image by performing operations within image blocks or by using histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/182Extraction of features or characteristics of the image by coding the contour of the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

According to the present invention, provided is a method for identifying an assembled stamp using image element analysis, which is executed by a computer system including a display unit, a control unit, an input unit, and a storage unit. The method comprises: a stamp image preparing step (ST-110); a character outline detection step (ST-120) of detecting an outline of a prepared stamp image (100); a character unit integration step (ST-130) of performing integration by each character; a character area detection step (ST-140) of obtaining minimum square information by each character; a character alignment step (ST-150) of correcting an angle of a character; and a DB data comparison step (ST-160) of calculating aligned character information with DB data. In the DB data comparison step (ST-160), a filling rate of character information on the stamp image aligned in the character alignment step (ST-150) and a plurality of character information included in the DB data is calculated to determine the character information on the DB data with the highest filling rate. The DB data stores each character information together with classification information, and each character information included in the DB data is provided by executing the steps from the stamp image preparing step (ST-110) to the character alignment step (ST-150). Therefore, it can be accurately determined whether an assembled stamp is sealed.

Description

이미지 요소 분석을 이용한 조립 인영 식별 방법{A recognizing method of assembled stamp using image feature analysis}{A recognizing method of assembled stamp using image feature analysis}

본 발명은 인영 식별 방법에 관한 것으로, 보다 상세하게는 조립하여 사용하는 조립 인영을 정확하게 식별할 수 있는 이미지 요소 분석을 이용한 조립 인영 식별 방법에 관한 것이다.The present invention relates to a method for identifying prints, and more specifically, to a method for identifying assembled prints using image element analysis that can accurately identify assembled prints for use.

인장은 자기 성명 또는 관명을 인장면에 조각한 것이고, 인영은 인장에 인주를 묻혀 가압하여 날인한 흔적을 말한다. 인장은 고대부터 사용되어 왔으며 현재 한국, 일본, 중국 등 동양권에서 본인을 확인하는 수단으로 널리 사용되고 있다.A seal is a person's name or official name engraved on the face of the seal, and a seal is a trace of a stamp made by putting seal on the seal and pressing it. Seals have been used since ancient times, and are currently widely used as a means of identifying oneself in Eastern countries such as Korea, Japan, and China.

한국에서는 인감제출을 요구하는 행정기관 사무가 240여 종, 사적 거래가 수십여 종에 달하는 등 부동산 등 주요 재산의 소유권 이전이나 저당권 설정과 같은 중요한 법률행위에서 인영이 필수적이다. 인장이 이와 같은 중요한 거래 및 본인 확인 기능에 사용되고 있어 이를 위조하는 범죄 또한 날로 늘어나고 있다. 또한 조립하여 사용하는 인장의 사용빈도도 늘어나고 있으나, 조립하여 사용하는 인장에 의하여 날인된 것인지 여부에 대한 정확한 판단 기준이 마련되지 못한 문제점이 있었다. In Korea, seals are essential for important legal acts such as transfer of ownership of major assets such as real estate or creation of mortgages, with over 240 types of administrative office work requiring submission of seals and dozens of types of private transactions. As seals are used for important transactions and identity verification functions, crimes of counterfeiting them are also increasing day by day. In addition, the frequency of use of assembled seals is increasing, but there is a problem that there is no accurate standard for determining whether a seal is made by assembled seals.

대한민국 공개번호 제10-2011-0104724호 공개특허공보Republic of Korea Publication No. 10-2011-0104724 Open Patent Publication 대한민국 공개번호 제10-2011-0117543호 공개특허공보Republic of Korea Publication No. 10-2011-0117543 Open Patent Publication

본 발명은 상기와 같은 종래 기술이 가지는 문제점을 해결하기 위하여 제안된 것으로, 조립하여 사용하는 인장에 의하여 날인된 조립 인영인지 여부를 정확하게 판단할 수 있는 이미지 요소 분석을 이용한 인영 식별 방법을 제공하는 것을 목적으로 한다.The present invention was proposed to solve the problems of the prior art as described above, and aims to provide a method for identifying an imprint using image element analysis that can accurately determine whether or not it is an assembled imprint stamped by an assembled seal. The purpose.

상기와 같은 목적을 위하여, 본 발명은 디스플레이부, 제어부, 입력부, 저장부를 포함하는 컴퓨터 시스템에서 실행되며; 인영 이미지 준비단계와, 준비된 인영 이미지의 윤곽선이 검출되는 문자 윤곽선 검출단계와, 문자별로 통합되는 문자 단위 통합단계와, 문자별 최소 사각형 정보가 획득되는 문자별 영역 검출단계와, 문자의 각도가 보정되는 문자 정렬단계와, 정렬된 문자 정보를 DB 데이터와 연산하는 DB 데이터와 비교단계를 포함하며;For the above purpose, the present invention is implemented in a computer system including a display unit, a control unit, an input unit, and a storage unit; A print image preparation step, a character outline detection step in which the outline of the prepared print image is detected, a character unit integration step in which each character is integrated, a character-specific area detection step in which minimum square information for each character is acquired, and the angle of the character is corrected. It includes a character sorting step and a comparison step with DB data for calculating the sorted character information with DB data;

상기 DB 데이터와 비교단계에서는 문자 정렬단계에서 정렬된 인영 이미지의 문자 정보와 DB 데이터에 포함된 복수의 문자 정보의 충진율이 연산되어 충진율이 가장 높은 DB 데이터의 문자 정보로 판단되며; In the step of comparing with the DB data, the character information of the image image sorted in the character sorting step and the fill rate of the plurality of character information included in the DB data are calculated, and the character information of the DB data with the highest fill rate is determined;

상기 DB 데이터에는 각 문자 정보가 서체 정보와 함께 저장되며, DB 데이터에 포함된 각각의 문자 정보는 상기 인영 이미지 준비단계부터 문자 정렬단계까지의 단계들이 실행되어 마련되는 이미지 요소 분석을 이용한 조립 인영 식별 방법을 제공한다.In the DB data, each character information is stored along with font information, and each character information included in the DB data is identified by assembled impressions using image element analysis, which are prepared by executing steps from the impression image preparation step to the character alignment step. Provides a method.

상기에서, 문자 윤곽선 검출단계는 인영 이미지 준비단계에서 마련된 이미지가 이진화되는 이진화 단계와, 이진화된 이미지 정보가 미분연산자와 연산되어 윤곽선이 검출되는 윤곽선 검출단계와, 외곽선이 분류되는 외곽선 분류단계를 포함하며; 상기 외곽선 분류단계에서는 윤곽선 검출 단계에서 검출된 복수의 윤곽선 중 가로 및 세로 길이가 가장 큰 2개의 윤곽선이 외곽선으로 분류되는 것을 특징으로 한다.In the above, the character outline detection step includes a binarization step in which the image prepared in the print image preparation step is binarized, an outline detection step in which the binarized image information is operated with a differential operator to detect the outline, and an outline classification step in which the outline is classified. and; In the outline classification step, the two outlines with the largest horizontal and vertical lengths among the plurality of outlines detected in the outline detection step are classified as outlines.

상기에서, 문자 윤곽선 검출단계 후에 인영윤곽선 중 노이즈 윤곽선이 제거되는 노이즈 제거단계를 더 포함하고; 상기 노이즈 제거단계에서는 윤곽선 검출단계에서 검출된 복수의 윤곽선의 가로 및 세로 길이가 도출되며, 인영의 가로 길이에 대한 인영윤곽선의 가로 길이비(윤곽선 가로 길이비)와 인영의 세로 길이에 대한 인영윤곽선의 세로 길이비(윤곽선 세로 길이비)가 연산되어, 윤곽선 가로 길이비와 윤곽선 세로 길이비 중 어느 하나가 설정값 이하이면 노이즈로 분류되어 윤곽선 정보에 포함되지 않는 것을 특징으로 한다.In the above, after the character outline detection step, it further includes a noise removal step in which noise outlines among the human print outlines are removed; In the noise removal step, the horizontal and vertical lengths of the plurality of outlines detected in the outline detection step are derived, and the horizontal ratio of the print outline to the horizontal length of the print (contour horizontal length ratio) and the print outline to the vertical length of the print are derived. The vertical length ratio (contour vertical length ratio) is calculated, and if either the horizontal length ratio of the outline or the vertical length ratio of the outline is less than a set value, it is classified as noise and is not included in the contour information.

상기에서, 설정값은 2%인 것을 특징으로 한다.In the above, the set value is characterized as 2%.

상기에서, 문자 단위 통합단계에서는 복수의 인영윤곽선이 문자별로 클러스터링 되어 문자 단위로 분류되는 것을 특징으로 한다.In the above, in the character unit integration step, a plurality of human print outlines are clustered for each character and classified into character units.

상기에서, 문자 단위 통합단계에서는 외곽선을 제외한 각 인영윤곽선을 이루는 픽셀 집합의 중심 위치가 연산되어 복수의 인영윤곽선이 문자 단위로 분류되는 것을 특징으로 한다.In the above, in the character unit integration step, the center position of the pixel set forming each print outline, excluding the outline, is calculated and the plurality of print outlines are classified into character units.

상기에서, 문자별 영역 검출단계에서는 문자 단위 통합단계에서 획득된 각 문자를 이루는 인영윤곽선이 이루는 볼록 집합 다각형 정보가 도출되는 볼록 집합 다각형 픽셀 정보 도출단계와, 상기 볼록 집합 다각형 픽셀 정보 도출단계에 도출된 볼록 집합 다각형을 둘러싸는 최소 사각형 정보가 도출되는 최소 사각형 정보 도출단계를 포함하는 것을 특징으로 한다.In the above, the area detection step for each character includes a convex set polygon pixel information deriving step in which convex set polygon information formed by the print outline forming each character obtained in the character unit integration step is derived, and the convex set polygon pixel information deriving step is derived. It is characterized by including a minimum square information derivation step in which minimum square information surrounding the convex set polygon is derived.

상기에서, 문자 정렬단계에서는 문자의 인영윤곽선을 이루는 픽셀 중 임의로 선택된 성분과 나머지 픽셀 성분의 기울기 차이가 연산되고, 기울기 차이가 설정값 이하이면 연속성 픽셀 성분으로 판단되는 방법으로 문자를 이루는 나머지 부분에 대한 연속성 픽셀 성분의 개수가 카운팅되어 저장되는 연속성 성분 개수 도출단계를 포함하고; In the above, in the character alignment step, the slope difference between a randomly selected component of the pixels forming the print outline of the character and the remaining pixel components is calculated, and if the slope difference is less than a set value, it is judged to be a continuous pixel component, and the remaining pixel components forming the character are judged as continuous. It includes a step of deriving the number of continuity components in which the number of continuity pixel components is counted and stored;

문자의 인영윤곽선을 이루는 나머지 성분들에 대하여 연속성 성분 개수 도출단계가 반복 실행되어, 각 성분에 대한 히스토그램 정보가 마련되며; 가장 많은 연속성 픽셀 성분을 가지는 성분이 가로 방향으로 되도록 회전시키는 것을 특징으로 한다.The step of deriving the number of continuity components is repeatedly performed for the remaining components that form the print outline of the character, and histogram information for each component is prepared; It is characterized by rotating the component with the most continuous pixel components so that it is horizontal.

상기에서, 상기 DB 데이터와 비교단계에서는 모폴로지 연산을 사용하여 문자 영역 중 경계를 이루는 픽셀이 도출되고; 경계를 이루는 픽셀에 대해서는 1보다 작은 가중치가 부여되어 충진율이 연산되는 것을 특징으로 한다.In the above, in the step of comparing with the DB data, pixels forming the boundary of the character area are derived using a morphology operation; A weight smaller than 1 is assigned to pixels forming the boundary to calculate the fill rate.

상기에서, 문자 정렬단계를 통하여 정렬된 준비된 인영의 문자영역을 이루는 픽셀들에 대하여 침식연산과 팽창연산을 하여 픽셀 값이 변하는 영역이 문자영역 중 경계를 이루는 픽셀로 도출되고; In the above, an erosion operation and an expansion operation are performed on the pixels forming the character area of the prepared impression aligned through the character alignment step, so that the area where the pixel value changes is derived as a pixel forming the border of the character area;

상기 DB 데이터에 포함된 인영의 문자영역을 이루는 픽셀들에 대하여 침식연산과 팽창연산을 하여 픽셀 값이 변하는 영역이 문자영역 중 경계를 이루는 픽셀로 도출되어; By performing an erosion operation and an expansion operation on the pixels forming the character area of the print included in the DB data, the area where the pixel value changes is derived as a pixel forming the border of the character area;

경계를 이루는 픽셀에 대해서는 1보다 작은 가중값이 부여되어 충진율이 연산되는 것을 특징으로 한다.The pixels forming the boundary are given a weight value less than 1 to calculate the fill rate.

본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법에 의하면, 조립하여 사용하는 인장에 의하여 날인된 것인지에 대한 정확하고 신속한 정보 제공이 가능하다.According to the method of identifying a seal using image element analysis according to the present invention, it is possible to provide accurate and rapid information as to whether a seal is made by assembled and used seal.

도 1은 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법의 실행 순서도이며,
도 2는 도 1의 문자 윤곽선 검출단계를 설명하기 위하여 도시한 순서도이며,
도 3은 윤곽선 검출 단계를 설명하기 위하여 도시한 픽셀 및 미분연산자의 예시도이며,
도 4는 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법이 실행되어 도출된 윤곽선을 예시적으로 도시한 인영 이미지이며,
도 5는 노이즈 제거단계를 설명하기 위하여 예시적으로 도시한 인영 이미지이며,
도 6은 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법을 이루는 문자 단위 통합단계를 설명하기 위하여 예시적으로 도시한 인영 이미지이며,
도 7은 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법을 이루는 문자별 영역 검출단계를 설명하기 위하여 예시적으로 도시한 인영의 일부 이미지이며,
도 8은 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법을 이루는 문자별 영역 검출단계를 설명하기 위하여 도시한 것이며,
도 9는 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법이 실행되어 문자별 최소 사각형 정보가 표시된 인영 이미지의 예시도이며,
도 10은 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법을 이루는 문자 정렬단계를 설명하기 위하여 도시한 인영의 일부 이미지이며,
도 11은 본 발명에 따르는 이미지 요소 분석을 이용한 인영 식별 방법을 이루는 문자 정렬단계를 설명하기 위하여 도시한 히스토그램 그래프이다.
1 is a flowchart of the execution of a human image identification method using image element analysis according to the present invention;
Figure 2 is a flow chart illustrating the character outline detection step of Figure 1;
Figure 3 is an example diagram of pixels and differential operators shown to explain the contour detection step;
Figure 4 is a human print image illustrating an exemplary outline derived by executing the human print identification method using image element analysis according to the present invention;
Figure 5 is an image showing an example to explain the noise removal step,
Figure 6 is a print image illustratively shown to illustrate the character unit integration step of the print identification method using image element analysis according to the present invention;
Figure 7 is a partial image of a human impression shown as an example to explain the character-specific area detection step of the human impression identification method using image element analysis according to the present invention;
Figure 8 is a diagram to explain the area detection step for each character that constitutes the human image identification method using image element analysis according to the present invention;
Figure 9 is an example of a human print image in which the human print identification method using image element analysis according to the present invention is executed and the minimum square information for each character is displayed;
Figure 10 is a partial image of a human print shown to explain the character alignment step of the human print identification method using image element analysis according to the present invention;
Figure 11 is a histogram graph shown to explain the character sorting step of the human image identification method using image element analysis according to the present invention.

본 발명의 설명에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 개시에 사용되는 모든 용어들은 본 개시를 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 개시에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical and scientific terms used in the description of the present invention, unless otherwise defined, have meanings commonly understood by those skilled in the art to which the present disclosure pertains. All terms used in this disclosure are selected for the purpose of more clearly explaining this disclosure and are not selected to limit the scope of rights according to this disclosure.

본 발명의 설명에 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.Expressions such as “comprising,” “comprising,” “having,” etc. used in the description of the present invention imply the possibility of including other embodiments, unless otherwise stated in the phrase or sentence containing the expression. It should be understood as open-ended terms.

본 발명의 설명에 사용되는 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.The singular expressions used in the description of the present invention may include plural meanings unless otherwise specified, and this also applies to the singular expressions recited in the claims.

본 발명의 설명에 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다. Expressions such as “first” and “second” used in the description of the present invention are used to distinguish a plurality of components from each other, and do not limit the order or importance of the components.

본 발명의 설명에서 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "결합되어" 있다고 언급된 경우, 어떤 구성요소가 다른 구성요소에 직접적으로 연결될 수 있거나 결합될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 결합될 수 있는 것으로 이해되어야 한다.In the description of the invention, when a component is referred to as being “connected” or “coupled” to another component, it means that the component can be directly connected to or coupled to the other component, or as a new component. It should be understood as something that can be connected or combined through components.

이하에서 첨부된 도면을 참조하여, 본 발명의 이미지 요소 분석을 이용한 조립 인영 식별 방법에 대하여 상세하게 설명한다.Hereinafter, with reference to the attached drawings, the method for identifying assembled prints using image element analysis of the present invention will be described in detail.

본 발명의 이미지 요소 분석을 이용한 조립 인영 식별 방법은 프로그램으로 저장부 디스플레이부, 제어부, 입력부, 저장부를 포함하는 컴퓨터 시스템에서 실행된다.The method of identifying assembled prints using image element analysis of the present invention is executed as a program in a computer system including a storage display unit, a control unit, an input unit, and a storage unit.

상기 저장부에는 DB 데이터가 저장된다. 상기 DB 데이터는 복수의 인영 이미지에 대한 문자 정보와 분류 정보가 매칭되어 저장된다. 분류 정보에는 조립 인영 제조사, 서체, 문자라 포함된다.DB data is stored in the storage unit. The DB data is stored by matching character information and classification information for a plurality of human images. Classification information includes assembly stamp manufacturer, font, and character.

DB 데이터에 포함된 복수의 인영 이미지에 대한 문자 정보는 인영 이미지 준비단계(ST-110)와, 준비된 인영 이미지(100)의 윤곽선이 검출되는 문자 윤곽선 검출단계(ST-120)와, 문자별로 통합되는 문자 단위 통합단계(ST-130)와, 문자별 최소 사각형 정보가 획득되는 문자별 영역 검출단계(ST-140)와, 문자의 각도가 보정되는 문자 정렬단계(ST-150)를 통하여 마련되어 저장된다.Character information about a plurality of human print images included in the DB data is integrated for each character through a print image preparation step (ST-110) and a character outline detection step (ST-120) in which the outline of the prepared print image 100 is detected. Prepared and stored through a character unit integration step (ST-130), a character-specific area detection step (ST-140) in which the minimum square information for each character is obtained, and a character alignment step (ST-150) in which the angle of the character is corrected. do.

DB 데이터와 비교되는 인영 이미지의 정보는 인영 이미지 준비단계(ST-110)와, 준비된 인영 이미지(100)의 윤곽선이 검출되는 문자 윤곽선 검출단계(ST-120)와, 문자별로 통합되는 문자 단위 통합단계(ST-130)와, 문자별 최소 사각형 정보가 획득되는 문자별 영역 검출단계(ST-140)와, 문자의 각도가 보정되는 문자 정렬단계(ST-150)를 통하여 마련되고, 정렬된 문자 정보는 DB 데이터와 비교단계(ST-160)를 통해 DB 데이터와 연산된다.The information of the print image compared with the DB data includes the print image preparation step (ST-110), the character outline detection step (ST-120) in which the outline of the prepared print image 100 is detected, and the character unit integration integrated for each character. The aligned characters are prepared through a step (ST-130), an area detection step for each character (ST-140) in which the minimum square information for each character is obtained, and a character alignment step (ST-150) in which the angle of the character is corrected. Information is calculated with DB data through a comparison step (ST-160).

DB 데이터에 포함된 문자 정보와, DB 데이터와 비교될 인영 이미지의 문자 정보는 같은 방법으로 연산되어 마련된다.The text information included in the DB data and the text information of the print image to be compared with the DB data are calculated and prepared in the same way.

상기 DB 데이터와 비교단계(ST-160)에서는 문자 정렬단계(ST-150)에서 정렬된 인영 이미지의 문자 정보와 DB 데이터에 포함된 복수의 문자 정보의 충진율이 연산되어 충진율이 가장 높은 DB 데이터의 문자 정보에 해당되는 것으로 판단된다.In the DB data and comparison step (ST-160), the fill rate of the character information of the impression image sorted in the character sorting step (ST-150) and the plurality of character information included in the DB data are calculated to determine the DB data with the highest fill rate. It is judged to correspond to text information.

상기 인영 이미지 준비단계(ST-110)에서는 종이 등에 날인된 인영이 스캔되거나 촬영되어 인영 이미지가 마련된다. 인영이미지는 저장부에 저장된다.In the print image preparation step (ST-110), the print image stamped on paper is scanned or photographed to prepare a print image. The print image is stored in the storage unit.

인영 이미지(100)는 인주가 날인된 영역으로서 인영영역(120)과 외곽선영역(110)을 가지며, 인자가 날인되지 않는 배경영역(120)을 가진다.The imprint image 100 has an imprint area 120 and an outline area 110 as areas where the ink is stamped, and has a background area 120 where the ink is not imprinted.

상기 문자 윤곽선 검출단계(ST-120)는 인영 이미지 준비단계(ST-110)에서 마련된 인영 이미지(100)가 이진화되는 이진화 단계(ST-121)와, 이진화된 이미지 정보가 미분연산자와 연산되어 윤곽선이 검출되는 윤곽선 검출단계(ST-123)와, 외곽선영역이 분류되는 외곽선 분류단계(ST-127)를 포함한다.The character outline detection step (ST-120) includes a binarization step (ST-121) in which the print image 100 prepared in the print image preparation step (ST-110) is binarized, and the binarized image information is operated with a differential operator to create an outline. It includes an outline detection step (ST-123) where the outline is detected, and an outline classification step (ST-127) where the outline area is classified.

윤곽선 검출단계(ST-123)에서 검출된 각 윤곽선을 이루는 픽셀 집합은 아래 와 같이 식으로 표시된다.The set of pixels forming each outline detected in the outline detection step (ST-123) is expressed as the equation below.

Figure pat00001
Figure pat00001

그리고 Pn의 가로, 세로 위치는 각각 xn, yn이다.And the horizontal and vertical positions of Pn are xn and yn, respectively.

도 3에 윤곽선 검출을 위한 미분연산자가 예시적으로 도시되어 있으며, 가장 왼쪽에 격자로 인영 이미지의 일부가 예시적으로 도시되어 있다. 도 3에서 빗금친 픽셀이 인영영역 또는 외곽선영역이 될 수 있고, 나머지 픽셀이 배경영역이다. 이진화된 이미지에 도 3의 오른쪽에 예시적으로 도시한 미분연산자가 곱해지고 합산되어 각 픽셀의 값이 연산되어 윤곽선이 검출된다. 참고로 미분연산가가 곱해지고 합산된 픽셀의 값이 '0'이 아닌 픽셀이 윤곽선을 이루는 픽셀이 된다. 도 3에는 Sobel 미분연산자(x 방향, y방향)가 도시되어 있으나 이에 한정되는 것은 아니며 공지의 다양한 미분연산자가 연산되어 윤곽선이 검출될 수 있다.In Figure 3, a differential operator for contour detection is exemplarily shown, and a part of the print image is exemplarily shown as a grid on the leftmost side. In Figure 3, the shaded pixels can be the print area or outline area, and the remaining pixels are the background area. The binarized image is multiplied and summed by the differential operator shown as an example on the right side of FIG. 3 to calculate the value of each pixel and detect the outline. For reference, the pixels that are multiplied by the differential operator and whose summed pixel value is not '0' become the pixels that form the outline. In Figure 3, the Sobel differential operator (x-direction, y-direction) is shown, but it is not limited to this, and various known differential operators can be calculated to detect the contour.

x방향 미분연산자와의 연산을 예시적으로 설명하면, x방향 ⑤픽셀값은 ①×(-1)+②×0+③×1+④×(-2)+⑤×0+⑥×1+⑦×(-1)+⑧×0+⑨×1이 된다.To explain the operation with the x-direction differential operator as an example, the x-direction ⑤ pixel value is ①×(-1)+②×0+③×1+④×(-2)+⑤×0+⑥×1+ It becomes ⑦×(-1)+⑧×0+⑨×1.

상기 윤곽선 검출단계(ST-123)에서 검출된 윤곽선은 도 4에 도시된 바와 같이 인영영역 윤곽선인 인영윤곽선(131)과 외곽선영역 윤곽선인 외곽윤곽선(111, 112)을 포함한다. As shown in FIG. 4, the outline detected in the outline detection step (ST-123) includes a print outline 131, which is the outline of the print area, and outer outlines 111 and 112, which are the outlines of the outline area.

상기 외곽선 분류단계(ST-127)에서는 윤곽선 검출단계(ST-123)에서 검출된 복수의 윤곽선 중 가로 및 세로 길이가 가장 큰 2개의 윤곽선이 외곽윤곽선(111, 112)으로 분류된다. 도 4에서 lymax는 인영세로최대값이고, lymin은 인영세로최소값이며, lxmax는 인영가로최대값이고, lxmin은 인영가로최소값이다. 구체적으로 인영 인주영역(인영영역과 외곽선영역)을 이루는 픽셀 중 세로 좌표값이 가장 큰 픽셀의 좌표값이 인영세로최대값이 되고, 인주영역(인영영역과 외곽선영역)을 이루는 픽셀 중 세로 좌표값이 가장 작은 픽셀의 좌표값이 인영세로최소값이 된다. 이와 같이 인영가로최대값과 인용가로최소값이 도출된다. In the outline classification step (ST-127), the two outlines with the largest horizontal and vertical lengths among the plurality of outlines detected in the outline detection step (ST-123) are classified as outline lines 111 and 112. In Figure 4, lymax is the maximum value of the print vertical, lymin is the minimum value of the print vertical, lxmax is the maximum value of the print width, and lxmin is the minimum value of the print width. Specifically, the coordinate value of the pixel with the largest vertical coordinate value among the pixels forming the print area (print area and outline area) becomes the maximum print vertical value, and the vertical coordinate value among the pixels forming the print area (print area and outline area) becomes the maximum vertical coordinate value. The coordinate value of this smallest pixel becomes the minimum vertical engraving value. In this way, the maximum value of the printed price and the minimum value of the quoted price are derived.

상기 lymax는 외측 외곽윤곽선(111)의 세로최대값이고, lymin은 외측 외곽윤곽선(111)의 세로최소값이고, lxmax는 외측 외곽윤곽선(111)의 가로최대값이고, lxmin은 lxmax는 외측 외곽윤곽선(111)의 가로최소값이다. 이들 값으로부터 외측 외곽윤곽선(111)의 가로길이(lxmax-lxmin)가 연산되고, 세로길이(lymax-lymin)이 연산된다. 마찬가지로 내측 외곽윤곽선(112)에 대해서도 가로최대값과, 가로최소값과, 세로최대값과, 세로최소값이 도출되고 가로 길이와 세로길이가 연산된다. The lymax is the vertical maximum value of the outer outline 111, lymin is the vertical minimum value of the outer outline 111, lxmax is the horizontal maximum value of the outer outline 111, lxmin is the outer outline ( 111) is the horizontal minimum value. From these values, the horizontal length (lxmax-lxmin) and the vertical length (lymax-lymin) of the outer outline 111 are calculated. Similarly, for the inner outline 112, the horizontal maximum value, horizontal minimum value, vertical maximum value, and vertical minimum value are derived, and the horizontal length and vertical length are calculated.

상기와 같이 인영영역을 이루는 각 인영윤곽선(131) 들에 대해서도 각각에 대하여 가로최대값과, 가로최소값과, 세로최대값과, 세로최소값이 도출되고 가로길이와 세로길이가 연산된다. 연산된 가로길이와 세로길이가 대비되어 가장 큰 가로길이와 세로길이를 가지는 윤곽선 2개가 외곽윤곽선(111, 112)으로 분류된다. 즉, 모든 윤곽선에 대해서 가로길이와 세로길이가 연산되고 대비되어 가로길이와 세로길이가 가장 큰 윤곽선 2개가 외곽윤곽선으로 분류되는 것이다.As described above, the horizontal maximum value, horizontal minimum value, vertical maximum value, and vertical minimum value are derived for each of the print outlines 131 forming the print area, and the horizontal and vertical lengths are calculated. The calculated horizontal and vertical lengths are compared, and the two contour lines with the largest horizontal and vertical lengths are classified as the outer contour lines (111, 112). In other words, the horizontal and vertical lengths of all contours are calculated and compared, and the two contours with the largest horizontal and vertical lengths are classified as outer contours.

상기 문자 윤곽선 검출단계(ST-120)에는 윤곽선 중 노이즈 윤곽선이 제거되는 노이즈 제거단계(ST-125)가 더 포함된다. 상기 노이즈 제거단계(ST-125)에서는 윤곽선 검출단계(ST-123)에서 검출된 복수의 윤곽선의 가로 및 세로길이가 연산되며, 인영의 가로길이(lxmax-lxmin)에 대한 윤곽선의 가로 길이비(윤곽선 가로 길이비)와 인영의 세로 길이(lymax-lymin)에 대한 윤곽선의 세로 길이비(윤곽선 세로 길이비)가 연산되어, 윤곽선 가로 길이비와 윤곽선 세로 길이비 중 어느 하나가 설정값 이하이면 노이즈로 분류되어 윤곽선 정보에 포함되지 않도록 처리된다.The character outline detection step (ST-120) further includes a noise removal step (ST-125) in which noise outlines among the outlines are removed. In the noise removal step (ST-125), the horizontal and vertical lengths of the plurality of outlines detected in the outline detection step (ST-123) are calculated, and the horizontal length ratio of the outline to the horizontal length of the impression (lxmax-lxmin) ( The horizontal length ratio of the outline) and the vertical length ratio of the outline (the vertical length ratio of the outline) to the vertical length of the impression (lymax-lymin) are calculated, and if either the horizontal length ratio of the outline or the vertical length ratio of the outline is less than the set value, there is noise. It is classified and processed so that it is not included in the outline information.

상기 설정값은 2%로 하는 것이 타당한 것이 확인되었다. 상기 설정값이 2%보다 크게 설정되는 경우 인영영역을 이루는 윤곽선임에도 윤곽선 정보에 포함되지 않는 문제점 있었으며, 설정값이 2%보다 작게 설정되는 경우 노이즈가 완전하게 제거되지 않는 문제점이 있었다.It was confirmed that it is appropriate to set the above setting value to 2%. When the setting value was set larger than 2%, there was a problem in that even though the outline forming the print area was not included in the outline information, when the setting value was set smaller than 2%, there was a problem in that noise was not completely removed.

도 5는 노이즈 제거단계(ST-125)를 예시적으로 설명하기 위하여 도시한 것이다. 도 5에서 lymax는 인영세로최대값(인영을 이루는 픽셀 중 세로최대값을 가지는 픽셀의 세로 좌표)이고, lymin은 인영세로최소값(인영을 이루는 픽셀 중 세로최소값을 가지는 픽셀의 세로 좌표)이며, lxmax는 인영가로최대값(인영을 이루는 픽셀 중 가로최대값을 가지는 픽셀의 가로 좌표)이고, lxmin은 인영가로최소값(인영을 이루는 픽셀 중 가로최소값을 가지는 픽셀의 가로 좌표)이다.Figure 5 is shown to exemplarily explain the noise removal step (ST-125). In Figure 5, lymax is the vertical maximum value of the print (the vertical coordinate of the pixel with the vertical maximum value among the pixels forming the print), lymin is the vertical minimum value of the print (the vertical coordinate of the pixel with the minimum vertical value among the pixels making the print), and lxmax is the horizontal maximum value of the print (the horizontal coordinate of the pixel with the maximum horizontal value among the pixels forming the print), and lxmin is the horizontal minimum value of the print (the horizontal coordinate of the pixel with the minimum horizontal value among the pixels making the print).

인영의 가로길이(xlength)는 lxmax-lxmin으로 연산되고, 세로길이(ylength)는 lymax-lymin으로 연산된다. The horizontal length (xlength) of the seal is calculated as lxmax-lxmin, and the vertical length (ylength) is calculated as lymax-lymin.

도 5에서 Pymax는 인영영역 중 하나의 세로최대값이고, Pymin은 세로최소값이며, Pxmax는 가로최대값이고, Pxmin은 가로최소값이다. 해당 인영영역의 가로길이(Ixlength)는 Pxmax-Pxmin으로 연산되고, 세로길이(Iylength)는 Pymax-Pymin으로 연산된다. 해당 인영의 윤곽선의 세로길이비는 Iylength/ylength×100으로 연산되고, 가로길이비는 Ixlength/xlength×100으로 연산된다. 모든 인영영역에 대해서 세로길이비와 가로길이비가 연산되어, 세로길이비와 가로길이비 중 어느 하나가 설정값 이하이면 인주 번짐 등과 같은 노이즈로 판단된다.In Figure 5, Pymax is the vertical maximum value of one of the print areas, Pymin is the vertical minimum value, Pxmax is the horizontal maximum value, and Pxmin is the horizontal minimum value. The horizontal length (Ixlength) of the corresponding printing area is calculated as Pxmax-Pxmin, and the vertical length (Iylength) is calculated as Pymax-Pymin. The vertical length ratio of the outline of the impression is calculated as Iylength/ylength×100, and the horizontal length ratio is calculated as Ixlength/xlength×100. The vertical and horizontal ratios are calculated for all print areas, and if either the vertical or horizontal ratio is less than a set value, it is judged to be noise such as ink blur.

상기 문자 단위 통합단계(ST-130)에서는 복수의 인영영역(130)이 클러스터링 되어 문자 단위로 분류된다.In the character unit integration step (ST-130), the plurality of print areas 130 are clustered and classified into character units.

상기 문자 단위 통합단계(ST-130)에서는 각 인영윤곽선(131)에 대하여, 인영윤곽선(131)을 이루는 픽셀들의 좌표 평균값(xm, ym)이 연산된다. 즉, 각 인영윤곽선(131)의 좌표의 평균값이 연산된다. In the character unit integration step (ST-130), for each print outline 131, the average coordinate value (xm, ym) of the pixels forming the print outline 131 is calculated. That is, the average value of the coordinates of each impression outline 131 is calculated.

도 6에서 Cymax는 인영영역들을 이루는 픽셀 들의 최대세로좌표값(인영영역세로최대값)이며, Cymin은 인영영역들을 이루는 픽셀 들의 최소세로좌표값(인영영역세로최소값)이다. 각 인영윤곽선(131)의 세로 평균값(ym) 사이의 거리가 Cymax-Cymin/3이면 한 글자를 이루는 문자 단위에 포함되는 것으로 판단된다. 상기와 같이 연산되어 인영영역들이 문자 단위를 이루는 인영영역으로 분류되므로, 클러스터링 과정이 간단하고 1회의 연산으로 복수의 인영윤곽선(131)이 각 문자 단위로 분류될 수 있다. 이웃하는 인영윤곽선(131)의 중심의 세로 방향 거리가 기준값보다 작으면 같은 문자를 이루는 인영윤곽선으로 판단된다. 보다 정확하게는 기준값의 80%보다 작으면 같은 문자를 이루는 인영윤곽선으로 분류되어 저장된다.In FIG. 6, Cymax is the maximum vertical coordinate value of the pixels forming the print areas (maximum vertical value of the print area), and Cymin is the minimum vertical coordinate value of the pixels forming the print areas (minimum vertical value of the print area). If the distance between the vertical average values (ym) of each impression outline 131 is Cymax-Cymin/3, it is judged to be included in the character unit forming one letter. Since the calculation is performed as above and the print areas are classified into print areas forming character units, the clustering process is simple and a plurality of print outlines 131 can be classified into each character unit with one operation. If the vertical distance between the centers of neighboring print outlines 131 is less than the reference value, they are judged to be print outlines forming the same character. More precisely, if it is less than 80% of the standard value, it is classified and stored as a print outline forming the same character.

상기 문자별 영역 검출단계(ST-140)에서는 문자 단위 통합단계(ST-130)에서 획득된 각 문자를 이루는 인영윤곽선(131)이 이루는 볼록 집합 다각형 정보가 도출되는 볼록 집합 다각형 다픽셀 정보 도출단계와, 상기 볼록 집합 다각형 다픽셀 정보 도출단계에 도출된 볼록 집합 다각형(133)을 둘러싸는 최소 사각형 정보가 도출되는 최소 사각형 정보 도출단계를 포함한다.In the character-specific area detection step (ST-140), the convex set polygon multi-pixel information derivation step in which the convex set polygon information formed by the impression outline 131 forming each character obtained in the character unit integration step (ST-130) is derived. and a minimum square information derivation step in which minimum square information surrounding the convex set polygon 133 derived in the convex polygon multi-pixel information derivation step is derived.

상기 볼록 집합 다각형 다픽셀 정보 도출단계에서는 도 7에 예시적으로 도시한 볼록 집합 다각형(133) 정보가 공지의 Convex Hull 방법에 의하여 도출된다. 상기 최소 사각형 정보 도출단계에서는 도 8에 도시된 바와 같이 볼록 집합 다각형 픽셀 정보 도출단계에서 도출된 각 문자의 볼록 집합 다각형(133)에 대하여 최소면적 사각형이 도출된다. 최소 사각형 정보 도출단계에서는 공지의 Rotating Caliper 방법으로 볼록 집합 다각형(133)을 둘러싸는 사각형을 미소 각도씩 회전시키는 방법으로 최소 면적 사각형이 도출된다.In the convex set polygon multi-pixel information deriving step, the convex set polygon 133 information shown as an example in FIG. 7 is derived by the known Convex Hull method. In the minimum square information derivation step, as shown in FIG. 8, a minimum area square is derived for the convex set polygon 133 of each character derived in the convex set polygon pixel information derivation step. In the minimum square information derivation step, the minimum area square is derived by rotating the square surrounding the convex set polygon 133 by a small angle using the known Rotating Caliper method.

도 9는 상기 문자별 영역 검출단계(ST-140)까지 진행된 인영이미지이며, 도면부호 135가 각 문자의 최소 사각형이다.Figure 9 is a human image that has progressed to the step of detecting the area for each character (ST-140), and reference numeral 135 is the minimum square of each character.

상기 문자 정렬단계(ST-150)에서는 문자의 인영윤곽선을 이루는 픽셀 중 임의로 선택된 픽셀들의 성분(도 10에 "A"로 표시)과 나머지 픽셀 성분의 기울기 차이가 연산되고, 기울기 차이가 설정값 이하이면 연속성 픽셀 성분으로 판단되는 방법으로 문자를 이루는 나머지 부분에 대한 연속성 픽셀 성분의 개수가 카운팅되어 저장되는 연속성 성분 개수 도출단계를 포함한다. 인영윤곽선을 이루는 픽셀들 중 일부 구간의 픽셀들이 선택되고, 나머지 픽셀들도 선택된 구간의 픽셀과 같은 개수로 선택되어 선택된 구간의 픽셀들에 대한 기울기가 연산된다. 연산된 기울기가 설정값(5°) 이하이면 연속성 픽셀 성분으로 판단되어 개수가 카운팅되며(도 10 도면부호 131-2), 설정값보다 크면 불연속 픽셀 성분으로 판단된다(도 10 도면부호 131-3). 이와 같이 인영윤곽선을 이루는 모든 구간에 대하여 픽셀들이 선택되고 나머지 구간에 대하여 연산한다. 도 10에서 "B"로 표시한 부분은 "A"에 더하여 선택된 픽셀 영역을 도시한 것이며, 노란색으로 표시한 도면부호 131-2는 "B" 부분과 연속성 픽셀 성분을 도시한 것이다. 그리고 도면부호 131-3은 "A"구간과 불연속성 픽셀 성분을 도시한 것이다.In the character alignment step (ST-150), the slope difference between the components of randomly selected pixels (marked as "A" in FIG. 10) and the remaining pixel components among the pixels forming the print outline of the character is calculated, and the slope difference is less than or equal to the set value. It includes a step of deriving the number of continuity components in which the number of continuity pixel components for the remaining part of the character is counted and stored by determining the back surface continuity pixel components. Among the pixels forming the print outline, pixels in some sections are selected, the remaining pixels are also selected in the same number as the pixels in the selected section, and the slope for the pixels in the selected section is calculated. If the calculated slope is less than the set value (5°), it is judged to be a continuous pixel component and its number is counted (reference numeral 131-2 in Fig. 10), and if it is greater than the set value, it is judged to be a discontinuous pixel component (reference numeral 131-3 in Fig. 10). ). In this way, pixels are selected for all sections forming the print outline, and calculations are made for the remaining sections. In FIG. 10, the part indicated by “B” indicates a pixel area selected in addition to “A”, and reference numeral 131-2 indicated in yellow indicates a pixel component that is continuous with the part “B”. And reference numeral 131-3 shows the “A” section and discontinuous pixel components.

도 11은 상기와 같은 방법으로 문자의 인영윤곽선을 이루는 나머지 성분들에 대하여 연속성 성분 개수 도출단계가 반복 실행되어, 마련된 각 성분에 대한 히스토그램 정보이다. 가장 많은 연속성 픽셀 성분을 가지는 성분이 가로 방향으로 되도록 문자를 이루는 픽셀들의 좌표가 회전 정렬된다. 도 11에서 두번째로 많은 개수의 연속성 픽셀 성분을 가지는 성분은 세로 방향이 된다. Figure 11 shows histogram information for each component prepared by repeatedly performing the step of deriving the number of continuity components for the remaining components forming the print outline of the character in the same manner as above. The coordinates of the pixels that make up the character are rotated and aligned so that the component with the most continuous pixel components is in the horizontal direction. In Figure 11, the component with the second largest number of continuous pixel components is in the vertical direction.

위에서 설명한 방법으로 분류 정보(제조사, 서체, 문자)가 확인된 복수의 인장이 날인된 인영이미지에 대하여 실행하여 DB 데이터가 마련된다. DB 데이터에는 분류 정보와 문자 정보가 매칭되어 저장된다.DB data is prepared by executing the above-described method on a plurality of stamped seal images with confirmed classification information (manufacturer, font, character). In DB data, classification information and character information are matched and stored.

식별하려는 인영이미지의 문자 정보와 DB 데이터에 포함된 인영이미지의 문자정보가 대비되어, 식별하려는 인영이미지가 DB 데이터 중 어느 문자 정보에 해당하는지 판단된다.The character information of the human image to be identified is compared with the character information of the human image included in the DB data, and it is determined which character information in the DB data the human image to be identified corresponds to.

상기 DB 데이터와 비교단계(ST-160)에서는 문자 정렬단계(ST-150)에서 정렬된 인영이미지의 문자 정보와 DB 데이터에 포함된 복수의 문자 정보의 충진율이 연산되어 충진율이 가장 높은 DB 데이터의 문자 정보로 판단된다.In the DB data and comparison step (ST-160), the fill rate of the character information of the impression image sorted in the character sorting step (ST-150) and the plurality of character information included in the DB data are calculated to determine the DB data with the highest fill rate. It is judged based on text information.

상기 DB 데이터와 비교단계(ST-160)에서는 모폴로지 연산을 사용하여 문자 영역 중 경계를 이루는 픽셀이 도출되고; 경계를 이루는 픽셀에 대해서는 1보다 작은 가중치가 부여되어 충진율이 연산된다. In the step of comparing with the DB data (ST-160), pixels forming the boundary of the character area are derived using a morphology operation; A weight less than 1 is assigned to pixels forming the border to calculate the fill factor.

상기 문자 정렬단계(ST-150)를 통하여 정렬된 준비된 인영의 문자영역을 이루는 픽셀들에 대하여 공지의 침식(Erode) 연산과 팽창(Dilute) 연산을 하여 픽셀 값이 변하는 영역이 문자영역 중 경계를 이루는 픽셀로 도출된다. 상기 DB 데이터에 포함된 인영의 문자영역을 이루는 픽셀들에 대하여 침식 연산과 팽창 연산을 하여 픽셀 값이 변하는 영역이 문자영역 중 경계를 이루는 픽셀로 도출되어, 경계를 이루는 픽셀에 대해서는 1보다 작은 가중값(예, 0.5)이 부여되어 충진율이 연산된다. The known erosion and dilation operations are performed on the pixels that form the character area of the prepared impression aligned through the character alignment step (ST-150), so that the area where the pixel value changes is the boundary of the character area. It is derived from pixels. By performing an erosion operation and an expansion operation on the pixels forming the character area of the print included in the DB data, the area where the pixel value changes is derived as a pixel forming the border of the text area, and a weight value less than 1 is applied to the pixel forming the border. (e.g., 0.5) is assigned to calculate the filling rate.

충진율은 DB 데이터에 포함된 인영들의 문자영역을 이루는 픽셀 개수 대비 식별하려는 인영의 문자영역을 이루는 픽셀과 중첩되는 픽셀 개수의 비로 연산된다. DB 데이터에 포함된 인영들의 문자영역을 이루는 픽셀 중 경계를 이루는 픽셀에 대해서는 개수를 카운팅 할 때 가중값이 곱해지고, 중첩되는 픽셀 중 경계를 이루는 픽셀에 대해서도 개수를 카운딩 할 때 가중값이 곱해져서 카운팅된다. The filling rate is calculated as the ratio of the number of pixels that overlap with the pixels that make up the character area of the print to be identified to the number of pixels that make up the character area of the prints included in the DB data. Among the pixels that form the character area of the impressions included in the DB data, the pixels that form the border are multiplied by the weight value when counting the number, and the pixels that form the border among the overlapping pixels are also multiplied by the weight value when counting the number. do.

충진율에 대한 내용은 대한민국 공개번호 제10-2011-0104724호 공개특허공보에 기재되어 있으며, 이에 대한 상세한 설명은 생략한다.Information on the filling rate is described in Korean Patent Publication No. 10-2011-0104724, and detailed description thereof will be omitted.

상기와 같은 방법으로 날인된 인영이 어느 제조사에서 제조된 조립 인영인지 확인할 수 있다.In the same way as above, it is possible to check which manufacturer manufactured the assembled seal.

100: 인영 이미지 110: 외곽선영역
120: 배경영역 130: 인영영역
100: Printed image 110: Outline area
120: background area 130: print area

Claims (10)

디스플레이부, 제어부, 입력부, 저장부를 포함하는 컴퓨터 시스템에서 실행되며;
인영 이미지 준비단계(ST-110)와, 준비된 인영 이미지(100)의 윤곽선이 검출되는 문자 윤곽선 검출단계(ST-120)와, 문자별로 통합되는 문자 단위 통합단계(ST-130)와, 문자별 최소 사각형 정보가 획득되는 문자별 영역 검출단계(ST-140)와, 문자의 각도가 보정되는 문자 정렬단계(ST-150)와, 정렬된 문자 정보를 DB 데이터와 연산하는 DB 데이터와 비교단계(ST-160)를 포함하며;
상기 DB 데이터와 비교단계(ST-160)에서는 문자 정렬단계(ST-150)에서 정렬된 인영 이미지의 문자 정보와 DB 데이터에 포함된 복수의 문자 정보의 충진율이 연산되어 충진율이 가장 높은 DB 데이터의 문자 정보로 판단되며;
상기 DB 데이터에는 각 문자 정보가 분류 정보와 함께 저장되며, DB 데이터에 포함된 각각의 문자 정보는 상기 인영 이미지 준비단계(ST-110)부터 문자 정렬단계(ST-150)까지의 단계들이 실행되어 마련되는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.
Runs on a computer system including a display unit, control unit, input unit, and storage unit;
A print image preparation step (ST-110), a character outline detection step (ST-120) in which the outline of the prepared print image 100 is detected, a character-by-character integration step (ST-130), and a character-by-character integration step (ST-130). A character-specific area detection step (ST-140) in which minimum square information is acquired, a character alignment step (ST-150) in which the angle of the character is corrected, and a comparison step with DB data in which the sorted character information is calculated with DB data (ST-140) ST-160);
In the DB data and comparison step (ST-160), the fill rate of the character information of the impression image sorted in the character sorting step (ST-150) and the plurality of character information included in the DB data are calculated to determine the DB data with the highest fill rate. It is judged based on text information;
In the DB data, each character information is stored along with classification information, and each character information included in the DB data undergoes steps from the impression image preparation step (ST-110) to the character sorting step (ST-150). A method for identifying assembled prints using image element analysis, characterized in that provided.
제1 항에 있어서, 상기 문자 윤곽선 검출단계(ST-120)는 인영 이미지 준비단계(ST-110)에서 마련된 인영 이미지(100)가 이진화되는 이진화 단계(ST-121)와, 이진화된 이미지 정보가 미분연산자와 연산되어 윤곽선이 검출되는 윤곽선 검출단계(ST-123)와, 외곽선영역이 분류되는 외곽선 분류단계(ST-127)를 포함하며;
상기 외곽선 분류단계(ST-127)에서는 윤곽선 검출 단계(ST-123)에서 검출된 복수의 윤곽선 중 가로 및 세로 길이가 가장 큰 2개의 윤곽선이 외곽윤곽선(111, 112)으로 분류되는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.
The method of claim 1, wherein the character outline detection step (ST-120) includes a binarization step (ST-121) in which the print image 100 prepared in the print image preparation step (ST-110) is binarized, and the binarized image information is It includes a contour detection step (ST-123) in which the outline is detected by calculating with a differential operator, and an outline classification step (ST-127) in which the outline area is classified;
In the outline classification step (ST-127), the two outlines with the largest horizontal and vertical lengths among the plurality of outlines detected in the outline detection step (ST-123) are classified as outline lines 111 and 112. Assembly imprint identification method using image element analysis.
제2 항에 있어서, 상기 문자 윤곽선 검출단계(ST-120)에는 윤곽선 중 노이즈 윤곽선이 제거되는 노이즈 제거단계(ST-125)가 더 포함되고; 상기 노이즈 제거단계(ST-125)에서는 윤곽선 검출단계(ST-123)에서 검출된 복수의 윤곽선의 가로 및 세로 길이가 도출되며, 인영의 가로 길이에 대한 윤곽선의 가로 길이비(윤곽선 가로 길이비)와 인영의 세로 길이에 대한 윤곽선의 세로 길이비(윤곽선 세로 길이비)가 연산되어, 윤곽선 가로 길이비와 윤곽선 세로 길이비 중 어느 하나가 설정값 이하이면 노이즈로 분류되어 윤곽선 정보에 포함되지 않는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법. The method of claim 2, wherein the character outline detection step (ST-120) further includes a noise removal step (ST-125) in which noise outlines are removed from among the outlines; In the noise removal step (ST-125), the horizontal and vertical lengths of the plurality of outlines detected in the outline detection step (ST-123) are derived, and the ratio of the horizontal length of the outline to the horizontal length of the print (contour horizontal length ratio) The ratio of the vertical length of the outline to the vertical length of the impression (contour vertical length ratio) is calculated, and if either the horizontal length ratio of the outline or the vertical length ratio of the outline is less than the set value, it is classified as noise and is not included in the outline information. A method for identifying assembled prints using characteristic image element analysis. 제3 항에 있어서, 상기 설정값은 2%인 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법. The method of identifying assembled prints using image element analysis according to claim 3, wherein the set value is 2%. 제3 항에 있어서, 상기 문자 단위 통합단계(ST-130)에서는 복수의 윤곽선이 문자별로 클러스터링 되어 문자 단위로 분류되는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.The method of identifying assembled prints using image element analysis according to claim 3, wherein in the character unit integration step (ST-130), a plurality of outlines are clustered for each character and classified into character units. 제5 항에 있어서, 상기 문자 단위 통합단계(ST-130)에서는 외곽윤곽선을 제외한 각 인영윤곽선(131)을 이루는 픽셀 집합의 중심 위치가 연산되어 복수의 인영윤곽선(131)이 문자 단위로 분류되는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.The method of claim 5, wherein in the character unit integration step (ST-130), the center position of the pixel set forming each print outline (131) excluding the outer outline is calculated and the plurality of print outlines (131) are classified into character units. A method for identifying assembled prints using image element analysis. 제1 항 또는 제6 항에 있어서, 상기 문자별 영역 검출단계(ST-140)에서는 문자 단위 통합단계(ST-130)에서 획득된 각 문자를 이루는 인영윤곽선(131)이 이루는 볼록 집합 다각형 정보가 도출되는 볼록 집합 다각형 다픽셀 정보 도출단계와, 상기 볼록 집합 다각형 다픽셀 정보 도출단계에 도출된 볼록 집합 다각형(133)을 둘러싸는 최소 사각형 정보가 도출되는 최소 사각형 정보 도출단계를 포함하는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.The method of claim 1 or 6, wherein in the character-specific area detection step (ST-140), the convex set polygon information formed by the impression outline 131 of each character obtained in the character unit integration step (ST-130) is Characterized by comprising a step of deriving convex set polygon multi-pixel information, and a step of deriving minimum square information surrounding the convex set polygon 133 derived in the step of deriving the convex set polygon multi-pixel information. A method for identifying assembled prints using image element analysis. 제7 항에 있어서, 상기 문자 정렬단계(ST-150)에서는 문자의 인영윤곽선을 이루는 픽셀 중 임의로 선택된 성분과 나머지 픽셀 성분의 기울기 차이가 연산되고, 기울기 차이가 설정값 이하이면 연속성 픽셀 성분으로 판단되는 방법으로 문자를 이루는 나머지 부분에 대한 연속성 픽셀 성분의 개수가 카운팅되어 저장되는 연속성 성분 개수 도출단계를 포함하고;
문자의 인영윤곽선을 이루는 나머지 성분들에 대하여 연속성 성분 개수 도출단계가 반복 실행되어, 각 성분에 대한 히스토그램 정보가 마련되며; 가장 많은 연속성 픽셀 성분을 가지는 성분이 가로 방향으로 되도록 회전시키는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.
The method of claim 7, wherein in the character alignment step (ST-150), the slope difference between a randomly selected component of the pixels forming the print outline of the character and the remaining pixel components is calculated, and if the slope difference is less than a set value, it is determined to be a continuous pixel component. It includes a step of deriving the number of continuity components in which the number of continuity pixel components for the remaining portion of the character is counted and stored in a method that can be used;
The step of deriving the number of continuity components is repeatedly performed for the remaining components that form the print outline of the character, and histogram information for each component is prepared; A method for identifying assembled prints using image element analysis, characterized in that the component with the most continuous pixel components is rotated so that it is horizontal.
제8 항에 있어서, 상기 DB 데이터와 비교단계(ST-160)에서는 모폴로지 연산을 사용하여 문자 영역 중 경계를 이루는 픽셀이 도출되고; 경계를 이루는 픽셀에 대해서는 1보다 작은 가중치가 부여되어 충진율이 연산되는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.The method of claim 8, wherein in the step of comparing with the DB data (ST-160), pixels forming the boundary of the character area are derived using a morphology operation; A method for identifying assembled prints using image element analysis, wherein the filling rate is calculated by assigning a weight less than 1 to the bordering pixels. 제9 항에 있어서, 상기 문자 정렬단계(ST-150)를 통하여 정렬된 준비된 인영의 문자영역을 이루는 픽셀들에 대하여 침식연산과 팽창연산을 하여 픽셀값이 변하는 영역이 문자영역 중 경계를 이루는 픽셀로 도출되고;
상기 DB 데이터에 포함된 인영의 문자영역을 이루는 픽셀들에 대하여 침식연산과 팽창연산을 하여 픽셀 값이 변하는 영역이 문자영역 중 경계를 이루는 픽셀로 도출되어;
경계를 이루는 픽셀에 대해서는 1보다 작은 가중값이 부여되어 충진율이 연산되는 것을 특징으로 하는 이미지 요소 분석을 이용한 조립 인영 식별 방법.


The method of claim 9, wherein the area where the pixel value changes by performing an erosion operation and an expansion operation on the pixels forming the character area of the prepared impression aligned through the character alignment step (ST-150) is a pixel forming a boundary of the character area. It is derived as;
By performing an erosion operation and an expansion operation on the pixels forming the character area of the print included in the DB data, the area where the pixel value changes is derived as a pixel forming the border of the character area;
A method for identifying assembled prints using image element analysis, wherein the filling rate is calculated by assigning a weight value less than 1 to the pixels forming the boundary.


KR1020220037778A 2022-03-28 2022-03-28 A recognizing method of assembled stamp using image feature analysis KR20230139449A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220037778A KR20230139449A (en) 2022-03-28 2022-03-28 A recognizing method of assembled stamp using image feature analysis
PCT/KR2023/002944 WO2023191325A1 (en) 2022-03-28 2023-03-03 Assembled stamp image identification method using image element analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220037778A KR20230139449A (en) 2022-03-28 2022-03-28 A recognizing method of assembled stamp using image feature analysis

Publications (1)

Publication Number Publication Date
KR20230139449A true KR20230139449A (en) 2023-10-05

Family

ID=88202517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220037778A KR20230139449A (en) 2022-03-28 2022-03-28 A recognizing method of assembled stamp using image feature analysis

Country Status (2)

Country Link
KR (1) KR20230139449A (en)
WO (1) WO2023191325A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110104724A (en) 2010-03-17 2011-09-23 대한민국(관리부서:행정안전부 국립과학수사연구원장) Method judging the forged sealing and recording media
KR20110117543A (en) 2010-04-21 2011-10-27 대한민국(관리부서:행정안전부 국립과학수사연구원장) Method testing the forged sealing and recording media

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196362A (en) * 1997-09-17 1999-04-09 Fujitsu Ltd Seal impression collating device
KR101016821B1 (en) * 2008-11-21 2011-02-21 호서대학교 산학협력단 Marking recognition method and apparatus using the same
KR101080065B1 (en) * 2009-04-27 2011-11-09 대한민국 Method Judging The Forged Sealing
KR20180114293A (en) * 2017-04-10 2018-10-18 대한민국(관리부서: 행정안전부 국립과학수사연구원장) Method Comparing The Forged Sealing
KR102323200B1 (en) * 2019-12-26 2021-11-09 대한민국 Method Comparing The Forged Sealing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110104724A (en) 2010-03-17 2011-09-23 대한민국(관리부서:행정안전부 국립과학수사연구원장) Method judging the forged sealing and recording media
KR20110117543A (en) 2010-04-21 2011-10-27 대한민국(관리부서:행정안전부 국립과학수사연구원장) Method testing the forged sealing and recording media

Also Published As

Publication number Publication date
WO2023191325A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
CN110766014B (en) Bill information positioning method, system and computer readable storage medium
KR100658119B1 (en) Apparatus and Method for Recognizing Character
JP5379085B2 (en) Method and system for classifying connected groups of foreground pixels in a scanned document image based on marking type
CN103439348B (en) Remote controller key defect detection method based on difference image method
CN111126391B (en) Printed character defect positioning method
CN107944252B (en) Method for extracting uniqueness characteristic of seal impression of information seal
CN106326887B (en) A kind of method of calibration and device of optical character identification result
US8615129B2 (en) Pattern separating extraction device, and pattern separating extraction method
CN107025716B (en) Method and device for detecting contamination of paper money crown word number
CN104700092A (en) Small-character number identification method based on template and feature matching
CN104647893B (en) A kind of printing chromatography error detection method based on cross hairs
CN112016563B (en) Method for identifying authenticity of circular seal
CN113569863A (en) Document checking method, system, electronic equipment and storage medium
US8577121B2 (en) Forged seal imprint inspection method and recording medium
KR20230139449A (en) A recognizing method of assembled stamp using image feature analysis
JP3416058B2 (en) Character extraction method of gray image and recording medium recording the program
JPH11306325A (en) Method and device for object detection
CN110705362A (en) Method and device for analyzing word prints
JP2985893B2 (en) Pattern recognition device
JP5432089B2 (en) Seal registration device
JP4492258B2 (en) Character and figure recognition and inspection methods
CN114821589A (en) Vehicle VIN code detection method and device
CN106408021B (en) Handwriting and print form identification method based on stroke thickness
JP2898970B1 (en) 3D seal registration / collation device
JP2785747B2 (en) Character reader