KR101346328B1 - Identification distincting apparatus using degraded images and distincting apparatus using the same - Google Patents

Identification distincting apparatus using degraded images and distincting apparatus using the same Download PDF

Info

Publication number
KR101346328B1
KR101346328B1 KR1020120117200A KR20120117200A KR101346328B1 KR 101346328 B1 KR101346328 B1 KR 101346328B1 KR 1020120117200 A KR1020120117200 A KR 1020120117200A KR 20120117200 A KR20120117200 A KR 20120117200A KR 101346328 B1 KR101346328 B1 KR 101346328B1
Authority
KR
South Korea
Prior art keywords
image
result value
processing module
identification
setting
Prior art date
Application number
KR1020120117200A
Other languages
Korean (ko)
Inventor
이상철
김유성
이현규
김경율
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020120117200A priority Critical patent/KR101346328B1/en
Application granted granted Critical
Publication of KR101346328B1 publication Critical patent/KR101346328B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an apparatus for distinguishing an identification having a low quality image and a method for distinguishing an identification using the same. An apparatus for distinguishing an identification having a low quality image comprises: a first processing module (110) for receiving identification image data received from the outside, preprocessing the identification image data, and outputting a first result value (1st) corresponding to the identification image data; a second processing module (120) for setting the size of the identification image data, which is preprocessed as the first result value (1st), at a predetermined ratio, and outputting a second result value (2st) corresponding to the set size; a third processing module (130) for receiving the second result value (2st), grouping pixels of multiple areas within the second result value (2st) through a K-means clustering algorithm, and outputting a third result value (3st) corresponding to the grouped pixels; a fourth processing module (140) for setting an area of the grouped pixels, which is the third result value (3st), and outputting a fourth result value (4st) corresponding to the set area; a fifth processing module (150) for outputting a fifth result value (5st) extracting an identification image arranged based on the set area, which is the fourth result value (4st); a sixth processing module (160) for receiving the fifth result value (5st), distinguishing an image type of the fifth result value (5st) using template matching, and outputting a sixth result value (6st) corresponding to the image type; and a seventh processing module (170) for receiving the sixth result value (6st) and extracting a personal information area using a relative location about the matching result. [Reference numerals] (110) First processing module;(120) Second processing module;(130) Third processing module;(140) Fourth processing module;(150) Fifth processing module;(160) Sixth processing module;(170) Seventh processing module;(AA) Image data;(BB) Personal information area extraction

Description

저화질 이미지를 이용한 신분증 판별 장치 및 이를 이용한 판별 방법{identification distincting apparatus using Degraded Images and distincting apparatus using the same}Identification identification apparatus using low quality image and identification method using same {identification distincting apparatus using Degraded Images and distincting apparatus using the same}

본 발명은 영상인식방법을 이용하는 관심영역 검출에 관한 것으로, 보다 상세하게는 저화질 이미지를 갖는 신분증 판별 장치 및 이를 이용한 판별 방법에 관한 것이다.
The present invention relates to a region of interest detection using an image recognition method, and more particularly, to an identification card having a low quality image and a discrimination method using the same.

잘 알려진 바와 같이, 현재 개인 식별이나 사용자 인증, 개인 정보 보호를 위한 대표적인 수단으로, 예를 들면, 주민등록증, 운전면허증, 학생증 등을 이용한 식별 수단들을 이용하고 있으나, 이러한 식별 수단들은 개인이 휴대하지 않을 경우 신원을 확인하기 어렵기 때문에, 본인 확인이 쉽지 않고, 때때로 식별 수단의 소유자와 실제 소유자가 같지 않은 경우에도 본인으로 확인되는 경우도 발생할 수 있다.
As is well known, the identification means using personal identification, user authentication, or personal information protection, for example, national ID card, driver's license, student's card, etc., are not used by individuals. In this case, since the identity is difficult to verify, identification is not easy, and sometimes, even when the owner of the identification means and the actual owner are not the same, it may occur as the identity.

이러한 문제점을 보완하기 위해 예를 들면, 지문 인식, 홍채 인식, 얼굴 인식 등의 생체 인식 기술의 개발이 진행되고 있으며, 특히, 생체 인식 기술 중 얼굴 인식 기술은 다른 생체 정보에 비해 상대적으로 사용자에 대한 강제성이 적으며, 비접촉 방식으로 거부감이 덜하기 때문에 다양한 응용 분야에서 각광받고 있다.
In order to compensate for this problem, for example, development of biometric technologies such as fingerprint recognition, iris recognition, and face recognition is underway. It is attracting attention in various applications because of its low coercivity and less reluctance in a non-contact manner.

여기서, 생체 인식 기술 중 하나인 얼굴 인식을 포함하는 사람 검출 기술은 생체 인식의 핵심 기반 기술로써 매우 오래 전부터 연구되어 왔으며, 생체 인식을 위한 검출 기술로의 활용뿐만 아니라, 최근 들어 디지털 기기, 모바일 기기 등과 관련된 시장의 확대와 더불어 더욱 다양하게 개발되고 있다.
Here, human detection technology including face recognition, which is one of biometric technologies, has been studied for a long time as a core technology of biometrics, and has recently been used as a detection technology for biometrics. Along with the expansion of the market related to the market, various developments are being made.

이러한 환경에서 디지털 기기, 모바일 기기 등에 카메라를 탑재하고, 얼굴 인식을 포함하는 사람 인식 기술을 적용할 경우 상품의 부가가치 향상 및 판매 증대가 예상된다. 예를 들면, 휴대폰 등과 같은 모바일 기기의 경우 사람의 위치를 검출하고, 영상 처리를 통해 사람 얼굴을 인식한 후에, 얼굴 표정에 변화를 주는 기능 등을 제공할 수 있고, 디지털 카메라 등과 같은 디지털 기기의 경우 사람 위치를 잡아 포커스 맞추는 기능 등을 제공할 수 있어 다양한 기술들과 접목시켜 활용할 수 있다.
In such an environment, when a camera is mounted on a digital device or a mobile device and a person recognition technology including face recognition is applied, the value added of the product and the increase in sales are expected. For example, a mobile device such as a mobile phone may provide a function of detecting a location of a person, recognizing a human face through image processing, and then changing a facial expression. In this case, it can provide a function of focusing on a person's location, and can be utilized by combining with various technologies.

한편, 지금까지의 얼굴 인식을 포함한 사람 검출 알고리즘은 주로 PC 기반 환경에서 동작하는 알고리즘 형태로 개발되어 왔으며, 이 기술을 바로 임베디드 시스템에 적용할 경우 상대적으로 부족한 리소스와 성능 때문에 실시간으로 사람 검출이 불가능하거나 낮은 검출율을 보임으로서 효율적인 사람 검출이 힘들었다.
On the other hand, human detection algorithms including face recognition have been developed in the form of algorithms mainly operating in PC-based environment. When this technology is directly applied to embedded systems, it is impossible to detect people in real time because of relatively insufficient resources and performance. Efficient human detection was difficult due to low or low detection rate.

그러나, 서비스 로봇 분야의 확대로 인해 일상 생활 속에서 예를 들면, 청소 로봇, 엔터테인먼트용 장난감 로봇 등과 같은 가정용 로봇 시장이 커지고 있고, 휴대 전화, 디지털 카메라 등과 같은 휴대용 기기에서 사람의 생체정보를 사용할 수 있는 활용 분야가 늘어나면서 임베디드 시스템에서의 고성능 실시간 사람 검출 기술의 필요성은 더욱더 커져가고 있다.However, due to the expansion of the service robot field, the market for home robots, such as cleaning robots and entertainment toy robots, is growing in daily life, and human biometric information can be used in portable devices such as mobile phones and digital cameras. As the number of applications increases, the need for high performance real-time human detection technology in embedded systems is growing.

그러나, 이러한 임베디드 시스템에서 사용되는 영상인식방법은 고화질의 영상에 국한되어 사용되며, 저화질 영상에서는 사용되지 않고 있다.However, the image recognition method used in such an embedded system is limited to a high quality image and is not used in a low quality image.

예를 들어, 신분증의 경우 고화질로 전송 시 컬러 전송, 테두리의 보존 등의 장점을 이용하여 추출이 어렵지 않게 이루어지고 있지만, 저 화질 영상은 테두리가 보존되지 않고 이진 영상의 사용, 조명으로 인한 제한점 등 인식에 어려움이 많았다.
For example, in the case of ID card, it is not difficult to extract by using the advantages of color transmission and border preservation when transmitting in high quality, but low quality video does not preserve the border and uses binary image, limitations due to lighting, etc. There was a lot of difficulty in recognition.

본 발명이 해결하고자 하는 과제는 저화질 이미지에서도 개인정보 영역을 추출할 수 있는 저화질 이미지를 갖는 신분증 판별 장치 및 이를 이용한 판별 방법을 제공하는 것을 목적으로 한다.
Disclosure of the Invention An object of the present invention is to provide an identification card discrimination apparatus having a low quality image and a method of identifying the same having a low quality image that can extract a personal information region even in a low quality image.

상기 과제를 해결하기 위한 본 발명의 실시 예에 따른 저화질 이미지를 갖는 신분증 판별 장치는 외부로부터 수신된 신분증 이미지 데이타를 수신하여 전 처리하여 그에 상응하는 제1 결과값(1st)을 출력하는 제1 처리모듈(110); 상기 제1 결과값(1st)인 상기 전 처리된 신분증 이미지 데이타의 크기를 기 설정된 비율로 설정하여 그에 상응하는 제2 결과값(2st)을 출력하는 제2 처리모듈(120); 상기 제2 결과값(2st)을 수신하여, K-means 클러스터링 알고리즘을 통해 상기 제2 결과값(2st) 내의 복수 개의 영역을 픽셀 그룹화시켜 그에 상응하는 제3 결과값(3st)을 출력하는 제3 처리모듈(130); 상기 제3 결과값(3st)인 그룹화된 픽셀들의 영역을 설정하여 그에 상응하는 제4 결과값(4st)을 출력하는 제4 처리 모듈(140); 상기 제4 결과값(4st)인 상기 설정된 영역을 바탕으로 정렬된 신분증 영상을 추출한 제5 결과값(5st)을 출력하는 제5 처리 모듈(150); 상기 제5 결과값(5st)을 수신한 후, 템플릿 매칭(Template Matching)을 이용하여 상기 제5 결과값(5st)의 이미지 종류를 판별하여 그에 상응하는 제6 결과값(6st)을 출력하는 제6 처리 모듈(160); 및 상기 제6 결과값(6st)을 수신하여, 매칭 결과에 대한 상대적 위치를 이용해 개인정보 영역을 추출하는 제7 처리 모듈(170)을 포함한다.
An identification card having a low quality image according to an embodiment of the present invention for solving the above problems is a first processing for receiving the identification image data received from the outside and pre-processing to output a corresponding first result value (1st) Module 110; A second processing module 120 for setting the size of the pre-processed identification image data that is the first result value 1st at a preset ratio and outputting a second result value 2st corresponding thereto; A third result of receiving the second result value 2st, pixel grouping a plurality of regions in the second result value 2st through a K-means clustering algorithm, and outputting a third result value 3st corresponding thereto; Processing module 130; A fourth processing module 140 for setting an area of the grouped pixels that is the third result value 3st and outputting a fourth result value 4st corresponding thereto; A fifth processing module 150 for outputting a fifth result value 5st obtained by extracting an ID image arranged based on the set area that is the fourth result value 4st; After receiving the fifth result value 5st, determining an image type of the fifth result value 5st using template matching and outputting a sixth result value 6st corresponding thereto; 6 processing module 160; And a seventh processing module 170 which receives the sixth result value 6st and extracts a personal information area using a relative position of the matching result.

상기 과제를 해결하기 위한 본 발명의 실시 예에 따른 청구항 제1항의 신분증 판별 장치를 이용한 저화질 신분증 판별 방법은 외부로부터 수신된 신분증 이미지 데이타를 전 처리하는 이미지 전 처리 단계(S110); 상기 전 처리된 신분증 이미지 데이타의 크기를 기 설정된 비율로 설정하는 비율 설정 단계(S120); 상기 비율 설정 단계(S120)이후, K-means 클러스터링 알고리즘을 이용하여 상기 이미지 데이타의 복수 개의 영역을 픽셀 그룹화하는 픽셀 그룹화 단계(S130);그룹화된 픽셀들의 영역을 설정하는 영역 설정 단계(S140); 상기 설정된 영역을 바탕으로 정렬된 신분증 영상을 추출하는 이미지 추출 단계(S150); 템플릿 매칭(Template Matching)을 이용하여 상기 이미지 종류를 판별하는 판별 단계(S160); 매칭 결과에 대한 상대적 위치를 이용해 개인정보 영역을 추출하는 추출 단계(S170)를 포함한다.
According to an embodiment of the present invention for solving the above problems, a low-quality identification card identification method using the identification card identification device of claim 1 includes an image preprocessing step of pre-processing identification image data received from the outside; A ratio setting step of setting the size of the pre-processed identification image data to a preset ratio (S120); A pixel grouping step (S130) of pixel grouping a plurality of areas of the image data using a K-means clustering algorithm after the ratio setting step (S120); an area setting step (S140) of setting an area of grouped pixels; An image extraction step (S150) of extracting an ID image arranged based on the set area; A determination step (S160) of determining the image type using template matching; An extraction step S170 of extracting the personal information area using the relative position of the matching result is included.

상기 비율 설정 단계(S120)는, 상기 신분증 이미지 데이타를 흑백 이미지로 변환한 후, 이미지의 넓이와 폭의 비율을 각각 30%의 크기로 축소시키는 제1 단계(S121); 상기 축소된 이미지에 3×3 크기의 메디안 필터로 컨볼류션 연산을 수행하는 제2 단계(S122); 및 상기 이미지를 다시 넓이와 폭 각각을 50% 비율로 재 축소하는 제3 단계(S123);를 포함한다.
The ratio setting step S120 may include: a first step S121 of converting the ID card image data into a black and white image and then reducing the ratio of the width and width of the image to a size of 30% respectively; A second step (S122) of performing a convolution operation on the reduced image with a median filter having a size of 3x3; And a third step (S123) of reducing the image again to 50% of the width and width, respectively.

상기 제2 단계(S122)는, 처리 속도 향상을 위해 수행하는 단계인 것을 특징으로 한다.
The second step (S122) is characterized in that the step performed to improve the processing speed.

상기 제2 단계(S122)는, 상기 신분증 이미지를 이진화 시키는 단계를 더 포함하는 것을 특징으로 한다.
The second step S122 may further include binarizing the identification card image.

상기 픽셀 그룹화 단계(S130)는, 상기 K의 초기 값을 설정하는 제1단계(S131); 상기 K-means 클러스터링 알고리즘을 수행하는 제2단계(S132); 상기 그룹화된 각 클러스터의 모든 픽셀들의 중점을 구하고 각 중점간의 거리와 신분증 이미지 크기를 비교하여 K의 유효성을 확인하는 제3단계(S133); 및 상기 K 값의 유효성이 없을 경우, 상기 K를 1씩 감소시킨 후, 상기 제2단계(S132) 부터 상기 제3단계(S133)까지를 반복수행하는 단계;를 포함한다.
The pixel grouping step (S130) may include a first step (S131) of setting an initial value of the K; A second step (S132) of performing the K-means clustering algorithm; A third step (S133) of obtaining the midpoints of all the pixels of the grouped clusters and comparing the distances between the midpoints and the identification image size to confirm the validity of K; And if the K value is not valid, repeating the second step (S132) to the third step (S133) after reducing the K by one.

상기 영역 설정 단계(S140)는, 상기 그룹화된 픽셀들의 영역인 좌표평면을 X축의 최소값 및 최대값, Y축의 최소값 및 최대값에 해당하는 4개의 픽셀위치를 저장하는 저장 단계(S141); 상기 저장 단계이후, 상기 X축의 최소값의 픽셀과 상기 X축을 제외한 나머지 픽셀들 간의 거리를 측정해서 상기 나머지 픽셀들의 꼭지점의 유효성을 판단하는 단계(S142); 및 상기 나머지 픽셀들의 꼭지점이 유효성이 없을 경우, 상기 저장 단계의 최소값 및 최대값을 이용하여 꼭지점을 재 설정하는 재설정 단계(S143)를 포함한다.
The area setting step (S140) may include: a storage step (S141) of storing four coordinate positions corresponding to the minimum and maximum values of the X-axis, the minimum and maximum values of the Y-axis, and the coordinate plane which is the area of the grouped pixels; After the storing step, determining a validity of vertices of the remaining pixels by measuring a distance between the pixel of the minimum value of the X axis and the remaining pixels except the X axis (S142); And a reset step (S143) of resetting the vertex by using the minimum and maximum values of the storing step when the vertices of the remaining pixels are not valid.

상기 재설정 단계(S143)는, 상기 X축 및 상기 Y축의 최소값을 좌측 상단의 꼭지점으로, 상기 X축 및 상기 Y축의 최대값을 우측 하단의 꼭지점으로 설정하는 단계인 것을 특징으로 한다.
The resetting step (S143) is a step of setting the minimum values of the X-axis and the Y-axis as vertices at the upper left, and the maximum values of the X-axis and the Y-axis as vertices at the lower right.

상기 이미지 추출 단계(S150)는, 상기 X축 및 상기 Y축의 최소값 및 최대값의 해당하는 4개 영역의 보조 이미지를 추출하는 제1단계(S151); 상기 보조 이미지의 중심점을 설정하는 제2단계(S152); 상기 4개 영역의 보조 이미지 정렬을 위한 각도를 계산하는 제3단계(S153); 상기 제3단계에서 계산된 배열 각으로 상기 보조 이미지를 회전하는 제4단계(S154); 상기 제4단계(S154)에서 회전된 이미지를 -10°부터 10°까지 회전시킨 후, 상기 X축 및 상기 Y축 히스토그램의 검정 픽셀을 산출하는 제5단계(S155); 상기 제5단계(S155)에서 산출된 개수가 가장 많은 회전 각도를 적용하여 이미지를 회전하여 정렬된 이미지를 획득하는 제6단계(S156)를 포함한다.
The image extracting step (S150) may include a first step (S151) of extracting auxiliary images of four regions corresponding to the minimum and maximum values of the X and Y axes; Setting a center point of the auxiliary image (S152); A third step (S153) of calculating an angle for sub-image alignment of the four areas; A fourth step (S154) of rotating the auxiliary image by the arrangement angle calculated in the third step; A fifth step (S155) of calculating a black pixel of the X-axis and the Y-axis histogram after rotating the rotated image from -10 ° to 10 ° in the fourth step (S154); And a sixth step S156 of obtaining an aligned image by rotating the image by applying the rotation angle having the largest number calculated in the fifth step S155.

상기 판별 단계(S160)는, 상기 정렬된 이미지에서 좌측 상단 꼭지점부터 기 설정된 영역 범위 내에서 템플릿 매칭(Template Matching)을 수행하는 단계를 포함하며, 상기 템플릿 매칭의 수행 범위는, 상기 정렬된 이미지의 좌측 상단부터 상기 템플릿 이미지를 포함하는 위치까지인 것을 특징으로 한다.
The determining step S160 may include performing template matching within a preset area range from an upper left vertex in the aligned image, and the performing range of the template matching may include: Characterized in that it is up to the position including the template image from the upper left.

상기 템플릿 매칭은, NCC(Normalized Cross Correlation)을 이용하며, 수행시간 단축을 위해 두 픽셀단위로 수행하는 것을 특징으로 한다.
The template matching uses NCC (Normalized Cross Correlation), and is performed in units of two pixels to shorten execution time.

상기 이미지 추출 단계(S150)는, 상기 정렬된 이미지를 180도 회전하여 상기 템플릿 매칭을 재 수행하는 단계를 더 포함하는 것을 특징으로 한다.
The image extracting step S150 may further include performing the template matching by rotating the aligned image 180 degrees.

상기 템플릿 매칭은, 상기 NCC의 최대값이 0.7 미만일 경우, 다른 신분증 이미지의 템플릿으로 템플릿 매칭을 수행하는 것을 특징으로 한다.
In the template matching, when the maximum value of the NCC is less than 0.7, template matching is performed using a template of another ID image.

본 발명에 따르면 초기 단계에서 영상을 축소하여 인식, 추출과정을 수행, 템플릿 매칭에서 성능에 크게 영향을 주지 않는 범위에서의 픽셀 매칭 생략 등의 과정을 통해 빠르게 인식하여 처리하는 이점이 있다.According to the present invention, there is an advantage of quickly recognizing and processing through a process of performing a process of recognizing and extracting the image by reducing the initial stage and omitting pixel matching in a range that does not significantly affect performance in template matching.

또한, 템플릿 매칭 이후 상대적 위치를 이용하여 민감한 개인정보의 영역을 추출할 수 있으므로 네트워크 전송 시 개인정보 은닉 혹은 부호화, 혹은 개인정보의 필요로 인한 정보 추출 과정에서 응용될 수 있다.
In addition, since the sensitive personal information region can be extracted using the relative position after template matching, it can be applied in the process of extracting or hiding the personal information during network transmission or by extracting the information due to the need for personal information.

도 1은 본 발명의 실시 예에 따른 저화질 이미지를 갖는 신분증 판별 장치를 나타낸 블럭도이다.
도 2는 도 1에 기재된 장치를 이용한 저화질 이미지를 갖는 신분증 판별 방법을 설명하기 위한 플로우 챠트이다.
도 3은 도 2에 도시된 비율 설정 단계(S120)를 보다 자세하게 나타낸 플로우 챠트이다.
도 4는 영상 전처리 과정에서 일어나는 일련의 과정을 나타낸 예시도로서, (a)는 신분증의 영상 축소 및 흑백 영상 변환된 모습을 나타내며, (b)는 (a)를 메디안 필터링 후의 모습을 보여주며, (c)는 영상 축소 및 이진화된 신분증을 나타낸 예시도이다.
도 5는 도 2에 도시된 픽셀 그룹화 단계(S130)를 보다 자세하게 나타낸 플로우 챠트이다.
도 6a 및 도 6b는 K-means 클러스터링을 통해 분류 되어야할 두 개의 신분증을 나타낸 예시도이다.
도 7은 도 2에 도시된 영역 설정 단계(S140)를 보다 자세하게 나타낸 플로우 챠트이다.
도 8a는 피타고라스의 정리를 이용한 꼭지점 유효성 검사를 나타낸 예시도이다.
도 9는 도 2에 도시된 이미지 추출 단계(S170)를 보다 자세하게 나타낸 플로우 챠트이다.
도 10의 (ㄱ)은 꼭지점에 의한 1차 회전를 나타내며, (ㄴ)은 등간격 검사선에 의한 전경산출 방법을 나타내며, (ㄷ)은 2차 회전과정의 예를 나타낸 예시도이다.
도 11은 신분증 종류 인식 및 영역 추출을 위해 이루어진 탬플릿을 나타낸 예시도이다.
도 12는 본 발명을 이용하여 추출된 개인정보 영역의 예를 나타낸 예시도이다.
1 is a block diagram showing an identification card having a low quality image according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining an identification card having a low quality image using the apparatus of FIG. 1.
FIG. 3 is a flowchart illustrating the ratio setting step S120 shown in FIG. 2 in more detail.
4 is an exemplary view showing a series of processes occurring in the image preprocessing process, (a) shows the image reduced and the black and white image of the identification card, (b) shows (a) after the median filtering, (c) is an exemplary diagram showing image reduction and binarized identification.
FIG. 5 is a flowchart illustrating the pixel grouping step S130 shown in FIG. 2 in more detail.
6A and 6B are exemplary views showing two IDs to be classified through K-means clustering.
FIG. 7 is a flowchart illustrating in detail the region setting step S140 shown in FIG. 2.
8A is an exemplary diagram illustrating vertex validation using Pythagorean theorem.
FIG. 9 is a flowchart illustrating in detail the image extraction step S170 illustrated in FIG. 2.
(A) of FIG. 10 shows a first rotation by a vertex, (b) shows a foreground calculation method by an equal interval inspection line, and (c) is an exemplary view showing an example of a second rotation process.
11 is an exemplary view showing a template made for identification card type recognition and region extraction.
12 is an exemplary view showing an example of the personal information area extracted using the present invention.

이하, 본 발명의 바람직한 실시 예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a detailed description of preferred embodiments of the present invention will be given with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시 예들을 도면에 예시하고 본 명세서 또는 출원에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
Embodiments in accordance with the concepts of the present invention can make various changes and have various forms, so that specific embodiments are illustrated in the drawings and described in detail in this specification or application. It is to be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms of disclosure, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the terms "comprises ",or" having ", or the like, specify that there is a stated feature, number, step, operation, , Steps, operations, components, parts, or combinations thereof, as a matter of principle.

이하에서는 도면을 참조하여 본원발명을 보다 상세하게 설명하도록 한다.
Hereinafter, with reference to the drawings to describe the present invention in more detail.

도 1은 본 발명의 실시 예에 따른 저화질 이미지를 갖는 신분증 판별 장치를 나타낸 블럭도이다.1 is a block diagram showing an identification card having a low quality image according to an embodiment of the present invention.

도 2는 도 1에 기재된 장치를 이용한 저화질 이미지를 갖는 신분증 판별 방법을 설명하기 위한 플로우 챠트이다.FIG. 2 is a flowchart for explaining an identification card having a low quality image using the apparatus of FIG. 1.

도 3은 도 2에 도시된 비율 설정 단계(S120)를 보다 자세하게 나타낸 플로우 챠트이다.FIG. 3 is a flowchart illustrating the ratio setting step S120 shown in FIG. 2 in more detail.

도 4는 영상 전처리 과정에서 일어나는 일련의 과정을 나타낸 예시도로서, (a)는 신분증의 영상 축소 및 흑백 영상 변환된 모습을 나타내며, (b)는 (a)를 메디안 필터링 후의 모습을 보여주며, (c)는 영상 축소 및 이진화된 신분증을 나타낸 예시도이다.4 is an exemplary view showing a series of processes occurring in the image preprocessing process, (a) shows the image reduced and the black and white image of the identification card, (b) shows (a) after the median filtering, (c) is an exemplary diagram showing image reduction and binarized identification.

도 5는 도 2에 도시된 픽셀 그룹화 단계(S130)를 보다 자세하게 나타낸 플로우 챠트이다.FIG. 5 is a flowchart illustrating the pixel grouping step S130 shown in FIG. 2 in more detail.

도 6a 및 도 6b는 K-means 클러스터링을 통해 분류 되어야할 두 개의 신분증을 나타낸 예시도이다. 6A and 6B are exemplary views showing two IDs to be classified through K-means clustering.

도 7은 도 2에 도시된 영역 설정 단계(S140)를 보다 자세하게 나타낸 플로우 챠트이다.FIG. 7 is a flowchart illustrating in detail the region setting step S140 shown in FIG. 2.

도 8a는 피타고라스의 정리를 이용한 꼭지점 유효성 검사를 나타낸 예시도이다.8A is an exemplary diagram illustrating vertex validation using Pythagorean theorem.

도 9는 도 2에 도시된 이미지 추출 단계(S170)를 보다 자세하게 나타낸 플로우 챠트이다.FIG. 9 is a flowchart illustrating in detail the image extraction step S170 illustrated in FIG. 2.

도 10의 (ㄱ)은 꼭지점에 의한 1차 회전를 나타내며, (ㄴ)은 등간격 검사선에 의한 전경산출 방법을 나타내며, (ㄷ)은 2차 회전과정의 예를 나타낸 예시도이다.(A) of FIG. 10 shows a first rotation by a vertex, (b) shows a foreground calculation method by an equal interval inspection line, and (c) is an exemplary view showing an example of a second rotation process.

도 11은 신분증 종류 인식 및 영역 추출을 위해 이루어진 탬플릿을 나타낸 예시도이다.11 is an exemplary view showing a template made for identification card type recognition and region extraction.

도 12는 본 발명을 이용하여 추출된 개인정보 영역의 예를 나타낸 예시도이다.12 is an exemplary view showing an example of the personal information area extracted using the present invention.

도 1에 도시된 바와 같이, 본 발명의 판별 장치(100)는 제1 처리모듈(110)(110) 내지 제7 처리 모듈(170)을 포함한다.As shown in FIG. 1, the determination apparatus 100 of the present invention includes first processing modules 110 and 110 to seventh processing module 170.

상기 제1 처리 모듈(110)은 외부로부터 수신된 신분증 이미지 데이타를 수신하여 전 처리하여 그에 상응하는 제1 결과값(1st)을 출력한다.The first processing module 110 receives ID image data received from the outside and preprocesses the ID image data to output a first result value 1st corresponding thereto.

상기 제2 처리 모듈(120)은 상기 제1 결과값(1st)인 상기 전 처리된 신분증 이미지 데이타의 크기를 기 설정된 비율로 설정하여 그에 상응하는 제2 결과값(2st)을 출력한다.The second processing module 120 sets the size of the pre-processed ID image data, which is the first result value 1st, at a preset ratio and outputs a second result value 2st corresponding thereto.

상기 제3 처리 모듈(130)은 상기 제2 결과값(2st)을 수신하여, K-means 클러스터링 알고리즘을 통해 상기 제2 결과값(2st) 내의 복수 개의 영역을 픽셀 그룹화시켜 그에 상응하는 제3 결과값(3st)을 출력한다.The third processing module 130 receives the second result value 2st, pixel-groups a plurality of regions in the second result value 2st through a K-means clustering algorithm, and corresponds to a third result corresponding thereto. Output the value (3st).

상기 제4 처리 모듈(140)은 상기 제3 결과값(3st)인 그룹화된 픽셀들의 영역을 설정하여 그에 상응하는 제4 결과값(4st)을 출력한다.The fourth processing module 140 sets an area of the grouped pixels that is the third result value 3st and outputs a fourth result value 4st corresponding thereto.

상기 제5 처리 모듈(150)은 상기 제4 결과값(4st)인 상기 설정된 영역을 바탕으로 정렬된 신분증 영상을 추출한 제5 결과값(5st)을 출력한다.The fifth processing module 150 outputs a fifth result value 5st obtained by extracting an ID image arranged based on the set area that is the fourth result value 4st.

상기 제6 처리 모듈은 상기 제5 결과값(5st)을 수신한 후, 템플릿 매칭(Template Matching)을 이용하여 상기 제5 결과값(5st)의 이미지 종류를 판별하여 그에 상응하는 제6 결과값(6st)을 출력한다.After receiving the fifth result value 5st, the sixth processing module determines an image type of the fifth result value 5st by using template matching and corresponds to the sixth result value ( 6st).

상기 제7 처리 모듈은 상기 제6 결과값(6st)을 수신하여, 매칭 결과에 대한 상대적 위치를 이용해 개인정보 영역을 추출한다.
The seventh processing module receives the sixth result value 6st and extracts a personal information area using the relative position of the matching result.

도 2에 도시된 바와 같이, 본 발명의 저화질 이미지를 이용한 신분증 판별 방법(S100)은 이미지 전 처리 단계(S110), 비율 설정 단계(S120), 영역 설정 단계(S130), 판별 단계(S140) 및 추출 단계(S150)를 포함한다.As shown in FIG. 2, the identification card identification method S100 using the low quality image of the present invention includes an image preprocessing step S110, a ratio setting step S120, an area setting step S130, a determination step S140, and the like. Extraction step (S150) is included.

상기 이미지 전 처리 단계(S110)는 외부로부터 수신된 신분증 이미지 데이타를 전 처리하는 단계일 수 있다.The image preprocessing step S110 may be a step of preprocessing ID image data received from the outside.

상기 비율 설정 단계(S120)는 상기 전 처리된 신분증 이미지 데이타의 크기를 기 설정된 비율로 설정하는 단계일 수 있다. The ratio setting step S120 may be a step of setting the size of the pre-processed identification image data to a preset ratio.

상기 영역 설정 단계(S140)는 상기 비율 설정 단계(S120)이후, K-means 클러스터링 알고리즘을 이용하여 상기 이미지 데이타의 복수 개의 영역을 픽셀 그룹화하는 픽셀 그룹화 단계(S130); 그룹화된 픽셀들의 영역을 설정하는 단계일 수 있다. The area setting step (S140) may include a pixel grouping step (S130) of pixel grouping a plurality of areas of the image data using a K-means clustering algorithm after the ratio setting step (S120); It may be a step of setting an area of the grouped pixels.

상기 판별 단계(S160)는 상기 설정된 영역을 바탕으로 정렬된 신분증 영상을 추출하는 이미지 추출 단계(S150); 템플릿 매칭(Template Matching)을 이용하여 상기 이미지 종류를 판별하는 단계일 수 있다.The determining step (S160) may include an image extraction step (S150) of extracting an ID image arranged based on the set area; The image type may be determined by using template matching.

상기 추출 단계(S170)는 매칭 결과에 대한 상대적 위치를 이용해 개인정보 영역을 추출하는 단계일 수 있다.
The extracting step S170 may be a step of extracting a personal information area using a relative position with respect to the matching result.

보다 구체적으로, 상기 비율 설정 단계(S120)는 제1 단계(S121) 내지 제3 단계(S123)를 포함한다.More specifically, the ratio setting step S120 includes first to third steps S121 to S123.

상기 제1 단계(S121)는 상기 신분증 이미지 데이타를 흑백 이미지로 변환한 후, 이미지의 넓이와 폭의 비율을 각각 30%의 크기로 축소시키는 단계일 수 있다.The first step S121 may be a step of reducing the ratio of the width and width of the image to a size of 30% after converting the ID card image data into a black and white image.

상기 제2 단계(S122)는 상기 축소된 이미지에 3×3 크기의 메디안 필터로 컨볼류션 연산을 수행하는 단계일 수 있다.The second step S122 may be a step of performing a convolution operation on the reduced image with a median filter having a size of 3 × 3.

여기서, 상기 제2 단계(S122)는 처리 속도 향상을 위해 수행하는 단계로서, 상기 신분증 이미지를 이진화시키는 단계가 포함될 수 있다.Here, the second step S122 is performed to improve processing speed, and may include binarizing the identification image.

상기 제3 단계(S123)는 상기 이미지를 다시 넓이와 폭 각각을 50% 비율로 재 축소하는 단계일 있다.
The third step S123 may be a step of reducing the image again to 50% of the width and width.

도 5에 도시된 바와 같이, 상기 픽셀 그룹화 단계(S130)는 제1 단계(S131) 내지 제4 단계(S134)를 포함한다.As shown in FIG. 5, the pixel grouping step S130 may include first steps S131 to fourth steps S134.

상기 제1 단계(S131)는 상기 K의 초기값을 설정하는 단계일 수 있다.The first step S131 may be a step of setting an initial value of K.

상기 제2 단계(S132)는 상기 K-means 클러스터링 알고리즘을 수행하는 단계일 수 있다.The second step S132 may be a step of performing the K-means clustering algorithm.

상기 제3 단계(S133)는 상기 그룹화된 각 클러스터의 모든 픽셀들의 중점을 구하고 각 중점간의 거리와 신분증 이미지 크기를 비교하여 K의 유효성을 확인하는 단계일 수 있다.The third step S133 may be a step of determining the validity of K by obtaining midpoints of all the pixels of the grouped clusters and comparing distances between the midpoints and an ID image size.

상기 제4 단계(S134)는 상기 K 값의 유효성이 없을 경우, 상기 K를 1씩 감소시킨 후, 상기 제2단계(S132)부터 상기 제3단계(S134)까지를 반복수행하는 단계일 수 있다.
The fourth step (S134) may be a step of repeating the second step (S132) to the third step (S134) after reducing the K by 1 when the K value is not valid. .

도 7에 도시된 바와 같이, 상기 영역 설정 단계(S140)는 저장 단계(S141), 유효성 판단 단계(S142), 재설정 단계(S143)를 포함한다.As shown in FIG. 7, the area setting step S140 includes a storing step S141, a validity determining step S142, and a resetting step S143.

상기 저장 단계(S141)는 상기 그룹화된 픽셀들의 영역인 좌표평면을 X축의 최소값 및 최대값, Y축의 최소값 및 최대값에 해당하는 4개의 픽셀위치를 저장하는 단계일 수 있다.The storing step S141 may be a step of storing four pixel positions corresponding to the minimum and maximum values of the X-axis, the minimum and maximum values of the Y-axis, and the coordinate plane which is the area of the grouped pixels.

상기 유효성 판단 단계(S142)는 상기 저장 단계(S141) 이후, 상기 X축의 최소값의 픽셀과 상기 X축을 제외한 나머지 픽셀들 간의 거리를 측정해서 상기 나머지 픽셀들의 꼭지점의 유효성을 판단하는 단계일 수 있다.The validity determining step S142 may be a step of determining the validity of the vertices of the remaining pixels by measuring a distance between the pixel of the minimum value of the X-axis and the remaining pixels except the X-axis after the storing step S141.

상기 재설정 단계(S143)는 상기 나머지 픽셀들의 꼭지점이 유효성이 없을 경우, 상기 저장 단계의 최소값 및 최대값을 이용하여 꼭지점을 재 설정하는 단계일 수 있다.The resetting step S143 may be a step of resetting vertices using minimum and maximum values of the storing step when the vertices of the remaining pixels are not valid.

상기 재설정 단계(S143)는 상기 X축 및 상기 Y축의 최소값을 좌측 상단의 꼭지점으로, 상기 X축 및 상기 Y축의 최대값을 우측 하단의 꼭지점으로 설정하는 단계일 수 있다.
The resetting step (S143) may be a step of setting the minimum value of the X-axis and the Y-axis as a vertex on the upper left side, and the maximum value of the X-axis and the Y-axis as the vertex on the lower right side.

도 9에 도시된 바와 같이, 상기 이미지 추출 단계(S150)는 제1 단계(S151) 내지 제5 단계(S155)를 포함한다.As shown in FIG. 9, the image extraction step S150 includes first steps S151 to fifth steps S155.

상기 제1 단계(S151)는 상기 X축 및 상기 Y축의 최소값 및 최대값의 해당하는 4개 영역의 보조 이미지를 추출하는 단계일 수 있다.The first step S151 may be a step of extracting auxiliary images of four areas corresponding to the minimum and maximum values of the X-axis and the Y-axis.

상기 제2 단계(S152)는 상기 보조 이미지의 중심점을 설정하는 단계일 수 있다.The second step S152 may be a step of setting a center point of the auxiliary image.

상기 제3 단계(S153)는 상기 4개 영역의 보조 이미지 정렬을 위한 각도를 계산하는 단계일 수 있다.The third step S153 may be a step of calculating an angle for aligning the auxiliary images of the four areas.

상기 제4 단계(S154)는 상기 제3단계에서 계산된 배열 각으로 상기 보조 이미지를 회전하는 단계일 수 있다.The fourth step S154 may be a step of rotating the auxiliary image at the arrangement angle calculated in the third step.

상기 제5 단계(S155)는 상기 제4단계에서 회전된 이미지를 -10°부터 10°까지 회전시킨 후, 상기 X축 및 상기 Y축 히스토그램의 검정 픽셀을 산출하는 단계일 수 있다.The fifth step S155 may be a step of calculating the black pixels of the X-axis and the Y-axis histogram after rotating the image rotated in the fourth step from -10 ° to 10 °.

상기 제6 단계(S156)는 상기 제5단계에서 산출된 개수가 가장 많은 회전 각도를 적용하여 이미지를 회전하여 정렬된 이미지를 획득하는 단계일 수 있다.
The sixth step S156 may be a step of obtaining an aligned image by rotating the image by applying the rotation angle having the largest number calculated in the fifth step.

상기 판별 단계(S160)는 상기 정렬된 이미지에서 좌측 상단 꼭지점부터 기 설정된 영역 범위 내에서 템플릿 매칭(Template Matching)을 수행하는 단계를 포함하며, 상기 템플릿 매칭의 수행 범위는, 상기 정렬된 이미지의 좌측 상단부터 상기 템플릿 이미지를 포함하는 위치까지를 범위로 설정된다.The determining step S160 may include performing template matching within a preset area range from the upper left corner of the aligned image, wherein the template matching range is performed on the left side of the aligned image. The range is set from the top to a position including the template image.

상기 템플릿 매칭은, NCC(Normalized Cross Correlation)을 이용하며, 수행시간 단축을 위해 두 픽셀단위로 수행된다.
The template matching uses NCC (Normalized Cross Correlation), and is performed in units of two pixels to shorten execution time.

상기 이미지 추출 단계(S170)는, 상기 정렬된 이미지를 180도 회전하여 상기 템플릿 매칭을 재 수행하는 단계를 더 포함할 수 있다.The image extracting step S170 may further include performing the template matching by rotating the aligned image 180 degrees.

또한, 상기 템플릿 매칭은 상기 NCC의 최대값이 0.7 미만일 경우, 다른 신분증 이미지의 템플릿으로 템플릿 매칭을 수행한다.
In addition, when the maximum value of the NCC is less than 0.7, the template matching performs a template matching with a template of another ID image.

본 발명에 따르면 초기 단계에서 영상을 축소하여 인식, 추출과정을 수행, 템플릿 매칭에서 성능에 크게 영향을 주지 않는 범위에서의 픽셀 매칭 생략 등의 과정을 통해 빠르게 인식하여 처리하는 이점이 있다.According to the present invention, there is an advantage of quickly recognizing and processing through a process of performing a process of recognizing and extracting the image by reducing the initial stage and omitting pixel matching in a range that does not significantly affect performance in template matching.

또한, 템플릿 매칭 이후 상대적 위치를 이용하여 민감한 개인정보의 영역을 추출할 수 있으므로 네트워크 전송 시 개인정보 은닉 혹은 부호화, 혹은 개인정보의 필요로 인한 정보 추출 과정에서 응용될 수 있다.
In addition, since the sensitive personal information region can be extracted using the relative position after template matching, it can be applied in the process of extracting or hiding the personal information during network transmission or by extracting the information due to the need for personal information.

본 발명은 상술한 특정의 바람직한 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형의 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims and their equivalents. And such changes are, of course, within the scope of the claims.

100: 판별 장치
110: 제1 처리모듈
120: 제2 처리모듈
130: 제3 처리모듈
140: 제4 처리모듈
150: 제5 처리모듈
160: 제6 처리모듈
170: 제7 처리모듈
100: determination device
110: first processing module
120: second processing module
130: third processing module
140: fourth processing module
150: fifth processing module
160: sixth processing module
170: seventh processing module

Claims (13)

외부로부터 수신된 신분증 이미지 데이타를 수신하여 전 처리하여 그에 상응하는 제1 결과값(1st)을 출력하는 제1 처리모듈(110);
상기 제1 결과값(1st)인 상기 전 처리된 신분증 이미지 데이타의 크기를 기 설정된 비율로 설정하여 그에 상응하는 제2 결과값(2st)을 출력하는 제2 처리모듈(120);
상기 제2 결과값(2st)을 수신하여, K-means 클러스터링 알고리즘을 통해 상기 제2 결과값(2st) 내의 복수 개의 영역을 픽셀 그룹화시켜 그에 상응하는 제3 결과값(3st)을 출력하는 제3 처리모듈(130);
상기 제3 결과값(3st)인 그룹화된 픽셀들의 영역을 설정하여 그에 상응하는 제4 결과값(4st)을 출력하는 제4 처리 모듈(140);
상기 제4 결과값(4st)인 상기 설정된 영역을 바탕으로 정렬된 신분증 영상을 추출한 제5 결과값(5st)을 출력하는 제5 처리 모듈(150);
상기 제5 결과값(5st)을 수신한 후, 템플릿 매칭(Template Matching)을 이용하여 상기 제5 결과값(5st)의 이미지 종류를 판별하여 그에 상응하는 제6 결과값(6st)을 출력하는 제6 처리 모듈(160); 및
상기 제6 결과값(6st)을 수신하여, 매칭 결과에 대한 상대적 위치를 이용해 개인정보 영역을 추출하는 제7 처리 모듈(170)을 포함하는 저화질 이미지를 갖는 신분증 판별 장치.
A first processing module 110 which receives ID card image data received from the outside and preprocesses the first image to output a first result value 1st corresponding thereto;
A second processing module 120 for setting the size of the pre-processed identification image data that is the first result value 1st at a preset ratio and outputting a second result value 2st corresponding thereto;
A third result of receiving the second result value 2st, pixel grouping a plurality of regions in the second result value 2st through a K-means clustering algorithm, and outputting a third result value 3st corresponding thereto; Processing module 130;
A fourth processing module 140 for setting an area of the grouped pixels that is the third result value 3st and outputting a fourth result value 4st corresponding thereto;
A fifth processing module 150 for outputting a fifth result value 5st obtained by extracting an ID image arranged based on the set area that is the fourth result value 4st;
After receiving the fifth result value 5st, determining an image type of the fifth result value 5st using template matching and outputting a sixth result value 6st corresponding thereto; 6 processing module 160; And
And a seventh processing module (170) for receiving the sixth result value (6st) and extracting a personal information area using a relative position of the matching result.
청구항 제1항의 신분증 판별 장치를 이용한 저화질 신분증 판별 방법에 있어서,
외부로부터 수신된 신분증 이미지 데이타를 전 처리하는 이미지 전 처리 단계(S110);
상기 전 처리된 신분증 이미지 데이타의 크기를 기 설정된 비율로 설정하는 비율 설정 단계(S120);
상기 비율 설정 단계(S120)이후, K-means 클러스터링 알고리즘을 이용하여 상기 이미지 데이타의 복수 개의 영역을 픽셀 그룹화하는 픽셀 그룹화 단계(S130);
그룹화된 픽셀들의 영역을 설정하는 영역 설정 단계(S140);
상기 설정된 영역을 바탕으로 정렬된 신분증 영상을 추출하는 이미지 추출 단계(S150);
템플릿 매칭(Template Matching)을 이용하여 상기 이미지 종류를 판별하는 판별 단계(S160);
매칭 결과에 대한 상대적 위치를 이용해 개인정보 영역을 추출하는 추출 단계(S170)를 포함하는 저화질 이미지를 갖는 신분증 판별 방법.
In the low quality identification card identification method using the identification card identification device of claim 1,
An image preprocessing step (S110) of preprocessing the ID image data received from the outside;
A ratio setting step of setting the size of the pre-processed identification image data to a preset ratio (S120);
A pixel grouping step (S130) of pixel grouping a plurality of areas of the image data using a K-means clustering algorithm after the ratio setting step (S120);
An area setting step (S140) of setting an area of grouped pixels;
An image extraction step (S150) of extracting an ID image arranged based on the set area;
A determination step (S160) of determining the image type using template matching;
ID identification method having a low quality image comprising an extraction step (S170) of extracting a personal information area using a relative position to the matching result.
제2항에 있어서,
상기 비율 설정 단계(S120)는,
상기 신분증 이미지 데이타를 흑백 이미지로 변환한 후, 이미지의 넓이와 폭의 비율을 각각 30%의 크기로 축소시키는 제1 단계(S121);
상기 축소된 이미지에 3×3 크기의 메디안 필터로 컨볼류션 연산을 수행하는 제2 단계(S122); 및
상기 이미지를 다시 넓이와 폭 각각을 50% 비율로 재 축소하는 제3 단계(S123);를 포함하는 저화질 이미지를 갖는 신분증 판별 방법.
3. The method of claim 2,
The ratio setting step (S120),
A first step (S121) of converting the ID card image data into a black and white image and then reducing the ratio of the width and width of the image to a size of 30%;
A second step (S122) of performing a convolution operation on the reduced image with a median filter having a size of 3x3; And
And rescaling the image to a 50% ratio of width and width again (S123).
제3항에 있어서,
상기 제2 단계(S122)는,
처리 속도 향상을 위해 수행하는 단계인 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
The method of claim 3,
The second step (S122),
ID identification method having a low quality image, characterized in that the step of performing to improve the processing speed.
제3항에 있어서,
상기 제2 단계(S122)는,
상기 신분증 이미지를 이진화 시키는 단계를 더 포함하는 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
The method of claim 3,
The second step (S122),
And binarizing the identification card image.
제2항에 있어서,
상기 픽셀 그룹화 단계(S130)는,
상기 K의 초기 값을 설정하는 제1단계(S131);
상기 K-means 클러스터링 알고리즘을 수행하는 제2단계(S132);
상기 그룹화된 각 클러스터의 모든 픽셀들의 중점을 구하고 각 중점간의 거리와 신분증 이미지 크기를 비교하여 K의 유효성을 확인하는 제3단계(S133); 및
상기 K 값의 유효성이 없을 경우, 상기 K를 1씩 감소시킨 후, 상기 제2단계(S132) 부터 상기 제3단계(S133)까지를 반복수행하는 단계;를 포함하는 저화질 이미지를 갖는 신분증 판별 방법.
3. The method of claim 2,
The pixel grouping step (S130),
A first step of setting the initial value of K (S131);
A second step (S132) of performing the K-means clustering algorithm;
A third step (S133) of obtaining the midpoints of all the pixels of the grouped clusters and comparing the distances between the midpoints and the identification image size to confirm the validity of K; And
If the K value is not valid, reducing the K by 1 and repeating the second step (S132) to the third step (S133); identification card having a low quality image comprising a .
제2항에 있어서,
상기 영역 설정 단계(S140)는,
상기 그룹화된 픽셀들의 영역인 좌표평면을 X축의 최소값 및 최대값, Y축의 최소값 및 최대값에 해당하는 4개의 픽셀위치를 저장하는 저장 단계(S141);
상기 저장 단계이후, 상기 X축의 최소값의 픽셀과 상기 X축을 제외한 나머지 픽셀들 간의 거리를 측정해서 상기 나머지 픽셀들의 꼭지점의 유효성을 판단하는 단계(S142); 및
상기 나머지 픽셀들의 꼭지점이 유효성이 없을 경우, 상기 저장 단계의 최소값 및 최대값을 이용하여 꼭지점을 재 설정하는 재설정 단계(S143)를 포함하는 저화질 이미지를 갖는 신분증 판별 방법.
3. The method of claim 2,
The area setting step (S140),
A storage step of storing four pixel positions corresponding to the minimum and maximum values of the X-axis, the minimum and maximum values of the Y-axis, and the coordinate plane which is the area of the grouped pixels (S141);
After the storing step, determining a validity of vertices of the remaining pixels by measuring a distance between the pixel of the minimum value of the X axis and the remaining pixels except the X axis (S142); And
And resetting the vertices by using the minimum and maximum values of the storing step when the vertices of the remaining pixels are not valid.
제7항에 있어서,
상기 재설정 단계(S143)는,
상기 X축 및 상기 Y축의 최소값을 좌측 상단의 꼭지점으로, 상기 X축 및 상기 Y축의 최대값을 우측 하단의 꼭지점으로 설정하는 단계인 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
The method of claim 7, wherein
The reset step (S143),
And setting the minimum values of the X-axis and the Y-axis as vertices at the upper left, and the maximum values of the X-axis and the Y-axis as vertices at the lower right.
제8항에 있어서,
상기 이미지 추출 단계(S150)는,
상기 X축 및 상기 Y축의 최소값 및 최대값의 해당하는 4개 영역의 보조 이미지를 추출하는 제1단계(S151);
상기 보조 이미지의 중심점을 설정하는 제2단계(S152);
상기 4개 영역의 보조 이미지 정렬을 위한 각도를 계산하는 제3단계(S153);
상기 제3단계에서 계산된 배열 각으로 상기 보조 이미지를 회전하는 제4단계(S154);
상기 제4단계(S154)에서 회전된 이미지를 -10°부터 10°까지 회전시킨 후, 상기 X축 및 상기 Y축 히스토그램의 검정 픽셀을 산출하는 제5단계(S155);
상기 제5단계(S155)에서 산출된 개수가 가장 많은 회전 각도를 적용하여 이미지를 회전하여 정렬된 이미지를 획득하는 제6단계(S156)를 포함하는 저화질 이미지를 갖는 신분증 판별 방법.
9. The method of claim 8,
The image extraction step (S150),
Extracting auxiliary images of four regions corresponding to minimum and maximum values of the X and Y axes (S151);
Setting a center point of the auxiliary image (S152);
A third step (S153) of calculating an angle for sub-image alignment of the four areas;
A fourth step (S154) of rotating the auxiliary image by the arrangement angle calculated in the third step;
A fifth step (S155) of calculating a black pixel of the X-axis and the Y-axis histogram after rotating the rotated image from -10 ° to 10 ° in the fourth step (S154);
And a sixth step (S156) of rotating the image to obtain an aligned image by applying the rotation angle having the largest number of rotations calculated in the fifth step (S155).
제9항에 있어서,
상기 판별 단계(S160)는,
상기 정렬된 이미지에서 좌측 상단 꼭지점부터 기 설정된 영역 범위 내에서 템플릿 매칭(Template Matching)을 수행하는 단계를 포함하며,
상기 템플릿 매칭의 수행 범위는,
상기 정렬된 이미지의 좌측 상단부터 템플릿 매칭 대상 신분증의 템플릿 이미지를 포함하는 위치까지인 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
10. The method of claim 9,
The determination step (S160),
Performing template matching within a range of a predetermined area from an upper left corner of the aligned image,
The performing range of the template matching is,
The identification card identification method having a low quality image, characterized in that from the upper left of the aligned image to a position including the template image of the template matching target identification card.
제10항에 있어서,
상기 템플릿 매칭은,
NCC(Normalized Cross Correlation)을 이용하며, 수행시간 단축을 위해 두 픽셀단위로 수행하는 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
The method of claim 10,
The template matching,
An ID card discrimination method having a low quality image, which uses NCC (Normalized Cross Correlation) and is performed in units of two pixels to shorten execution time.
제10항에 있어서,
상기 이미지 추출 단계(S150)는,
상기 정렬된 이미지를 180도 회전하여 상기 템플릿 매칭을 재 수행하는 단계를 더 포함하는 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
The method of claim 10,
The image extraction step (S150),
And rotating the aligned image by 180 degrees to perform the template matching again.
제11항에 있어서,
상기 템플릿 매칭은,
상기 NCC의 최대값이 0.7 미만일 경우, 다른 신분증 이미지의 템플릿으로 템플릿 매칭을 수행하는 것을 특징으로 하는 저화질 이미지를 갖는 신분증 판별 방법.
12. The method of claim 11,
The template matching,
When the maximum value of the NCC is less than 0.7, the identification card identification method having a low quality image, characterized in that for performing template matching with a template of another identification image.
KR1020120117200A 2012-10-22 2012-10-22 Identification distincting apparatus using degraded images and distincting apparatus using the same KR101346328B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120117200A KR101346328B1 (en) 2012-10-22 2012-10-22 Identification distincting apparatus using degraded images and distincting apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120117200A KR101346328B1 (en) 2012-10-22 2012-10-22 Identification distincting apparatus using degraded images and distincting apparatus using the same

Publications (1)

Publication Number Publication Date
KR101346328B1 true KR101346328B1 (en) 2013-12-31

Family

ID=49989363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120117200A KR101346328B1 (en) 2012-10-22 2012-10-22 Identification distincting apparatus using degraded images and distincting apparatus using the same

Country Status (1)

Country Link
KR (1) KR101346328B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106169078A (en) * 2016-07-14 2016-11-30 微额速达(上海)金融信息服务有限公司 Image-recognizing method
KR20220012697A (en) * 2020-07-23 2022-02-04 인비즈넷 주식회사 Method and system for adult authenticating

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040027048A (en) * 2002-09-27 2004-04-01 도은정보통신 주식회사 An Identification Device of a Passport and Method Thereof
KR20070036491A (en) * 2005-09-29 2007-04-03 삼도산업전기(주) Id card verifying system and method thereof
JP2009545242A (en) 2006-07-24 2009-12-17 スリーエム イノベイティブ プロパティズ カンパニー Document authentication using template matching with fast masked normal cross-correlation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040027048A (en) * 2002-09-27 2004-04-01 도은정보통신 주식회사 An Identification Device of a Passport and Method Thereof
KR20070036491A (en) * 2005-09-29 2007-04-03 삼도산업전기(주) Id card verifying system and method thereof
JP2009545242A (en) 2006-07-24 2009-12-17 スリーエム イノベイティブ プロパティズ カンパニー Document authentication using template matching with fast masked normal cross-correlation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106169078A (en) * 2016-07-14 2016-11-30 微额速达(上海)金融信息服务有限公司 Image-recognizing method
CN106169078B (en) * 2016-07-14 2019-04-16 微额速达(集团)有限公司 Image-recognizing method
KR20220012697A (en) * 2020-07-23 2022-02-04 인비즈넷 주식회사 Method and system for adult authenticating
KR102430793B1 (en) 2020-07-23 2022-08-09 인비즈넷 주식회사 Method and system for adult authenticating

Similar Documents

Publication Publication Date Title
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
US9818023B2 (en) Enhanced face detection using depth information
CN106446873B (en) Face detection method and device
Galdi et al. Multimodal authentication on smartphones: Combining iris and sensor recognition for a double check of user identity
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
JP5822322B2 (en) Network capture and 3D display of localized and segmented images
Islam et al. Efficient detection and recognition of 3D ears
Tapia et al. Gender classification from iris images using fusion of uniform local binary patterns
Raghavendra et al. Scaling-robust fingerprint verification with smartphone camera in real-life scenarios
WO2019071664A1 (en) Human face recognition method and apparatus combined with depth information, and storage medium
JP5715833B2 (en) Posture state estimation apparatus and posture state estimation method
KR101632912B1 (en) Method for User Authentication using Fingerprint Recognition
CN111194449A (en) System and method for human face living body detection
US20150078629A1 (en) Template update for biometric authentication
CN108416291B (en) Face detection and recognition method, device and system
CN109937434A (en) Image processing method, device, terminal and storage medium
CN112883918A (en) Face detection method and device, terminal equipment and computer readable storage medium
KR101346328B1 (en) Identification distincting apparatus using degraded images and distincting apparatus using the same
Nayar et al. Partial palm vein based biometric authentication
Chowdhury et al. Robust human detection and localization in security applications
CN108875472B (en) Image acquisition device and face identity verification method based on image acquisition device
Wang et al. Object recognition from omnidirectional visual sensing for mobile robot applications
Zhang et al. Reflection-type finger vein recognition for mobile applications
CN112016495A (en) Face recognition method and device and electronic equipment
CN111291586B (en) Living body detection method, living body detection device, electronic equipment and computer readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20170829

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180823

Year of fee payment: 6