KR20100091516A - Method for identifying image face and system thereof - Google Patents

Method for identifying image face and system thereof Download PDF

Info

Publication number
KR20100091516A
KR20100091516A KR1020090010738A KR20090010738A KR20100091516A KR 20100091516 A KR20100091516 A KR 20100091516A KR 1020090010738 A KR1020090010738 A KR 1020090010738A KR 20090010738 A KR20090010738 A KR 20090010738A KR 20100091516 A KR20100091516 A KR 20100091516A
Authority
KR
South Korea
Prior art keywords
image
feature point
point map
face
similarity
Prior art date
Application number
KR1020090010738A
Other languages
Korean (ko)
Other versions
KR101094433B1 (en
Inventor
애드하모비치 이마토브 안와르
유리비치 부리악 드미트리
블라디미로비치 체르다코브 드미트리
양해광
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR1020090010738A priority Critical patent/KR101094433B1/en
Publication of KR20100091516A publication Critical patent/KR20100091516A/en
Application granted granted Critical
Publication of KR101094433B1 publication Critical patent/KR101094433B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • G06F3/0423Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror

Abstract

PURPOSE: A method for identifying an image face and a system thereof are provided to accurately identify a face of a person even in a circumference where an external additional object exists and accurately perform the identification of the person according to the monitoring list. CONSTITUTION: A face detecting block(11) defects a face from an image of a person obtained by a camera, and an image preprocessing block(12) preprocesses a face image. A coding block(13) makes and processes a feature point map for the preprocessed image and converts the image into a compact representation format. A template comparing block(15) determines the grade of an image by measuring the similarity of an image of the representation and the registered image.

Description

인물 식별 방법 및 그 시스템{Method for identifying image face and system thereof}Method for identifying image face and system approximately}

본 발명은 이미지 얼굴 식별 방법에 관한 것으로, 더욱 상세하게 말하자면, 인물을 식별하는 방법과 그의 시스템에 관한 것이다. The present invention relates to an image face identification method, and more particularly, to a method and a system for identifying a person.

얼굴 이미지에 따라 사람을 식별하는 것은 최근 수십 년 간 중요하게 다루어지고 있다. 사람의 얼굴 이미지를 식별하는 시스템은, 입력되는 이미지에 따라 얻어지는 유사 모델과 이미 알고 있는 구체적인 인물의 얼굴 모델(또는 표현물(representation))과 비교하는 것에 기반하고 있다. 불과 얼마 전까지만 해도 이와 유사한 시스템 대부분에서는 비교 대상인 이미지들이 특정한 조명 조건에서 얻어진 사람의 정면 얼굴 이미지이어야만 하였다. 이러한 요구 조건들은 인식 시스템의 실제 적용에 제약으로 작용하였다. Identifying people based on facial images has been an important topic in recent decades. The system for identifying a face image of a person is based on comparing a similar model obtained according to an input image with a face model (or representation) of a specific person already known. Not so long ago, in most similar systems, the images to be compared had to be images of the person's front face obtained under specific lighting conditions. These requirements have limited the practical application of the recognition system.

이러한 문제들을 해결하기 위한 여러 가지 방법들이 제안되었으며, 그러한 접근방법들은 다음과 같은 특허에 설명되어 있다: 미국특허 번호 5,642,431, 동 특허 번호 6,108,437, 동 특허 번호 6,775,411, 동 특허 번호 6,944,319, 동 특허 번호 7,127,087, 동 특허 번호 7,142,697. Several methods have been proposed to solve these problems, and such approaches are described in the following patents: US Pat. No. 5,642,431, Patent No. 6,108,437, Patent No. 6,775,411, Patent No. 6,944,319, Patent No. 7,127,087 , Patent number 7,142,697.

이러한 종래 기술들에는 조명이 불균일한 조건에서 인물의 정면이 아닌 여러 가지 측면의 얼굴의 식별이 가능한 얼굴 식별 방법들이 제안되어 있으며, 이 때 조명 조건에 대한 불변성은 원본 이미지를 가공함으로써 확보된다. 그러나 이러한 방법은 조명이 약하고 방해물이 있는 조건에서의 작업 신뢰도 및 안정성이 떨어진다. These prior arts have proposed face identification methods that can identify various aspects of the face instead of the front of the person in uneven lighting conditions, where the invariability of the lighting conditions is secured by processing the original image. However, this method lacks the reliability and stability of work in low light and obstructive conditions.

종래 기술 중 미국 특허 번호 6,826,300에 표준(템플릿) 이미지와의 근접성 측정 방법이 제시되어 있다. 여기서 가버 웨이블릿 기저에 기초하여 얼굴 이미지 특징점 맵(map of feature)를 제작하는 방법이 사용되며, 주요 구성 요소 및 선형 식별 분석법에 기초하고 근접 측정을 수행하여, 얼굴 이미지의 유효 특징점을 선택한다. 이때 가장 특이하고 확고한 얼굴 특성을 구분하기 위하여 제작된 특징점 맵을 추가적으로 처리하지는 않는다. US Pat. No. 6,826,300 of the prior art discloses a method of measuring proximity to a standard (template) image. Here, a method of manufacturing a face image feature point map based on the Gabor wavelet basis is used, and based on the main component and the linear identification analysis method and performing proximity measurement, an effective feature point of the face image is selected. At this time, the feature map generated to distinguish the most unique and firm facial features is not processed.

그러나 다른 유사한 방식 및 프라우터 타입의 방법과 마찬가지로 다양한 조명, 다양한 카메라에 대한 얼굴의 위치, 방해물이 있는 조건에서 작업할 때 정밀도와 안정성이 낮아지는 문제가 여전히 존재한다. However, as with other similar and prototypical methods, there is still a problem of low precision and stability when working in conditions of varying lighting, face position for various cameras, and obstructions.

본 발명이 이루고자 하는 기술적 과제는 보다 정확하게 특정 인물의 이미지를 인식할 수 있는 인물 식별 방법 및 그 시스템을 제공하는 것이다. It is an object of the present invention to provide a person identification method and system for recognizing an image of a specific person more accurately.

또한 본 발명이 이루고자 하는 기술적 과제는 방해물이 있고, 조명이 불균일하며 안경 등과 같은 외부 피사체가 있는 조건에서도, 얼굴의 식별 정밀도를 향상시키는 방법 및 그 시스템을 제공하는 것이다. Another object of the present invention is to provide a method and a system for improving the identification accuracy of a face even under a condition in which there is an obstacle, an uneven illumination, and an external subject such as glasses.

또한 본 발명이 이루고자 하는 기술적 과제는 조명이 불균일하고 이미지상의 회전각 대역이 넓은 조건에서도 특별 목록에 있는 인물들의 특징을 고려하여 인물을 정확하게 식별하는 방법 및 그 시스템을 제공하는 것이다. Another object of the present invention is to provide a method and system for accurately identifying a person in consideration of features of persons in a special list even under uneven illumination and wide rotation angle bands on an image.

위의 과제를 위한, 본 발명의 특징에 따른 인물 식별 방법은 테스트 대상이 되는 이미지의 특징점 맵을 형성하는 단계; 상기 이미지의 특징점 맵과 이미 처리되어 데이터베이스에 등록되어 있는 등록 이미지들과의 유사성을 측정하는 단계; 및 상기 유사성 측정 결과를 토대로 상기 테스트 대상인 이미지의 등급을 결정하는 단계를 포함한다. For the above problem, the person identification method according to the features of the present invention comprises the steps of forming a feature point map of the image to be tested; Measuring a similarity between a feature point map of the image and registered images already processed and registered in a database; And determining the grade of the image under test based on the result of the similarity measurement.

본 발명의 다른 특징에 따른 인물 식별 시스템은, 카메라에 의하여 획득한 인물의 이미지로부터 얼굴을 검출하는 얼굴 검출 블록; 상기 검출된 얼굴 이미지에 대한 전처리를 수행하는 이미지 전처리 블록; 상기 전처리된 이미지에 대한 특징점 맵을 작성하고 이를 처리하여 설정된 컴팩트한 표현물(representation)로 변환하는 코딩 블록; 피사체들에 대한 등록 이미지들을 저장하고 있는 등록 이미지 데이터 베이스; 및 상기 등록 이미지와 획득한 표현물에 따른 이미지의 유사성을 측정하고 이를 토대로 해당 이미지의 등급을 결정하는 템플릿 비교 블록을 포함한다.According to another aspect of the present invention, a person identification system includes a face detection block that detects a face from an image of a person obtained by a camera; An image preprocessing block which performs preprocessing on the detected face image; A coding block for creating a feature point map for the preprocessed image and processing the feature point map into a set compact representation; A registration image database storing registration images for the subjects; And a template comparison block that measures similarity between the registered image and the image according to the obtained expression and determines the grade of the image based on the similarity.

본 발명에 따르면, 정확하게 특정 인물의 이미지를 식별할 수 있다. 특히, 노이즈, 그늘, 외부의 추가적 물체(안경 등)가 있는 조건에서도 인물의 얼굴 식별을 정확하게 수행할 수 있다. 또한 감시 목록(요주의자 목록)에 따른 인물의 식별 이 정확하게 이루어진다. According to the present invention, it is possible to accurately identify an image of a specific person. In particular, even in the presence of noise, shade, and additional objects (glasses, etc.), face identification of a person can be accurately performed. In addition, the identification of the person according to the watch list (the watch list) is accurate.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…블록", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, terms such as "... block", "... module" described in the specification means a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.

본 발명의 실시 예에 따른 인물 식별 방법은, 다음과 같은 작업을 수행한다. In the person identification method according to an embodiment of the present invention, the following operations are performed.

- 등록된 이미지의 특징점 맵을 형성한다-Form a feature point map of the registered image

- 이미지의 특징점 맵의 행렬값 세트들을 사전에 정한 값들을 지닌 행렬로 변환시킨다Convert the set of matrix values in the feature point map of the image to a matrix with predefined values

- 다수의 등록된 이미지들이 생성되며 그 각각은 인식 대상인 피사체를 내용으로 한다A plurality of registered images are generated, each of which is based on a subject to be recognized.

- 2개의 세트의 유사성 측정 계산이 가능하도록 되어 있는 이미지 특징점 맵 세트 분류 알고리즘을 적용하고 그 동일성 여부를 결정하며 테스트 대상인 이미지와 등록되어 있는 이미지 각각의 근접성 수준을 평가하고 테스트 대상 이미지의 등급을 정한다. -Apply the image feature point map set classification algorithm, which is capable of calculating two sets of similarity measurement, determine the identity, evaluate the proximity level of each of the image under test and the registered image, and classify the image under test .

이 방법에서 최적의 효과를 보기 위해서는 이미지 행렬과 단계적 지향성 필터(gradient oriented filters)의 코어(core)를 콘벌루션(convolution)하여 등록된 이미지 특징점 맵을 형성할 수 있다. In order to achieve an optimal effect in this method, a registered image feature map may be formed by convolutioning the cores of the image matrix and the gradient oriented filters.

이 방법에서 최적의 효과를 위해서는 단계적 지향성 필터의 코어를 복합적인(complex) 것으로 간주하고 등록된 이미지의 특징점 맵으로서 콘벌루션(convolution) 결과 절대 수치들을 사용할 수 있다. For the best effect in this method, we can regard the core of the staged directivity filter as complex and use the absolute values of the convolution as a feature map of the registered image.

이 방법에서 최적의 효과를 위해서는 단계적 지향성 필터 코어를 복합적인 것으로 간주하되 이 때 등록된 이미지의 특징점 맵으로서 콘벌루션 결과의 위상들(phases)을 사용할 수 있다. In this method, for optimal effect, the gradual directional filter core can be regarded as complex, but the phases of the convolution result can be used as the feature point map of the registered image.

이 방법에서 최적의 효과를 위해서는 특징점 맵이 필터링 결과들을 완전히 또는 부분적으로 배열(arrangement)하는 방법으로 균등한 분포를 도출할 수 있다. In this method, for an optimal effect, an even distribution may be derived by a feature map in which the filtering results are arranged completely or partially.

한편 본 발명의 실시 예에 따른 인물 식별 시스템은 최소한 한 개의 프로세서와 다음 요소들을 포함하는 장치로 구현될 수 있다. Meanwhile, the person identification system according to an embodiment of the present invention may be implemented as an apparatus including at least one processor and the following elements.

- 템플릿들을 비교하고 결정을 내리는 데이터들을 제공할 수 있는 데이터베이스A database that can provide templates to compare templates and make decisions

- 이미지의 특징점 맵을 제작하는 툴(tools) 및 이미지의 특징점 맵에 대응하는 행렬의 값들을 이미 정해진 값들의 분포를 지닌 행렬로 변환시키는 툴Tools for creating a feature point map of an image and a tool for converting values of a matrix corresponding to the feature point map of an image into a matrix having a predetermined distribution of values.

- 2개의 이미지에 대한 유사성을 측정하고 그 결과를 토대로 하는 인식 결정이 가능하도록 구현되어 있는 기본 이미지 분류자(classifier)A basic image classifier implemented to measure the similarity of two images and to make perceptual decisions based on the results

이제, 첨부한 도면을 참조로 하여, 본 발명의 실시 예에 따른 인물 식별 방법 및 그 시스템에 대하여 설명한다. Now, with reference to the accompanying drawings, a person identification method and system according to an embodiment of the present invention will be described.

도 1은 본 발명의 실시 예에 따른 인물 식별 시스템의 구조도이다. 1 is a structural diagram of a person identification system according to an embodiment of the present invention.

본 발명의 실시 예에 따른 인물 식별 시스템은, 첨부한 도 1에 도시되어 있듯이, 촬영을 하여 인물의 이미지를 획득하는 카메라(10), 획득된 인물의 이미지로부터 얼굴을 검출하는 얼굴 검출 블록(11), 검출된 얼굴 이미지에 대한 전처리를 수행하는 이미지 전처리 블록(12), 전처리된 이미지에 대한 윤곽 맵을 작성하고 이를 처리하여 본 발명의 실시 예에 따른 컴팩트한 표상체계(representation)로 변환하는 코딩 블록(13), 인식 대상인 피사체들에 대한 등록 이미지들을 저장하고 있는 등록 이미지 데이터 베이스(14), 등록된 이미지와 획득한 표상 체계에 따른 이미지의 유사성을 측정하고 이를 토대로 해당 이미지의 등급 분류를 결정하는 템플릿 비교 블록(15)을 포함한다. As illustrated in the accompanying FIG. 1, the person identification system according to an exemplary embodiment of the present disclosure may include a camera 10 for capturing an image of a person and a face detection block 11 for detecting a face from an image of the person. ), The image preprocessing block 12 which performs preprocessing on the detected face image, and coding to create a contour map for the preprocessed image and convert it into a compact representation according to an embodiment of the present invention. Block 13, a registered image database 14 storing registered images of subjects to be recognized, and measuring similarity between the registered image and the image according to the acquired representation system, and determining the classification of the corresponding image based on this. The template comparison block 15 is included.

등록 이미지 데이터베이스(14)는 템플릿들을 비교하고 결정을 내리는 데이터들을 제공할 수 있다. The registration image database 14 may provide data for comparing templates and making decisions.

코딩 블록(13)은 이미지의 특징점 맵을 제작하는 툴(tools)을 포함하며, 또한 이미지의 특징점 맵에 대응하는 행렬의 값들을 이미 정해진 값들의 분포를 지닌 행렬로 변환시키는 툴을 포함할 수 있다. The coding block 13 may include tools for producing a feature point map of the image, and may also include a tool for converting values of a matrix corresponding to the feature point map of the image into a matrix having a distribution of predetermined values. .

템플릿 비교 블록(15)은 2개의 이미지에 대한 유사성을 측정하고 그 결과를 토대로 하는 인식 결정이 가능하도록 구현되어 있는 기본 이미지 분류기(classifier)를 포함할 수 있다. The template comparison block 15 may include a basic image classifier that is implemented to measure similarity for two images and to determine recognition based on the results.

다음에는 이러한 구조를 토대로 하여, 본 발명의 실시 예에 따른 인물 식별 방법에 대하여 설명한다. Next, a person identification method according to an embodiment of the present invention will be described based on the structure.

본 발명의 실시 예에 따른 인물 식별 방법은 다음과 같은 과제를 효과적으로 해결할 수 있는 기술을 기초로 한다.Person identification method according to an embodiment of the present invention is based on a technology that can effectively solve the following problems.

- 인식 대상인 데이터의 추가적 프로세싱Further processing of the data to be recognized

- 분류 직전 암호화 단계에서 제시된 인물의 조명 조건 및 카메라 앵글에 대한 안정성 향상 처리-Improved stability for lighting conditions and camera angles of people presented in the encryption stage just before classification

- 처리 결과를 디지털 형식 즉, 등급 행렬(ranking matrix)로 변환하는 방법으로 템플릿 이미지와 테스트 이미지의 코딩 단계에서 일정한 형태의 단계적 지향성 필터링 결과를 토대로 분포 히스토그램을 제작하는 것.To produce a distribution histogram based on some form of stepwise directional filtering at the coding stage of the template image and the test image by converting the processing result into a digital format, that is, a ranking matrix.

도 2는 본 발명의 실시 예에 따른 인물 식별 과정을 나타낸 흐름도이며, 특히, 인물 식별 시스템의 각 구성 요소와 연계하여 수행되는 식별 과정을 나타낸 흐름도이다. 2 is a flowchart illustrating a person identification process according to an exemplary embodiment of the present invention, and in particular, a flowchart illustrating an identification process performed in association with each component of the person identification system.

먼저 카메라(10)는 피사체(OB)에 대한 2차원의 이미지를 획득하고(S100), 획득한 피사체 이미지를 얼굴 검출 블록(11) 및 이미지 전처리 블록(12)으로 전달한다(S110). 얼굴 검출 블록(11)은 입력되는 피사체 이미지로부터 사람의 얼굴을 검출하고(S120) 검출된 얼굴에 대한 정보 즉, 피사체 이미지에서 검출된 얼굴에 해당하는 부위의 위치와 크기인 얼굴 좌표를 이미지 전처리 블록(12)으로 전달한 다(S130). First, the camera 10 acquires a two-dimensional image of the subject OB (S100), and transfers the acquired subject image to the face detection block 11 and the image preprocessing block 12 (S110). The face detection block 11 detects a face of a person from an input subject image (S120), and extracts face coordinates that are information about the detected face, that is, the position and size of a portion corresponding to the detected face in the subject image. Transfer to 12 (S130).

이미지 전처리 블록(12)은 얼굴 검출 블록(11)으로부터 전달되는 얼굴 좌표를 토대로, 입력되는 피사체 이미지에서 얼굴 부위를 인식하고(S140), 인식된 얼굴 부위에 대한 얼굴 부분의 커팅 및 비율 조정(scaling), 컬러 색상으로의 변환 등을 포함하는 전처리 과정을 수행한다(S150)).The image preprocessing block 12 recognizes a face part in the input subject image based on face coordinates transmitted from the face detection block 11 (S140), and cuts and scales a face part with respect to the recognized face part. ), And performs a preprocessing process including the conversion to the color (S150).

전처리된 이미지는 코딩 블록(13)으로 전달되며, 코딩 블록(13)은 다음과 같이 템플릿을 구성한다(S160). The preprocessed image is transferred to the coding block 13, and the coding block 13 configures a template as follows (S160).

먼저, 이미지에 대한 특징점 맵을 제작한다(S161). 이 때 단계적 지향성 필터 (gradient oriented filters) 세트에 기초하여 특징점 맵을 제작하며, 단계적 지향성 필터로는 가버 웨이블릿이 사용될 수 있다. 이 경우 입력 이미지와 특징점 맵 세트 비교가 필터링 결과가 되며, 이 세트의 특징점 맵 각각은 입력 이미지와 일정한 방향 및 빈도의 가버 필터 코어의 콘볼루션(convolution)이다. First, a feature point map for an image is produced (S161). In this case, a feature point map is generated based on a set of gradient oriented filters, and a Gabor wavelet may be used as the gradient directive filter. In this case, the comparison between the input image and the feature point map set is a filtering result, and each of the feature point maps in this set is a convolution of the Gabor filter core with a constant direction and frequency.

다음 얻어진 특징점 맵의 각각의 요소에 정해진 분포에 대응하는 값을 대입하는 절차가 수행된다(S162). 예를 들어, 커팅에서 균등한 분포로 값들을 대입하는 것이다[-1,1] (분포 히스토그램의 레벨링(leveling)). 특징점 맵의 각 요소를 정수 0부터 K-1까지(여기서 K는 특징점 맵을 구성하는 요소들의 개수를 나타낸다.) 고유의 정수 값 인덱스(integral-valued index)와 비교하여, 이 인덱스가 현재 값 보다 작은 값을 지닌 임의의 다른 요소의 인덱스보다 작지 않도록 하여야 한다. Next, a procedure of substituting a value corresponding to a predetermined distribution to each element of the obtained feature point map is performed (S162). For example, substituting values with an even distribution in cutting [-1,1] (leveling of distribution histograms). Each element of the feature map is compared with a unique integer-valued index from integers 0 through K-1, where K represents the number of elements that make up the feature map. It should not be less than the index of any other element with a small value.

이와 같이 특징점 맵을 그에 해당하는 크기 등급을 지닌 행렬과 비교한다. 대입한 특징점 맵을 얻기 위하여 각각의 등급의 행렬 요소는 K-1 로 나뉘어 지고 얻어진 값에 기초하여 필요한 분포의 역 함수(inverse function)를 산출한다(S163). 이러한 과정은 도 3에 보다 구체적으로 기재되어 있다. In this way, the feature map is compared with a matrix with a corresponding magnitude class. In order to obtain the substituted feature point map, matrix elements of each class are divided by K-1 and an inverse function of the required distribution is calculated based on the obtained values (S163). This process is described in more detail in FIG.

도 3은 위에 기술된 특징점 맵 제작 과정을 나타낸 예시도이다. 구체적으로 도 3에서와 같이 비율 조정 등의 전처리된 이미지(30)가 지향성 필터(31)와 콘볼루션 되어(32), 그 결과 M×M의 요소를 포함하는 특징점 맵(33)이 획득된다. 그 후 특징점 맵(33)은 분류되어(34) 대응하는 크기 등급을 가진 행렬(35)을 얻게 되며, 여기서 행렬을 구성하는 각 요소들은 1부터 M×N-1까지 모두 정수들이다. 3 is an exemplary view illustrating a feature point map manufacturing process described above. Specifically, as shown in FIG. 3, the preprocessed image 30, such as a ratio adjustment, is convolved with the directional filter 31, resulting in a feature point map 33 comprising elements of M × M. The feature point map 33 is then classified 34 to obtain a matrix 35 having a corresponding magnitude class, where each element of the matrix is an integer from 1 to M × N−1.

위에 기술된 바와 같이 각 행렬 요소를 K-1 즉, M×N -1 로 나누어 얻어진 값에 기초하여 소정 분포의 역함수 그래프를 획득한다(36). 획득한 필요 분포의 역함수 그래프(36)에는 행렬(35)의 각 요소와 M×N으로 이루어지는 특징점 맵(37)이 서로 일치하는 것으로 나타나며, 그 히스토그램이 일정한 형태로 제시되어 있다.As described above, an inverse graph of a predetermined distribution is obtained based on a value obtained by dividing each matrix element by K-1, that is, M × N −1 (36). In the obtained inverse function graph 36 of the required distribution, it is shown that each element of the matrix 35 and the feature point map 37 composed of M × N coincide with each other, and the histogram is presented in a constant form.

위에 기술된 바와 같이, 특징점 맵에 대한 소정 분포의 역 함수(inverse function)를 산출하며, 다른 조건, 다른 시간에 얻어진 동일한 사람의 여러 개의 얼굴 이미지들에 대하여 위와 같은 과정을 수행하여 다수의 특징점 맵들로 이루어진 특징점 맵 세트를 획득한다. As described above, an inverse function of a predetermined distribution of a feature point map is calculated, and the above process is performed on multiple face images of the same person obtained at different conditions and at different times, thereby performing a plurality of feature point maps. Obtain a feature point map set consisting of:

다음, 특징점 맵 세트를 컴팩트하게 표현한다(S164). 이 경우, 선형 판별 해석법 즉, 주요 성분 방법과 클래스(classes) 간 편차(variations)가 최소일 때 클래스 내의 편차를 최소화하는 특성을 지닌 선형 판별 해석법을 순차적으로 사용하여 상기 특징점 맵 세트를 컴팩트하게 표현할 수 있다. 여기서 클래스(class)는 다른 조건, 다른 시간에 얻어진 모두 동일한 사람의 여러 개의 얼굴 특징점 맵 세트 들이다. 인식 알고리즘은, 교육 과정 동안에는 학습 샘플(learning sample)에 기초하여 위에 명시한 과정들에 의해 특징점 맵 세트의 초기 공간에 기저(basis)가 설립되며, 이 기저는 특징점 맵 세트 클래스들의 조합을 최적으로(사용된 알고리즘 또는 알고리즘들에서) 표현한다(특징 공간). 인식 과정에서 도입된 특징점 맵 세트를 컴팩트한 표현물(representation)을 위해서 이 세트는 특징 공간에서 펼쳐질 수 있다(fold-out or resolve). Next, the feature point map set is represented compactly (S164). In this case, a linear discrimination analysis method, that is, a linear discrimination analysis method having a characteristic of minimizing the variation in the class when the variation between the main component method and the classes is minimum, may be sequentially used to express the feature point map set compactly. Can be. Here, a class is a set of multiple facial feature maps of the same person, all obtained at different conditions and at different times. The recognition algorithm establishes a basis in the initial space of the feature point map set by the above-described processes based on a learning sample during the curriculum, and the basis optimizes the combination of feature map set classes ( In the algorithm or algorithms used) (character space). This set can be fold-out or resolved in the feature space for compact representation of the feature point map set introduced in the recognition process.

한편, 등록된 이미지들에 대한 특징점 맵 또한 상기와 같은 방법을 통하여 제작되며, 제작된 등록된 이미지의 특징점 맵들은 등록 이미지 데이터베이스(14)에 저장되어 이후의 과정에 사용될 수 있다. Meanwhile, the feature point maps of the registered images are also produced through the above-described method, and the feature point maps of the registered images are stored in the registered image database 14 to be used in subsequent processes.

다음 위에 기술된 바와 같이 컴팩트하게 표현된 특징점 맵 세트들 즉, 컴팩트한 표현물들을 분류하는 과정이 수행된다. 이러한 과정은 템플릿 비교 블록(15)에 의하여 수행될 수 있으며, 다음과 같다. Next, as described above, a process of classifying compactly represented feature map sets, that is, compact representations, is performed. This process may be performed by the template comparison block 15, as follows.

먼저, 템플릿 비교 블록(15)은 분류 대상인 표현물과 등록 이미지 데이터 베이스(14)에 등록되어 있는 소정 등록 이미지간의 거리 즉, 템플릿들간의 거리를 계산한다. 즉, 등록 이미지인 템플릿과 테스트 대상이 되는 입력 이미지의 컴팩트한 표현물인 템플릿과의 유사성 측정이 이루어진다. First, the template comparison block 15 calculates a distance between a representation object to be classified and a predetermined registered image registered in the registered image database 14, that is, the distance between the templates. In other words, a similarity measurement is performed between a template, which is a registered image, and a template, which is a compact representation of an input image to be tested.

그리고 산출된 거리 즉, 유사성 측정 결과에 기초하여 테스트 대상이 되는 입력 이미지의 등급을 결정한다. 즉, 유사성 계산에 기초하여 등록 이미지 데이터 베이스(14)에 등록된 등록 이미지들 중에서 어떤 등급을 가지는 등록 이미지가 가장 유사한지를 결정하고, 결정된 등록 이미지의 등급을 테스트 대상이 되는 입력 이미지의 등급으로 결정한다(S170). Then, the grade of the input image to be tested is determined based on the calculated distance, that is, the similarity measurement result. That is, based on the similarity calculation, it is determined which registered image having the most similar among the registered images registered in the registered image database 14, and determines the grade of the determined registered image as the grade of the input image to be tested. (S170).

본 발명의 실시 예에서는 위에 기술된 바와 같은 인물 식별 방법에 따라 기존의 비디오 관찰 시스템을 자동화하고, 상기 방법을 특별 목록에 따라 새로운 등급의 지능형 생체측정학적 인물 인식 시스템 제작에 이용한다. 이 때 시스템을 구성하는 장치들은 플레이트(plate) 형태로 구현되고 그 위에 도 2에 도시된 바와 같은 방법을 수행하기 위한 요소들이 조립되어야 하며, 필요한 조작들을 수행하기 위하여 최소한 1개의 신호 처리기(signal processor)를 포함할 수 있다. In an embodiment of the present invention, an existing video observation system is automated according to the person identification method as described above, and the method is used for the production of a new class of intelligent biometric person recognition system according to a special list. In this case, the devices constituting the system are implemented in the form of a plate, and the elements for performing the method as shown in FIG. 2 must be assembled thereon, and at least one signal processor in order to perform necessary operations. ) May be included.

본 발명의 실시 예에 따른 시스템을 적용하기에 적합한 방식은, 기존의 비디오 관찰 시스템의 효과를 높이고 지능형 비디오관찰, 특별 목록에 따른 생체인식과 같은 타입의 부가 형식을 고려한 새로운 등급의 지능형 시스템을 제작하는 데에 활용하는 것이다. 이 때 기구는 최소한 한 개의 신호 프로세서를 포함하는 장비 플레이트 형태로 구현된다. A suitable method for applying the system according to an embodiment of the present invention is to increase the effectiveness of the existing video observation system, and to produce a new class of intelligent system in consideration of additional types of types such as intelligent video observation and special recognition according to a special list. It is to be used to. The instrument is then implemented in the form of an equipment plate containing at least one signal processor.

이상에서 설명한 본 발명의 실시 예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다. The embodiments of the present invention described above are not only implemented through the apparatus and the method, but may also be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. Implementation may be easily implemented by those skilled in the art from the description of the above-described embodiments.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위 에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

도 1은 본 발명의 실시 예에 따른 인물 식별 시스템의 구조도이다. 1 is a structural diagram of a person identification system according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 인물 식별 방법의 흐름도이다. 2 is a flowchart illustrating a person identification method according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 특징점 맵 제작 과정을 나타낸 예시도이다. 3 is an exemplary view illustrating a feature point map manufacturing process according to an exemplary embodiment of the present invention.

Claims (10)

인물을 식별하는 방법에 있어서,In the method of identifying a person, 테스트 대상이 되는 이미지의 특징점 맵을 형성하는 단계;Forming a feature point map of an image to be tested; 상기 이미지의 특징점 맵과 이미 처리되어 데이터베이스에 등록되어 있는 등록 이미지들과의 유사성을 측정하는 단계; 및Measuring a similarity between a feature point map of the image and registered images already processed and registered in a database; And 상기 유사성 측정 결과를 토대로 상기 테스트 대상인 이미지의 등급을 결정하는 단계Determining a grade of the image under test based on the result of the similarity measurement 를 포함하는, 인물 식별 방법.Including, person identification method. 제1항에 있어서The method of claim 1 상기 유사성을 측정하는 단계는 2개의 세트의 유사성 측정 계산을 수행하는 이미지 특징점 맵 세트 분류 알고리즘을 사용하여, 두 개의 이미지들간의 동일성 여부를 결정하는, 인물 식별 방법.The determining of the similarity may include determining whether the two images are identical by using an image feature point map set classification algorithm that performs two sets of similarity measurement calculations. 제1항에 있어서The method of claim 1 상기 특징점 맵을 형성하는 단계는, Forming the feature point map, 단계적 지향성 필터 코어와 이미지 행렬을 콘볼루션(convolution)하는 방법을 토대로 상기 특징점 맵이 형성되는, 인물 식별 방법.And the feature point map is formed based on a method of convolving a gradual directional filter core and an image matrix. 제3항에 있어서The method of claim 3, 상기 단계적 지향성 필터 코어를 복합적(complex) 코어로 간주하며 상기 콘볼루션 결과의 절대 수치들을 이용하여 상기 특징점 맵을 형성하는, 인물 식별 방법.The stepwise directional filter core is regarded as a complex core and forms the feature point map using absolute values of the convolution result. 제3항에 있어서The method of claim 3, 상기 단계적 지향성 필터 코어를 복합적 코어로 간주하며, 상기 콘볼루션 결과의 위상(phases)을 사용하여 상기 특징점 맵을 형성하는, 인물 식별 방법.And treating the stepped directivity filter core as a composite core and forming the feature point map using the phases of the convolution results. 제1항에 있어서The method of claim 1 상기 특징점 맵을 필터링 하고, 필터링 결과의 전부 또는 부분적인 배열(arrangement)의 방법을 토대로, 균등한 분포를 가지는 특징점 맵을 형성하는, 인물 식별 방법.Filtering the feature point map and forming a feature point map having an even distribution based on a method of all or partial arrangement of the filtering result. 제1항에 있어서,The method of claim 1, 상기 이미지의 특징점 맵에 대응하는 행렬을 행렬의 값들을 이미 정해진 값들의 분포를 지닌 행렬로 변환시키는 단계를 더 포함하는, 인물 식별 방법.And converting a matrix corresponding to the feature point map of the image into a matrix having a distribution of values already defined. 카메라에 의하여 획득한 인물의 이미지로부터 얼굴을 검출하는 얼굴 검출 블록;A face detection block for detecting a face from an image of a person obtained by a camera; 상기 검출된 얼굴 이미지에 대한 전처리를 수행하는 이미지 전처리 블록;An image preprocessing block which performs preprocessing on the detected face image; 상기 전처리된 이미지에 대한 특징점 맵을 작성하고 이를 처리하여 설정된 컴팩트한 표현물(representation)로 변환하는 코딩 블록;A coding block for creating a feature point map for the preprocessed image and processing the feature point map into a set compact representation; 피사체들에 대한 등록 이미지들을 저장하고 있는 등록 이미지 데이터 베이스; 및A registration image database storing registration images for the subjects; And 상기 등록 이미지와 획득한 표현물에 따른 이미지의 유사성을 측정하고 이를 토대로 해당 이미지의 등급을 결정하는 템플릿 비교 블록A template comparison block that measures the similarity between the registered image and the image according to the obtained expression and determines the grade of the image based on the similarity. 을 포함하는, 인물 식별 시스템.Including a person identification system. 제8항에 있어서,The method of claim 8, 상기 등록 이미지 데이터베이스는 템플릿들을 비교하고 결정을 내리는 데이터들을 포함하며,The registered image database includes data for comparing templates and making decisions, 상기 코딩 블록은 이미지의 특징점 맵을 제작하는 툴 및 이미지의 특징점 맵에 대응하는 행렬의 값들을 이미 정해진 값들의 분포를 지닌 행렬로 변환시키는 툴을 포함하는, 인물 식별 시스템.Wherein said coding block comprises a tool for producing a feature point map of an image and a tool for converting values of a matrix corresponding to the feature point map of an image into a matrix having a distribution of predetermined values. 제8항에 있어서,The method of claim 8, 상기 템플릿 비교 블록은은 2개의 이미지에 대한 유사성을 측정하고 그 결과를 토대로 하는 인식 결정이 가능하도록 구현되어 있는 기본 이미지 분류기(classifier)를 포함하는, 인물 식별 시스템.The template comparison block includes a basic image classifier that is implemented to measure similarity to two images and to determine recognition based on the results.
KR1020090010738A 2009-02-10 2009-02-10 Method for identifying image face and system thereof KR101094433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090010738A KR101094433B1 (en) 2009-02-10 2009-02-10 Method for identifying image face and system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090010738A KR101094433B1 (en) 2009-02-10 2009-02-10 Method for identifying image face and system thereof

Publications (2)

Publication Number Publication Date
KR20100091516A true KR20100091516A (en) 2010-08-19
KR101094433B1 KR101094433B1 (en) 2011-12-15

Family

ID=42756692

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090010738A KR101094433B1 (en) 2009-02-10 2009-02-10 Method for identifying image face and system thereof

Country Status (1)

Country Link
KR (1) KR101094433B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101421952B1 (en) * 2013-05-03 2014-07-23 주식회사 슈프리마 Apparatus and method for face recognition

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030480B2 (en) 2018-08-31 2021-06-08 Samsung Electronics Co., Ltd. Electronic device for high-speed compression processing of feature map of CNN utilizing system and controlling method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101421952B1 (en) * 2013-05-03 2014-07-23 주식회사 슈프리마 Apparatus and method for face recognition

Also Published As

Publication number Publication date
KR101094433B1 (en) 2011-12-15

Similar Documents

Publication Publication Date Title
KR100974293B1 (en) METHOD AND SYSTEM FOR AUTOMATED FACE DETECTION and Recognition
EP2063393B1 (en) Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium
CN103034838B (en) A kind of special vehicle instrument type identification based on characteristics of image and scaling method
CN108681737B (en) Method for extracting image features under complex illumination
CN110298297B (en) Flame identification method and device
US20130202161A1 (en) Enhanced face detection using depth information
Sae-Bae et al. Towards automatic detection of child pornography
CN110991389B (en) Matching method for judging appearance of target pedestrian in non-overlapping camera view angles
CN106778517A (en) A kind of monitor video sequence image vehicle knows method for distinguishing again
Hambalık Fingerprint recognition system using artificial neural network as feature extractor: design and performance evaluation
Raghavendra et al. Automatic face quality assessment from video using gray level co-occurrence matrix: An empirical study on automatic border control system
CN108171223A (en) A kind of face identification method and system based on multi-model multichannel
KR101016758B1 (en) Method for identifying image face and system thereof
KR20080079798A (en) Method of face detection and recognition
KR101094433B1 (en) Method for identifying image face and system thereof
CN106682604B (en) Blurred image detection method based on deep learning
JPH0573663A (en) Recognition method for picture of three-dimensional object
CN115485716A (en) Individual recognition system, individual recognition program, and recording medium
TW201601119A (en) Method for recognizing and locating object
Ray et al. Palm print recognition using hough transforms
CN104615985A (en) Identification method for person-face similarity
Premk et al. Automatic latent fingerprint segmentation using convolutional neural networks
Chakraborty et al. Bio-metric identification using automated iris detection technique
Chitra et al. Facial expression recognition using local binary pattern and support vector machine
Jain et al. A cheiloscopic approach for unique identification among indian subpopulation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141202

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151204

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181203

Year of fee payment: 8