KR20100091516A - Method for identifying image face and system thereof - Google Patents
Method for identifying image face and system thereof Download PDFInfo
- Publication number
- KR20100091516A KR20100091516A KR1020090010738A KR20090010738A KR20100091516A KR 20100091516 A KR20100091516 A KR 20100091516A KR 1020090010738 A KR1020090010738 A KR 1020090010738A KR 20090010738 A KR20090010738 A KR 20090010738A KR 20100091516 A KR20100091516 A KR 20100091516A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- feature point
- point map
- face
- similarity
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000009826 distribution Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000007635 classification algorithm Methods 0.000 claims description 2
- 239000002131 composite material Substances 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract 1
- 238000012544 monitoring process Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03H—HOLOGRAPHIC PROCESSES OR APPARATUS
- G03H1/00—Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
- G03H1/04—Processes or apparatus for producing holograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
- G06F3/0423—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen using sweeping light beams, e.g. using rotating or vibrating mirror
Abstract
Description
본 발명은 이미지 얼굴 식별 방법에 관한 것으로, 더욱 상세하게 말하자면, 인물을 식별하는 방법과 그의 시스템에 관한 것이다. The present invention relates to an image face identification method, and more particularly, to a method and a system for identifying a person.
얼굴 이미지에 따라 사람을 식별하는 것은 최근 수십 년 간 중요하게 다루어지고 있다. 사람의 얼굴 이미지를 식별하는 시스템은, 입력되는 이미지에 따라 얻어지는 유사 모델과 이미 알고 있는 구체적인 인물의 얼굴 모델(또는 표현물(representation))과 비교하는 것에 기반하고 있다. 불과 얼마 전까지만 해도 이와 유사한 시스템 대부분에서는 비교 대상인 이미지들이 특정한 조명 조건에서 얻어진 사람의 정면 얼굴 이미지이어야만 하였다. 이러한 요구 조건들은 인식 시스템의 실제 적용에 제약으로 작용하였다. Identifying people based on facial images has been an important topic in recent decades. The system for identifying a face image of a person is based on comparing a similar model obtained according to an input image with a face model (or representation) of a specific person already known. Not so long ago, in most similar systems, the images to be compared had to be images of the person's front face obtained under specific lighting conditions. These requirements have limited the practical application of the recognition system.
이러한 문제들을 해결하기 위한 여러 가지 방법들이 제안되었으며, 그러한 접근방법들은 다음과 같은 특허에 설명되어 있다: 미국특허 번호 5,642,431, 동 특허 번호 6,108,437, 동 특허 번호 6,775,411, 동 특허 번호 6,944,319, 동 특허 번호 7,127,087, 동 특허 번호 7,142,697. Several methods have been proposed to solve these problems, and such approaches are described in the following patents: US Pat. No. 5,642,431, Patent No. 6,108,437, Patent No. 6,775,411, Patent No. 6,944,319, Patent No. 7,127,087 , Patent number 7,142,697.
이러한 종래 기술들에는 조명이 불균일한 조건에서 인물의 정면이 아닌 여러 가지 측면의 얼굴의 식별이 가능한 얼굴 식별 방법들이 제안되어 있으며, 이 때 조명 조건에 대한 불변성은 원본 이미지를 가공함으로써 확보된다. 그러나 이러한 방법은 조명이 약하고 방해물이 있는 조건에서의 작업 신뢰도 및 안정성이 떨어진다. These prior arts have proposed face identification methods that can identify various aspects of the face instead of the front of the person in uneven lighting conditions, where the invariability of the lighting conditions is secured by processing the original image. However, this method lacks the reliability and stability of work in low light and obstructive conditions.
종래 기술 중 미국 특허 번호 6,826,300에 표준(템플릿) 이미지와의 근접성 측정 방법이 제시되어 있다. 여기서 가버 웨이블릿 기저에 기초하여 얼굴 이미지 특징점 맵(map of feature)를 제작하는 방법이 사용되며, 주요 구성 요소 및 선형 식별 분석법에 기초하고 근접 측정을 수행하여, 얼굴 이미지의 유효 특징점을 선택한다. 이때 가장 특이하고 확고한 얼굴 특성을 구분하기 위하여 제작된 특징점 맵을 추가적으로 처리하지는 않는다. US Pat. No. 6,826,300 of the prior art discloses a method of measuring proximity to a standard (template) image. Here, a method of manufacturing a face image feature point map based on the Gabor wavelet basis is used, and based on the main component and the linear identification analysis method and performing proximity measurement, an effective feature point of the face image is selected. At this time, the feature map generated to distinguish the most unique and firm facial features is not processed.
그러나 다른 유사한 방식 및 프라우터 타입의 방법과 마찬가지로 다양한 조명, 다양한 카메라에 대한 얼굴의 위치, 방해물이 있는 조건에서 작업할 때 정밀도와 안정성이 낮아지는 문제가 여전히 존재한다. However, as with other similar and prototypical methods, there is still a problem of low precision and stability when working in conditions of varying lighting, face position for various cameras, and obstructions.
본 발명이 이루고자 하는 기술적 과제는 보다 정확하게 특정 인물의 이미지를 인식할 수 있는 인물 식별 방법 및 그 시스템을 제공하는 것이다. It is an object of the present invention to provide a person identification method and system for recognizing an image of a specific person more accurately.
또한 본 발명이 이루고자 하는 기술적 과제는 방해물이 있고, 조명이 불균일하며 안경 등과 같은 외부 피사체가 있는 조건에서도, 얼굴의 식별 정밀도를 향상시키는 방법 및 그 시스템을 제공하는 것이다. Another object of the present invention is to provide a method and a system for improving the identification accuracy of a face even under a condition in which there is an obstacle, an uneven illumination, and an external subject such as glasses.
또한 본 발명이 이루고자 하는 기술적 과제는 조명이 불균일하고 이미지상의 회전각 대역이 넓은 조건에서도 특별 목록에 있는 인물들의 특징을 고려하여 인물을 정확하게 식별하는 방법 및 그 시스템을 제공하는 것이다. Another object of the present invention is to provide a method and system for accurately identifying a person in consideration of features of persons in a special list even under uneven illumination and wide rotation angle bands on an image.
위의 과제를 위한, 본 발명의 특징에 따른 인물 식별 방법은 테스트 대상이 되는 이미지의 특징점 맵을 형성하는 단계; 상기 이미지의 특징점 맵과 이미 처리되어 데이터베이스에 등록되어 있는 등록 이미지들과의 유사성을 측정하는 단계; 및 상기 유사성 측정 결과를 토대로 상기 테스트 대상인 이미지의 등급을 결정하는 단계를 포함한다. For the above problem, the person identification method according to the features of the present invention comprises the steps of forming a feature point map of the image to be tested; Measuring a similarity between a feature point map of the image and registered images already processed and registered in a database; And determining the grade of the image under test based on the result of the similarity measurement.
본 발명의 다른 특징에 따른 인물 식별 시스템은, 카메라에 의하여 획득한 인물의 이미지로부터 얼굴을 검출하는 얼굴 검출 블록; 상기 검출된 얼굴 이미지에 대한 전처리를 수행하는 이미지 전처리 블록; 상기 전처리된 이미지에 대한 특징점 맵을 작성하고 이를 처리하여 설정된 컴팩트한 표현물(representation)로 변환하는 코딩 블록; 피사체들에 대한 등록 이미지들을 저장하고 있는 등록 이미지 데이터 베이스; 및 상기 등록 이미지와 획득한 표현물에 따른 이미지의 유사성을 측정하고 이를 토대로 해당 이미지의 등급을 결정하는 템플릿 비교 블록을 포함한다.According to another aspect of the present invention, a person identification system includes a face detection block that detects a face from an image of a person obtained by a camera; An image preprocessing block which performs preprocessing on the detected face image; A coding block for creating a feature point map for the preprocessed image and processing the feature point map into a set compact representation; A registration image database storing registration images for the subjects; And a template comparison block that measures similarity between the registered image and the image according to the obtained expression and determines the grade of the image based on the similarity.
본 발명에 따르면, 정확하게 특정 인물의 이미지를 식별할 수 있다. 특히, 노이즈, 그늘, 외부의 추가적 물체(안경 등)가 있는 조건에서도 인물의 얼굴 식별을 정확하게 수행할 수 있다. 또한 감시 목록(요주의자 목록)에 따른 인물의 식별 이 정확하게 이루어진다. According to the present invention, it is possible to accurately identify an image of a specific person. In particular, even in the presence of noise, shade, and additional objects (glasses, etc.), face identification of a person can be accurately performed. In addition, the identification of the person according to the watch list (the watch list) is accurate.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…블록", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, terms such as "... block", "... module" described in the specification means a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.
본 발명의 실시 예에 따른 인물 식별 방법은, 다음과 같은 작업을 수행한다. In the person identification method according to an embodiment of the present invention, the following operations are performed.
- 등록된 이미지의 특징점 맵을 형성한다-Form a feature point map of the registered image
- 이미지의 특징점 맵의 행렬값 세트들을 사전에 정한 값들을 지닌 행렬로 변환시킨다Convert the set of matrix values in the feature point map of the image to a matrix with predefined values
- 다수의 등록된 이미지들이 생성되며 그 각각은 인식 대상인 피사체를 내용으로 한다A plurality of registered images are generated, each of which is based on a subject to be recognized.
- 2개의 세트의 유사성 측정 계산이 가능하도록 되어 있는 이미지 특징점 맵 세트 분류 알고리즘을 적용하고 그 동일성 여부를 결정하며 테스트 대상인 이미지와 등록되어 있는 이미지 각각의 근접성 수준을 평가하고 테스트 대상 이미지의 등급을 정한다. -Apply the image feature point map set classification algorithm, which is capable of calculating two sets of similarity measurement, determine the identity, evaluate the proximity level of each of the image under test and the registered image, and classify the image under test .
이 방법에서 최적의 효과를 보기 위해서는 이미지 행렬과 단계적 지향성 필터(gradient oriented filters)의 코어(core)를 콘벌루션(convolution)하여 등록된 이미지 특징점 맵을 형성할 수 있다. In order to achieve an optimal effect in this method, a registered image feature map may be formed by convolutioning the cores of the image matrix and the gradient oriented filters.
이 방법에서 최적의 효과를 위해서는 단계적 지향성 필터의 코어를 복합적인(complex) 것으로 간주하고 등록된 이미지의 특징점 맵으로서 콘벌루션(convolution) 결과 절대 수치들을 사용할 수 있다. For the best effect in this method, we can regard the core of the staged directivity filter as complex and use the absolute values of the convolution as a feature map of the registered image.
이 방법에서 최적의 효과를 위해서는 단계적 지향성 필터 코어를 복합적인 것으로 간주하되 이 때 등록된 이미지의 특징점 맵으로서 콘벌루션 결과의 위상들(phases)을 사용할 수 있다. In this method, for optimal effect, the gradual directional filter core can be regarded as complex, but the phases of the convolution result can be used as the feature point map of the registered image.
이 방법에서 최적의 효과를 위해서는 특징점 맵이 필터링 결과들을 완전히 또는 부분적으로 배열(arrangement)하는 방법으로 균등한 분포를 도출할 수 있다. In this method, for an optimal effect, an even distribution may be derived by a feature map in which the filtering results are arranged completely or partially.
한편 본 발명의 실시 예에 따른 인물 식별 시스템은 최소한 한 개의 프로세서와 다음 요소들을 포함하는 장치로 구현될 수 있다. Meanwhile, the person identification system according to an embodiment of the present invention may be implemented as an apparatus including at least one processor and the following elements.
- 템플릿들을 비교하고 결정을 내리는 데이터들을 제공할 수 있는 데이터베이스A database that can provide templates to compare templates and make decisions
- 이미지의 특징점 맵을 제작하는 툴(tools) 및 이미지의 특징점 맵에 대응하는 행렬의 값들을 이미 정해진 값들의 분포를 지닌 행렬로 변환시키는 툴Tools for creating a feature point map of an image and a tool for converting values of a matrix corresponding to the feature point map of an image into a matrix having a predetermined distribution of values.
- 2개의 이미지에 대한 유사성을 측정하고 그 결과를 토대로 하는 인식 결정이 가능하도록 구현되어 있는 기본 이미지 분류자(classifier)A basic image classifier implemented to measure the similarity of two images and to make perceptual decisions based on the results
이제, 첨부한 도면을 참조로 하여, 본 발명의 실시 예에 따른 인물 식별 방법 및 그 시스템에 대하여 설명한다. Now, with reference to the accompanying drawings, a person identification method and system according to an embodiment of the present invention will be described.
도 1은 본 발명의 실시 예에 따른 인물 식별 시스템의 구조도이다. 1 is a structural diagram of a person identification system according to an embodiment of the present invention.
본 발명의 실시 예에 따른 인물 식별 시스템은, 첨부한 도 1에 도시되어 있듯이, 촬영을 하여 인물의 이미지를 획득하는 카메라(10), 획득된 인물의 이미지로부터 얼굴을 검출하는 얼굴 검출 블록(11), 검출된 얼굴 이미지에 대한 전처리를 수행하는 이미지 전처리 블록(12), 전처리된 이미지에 대한 윤곽 맵을 작성하고 이를 처리하여 본 발명의 실시 예에 따른 컴팩트한 표상체계(representation)로 변환하는 코딩 블록(13), 인식 대상인 피사체들에 대한 등록 이미지들을 저장하고 있는 등록 이미지 데이터 베이스(14), 등록된 이미지와 획득한 표상 체계에 따른 이미지의 유사성을 측정하고 이를 토대로 해당 이미지의 등급 분류를 결정하는 템플릿 비교 블록(15)을 포함한다. As illustrated in the accompanying FIG. 1, the person identification system according to an exemplary embodiment of the present disclosure may include a
등록 이미지 데이터베이스(14)는 템플릿들을 비교하고 결정을 내리는 데이터들을 제공할 수 있다. The
코딩 블록(13)은 이미지의 특징점 맵을 제작하는 툴(tools)을 포함하며, 또한 이미지의 특징점 맵에 대응하는 행렬의 값들을 이미 정해진 값들의 분포를 지닌 행렬로 변환시키는 툴을 포함할 수 있다. The
템플릿 비교 블록(15)은 2개의 이미지에 대한 유사성을 측정하고 그 결과를 토대로 하는 인식 결정이 가능하도록 구현되어 있는 기본 이미지 분류기(classifier)를 포함할 수 있다. The
다음에는 이러한 구조를 토대로 하여, 본 발명의 실시 예에 따른 인물 식별 방법에 대하여 설명한다. Next, a person identification method according to an embodiment of the present invention will be described based on the structure.
본 발명의 실시 예에 따른 인물 식별 방법은 다음과 같은 과제를 효과적으로 해결할 수 있는 기술을 기초로 한다.Person identification method according to an embodiment of the present invention is based on a technology that can effectively solve the following problems.
- 인식 대상인 데이터의 추가적 프로세싱Further processing of the data to be recognized
- 분류 직전 암호화 단계에서 제시된 인물의 조명 조건 및 카메라 앵글에 대한 안정성 향상 처리-Improved stability for lighting conditions and camera angles of people presented in the encryption stage just before classification
- 처리 결과를 디지털 형식 즉, 등급 행렬(ranking matrix)로 변환하는 방법으로 템플릿 이미지와 테스트 이미지의 코딩 단계에서 일정한 형태의 단계적 지향성 필터링 결과를 토대로 분포 히스토그램을 제작하는 것.To produce a distribution histogram based on some form of stepwise directional filtering at the coding stage of the template image and the test image by converting the processing result into a digital format, that is, a ranking matrix.
도 2는 본 발명의 실시 예에 따른 인물 식별 과정을 나타낸 흐름도이며, 특히, 인물 식별 시스템의 각 구성 요소와 연계하여 수행되는 식별 과정을 나타낸 흐름도이다. 2 is a flowchart illustrating a person identification process according to an exemplary embodiment of the present invention, and in particular, a flowchart illustrating an identification process performed in association with each component of the person identification system.
먼저 카메라(10)는 피사체(OB)에 대한 2차원의 이미지를 획득하고(S100), 획득한 피사체 이미지를 얼굴 검출 블록(11) 및 이미지 전처리 블록(12)으로 전달한다(S110). 얼굴 검출 블록(11)은 입력되는 피사체 이미지로부터 사람의 얼굴을 검출하고(S120) 검출된 얼굴에 대한 정보 즉, 피사체 이미지에서 검출된 얼굴에 해당하는 부위의 위치와 크기인 얼굴 좌표를 이미지 전처리 블록(12)으로 전달한 다(S130). First, the
이미지 전처리 블록(12)은 얼굴 검출 블록(11)으로부터 전달되는 얼굴 좌표를 토대로, 입력되는 피사체 이미지에서 얼굴 부위를 인식하고(S140), 인식된 얼굴 부위에 대한 얼굴 부분의 커팅 및 비율 조정(scaling), 컬러 색상으로의 변환 등을 포함하는 전처리 과정을 수행한다(S150)).The image preprocessing
전처리된 이미지는 코딩 블록(13)으로 전달되며, 코딩 블록(13)은 다음과 같이 템플릿을 구성한다(S160). The preprocessed image is transferred to the
먼저, 이미지에 대한 특징점 맵을 제작한다(S161). 이 때 단계적 지향성 필터 (gradient oriented filters) 세트에 기초하여 특징점 맵을 제작하며, 단계적 지향성 필터로는 가버 웨이블릿이 사용될 수 있다. 이 경우 입력 이미지와 특징점 맵 세트 비교가 필터링 결과가 되며, 이 세트의 특징점 맵 각각은 입력 이미지와 일정한 방향 및 빈도의 가버 필터 코어의 콘볼루션(convolution)이다. First, a feature point map for an image is produced (S161). In this case, a feature point map is generated based on a set of gradient oriented filters, and a Gabor wavelet may be used as the gradient directive filter. In this case, the comparison between the input image and the feature point map set is a filtering result, and each of the feature point maps in this set is a convolution of the Gabor filter core with a constant direction and frequency.
다음 얻어진 특징점 맵의 각각의 요소에 정해진 분포에 대응하는 값을 대입하는 절차가 수행된다(S162). 예를 들어, 커팅에서 균등한 분포로 값들을 대입하는 것이다[-1,1] (분포 히스토그램의 레벨링(leveling)). 특징점 맵의 각 요소를 정수 0부터 K-1까지(여기서 K는 특징점 맵을 구성하는 요소들의 개수를 나타낸다.) 고유의 정수 값 인덱스(integral-valued index)와 비교하여, 이 인덱스가 현재 값 보다 작은 값을 지닌 임의의 다른 요소의 인덱스보다 작지 않도록 하여야 한다. Next, a procedure of substituting a value corresponding to a predetermined distribution to each element of the obtained feature point map is performed (S162). For example, substituting values with an even distribution in cutting [-1,1] (leveling of distribution histograms). Each element of the feature map is compared with a unique integer-valued index from
이와 같이 특징점 맵을 그에 해당하는 크기 등급을 지닌 행렬과 비교한다. 대입한 특징점 맵을 얻기 위하여 각각의 등급의 행렬 요소는 K-1 로 나뉘어 지고 얻어진 값에 기초하여 필요한 분포의 역 함수(inverse function)를 산출한다(S163). 이러한 과정은 도 3에 보다 구체적으로 기재되어 있다. In this way, the feature map is compared with a matrix with a corresponding magnitude class. In order to obtain the substituted feature point map, matrix elements of each class are divided by K-1 and an inverse function of the required distribution is calculated based on the obtained values (S163). This process is described in more detail in FIG.
도 3은 위에 기술된 특징점 맵 제작 과정을 나타낸 예시도이다. 구체적으로 도 3에서와 같이 비율 조정 등의 전처리된 이미지(30)가 지향성 필터(31)와 콘볼루션 되어(32), 그 결과 M×M의 요소를 포함하는 특징점 맵(33)이 획득된다. 그 후 특징점 맵(33)은 분류되어(34) 대응하는 크기 등급을 가진 행렬(35)을 얻게 되며, 여기서 행렬을 구성하는 각 요소들은 1부터 M×N-1까지 모두 정수들이다. 3 is an exemplary view illustrating a feature point map manufacturing process described above. Specifically, as shown in FIG. 3, the preprocessed
위에 기술된 바와 같이 각 행렬 요소를 K-1 즉, M×N -1 로 나누어 얻어진 값에 기초하여 소정 분포의 역함수 그래프를 획득한다(36). 획득한 필요 분포의 역함수 그래프(36)에는 행렬(35)의 각 요소와 M×N으로 이루어지는 특징점 맵(37)이 서로 일치하는 것으로 나타나며, 그 히스토그램이 일정한 형태로 제시되어 있다.As described above, an inverse graph of a predetermined distribution is obtained based on a value obtained by dividing each matrix element by K-1, that is, M × N −1 (36). In the obtained
위에 기술된 바와 같이, 특징점 맵에 대한 소정 분포의 역 함수(inverse function)를 산출하며, 다른 조건, 다른 시간에 얻어진 동일한 사람의 여러 개의 얼굴 이미지들에 대하여 위와 같은 과정을 수행하여 다수의 특징점 맵들로 이루어진 특징점 맵 세트를 획득한다. As described above, an inverse function of a predetermined distribution of a feature point map is calculated, and the above process is performed on multiple face images of the same person obtained at different conditions and at different times, thereby performing a plurality of feature point maps. Obtain a feature point map set consisting of:
다음, 특징점 맵 세트를 컴팩트하게 표현한다(S164). 이 경우, 선형 판별 해석법 즉, 주요 성분 방법과 클래스(classes) 간 편차(variations)가 최소일 때 클래스 내의 편차를 최소화하는 특성을 지닌 선형 판별 해석법을 순차적으로 사용하여 상기 특징점 맵 세트를 컴팩트하게 표현할 수 있다. 여기서 클래스(class)는 다른 조건, 다른 시간에 얻어진 모두 동일한 사람의 여러 개의 얼굴 특징점 맵 세트 들이다. 인식 알고리즘은, 교육 과정 동안에는 학습 샘플(learning sample)에 기초하여 위에 명시한 과정들에 의해 특징점 맵 세트의 초기 공간에 기저(basis)가 설립되며, 이 기저는 특징점 맵 세트 클래스들의 조합을 최적으로(사용된 알고리즘 또는 알고리즘들에서) 표현한다(특징 공간). 인식 과정에서 도입된 특징점 맵 세트를 컴팩트한 표현물(representation)을 위해서 이 세트는 특징 공간에서 펼쳐질 수 있다(fold-out or resolve). Next, the feature point map set is represented compactly (S164). In this case, a linear discrimination analysis method, that is, a linear discrimination analysis method having a characteristic of minimizing the variation in the class when the variation between the main component method and the classes is minimum, may be sequentially used to express the feature point map set compactly. Can be. Here, a class is a set of multiple facial feature maps of the same person, all obtained at different conditions and at different times. The recognition algorithm establishes a basis in the initial space of the feature point map set by the above-described processes based on a learning sample during the curriculum, and the basis optimizes the combination of feature map set classes ( In the algorithm or algorithms used) (character space). This set can be fold-out or resolved in the feature space for compact representation of the feature point map set introduced in the recognition process.
한편, 등록된 이미지들에 대한 특징점 맵 또한 상기와 같은 방법을 통하여 제작되며, 제작된 등록된 이미지의 특징점 맵들은 등록 이미지 데이터베이스(14)에 저장되어 이후의 과정에 사용될 수 있다. Meanwhile, the feature point maps of the registered images are also produced through the above-described method, and the feature point maps of the registered images are stored in the registered
다음 위에 기술된 바와 같이 컴팩트하게 표현된 특징점 맵 세트들 즉, 컴팩트한 표현물들을 분류하는 과정이 수행된다. 이러한 과정은 템플릿 비교 블록(15)에 의하여 수행될 수 있으며, 다음과 같다. Next, as described above, a process of classifying compactly represented feature map sets, that is, compact representations, is performed. This process may be performed by the
먼저, 템플릿 비교 블록(15)은 분류 대상인 표현물과 등록 이미지 데이터 베이스(14)에 등록되어 있는 소정 등록 이미지간의 거리 즉, 템플릿들간의 거리를 계산한다. 즉, 등록 이미지인 템플릿과 테스트 대상이 되는 입력 이미지의 컴팩트한 표현물인 템플릿과의 유사성 측정이 이루어진다. First, the
그리고 산출된 거리 즉, 유사성 측정 결과에 기초하여 테스트 대상이 되는 입력 이미지의 등급을 결정한다. 즉, 유사성 계산에 기초하여 등록 이미지 데이터 베이스(14)에 등록된 등록 이미지들 중에서 어떤 등급을 가지는 등록 이미지가 가장 유사한지를 결정하고, 결정된 등록 이미지의 등급을 테스트 대상이 되는 입력 이미지의 등급으로 결정한다(S170). Then, the grade of the input image to be tested is determined based on the calculated distance, that is, the similarity measurement result. That is, based on the similarity calculation, it is determined which registered image having the most similar among the registered images registered in the registered
본 발명의 실시 예에서는 위에 기술된 바와 같은 인물 식별 방법에 따라 기존의 비디오 관찰 시스템을 자동화하고, 상기 방법을 특별 목록에 따라 새로운 등급의 지능형 생체측정학적 인물 인식 시스템 제작에 이용한다. 이 때 시스템을 구성하는 장치들은 플레이트(plate) 형태로 구현되고 그 위에 도 2에 도시된 바와 같은 방법을 수행하기 위한 요소들이 조립되어야 하며, 필요한 조작들을 수행하기 위하여 최소한 1개의 신호 처리기(signal processor)를 포함할 수 있다. In an embodiment of the present invention, an existing video observation system is automated according to the person identification method as described above, and the method is used for the production of a new class of intelligent biometric person recognition system according to a special list. In this case, the devices constituting the system are implemented in the form of a plate, and the elements for performing the method as shown in FIG. 2 must be assembled thereon, and at least one signal processor in order to perform necessary operations. ) May be included.
본 발명의 실시 예에 따른 시스템을 적용하기에 적합한 방식은, 기존의 비디오 관찰 시스템의 효과를 높이고 지능형 비디오관찰, 특별 목록에 따른 생체인식과 같은 타입의 부가 형식을 고려한 새로운 등급의 지능형 시스템을 제작하는 데에 활용하는 것이다. 이 때 기구는 최소한 한 개의 신호 프로세서를 포함하는 장비 플레이트 형태로 구현된다. A suitable method for applying the system according to an embodiment of the present invention is to increase the effectiveness of the existing video observation system, and to produce a new class of intelligent system in consideration of additional types of types such as intelligent video observation and special recognition according to a special list. It is to be used to. The instrument is then implemented in the form of an equipment plate containing at least one signal processor.
이상에서 설명한 본 발명의 실시 예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다. The embodiments of the present invention described above are not only implemented through the apparatus and the method, but may also be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. Implementation may be easily implemented by those skilled in the art from the description of the above-described embodiments.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위 에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
도 1은 본 발명의 실시 예에 따른 인물 식별 시스템의 구조도이다. 1 is a structural diagram of a person identification system according to an embodiment of the present invention.
도 2는 본 발명의 실시 예에 따른 인물 식별 방법의 흐름도이다. 2 is a flowchart illustrating a person identification method according to an embodiment of the present invention.
도 3은 본 발명의 실시 예에 따른 특징점 맵 제작 과정을 나타낸 예시도이다. 3 is an exemplary view illustrating a feature point map manufacturing process according to an exemplary embodiment of the present invention.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090010738A KR101094433B1 (en) | 2009-02-10 | 2009-02-10 | Method for identifying image face and system thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090010738A KR101094433B1 (en) | 2009-02-10 | 2009-02-10 | Method for identifying image face and system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100091516A true KR20100091516A (en) | 2010-08-19 |
KR101094433B1 KR101094433B1 (en) | 2011-12-15 |
Family
ID=42756692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090010738A KR101094433B1 (en) | 2009-02-10 | 2009-02-10 | Method for identifying image face and system thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101094433B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101421952B1 (en) * | 2013-05-03 | 2014-07-23 | 주식회사 슈프리마 | Apparatus and method for face recognition |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11030480B2 (en) | 2018-08-31 | 2021-06-08 | Samsung Electronics Co., Ltd. | Electronic device for high-speed compression processing of feature map of CNN utilizing system and controlling method thereof |
-
2009
- 2009-02-10 KR KR1020090010738A patent/KR101094433B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101421952B1 (en) * | 2013-05-03 | 2014-07-23 | 주식회사 슈프리마 | Apparatus and method for face recognition |
Also Published As
Publication number | Publication date |
---|---|
KR101094433B1 (en) | 2011-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100974293B1 (en) | METHOD AND SYSTEM FOR AUTOMATED FACE DETECTION and Recognition | |
EP2063393B1 (en) | Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium | |
CN103034838B (en) | A kind of special vehicle instrument type identification based on characteristics of image and scaling method | |
CN108681737B (en) | Method for extracting image features under complex illumination | |
CN110298297B (en) | Flame identification method and device | |
US20130202161A1 (en) | Enhanced face detection using depth information | |
Sae-Bae et al. | Towards automatic detection of child pornography | |
CN110991389B (en) | Matching method for judging appearance of target pedestrian in non-overlapping camera view angles | |
CN106778517A (en) | A kind of monitor video sequence image vehicle knows method for distinguishing again | |
Hambalık | Fingerprint recognition system using artificial neural network as feature extractor: design and performance evaluation | |
Raghavendra et al. | Automatic face quality assessment from video using gray level co-occurrence matrix: An empirical study on automatic border control system | |
CN108171223A (en) | A kind of face identification method and system based on multi-model multichannel | |
KR101016758B1 (en) | Method for identifying image face and system thereof | |
KR20080079798A (en) | Method of face detection and recognition | |
KR101094433B1 (en) | Method for identifying image face and system thereof | |
CN106682604B (en) | Blurred image detection method based on deep learning | |
JPH0573663A (en) | Recognition method for picture of three-dimensional object | |
CN115485716A (en) | Individual recognition system, individual recognition program, and recording medium | |
TW201601119A (en) | Method for recognizing and locating object | |
Ray et al. | Palm print recognition using hough transforms | |
CN104615985A (en) | Identification method for person-face similarity | |
Premk et al. | Automatic latent fingerprint segmentation using convolutional neural networks | |
Chakraborty et al. | Bio-metric identification using automated iris detection technique | |
Chitra et al. | Facial expression recognition using local binary pattern and support vector machine | |
Jain et al. | A cheiloscopic approach for unique identification among indian subpopulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141202 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151204 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161205 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20181203 Year of fee payment: 8 |