KR100421683B1 - Person identifying method using image information - Google Patents

Person identifying method using image information Download PDF

Info

Publication number
KR100421683B1
KR100421683B1 KR1019960077673A KR19960077673A KR100421683B1 KR 100421683 B1 KR100421683 B1 KR 100421683B1 KR 1019960077673 A KR1019960077673 A KR 1019960077673A KR 19960077673 A KR19960077673 A KR 19960077673A KR 100421683 B1 KR100421683 B1 KR 100421683B1
Authority
KR
South Korea
Prior art keywords
face
template
image
extracted
recognition
Prior art date
Application number
KR1019960077673A
Other languages
Korean (ko)
Other versions
KR19980058349A (en
Inventor
정상운
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1019960077673A priority Critical patent/KR100421683B1/en
Publication of KR19980058349A publication Critical patent/KR19980058349A/en
Application granted granted Critical
Publication of KR100421683B1 publication Critical patent/KR100421683B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

PURPOSE: A person identifying method using image information is provided to reduce an error rate generated when extracting a face region from an image signal. CONSTITUTION: A face portion is separated from a face image(22). The separated face portion is divided into a plurality of cells, and the first template including a face configuration is written in each cell(23). The first template is compared in similarity with a template of the first set previously classified according to K-means clustering(24). A portion having the highest similarity with the template of the first set is extracted as a face region with respect to an input image(25). The extracted face region is divided into a plurality of cells, and the second template including the face configuration is written in each cell(26). The second template is classified into the template of the second set according the K-means clustering, and the classified template is stored(27). Face feature data are extracted from the extracted face region(28,29). The extracted face feature data are registered in a database(30).

Description

영상정보를 이용한 사람 식별 방법Person Identification Using Image Information

본 발명은 화상인식 시스템에 있어서 사람식별방법에 관한 것으로, 특히 영상정보로부터 형판을 다이나믹하게 만들어 얼굴영역을 추출하여 사람을 식별하는 영상정보를 이용한 사람 식별 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a person identification method in an image recognition system, and more particularly, to a person identification method using image information for identifying a person by extracting a face region by making a template dynamic from the image information.

일반적으로 영상인식 시스템에서 영상인식을 하기 위해서 카메라로부터 입력된 영상신호로부터 얼굴영역을 추출한 후 얼굴에 대한 특징을 추출하여 데이터베이스에 저장하여 놓은 후 다시 카메라로부터 입력되는 영상신호로부터 얼굴영역을 추출한 후 데이터베이스로 등록되어 있는 데이터와 비교하여 사람을 식별하도록 되어 있다.In general, in order to recognize the image in the image recognition system, after extracting the face region from the image signal input from the camera, the feature of the face is extracted and stored in the database, and then the face region is extracted from the image signal input from the camera. The person is identified by comparison with the data registered with.

제 1 도는 일반적인 영상인식 시스템의 블록도이다.1 is a block diagram of a general image recognition system.

제 1 도를 참조하면, 일반적인 영상인식 시스템은 얼굴의 영상데이타를 저장하는 데이터베이스(100)와, 사람의 얼굴에 대한 영상데이타를 등록하는 영상 등록부(200)와, 사람얼굴에 대한 영상데이타를 입력하여 상기 데이터베이스(100)에 저장되어 있는 얼굴 영상데이타와 비교하여 사람의 얼굴을 인식하는 영상인식부(300)를 구비한다. 이 때 영상등록부(200)는 영상입력부(201), 얼굴영역 추출부(202), 전처리부(203), 특징추출부(204), 얼굴등록부(205)로 이루어져 있고, 영상인식부(300)는 영상입력부(301), 얼굴영역 추출부(302), 전처리부(303), 특징추출부(304), 얼굴인식부(305)로 이루어져 있다.Referring to FIG. 1, a general image recognition system inputs a database 100 for storing image data of a face, an image register 200 for registering image data for a human face, and image data for a human face. And an image recognition unit 300 for recognizing a face of a person in comparison with the face image data stored in the database 100. In this case, the image registration unit 200 includes an image input unit 201, a face region extraction unit 202, a preprocessing unit 203, a feature extraction unit 204, and a face registration unit 205, and an image recognition unit 300. The image input unit 301, the face region extraction unit 302, the preprocessing unit 303, the feature extraction unit 304, and the face recognition unit 305 are included.

영상입력부(201)는 영상신호를 입력받는다. 얼굴영역 추출부(202)는 상기 입력된 영상신호로부터 얼굴영역을 수동으로 추출한다. 전처리부(203)는 상기 추출된 얼굴영역의 영상데이타를 전처리하여 출력한다. 특징추출부(204)는 상기 전처리된얼굴영역 영상데이타의 특징을 추출하여 출력한다. 얼굴등록부(205)는 영상등록부(200)의 특징추출부(204)로부터 특징이 추출된 얼굴영상데이타를 데이터베이스(100)에 저장한다.The image input unit 201 receives an image signal. The face region extractor 202 manually extracts a face region from the input image signal. The preprocessor 203 preprocesses and outputs the extracted image data of the face region. The feature extractor 204 extracts and outputs a feature of the preprocessed face region image data. The face register 205 stores the face image data from which the feature is extracted from the feature extractor 204 of the image register 200 in the database 100.

영상인식부(300)는 영상등록부(200)의 구성과 동일한 구성을 가지나 얼굴등록부(205) 대신에 얼굴인식부(305)를 구비하는 점에서 다르다. 따라서 얼굴인식부(305)는 특징추출부(304)로부터 특징이 추출된 얼굴영상데이타를 입력받아 데이터베이스(100)에 저장된 얼굴영상데이타와 비교하여 사람의 얼굴을 인식하게 된다.The image recognition unit 300 has the same configuration as that of the image registration unit 200, but differs in that it includes a face recognition unit 305 instead of the face registration unit 205. Therefore, the face recognition unit 305 receives the face image data from which the feature is extracted from the feature extraction unit 304 and compares the face image data stored in the database 100 to recognize the face of the person.

제 2 도는 종래의 영상신호로부터 사람의 얼굴을 인식하기 위한 흐름도이고, 제 3 도는 얼굴정보가 포함된 영상신호로부터 형판을 작성하는 과정을 나타낸 영상 예시도이며, 제 4 도는 일반적인 6개의 형태로 분리한 형판의 예시도이다.2 is a flowchart for recognizing a human face from a conventional video signal, and FIG. 3 is an exemplary view showing a process of creating a template from an image signal including face information, and FIG. 4 is divided into six general forms. An illustration of a template.

제 2 도, 제 3 도 및 제 4 도를 결부하여 살펴보면, 단계10에서는 영상입력부(201)를 통해 얼굴정보가 포함된 제 3A 도와 같은 영상신호를 입력받는다. 그리고 단계11에서 얼굴영역 추출부(202)를 통해 상기 입력된 영상신호로부터 제 3B 도와 같이 얼굴 부분을 분리하여 제 3C 도와 같이 얼굴 부분을 추출한다. 그런 다음 단계12에서 추출된 얼굴부분을 바둑판과 같은 다수개의 셀로 분할한 후 각각의 셀에는 명암정보가 들어가는 형판(Template)을 작성한다.Referring to FIGS. 2, 3, and 4, in operation 10, an image signal, such as a 3A diagram including face information, is input through the image input unit 201. In operation 11, the face region extractor 202 separates the face portion from the input image signal, such as the 3B diagram, and extracts the face portion from the 3C diagram. Then, after dividing the face part extracted in step 12 into a plurality of cells such as a checkerboard, a template containing contrast information is created in each cell.

단계13에서는 입력 영상에 대하여 작성된 형판을 기 작성된 형판과 유사도가 비교된다. 여기서, 기 작성된 형판은 전술한 단계10 내지 단계12를 반복하여 각기 다른 사람들의 영상에 대하여 제 3D 도와 같은 명판을 만들고, 이렇게 만들어진 다수의 형판들을 K-평균 군집화에 따라 K개의 형판으로 분류하여 놓은 것이다. 제 4 도에는 예를 들어 한 세트 6개의 형판으로 분류한 예시도가 도시되어 있다. 따라서, 단계13에서는 입력 영상의 형판을 상기 6개로 분류된 형판에 대하여 좌에서 우로, 위에서 아래로 스캐닝해 가면서 유사도를 비교한다.In step 13, the template created for the input image is compared with the template created in advance. Here, the previously created template repeats the above steps 10 to 12 to make the same name plate as the 3D diagram for the images of different people, and the thus formed templates are classified into K templates according to the K-average clustering. will be. FIG. 4 shows an example of classification into six sets of templates, for example. Therefore, in step 13, similarities are compared while scanning the template of the input image from left to right and top to bottom for the six classified templates.

그리고 단계14에서 얼굴영역 추출부(202)를 통해 기 작성된 형판들과 유사도가 가장 높은 영역을 입력 영상의 얼굴영역으로 판단 추출한다. 그런 후 단계15에서 전처리부(203)를 통해 상기 얼굴영역에 대한 영상신호의 명암 및 거리 등의 정보를 전처리하고 단계16으로 진행한다. 단계16에서는 특징추출부(204)를 통해 상기 전처리한 영상신호로부터 얼굴의 특징 데이터를 추출한다. 그리고 단계17에서는 단계16에서 추출된 얼굴의 특징데이터를 등륵할 것인지 혹은 이를 이용하여 동일인임을 식별할 것인지를 판단하여 등록 모드이면 단계19로 진행하여 얼굴등록부(205)를 통하여 얼굴특징데이터를 데이터베이스(100)에 등록한다.In operation 14, the face region extractor 202 determines and extracts, as the face region of the input image, an area having the highest similarity with previously created templates. Thereafter, in step 15, the preprocessing unit 203 preprocesses information such as contrast and distance of the image signal with respect to the face region, and proceeds to step 16. FIG. In step 16, the feature extractor 204 extracts feature data of the face from the preprocessed video signal. In step 17, it is determined whether to extract the feature data of the face extracted in step 16 or identify the same person using the same. If the registration mode is performed, the process proceeds to step 19 and the face feature data is stored in the database (Face register unit 205). Enroll in 100).

이렇게 데이터베이스(100)에 얼굴특징데이터를 저장한 후 사람의 얼굴을 인식하는 동작은 영상입력부(301), 얼굴영역 추출부(302), 전처리부(303), 특징추출부(304)를 이용하여 전술한 단계10 내지 단계16과 동일한 동작으로 입력된 영상으로부터 사람의 얼굴에 대한 특징데이터를 추출한다. 그리고, 단계18에서 얼굴 인식부(305)를 통하여 상기 특징 추출부(304)로부터 추출된 얼굴특징데이터와 상기 데이터베이스(100)에 기 저장되어 있는 얼굴특징데이터를 비교하여 가장 유사한 특징을 갖는 사람을 식별된 사람으로 인식한다.The operation of recognizing a human face after storing the facial feature data in the database 100 is performed by using the image input unit 301, the face region extractor 302, the preprocessor 303, and the feature extractor 304. The feature data of the face of the person is extracted from the image input by the same operation as the above-described steps 10 to 16. In operation 18, the facial feature data extracted from the feature extractor 304 and the facial feature data pre-stored in the database 100 may be compared to the person having the most similar feature. Recognize you as an identified person.

그런데 이와 같은 종래의 사람의 얼굴인식방법은 얼굴영역을 추출하는데 미리 다수의 영상으로부터 만들어진 형판을 만들어서 사용하므로 오류가 발생되어 사람 식별에 대한 인식률이 떨어지는 문제점이 있게 된다.However, such a conventional face recognition method of the human face has a problem in that the recognition rate for human identification is reduced because an error occurs because a template made from a plurality of images is used to extract a face region.

따라서 본 발명의 목적은 영상인식 시스템에서 영상신호로부터 얼굴영역을 추출할 시 오류율 발생을 줄일 수 있는 영상정보를 이용한 사람 식별 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a method for identifying a person using image information which can reduce an error rate when extracting a face region from an image signal in an image recognition system.

본 발명의 다른 목적은 영상인식 시스템에서 영상신호로부터 얼굴영역을 추출할 시 형판을 다이나믹하게 만들어 사람식별 인식률을 높일 수 있는 영상정보를 이용한 사람 식별 방법을 제공함에 있다.Another object of the present invention is to provide a method for identifying a person using image information that makes the template dynamic when extracting a face region from an image signal in an image recognition system, thereby increasing a recognition rate of human identification.

상기 목적을 달성하기 위한 본 발명의 사람 식별 방법은 식별을 위하여 얼굴특징정보를 등록하는 얼굴특징정보 등록모드와 상기 등록된 얼굴특징 정보를 이용하여 사람을 식별하는 얼굴특징정보 인식모드를 포함하며,The person identification method of the present invention for achieving the above object includes a face feature information registration mode for registering the face feature information for identification and a face feature information recognition mode for identifying a person using the registered face feature information,

상기 얼굴특징정보 등록모드는, 얼굴 영상으로부터 얼굴 부분을 분리하는 제1 단계; 상기 분리된 얼굴 부분을 다수개의 셀로 분할하여 각 셀에 얼굴형상이 포함된 제1 형판을 작성하는 제2 단계; 상기 제1 형판을 K-평균 군집화에 따라 기 분류된 제1 세트의 형판화의 유사도 비교를 통하여 상기 제1 세트의 형판과 유사도가 가장 높은 부분을 상기 입력 영상에 대한 얼굴 영역으로 추출하는 제3 단계; 상기 추출된 얼굴 영역에 대하여 다수개의 셀로 분할하여 각 셀에 얼굴형상이 포함된 제2 형판을 작성하는 제4 단계; 상기 제2 형판을 K-평균 군집화에 따라 제2 세트의 형판으로 분류하여 저장하는 제5 단계; 및 상기 추출된 얼굴 영역으로부터 얼굴특징 데이터를 추출하여 데이터베이스에 등록하는 제6 단계를 포함하며;The facial feature information registration mode may include a first step of separating a face part from a face image; Dividing the separated face portion into a plurality of cells to create a first template including a face shape in each cell; A third extracting a portion having the highest similarity with the first set of templates as the face region for the input image by comparing the first template with the similarity between the first set of templates classified according to the K-means clustering step; A fourth step of dividing the extracted face region into a plurality of cells to create a second template including a face shape in each cell; A fifth step of classifying and storing the second template into a second set of templates according to K-means clustering; And a sixth step of extracting facial feature data from the extracted face region and registering it in a database;

상기 얼굴특징정보 인식모드는, 인식을 위하여 입력되는 얼굴 영상으로부터 얼굴 부분을 분리하는 제7 단계; 상기 분리된 얼굴 부분을 다수개의 셀로 분할하여 각 셀에 얼굴형상이 포함된 제3 형판을 작성하는 제8 단계; 상기 제3 형판과 상기 제2 세트의 형판과의 유사도 비교를 통하여 가장 유사도가 높은 부분을 인식용 얼굴영역으로 추출하는 제9 단계; 상기 추출된 인식용 얼굴영역에 대하여 얼굴특징 데이터를 추출하는 제10 단계; 상기 추출된 얼굴특징 데이터를 상기 데이터베이스에 등록되어 있는 얼굴특징 데이터와 비교하여 동일인임을 식별하는 제11 단계를 포함하는 것을 특징으로 한다.The facial feature information recognition mode may include: separating a face portion from a face image input for recognition; An eighth step of dividing the separated face part into a plurality of cells to create a third template including a face shape in each cell; Extracting, from the similarity between the third template and the second set of templates, a portion having the highest similarity as a face region for recognition; A tenth step of extracting facial feature data from the extracted recognition face region; And an eleventh step of identifying the extracted person by comparing the extracted facial feature data with the facial feature data registered in the database.

이하 본 발명을 첨부한 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 시스템은 제 1 도와 동일한 구성을 가진다.The system according to the invention has the same configuration as the first degree.

제 5 도는 본 발명에 따른 영상신호로부터 사람의 얼굴을 인식하기 위한 흐름도로서, 크게 얼굴특징정보 등록모드와 얼굴특징정보 인식모드를 포함한다.5 is a flowchart for recognizing a human face from an image signal according to the present invention, and includes a facial feature information registration mode and a facial feature information recognition mode.

단계20에서 영상입력부(201)를 통해 얼굴정보가 포함된 제 3A 도와 같은 영상신호를 입력받는다. 그리고 단계21에서 현재 상태가 얼굴특징정보 등록모드인가를 검사하여 얼굴특징정보 등록모드이면 단계22로 진행한다. 단계22에서는 얼굴영역 추출부(202)를 통해 상기 입력된 영상으로부터 제 3B 도와 같이 얼굴 부분을 수동으로 선택하고 제 3C 도와 같이 얼굴 부분만을 분리한다.In step 20, the image input unit 201 receives an image signal such as a 3A diagram including face information. In step 21, it is checked whether the current state is the facial feature information registration mode. In step 22, the face region extractor 202 manually selects a face portion from the input image as shown in FIG.

단계23에서, 분리된 얼굴 부분을 바둑판과 같은 다수개의 셀로 분할한 후 각각의 셀에 명암정보가 포함된 형판(Template)(제 3D 도 참조)을 작성한다.In step 23, the separated face portion is divided into a plurality of cells such as a checkerboard, and then a template (see FIG. 3D) containing contrast information is created in each cell.

전술한 과정을 통하여 입력 영상에 대하여 작성된 형판은 아래에서 상세히 설명되는 바와 같이 기 작성된 형판과 비교된다. 여기서, 기 작성된 형판은 종래 기술에서도 언급된 바와 같이 각기 다른 사람들의 영상에 대하여도 제 3D도와 같이 작성된 명판들을 K-평균 군집화에 따라 K개의 형판으로 분류하여 저장된 형판들을 의미한다. 본 명세서에서는 편의상 기 작성된 K개의 형판들을 제1 세트의 형판이라 지칭한다.The template created for the input image through the above-described process is compared with the template previously created as described in detail below. Here, the previously created template refers to templates that are stored by classifying the nameplates created as shown in FIG. 3D into K templates according to the K-average clustering, as also mentioned in the related art. In the present specification, the K templates that have been created for convenience are referred to as a first set of templates.

이후 단계24에서는 상기 입력 영상의 형판을 제1 세트의 형판에 대하여 좌에서 우로, 위에서 아래로 스캐닝해 가면서 유사도를 비교한다.Subsequently, in step 24, similarities are compared while scanning the template of the input image from left to right and top to bottom with respect to the first set of templates.

그리고 단계25에서 얼굴영역 추출부(202)를 통해 제1 세트의 형판들에 대하여 유사도가 가장 높은 부분을 입력 영상에 대한 얼굴영역으로 판단 추출한다. 그런 후 단계26에서 상기 추출된 얼굴영역을 다수개의 셀로 분할하여 추출된 얼굴영역에 대한 새로운 형판을 작성한다. 그리고 단계27에서 상기 새로운 형판을 K-평균 군집화에 따라 K개 형판으로 분류하여 새로운 형판 세트로서 저장한다. 본 명세서에서는 새로운 K개의 형판들을 편의상 제2 세트의 형판이라 지칭한다.In operation 25, the face region extractor 202 determines and extracts a portion having the highest similarity with respect to the first set of templates as the face region for the input image. Then, in step 26, the extracted face region is divided into a plurality of cells to create a new template for the extracted face region. In step 27, the new template is classified into K templates according to the K-means clustering and stored as a new template set. The new K templates are referred to herein as the second set of templates for convenience.

그런 후 단계28에서 전처리부(203)를 통해 상기 추출된 얼굴영역에 대한 영상신호의 명암 및 거리 등의 정보를 전처리하고 단계29로 진행한다. 단계29에서 특징추출부(204)를 통해 상기 전처리한 영상신호로부터 얼굴특징 데이터를 추출한다. 그리고 단계30에서 얼굴등록부(205)를 통하여 상기 얼굴특정 데이터를 얼굴특징정보 인식 모드에서 사용될 비교 데이터로서 데이터베이스(100)에 등록한다.Thereafter, in step 28, the preprocessing unit 203 preprocesses information such as contrast and distance of the image signal with respect to the extracted face region, and proceeds to step 29. In step 29, the facial feature data is extracted from the preprocessed video signal by the feature extractor 204. In step 30, the face registration unit 205 registers the face specific data in the database 100 as comparison data to be used in the face feature information recognition mode.

한편, 단계21에서 얼굴특징정보 등록모드가 아니고 얼굴특징정보 인식모드라고 판단되면 단계31로 진헝한다. 단계31에서 얼굴영역 추출부(202)를 통해 상기 입력 영상으로부터 얼굴영역을 수동으로 추출하며, 제 3B 도 및 도 3C와 같이 얼굴 부분을 분리하여 추출한다. 그런 후 단계32에서 분리된 얼굴 부분을 바둑판과 같은 다수개의 셀로 분할한 후 각각의 셀에 명암정보가 포함된 형판(Template)을 작성한다. 이후 단계33에서 상기 입력 영상의 형판을 제2 세트의 형판, 즉 얼굴특징정보 등록모드에서 작성된 새로운 K개의 형판들에 대하여 좌에서 우로, 위에서 아래로 스캐닝해 가면서 유사도를 비교한다. 그리고 단계 34에서 얼굴영역 추출부(202)를 통해 제2 세트의 형판과 유사도가 가장 높은 부분을 인식용 얼굴영역으로 판단 추출한다. 전술한 과정을 통하여 인식모드에서 얼굴영역을 추출할 때 인식대상의 얼굴과 유사한 얼굴을 추출하게 됨으로써 얼굴인식오류율을 줄일 수 있다.On the other hand, if it is determined in step 21 that the face feature information recognition mode is not the face feature information registration mode, the process proceeds to step 31. In step 31, the face region extractor 202 manually extracts a face region from the input image, and separates and extracts a face portion as shown in FIGS. 3B and 3C. Then, in step 32, the separated face part is divided into a plurality of cells such as a checkerboard, and a template including contrast information is created in each cell. Thereafter, in step 33, the similarity is compared while scanning the template of the input image from left to right and top to bottom on a second set of templates, that is, new K templates created in the facial feature information registration mode. In operation 34, the face region extractor 202 determines and extracts the portion having the highest similarity with the second set of templates as the recognition face region. When the face region is extracted in the recognition mode through the above-described process, the face recognition error rate can be reduced by extracting a face similar to the face of the recognition target.

한편, 단계35에서는 전처리부(203)를 통해 전술한 단계34에서 추출된 얼굴영역에 대하여 명암 및 거리 등의 정보를 전처리하고 단계36으로 진행한다.Meanwhile, in step 35, the preprocessing unit 203 preprocesses information such as contrast and distance on the face region extracted in step 34, and proceeds to step 36.

단계36에서 특징추출부(204)를 통해 상기 전처리한 영상신호로부터 얼굴의 특징을 추출한다. 그리고 단계37에서 특징추출부(304)를 통해 추출한 얼굴특징 데이터를 데이터와 상기 데이터베이스(100)에 저장되어 있는 얼굴특징 데이터를 비교하여 가장 유사한 특징을 갖는 사람을 식별된 사람으로 인식한다.In step 36, the feature extractor 204 extracts a face feature from the preprocessed video signal. The facial feature data extracted through the feature extractor 304 in step 37 is compared with the facial feature data stored in the database 100 to recognize a person having the most similar feature as the identified person.

이와 같이 본 발명은, 영상인식 시스템에서 영상정보로부터 형판을 다이나믹하게 작성한 후 얼굴영역을 추출하여 등록시킨 얼굴특징 데이터와 현재 입력되는 영상정보로부터 얼굴영역을 추출한 데이터와 비교하여 사람의 얼굴을 식별하도록 하므로, 얼굴영역을 추출할 때 발생하는 오류율을 감소시킬 수 있으며, 사람식별의인식률을 향상시킬 수 있는 효과가 있다.As described above, in the image recognition system, a face is dynamically extracted from the image information, and the facial feature data extracted by registering the face region is compared with the data extracted from the face region from the currently input image information. Therefore, the error rate generated when extracting the face region can be reduced, and the recognition rate of the human identification can be improved.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여져야만 할 것이다.Those skilled in the art will appreciate that various changes and modifications can be made without departing from the technical spirit of the present invention. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification but should be defined by the claims.

제 1 도는 일반적인 영상인식 시스템의 블록도.1 is a block diagram of a general image recognition system.

제 2 도는 종래의 영상신호로부터 사람의 얼굴을 인식하기 위한 흐름도.2 is a flowchart for recognizing a human face from a conventional video signal.

제 3 도는 얼굴정보가 포함된 영상신호로부터 형판을 작성하는 과정을 나타낸 영상예시도.3 is an exemplary view illustrating a process of creating a template from an image signal including face information.

제 4 도는 일반적인 6개의 형태로 분리한 형판의 예시도.4 is an exemplary view of a template divided into six general forms.

제 5 도는 본 발명에 따른 영상신호로부터 사람의 얼굴을 인식하기 위한 흐름도.5 is a flowchart for recognizing a face of a person from an image signal according to the present invention.

*도면의 주요부분에 대한 부호설명** Description of Signs of Main Parts of Drawings *

100 : 데이터 베이스 200 : 영상등록부100: database 200: video register

300 : 영상인식부 201,301 : 영상입력부300: image recognition unit 201,301: image input unit

202, 302 : 얼굴영역 추출부 203,303 : 전처리부202, 302: face area extraction unit 203,303: preprocessing unit

204, 304 : 특징추출부 205 : 얼굴등록부204, 304: feature extractor 205: face register

305 : 얼굴인식부305: face recognition unit

Claims (2)

영상인식 시스템에서 영상정보를 이용하여 사람 식별 방법에 있어서,In the identification method using the image information in the image recognition system, 상기 사람 식별 방법은 식별을 위하여 얼굴특징정보를 등륵하는 얼굴특징정보 등록모드와 상기 등록된 얼굴특징 정보률 이용하여 사람을 식별하는 얼굴특징정보 인식모드를 포함하며,The person identification method includes a face feature information registration mode for registering face feature information for identification and a face feature information recognition mode for identifying a person using the registered face feature information rate. 상기 얼굴특징정보 등록모드는,The facial feature information registration mode, 얼굴 영상으로부터 얼굴 부분을 분리하는 제1 단계;Separating a face part from the face image; 상기 분리된 얼굴 부분을 다수개의 셀로 분할하여 각 셀에 얼굴형상이 포함된 제1 형판을 작성하는 제2 단계;Dividing the separated face portion into a plurality of cells to create a first template including a face shape in each cell; 상기 제1 형판을 K-평균 군집화에 따라 기 분류된 제1 세트의 형판과의 유사도 비교를 통하여 상기 제1 세트의 형판과 유사도가 가장 높은 부분을 상기 입력 영상에 대한 얼굴 영역으로 추출하는 제3 단계;A third extracting a portion having the highest similarity with the first set of templates as the face region for the input image by comparing the first template with the similarity with the first set of templates classified according to the K-means clustering; step; 상기 추출된 얼굴 영역에 대하여 다수개의 셀로 분할하여 각 셀에 얼굴형상이 포함된 제2 형판을 작성하는 제4 단계;A fourth step of dividing the extracted face region into a plurality of cells to create a second template including a face shape in each cell; 상기 제2 형판을 K-평균 군집화에 따라 제2 세트의 형판으로 분류하여 저장하는 제5 단계; 및A fifth step of classifying and storing the second template into a second set of templates according to K-means clustering; And 상기 추출된 얼굴 영역으로부터 얼굴특징 데이터를 추출하여 데이터베이스에 등록하는 제6 단계를 포함하는 것을 특징으로 하는 영상정보를 이용한 사람 식별 방법.And extracting facial feature data from the extracted face region and registering the facial feature data in a database. 제 1 항에 있어서,The method of claim 1, 상기 얼굴특징정보 인식모드는,The facial feature information recognition mode, 인식을 위하여 입력되는 얼굴 영상으로부터 얼굴 부분을 분리하는 제7 단계;A seventh step of separating a face part from the face image input for recognition; 상기 분리된 얼굴 부분을 다수개의 셀로 분할하여 각 셀에 얼굴형상이 포함된 제3 형판을 작성하는 제8 단계;An eighth step of dividing the separated face part into a plurality of cells to create a third template including a face shape in each cell; 상기 제3 형판과 상기 제2 세트의 형판과의 유사도 비교를 통하여 가장 유사도가 높은 부분을 인식용 얼굴영역으로 추출하는 제9 단계;Extracting, from the similarity between the third template and the second set of templates, a portion having the highest similarity as a face region for recognition; 상기 추출된 인식용 얼굴영역에 대하여 얼굴특징 데이터를 추출하는 제10 단계;A tenth step of extracting facial feature data from the extracted recognition face region; 상기 추출된 얼굴특징 데이터를 상기 데이터베이스에 등록되어 있는 얼굴특징 데이터와 비교하여 동일인임을 식별하는 제11 단계를 포함하는 것을 특징으로 하는 영상정보를 이용한 사람 식별 방법.And an eleventh step of identifying the same person by comparing the extracted facial feature data with the facial feature data registered in the database.
KR1019960077673A 1996-12-30 1996-12-30 Person identifying method using image information KR100421683B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960077673A KR100421683B1 (en) 1996-12-30 1996-12-30 Person identifying method using image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960077673A KR100421683B1 (en) 1996-12-30 1996-12-30 Person identifying method using image information

Publications (2)

Publication Number Publication Date
KR19980058349A KR19980058349A (en) 1998-09-25
KR100421683B1 true KR100421683B1 (en) 2004-05-31

Family

ID=37323509

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960077673A KR100421683B1 (en) 1996-12-30 1996-12-30 Person identifying method using image information

Country Status (1)

Country Link
KR (1) KR100421683B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000038878A (en) * 1998-12-09 2000-07-05 윤종용 Screen saver system and method recognizing user face
KR100311952B1 (en) * 1999-01-11 2001-11-02 구자홍 Method of face territory extraction using the templates matching with scope condition
KR100327485B1 (en) * 1999-03-17 2002-03-13 윤종용 Face detecting apparatus and method from color images
KR100478222B1 (en) * 2002-06-17 2005-03-21 전진규 Visual Data Processing Device
KR100624481B1 (en) * 2004-11-17 2006-09-18 삼성전자주식회사 Method for tracking face based on template
CN111291623A (en) * 2020-01-15 2020-06-16 浙江连信科技有限公司 Heart physiological characteristic prediction method and device based on face information

Also Published As

Publication number Publication date
KR19980058349A (en) 1998-09-25

Similar Documents

Publication Publication Date Title
Alexandre Gender recognition: A multiscale decision fusion approach
Klare et al. On a taxonomy of facial features
Shridhar et al. Recognition of isolated and simply connected handwritten numerals
KR100249055B1 (en) Character recognition apparatus
Serna et al. Traffic signs detection and classification for European urban environments
Tsao et al. A data mining approach to face detection
JP2872776B2 (en) Face image matching device
Alonso-Fernandez et al. Impact of signature legibility and signature type in off-line signature verification
US9002115B2 (en) Dictionary data registration apparatus for image recognition, method therefor, and program
JP2000285190A (en) Method and device for identifying slip and storage medium
KR100421683B1 (en) Person identifying method using image information
Kohlakala et al. Ear-based biometric authentication through the detection of prominent contours
del Río et al. Face-based recognition systems in the ABC e-gates
JP2013218605A (en) Image recognition device, image recognition method, and program
Syambas et al. Image processing and face detection analysis on face verification based on the age stages
Vaquero et al. Attribute-based people search
Nigussie et al. Automatic recognition of Ethiopian license plates
Song et al. Toward part-based document image decoding
Prabaharan et al. Text extraction from natural scene images and conversion to audio in smart phone applications
Yousefi et al. Gender Recognition based on sift features
JP3841482B2 (en) Face image recognition device
Kamarainen et al. Invariant Gabor Features for Face Evidence Extraction.
Chindaro et al. Directional properties of colour co-occurrence features for lip location and segmentation
Purnell et al. Automatic face recognition in a heterogeneous population
Singh et al. Face detection method using OpenCV

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee