KR100795360B1 - A Method Of Face Recognizing - Google Patents

A Method Of Face Recognizing Download PDF

Info

Publication number
KR100795360B1
KR100795360B1 KR1020060006700A KR20060006700A KR100795360B1 KR 100795360 B1 KR100795360 B1 KR 100795360B1 KR 1020060006700 A KR1020060006700 A KR 1020060006700A KR 20060006700 A KR20060006700 A KR 20060006700A KR 100795360 B1 KR100795360 B1 KR 100795360B1
Authority
KR
South Korea
Prior art keywords
face
information
image information
image
person
Prior art date
Application number
KR1020060006700A
Other languages
Korean (ko)
Other versions
KR20070077264A (en
Inventor
이요훈
Original Assignee
(주)씨아이피시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)씨아이피시스템 filed Critical (주)씨아이피시스템
Priority to KR1020060006700A priority Critical patent/KR100795360B1/en
Publication of KR20070077264A publication Critical patent/KR20070077264A/en
Application granted granted Critical
Publication of KR100795360B1 publication Critical patent/KR100795360B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 수험표나 출입증에 사진과 인적사항에 대한 정보를 저장한 상태에서 출입문에 설치한 카메라로 지금 촬영한 얼굴의 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 비교하여 상이한 정도와 해당 부위를 알려주도록 하여 부정을 미연에 방지할 수 있도록 한 얼굴인식에 의한 본인 여부의 판단방법에 관한 것이다.The present invention compares the image information of the face photographed by the camera installed in the door with the information stored on the entrance ticket or pass and the image information previously input when making the admission ticket or pass. It relates to a method of judging whether or not a person is identified by face recognition so as to inform the relevant part so as to prevent fraud in advance.

상기의 본 발명은,The present invention described above,

각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치들의 서브 컨트롤러에서 수험표나 출입증을 스캐너에 접근시켰는 가를 인식하는 단계와,Recognizing whether a test ticket or pass has been accessed by the sub-controller of at least one guest management device installed at each entrance;

상기 수험표나 출입증의 정보를 인식하도록 하는 단계와,Recognizing information on the admission ticket or pass;

수험생이나 출입자의 얼굴을 촬영하는 단계와,Photographing the examinee's or person's face;

얼굴 인식부에서 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위를 검출하면서 두 눈과 코 사이의 3점에 대한 거리를 벡터값으로 구하도록 하는 단계와.Detecting the area corresponding to the eye of the face from the image information photographed by the face recognition unit, and calculating a distance of three points between the eyes and the nose as a vector value.

촬영한 얼굴의 상태를 확인하면서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 동일한 조건이 되도록 지금 촬영한 화상정보를 x축, y축, z축으로 선택적으로 회전시키거나 3점에 대한 거리의 벡터값이 같아지도록 가로와 세로를 각각 확대 또는 축소하는 단계와,While checking the condition of the photographed face, selectively rotate the image information captured on the x-axis, y-axis, and z-axis, or at a distance of 3 points so that the same conditions as the image information previously input when producing the admission ticket or pass. Zooming in or out on the horizontal and vertical lines so that the vector values are the same,

동일한 조건이 되도록 한 상기의 지금 촬영한 화상정보와, 수험표 또는 출입증을 제작할 때 미리 입력시킨 화상정보를 전달받는 화상 비교부에서 1 필드 데이터를 서로 비교한 결과 상이한 비율과 부위를 판단하도록 하는 단계와,Determining that different ratios and parts are determined by comparing one field data with each other in the image comparison unit which receives the image information which has been taken under the same condition and the image information which has been input in advance when producing the admission ticket or pass. ,

상기 화상 비교부의 비교 결과에 의하여 비교 판단부에서 상이한 부위가 안경이나 귀걸이와 같은 장신구에 의한 것인 것으로 판단되면 거의 동일한 장신구를 장착하도록 한 상태에서 다시 비교하여 상이한 비율과 부위를 판단하는 단계와,If it is determined by the comparison result of the image comparing unit that the different parts are made of jewelry such as glasses or earrings, the comparison is made again to determine different ratios and parts in a state in which almost identical jewelry is mounted;

상기 비교 판단부의 판단 결과와 함께 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 상기의 출입자 관리 시스템으로 전송하는 과정과,Transmitting the personal information and time information read from the admission ticket or the pass along with the determination result of the comparison determination unit to the accessor management system;

상기의 출입자 관리 장치들로부터 수험생이나 출입자의 정보 및 비교데이터를 수신한 출입 관리 장치의 컨트롤러에서 모니터에 표시하여 눈으로 확인할 수 있도록 하는 단계와,Displaying the information and comparison data of the examinee or the visitor from the visitor management devices on a monitor of the access management device so as to be visually confirmed;

미리 설정된 상이한 범위를 넘은 것으로 판단되면 데이터들을 데이터 베이스에 저장하는 동시에 정보 전송부를 통해 담당자 또는 시험 감독관의 휴대용 전화기나 PDA에 알려주도록 함으로써 효율적인 출입관리가 가능하도록 구성함을 특징으로 한다.If it is determined that the predetermined range is exceeded, it is characterized in that it is configured to enable efficient access management by storing the data in the database and notifying the mobile phone or PDA of the person in charge or the test supervisor through the information transmission unit.

Description

얼굴인식에 의한 본인 여부의 판단방법{A Method Of Face Recognizing}A Method Of Face Recognizing

도 1은 본 발명의 전체적인 구성을 도시한 개략도.1 is a schematic diagram showing the overall configuration of the present invention.

도 2는 본 발명에 따른 상기 출입자 관리 시스템의 구성을 도시한 블록도.Figure 2 is a block diagram showing the configuration of the person management system according to the present invention.

도 3은 본 발명에 따른 출입자 관리 장치들 각각의 구성을 도시한 블록도.Figure 3 is a block diagram showing the configuration of each of the access management device according to the present invention.

도 4a,4b,4c,4d는 본 발명의 동작을 위한 과정들을 나타낸 플로차트.4A, 4B, 4C, and 4D are flowcharts showing procedures for the operation of the present invention.

도 5는 촬영한 화상이 좌측이나 우측을 응시한 상태에서 정정하는 과정을 나타낸 예시도.5 is an exemplary view illustrating a process of correcting a photographed image in a state of staring at the left side or the right side.

도 6은 촬영한 화상이 위쪽이나 아래쪽을 응시한 상태에서 정정하는 과정을 나타낸 예시도.6 is an exemplary view illustrating a process of correcting a photographed image in a state of staring at an upper side or a lower side.

도 7은 촬영한 화상이 시계방향이나 반시계 방향으로 기울어진 상태에서 정정하는 과정을 나타낸 예시도.7 is an exemplary view illustrating a process of correcting a photographed image in a state in which the photographed image is inclined clockwise or counterclockwise.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

1 : 출입자 관리 시스템 2, 25 : 송수신부1: accessor management system 2, 25: transceiver

4, 13 : 키입력부 5 : 컨트롤러4, 13: key input unit 5: the controller

6 : 데이터베이스 7 : 정보 전송부6: database 7: information transmission unit

10, 10a, ... 10n : 출입자 관리 장치10, 10a, ... 10n: accessor management device

11 : 스캐너 12 : 정보처리부11: scanner 12: information processing unit

14 : 서브 컨트롤러 15 : 카메라14: sub controller 15: camera

17 : 음성출력부 19 : 얼굴 인식부17: voice output unit 19: face recognition unit

23 : 화상 비교부 24 : 비교 판단부23: image comparison unit 24: comparison determination unit

본 발명은 얼굴인식에 의한 본인 여부의 판단방법에 관한 것으로, 상세하게는 수험표나 출입증에 사진과 인적사항에 대한 정보를 저장한 상태에서 출입문에 설치한 카메라로 지금 촬영한 얼굴의 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 비교하여 상이한 정도와 해당 부위를 알려주도록 하여 부정을 미연에 방지할 수 있도록 한 얼굴인식에 의한 본인 여부의 판단방법에 관한 것이다.The present invention relates to a method of judging whether or not a person is identified by face recognition, and in detail, a photograph and a face sheet of a face photographed by a camera installed at a door in a state in which information about a photograph and personal information is stored in a facebook or a pass. B. The present invention relates to a method of judging whether or not a person is identified by face recognition to compare the image information inputted in advance when producing a pass so that the user may be informed of a different degree and a corresponding part.

일반적으로 큰 시험을 치르기 위하여 시험장에 입장하는 사람이 수험표에 있는 본인인 가를 확인하는 절차가 필요하고, 건설현장에도 출근하는 사람의 수는 물론 계약 당사자가 근무하는 가의 여부를 본사에서 알 수 있어야 한다.In general, in order to take a large examination, a procedure is required to confirm that the person entering the examination site is the person on the admission ticket, and the head office must know whether the contractor is working as well as the number of people who go to the construction site. .

더구나 보안을 유지해야 하는 장소의 출입을 통제하기 위하여 얼굴의 화상으로부터 동일한 사람을 식별하여 출입을 통제할 필요가 있게 된다.Moreover, in order to control the entrance and exit of the place where security is required, it is necessary to identify and control the same person from the image of the face.

그러므로 보안이나 각종 정보 사회 서비스의 제공을 위하여 얼굴의 화상을 이용하여 본인의 여부를 판단하는 것이 중요하다.Therefore, in order to provide security or various information social services, it is important to determine the identity of the person using the image of the face.

컴퓨터에 의한 얼굴 화상의 패턴을 이용한 개인의 인식에 관한 연구는 오래전부터 행해졌다.The research on the recognition of the individual using the pattern of the face image by the computer has been done for a long time.

종래에 행해져 온 얼굴을 이용한 개인의 식별에 관한 방법은 2가지로 대별할 수 있다.There are two methods for identifying a person using a face that have been conventionally performed.

그 중 하나는 국소적인 특징의 집합으로서 처리하는 방법이며, 다른 하나는 대국적으로 처리하는 방법이 있다.One of them is a method of processing as a set of local features, and the other is a method of processing locally.

전자는 얼굴의 윤곽이나, 눈, 코, 입 등의 형상 또는 상호의 위치관계를 얼굴의 중요 특징으로 하여 이들의 화상으로부터 특징을 추출하여 개인을 인식하는 방법이었다.The former is a method of recognizing an individual by extracting features from their images using the contours of the face, the shape of the eyes, the nose, the mouth, or the positional relationship of each other.

그러나, 이 방법에서는 얼굴의 방향이나 표정, 조정, 초점, 잡음 등에 의하여 특징 추출 자체가 곤란한 경우가 많았다.However, in this method, feature extraction itself is often difficult due to facial orientation, facial expression, adjustment, focus, and noise.

특히 얼굴의 경우에는 코나 턱 등은 음영이 부드럽기 때문에 정확히 특징을 추출하는 것은 대단히 곤란하였다.Especially in the case of the face, it is very difficult to extract the features accurately because the shadow of the nose or the chin is soft.

후자는 등농도(等濃度)의 화소를 연결한 등농도선(線)분포에 근거한 개인의 인식방법이었다.The latter was an individual recognition method based on an isoconcentration line connecting pixels of equal concentration.

그러나 조명 조건 등 화상입력 시에 입력환경 조건의 난점이 있었다.However, there was a difficulty in input environment conditions when inputting images such as lighting conditions.

그러므로 얼굴 인증 시스템이 사용되어 얼굴을 보다 정확히 인식하도록 하기 위한 방법들이 제안되었다.Therefore, methods have been proposed to use face authentication system to recognize faces more accurately.

즉, PCA(Principal Component Analysis:주성분 분석)를 얼굴 인식에 적용하여 고유 얼굴(eigenface)를 제작하였다.That is, an eigenface was produced by applying PCA (Principal Component Analysis) to face recognition.

얼굴의 집합은 소수의 전역적인 고유 벡터(eigenvector)를 이용하여 표현되며, 그 입력 집합에서 주요 변화들을 코드화하며 이것을 이용하여 고유 얼굴과 평 균 얼굴을 제작하였다.The face set is represented using a small number of global eigenvectors, the major changes in the input set are coded, and the eigenfaces and average faces are created using them.

주어진 고유 얼굴에서 각 얼굴은 가중치의 벡터로 구성하였다. 상기의 가중치는 이미지를 내적 연산(inner product)을 통해 고유 얼굴 평면으로 투영함으로 얻도록 하였다.For a given eigenface, each face consists of a vector of weights. The weight is obtained by projecting the image onto the eigenface plane through the inner product.

얼굴 인식은 DB에 기록된 이미지와의 비교에 의해서 가중치가 가장 가까운 것을 선택하였다.For face recognition, the closest weight was selected by comparison with the image recorded in the DB.

이 방법을 사용하면 조명, 방향, 크기의 영향도 극복할 수 있었다.This method also overcomes the effects of lighting, direction, and size.

그러나 이러한 방법에서는 이미지를 전체적으로 처리하기 때문에, 크고 복잡한 데이터 집합을 처리할 때 생기는 문제점을 극복하지 못하였다.However, these methods do not overcome the problems of processing large and complex data sets because they process the image as a whole.

두 번째로 국부 특징 분석(Local Feature Analysis)방법이 있었다.Second, there was a local feature analysis method.

이는 고유 얼굴 방법에서 유도되었는데, 고유 얼굴 방법에서의 문제점인 얼굴 표정의 변화, 조명이나 자세 등의 변화 때문에 나타나는 문제점을 해결하고자 제안되었다.This is derived from the eigenface method, which is proposed to solve the problems caused by the change of facial expression, lighting or posture, which are problems of the eigenface method.

이 방법은 얼굴의 전역적인 표현에 의존하는 대신 각 개인의 특징을 이용한다. 이 과정은 사진들의 데이터베이스를 모으고 그들로부터 고유얼굴을 추출하면서 시작하였다.This method uses the characteristics of each individual instead of relying on the global expression of the face. This process began by collecting a database of photographs and extracting the unique faces from them.

국부 특징 분석을 적용한 시스템은 다른 얼굴들과 가장 큰 차이점을 나타내는 각 얼굴에서의 특징들이나 블록을 모았다.The system using local feature analysis gathered the features or blocks in each face that represent the biggest difference from other faces.

상기의 주어진 얼굴은 32개에서 50개 정도의 블록으로 나타내어지고 가장 특징적인 점들인 코, 눈썹, 입 등을 모았다.The given face is represented by 32 to 50 blocks and collected the most characteristic points: nose, eyebrows and mouth.

얼굴 인식을 위해서 컴퓨터에는 인증받기 위한 사람의 이미지가 저장되어 있어야 하고, 각 개인이 다른 사람과 가장 다르게 구분되는 점들의 패턴을 측정해야 하였다.For face recognition, a computer had to store an image of a person to be authenticated and measure the pattern of the points at which each individual is most different from the others.

그 다음 무작위로 혹은 고유얼굴 평균에 기반을 둔 패턴을 시스템은 만들기 시작하였다.The system then began to create patterns based on random or eigenface averages.

각 선택에 대해 얼굴 이미지를 만들고, 인식을 하고자 하는 목표 얼굴과 비교하였다.For each selection, a face image was created and compared with the target face to be recognized.

그리고 목표와 매치되는 얼굴 이미지가 생성될 때까지 새로운 패턴이 생성되도록 하였다.The new pattern is created until a face image that matches the target is created.

매치되는 것이 있을 때 컴퓨터는 사용자와 매치되는 패턴에 대한 데이터베이스를 확인하도록 하였다.When there is a match, the computer checks the database for patterns that match the user.

세 번째로 신경망을 사용한 얼굴 인식방법이 있다.Third, there is a face recognition method using neural networks.

상기의 신경망 모델은 뉴런의 상호연결을 통해서 많은 추상적인 문제들을 해결하는 모델이므로 신경망은 학습이 가능하며, 추상적인 표현을 함축하는 기능을 가지고 있기 때문에, 얼굴 인식에 많이 활용되고 있다.Since the neural network model solves many abstract problems through the interconnection of neurons, the neural network is widely used for face recognition because it can learn and imply an abstract expression.

현재 다층 퍼셉트론(MLP)이 많이 사용되고 있으며, 이 MLP는 입력층, 은닉층, 출력층이 네트워크로 연결되어 있고, 은닉층에서 복잡한 얼굴 표현이 추상화되어 압축 저장되도록 하였다.Currently, multilayer perceptron (MLP) is widely used, and the input layer, hidden layer, and output layer are connected by a network, and complex face expressions are abstracted and stored in the hidden layer.

그러나 상기의 신경망에 의한 방법은 고유 얼굴의 방법과는 달리 학습에 의해서 구성되며, 이러한 학습과정은 전체 학습 패턴에 대해서 많은 반복을 거쳐야 하므로 매우 느리다는 단점을 지니고 있다. 또한 새로운 얼굴 패턴이 나타나면 재학습을 수행해야 한다는 단점이 있었다.However, the neural network method is composed of learning, unlike the unique face method, and this learning process has a disadvantage in that it is very slow because it requires a lot of repetition for the entire learning pattern. It also had the disadvantage of re-learning when new face patterns appeared.

그리하여 2001년 특허출원 제 10-2001-600호(상관관계를 이용한 유사도 측정의 얼굴 인증 방법)가 제안되었는바,Thus, in 2001, Patent Application No. 10-2001-600 (Face Recognition Method for Similarity Measurement Using Correlation) was proposed.

이는, 얼굴 인증시 기 저장된 얼굴과 인증을 위해 입력되는 얼굴 영상간의 상관관계를 이용하여 두 얼굴간의 유사도를 측정하여 얼굴을 인증하는 방법에 관한 것으로,The present invention relates to a method for authenticating a face by measuring a similarity between two faces using a correlation between a face previously stored during face authentication and a face image input for authentication.

카메라로부터 취득된 영상신호에서 특정 얼굴을 인식하기 위한 얼굴 인증 시스템에서의 상관관계를 이용한 유사도 측정의 얼굴 인증 방법에 있어서,In the face authentication method of the similarity measurement using the correlation in the face authentication system for recognizing a specific face in the image signal obtained from the camera,

입력된 얼굴영상을 고유 얼굴(Eigen Face) 기반으로 하여 얼굴영역을 추출하는 제1과정과,A first process of extracting a face region based on an input face image based on an eigen face;

상기 추출된 얼굴영역을 눈을 중심으로 일정한 범위 내에서 모자이크를 형성하여 눈 영역을 검출하는 제2과정과,A second process of detecting an eye region by forming a mosaic within a predetermined range around the eye with respect to the extracted face region;

검출된 눈 영역에서 노이즈 제거를 위한 전처리(preprocessing)과정을 수행하는 제3과정과,A third process of performing a preprocessing process for removing noise in the detected eye region;

상관관계식을 이용하여 입력된 정보와 데이터베이스에 저장된 얼굴정보의 유사도 측정을 수행하여 얼굴인증 결과를 출력하는 제4과정으로 이루어지도록 하였다.The fourth step of outputting the face authentication result is performed by measuring the similarity between the input information and the face information stored in the database using the correlation equation.

그러나 상기와 같은 종래의 상관관계를 이용한 유사도 측정의 얼굴 인증 방법에 의하여서는 얼굴을 비교하기 위하여 촬영할 때 방향이나 경사에 대하여 고려 하지 않고 일괄적으로 비교하게 되면서 동일한 사람이라도 다르게 나타나게 되는 문제점이 있었다.However, according to the face authentication method of similarity measurement using the conventional correlation as described above, there is a problem that even the same person appears differently while comparing them collectively without considering the direction or inclination when photographing to compare the faces.

2003년 9월 24일자 실용신안등록출원 제20-2003-30161호(근태 관리용 기초 데이터 생성 장치)가 제안되었는 바,Utility Model Registration Application No. 20-2003-30161 dated September 24, 2003 (basic data generation device for time and attendance management) was proposed.

이는, 노무자의 근태 관리용 기초 데이터를 생성하는 장치에 있어서,This is an apparatus for generating basic data for attendance management of laborers,

미리 지정된 거리 이내에 ID 카드가 위치한 경우, 상기 ID 카드로부터 노무자 식별 정보를 독출하는 ID 카드 입력부,An ID card input unit for reading laborer identification information from the ID card when the ID card is located within a predetermined distance;

상기 노무자의 얼굴 이미지를 촬영하여 디지털 이미지를 생성하는 카메라부,A camera unit for photographing the laborer's face to generate a digital image;

상기 노무자 식별 정보가 독출된 시각 정보를 제공하는 시간 정보 제공부,A time information providing unit providing time information from which the laborer identification information is read;

상기 ID 카드 입력부, 상기 카메라부 및 상기 시간 정보 제공부를 제어하고, 상기 노무자 식별 정보, 상기 디지털 이미지 및 상기 시각 정보를 이용하여 근태 관리용 기초 데이터를 생성하는 기초 데이터 생성 제어부,A basic data generation control unit which controls the ID card input unit, the camera unit and the time information providing unit, and generates basic time and attendance management basic data using the laborer identification information, the digital image and the time information;

상기 기초 데이터 생성 제어부의 제어에 의해 상기 노무자 식별 정보, 상기 디지털 이미지 및 상기 시각 정보를 디스플레이하는 표시부,A display unit which displays the laborer identification information, the digital image, and the visual information under control of the basic data generation controller;

상기 근태 관리용 기초 데이터를 저장하는 저장부 및 상기 기초 데이터 생성 제어부의 제어에 의해 미리 지정된 주기마다 상기 저장부에 저장된 하나 이상의 근태 관리용 기초 데이터를 통신망을 통해 근태 관리 시스템으로 전송하는 전송부를 포함하여 구성하였다.A storage unit storing the time and attendance management basic data and a transmission unit transmitting one or more time and attendance management basic data stored in the storage unit to a time and attendance management system through a communication network at predetermined intervals under the control of the basic data generation controller. It was configured by.

상기의 근태 관리용 기초 데이터 생성 장치는 상기의 저장부가 상기 노무자의 얼굴 형상에 상응하는 기준 이미지를 저장하는 경우, 상기 기준 이미지와 상기 디지털 이미지에 포함된 상기 노무자의 얼굴 형상의 외곽선을 추출하는 외곽선 추출부 및 상기 기준 이미지에 상응하여 추출된 외곽선과 상기 디지털 이미지에 상응하여 추출된 외곽선의 일치성 정도를 판단하여 이에 상응하는 수치 데이터를 생성하는 일치성 판단부를 더 포함할 수 있도록 하였다.The apparatus for generating basic time management data includes an outline for extracting an outline of a face shape of the laborer included in the reference image and the digital image when the storage unit stores a reference image corresponding to the face shape of the laborer. The extractor may further include a coincidence determiner configured to determine the degree of correspondence between the outline extracted in accordance with the reference image and the outline extracted in accordance with the digital image and generate numerical data corresponding thereto.

그러나 상기와 같은 종래의 근태 관리용 기초 데이터 생성 장치에 의하여서는 얼굴의 외곽만으로 동일인의 유무를 판단하는 방법으로는 많은 사람들 중에서 동일한 사람을 식별하는 데에는 부적합하여 사용이 한정되는 단점이 있었다.However, according to the conventional time and attendance management basic data generating apparatus as described above, the method of determining the presence or absence of the same person only by the outline of the face is inadequate for identifying the same person among many people, and thus has a disadvantage in that the use is limited.

이에 본 발명은 상기한 바와 같은 종래의 문제점을 해소시키기 위하여 안출된 것으로, 수험표나 출입증에 사진과 인적사항에 대한 정보를 저장한 상태에서 출입문에 설치한 카메라로 지금 촬영한 얼굴의 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 비교하여 상이한 정도와 해당 부위를 알려주도록 하여 부정을 미연에 방지할 수 있도록 한 얼굴인식에 의한 본인 여부의 판단방법을 제공하는 것을 그 목적으로 한다.Accordingly, the present invention has been made in order to solve the above-mentioned conventional problems, the image information and the examination table of the face photographed by the camera installed in the door in the state of storing the information on the photograph and personal information in the examination card or pass The purpose of the present invention is to provide a method of judging whether or not a person is identified by face recognition to compare the image information inputted in advance when making the pass so that the user may be informed of a different degree and a corresponding part.

상기 목적을 달성하기 위한 본 발명의 얼굴인식에 의한 본인 여부의 판단방법은,Determination of whether or not the person by the face recognition of the present invention for achieving the above object,

각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치들의 서브 컨트롤러에서 수험표나 출입증을 스캐너에 접근시켰는 가를 인식하는 단계와,Recognizing whether a test ticket or pass has been accessed by the sub-controller of at least one guest management device installed at each entrance;

상기 수험표나 출입증의 정보를 인식하도록 하는 단계와,Recognizing information on the admission ticket or pass;

수험생이나 출입자의 얼굴을 촬영하는 단계와,Photographing the examinee's or person's face;

얼굴 인식부에서 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위를 검출하면서 두 눈과 코 사이의 3점에 대한 거리를 벡터적으로 구하도록 하는 단계와.Detecting a region corresponding to the eyes of the face from the image information photographed by the face recognition unit, and vectorly obtaining a distance of three points between the eyes and the nose.

지금 촬영한 얼굴의 상태를 확인하면서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 동일한 조건이 되도록 지금 촬영한 화상정보를 x축, y축, z축으로 선택적으로 회전시키거나 3점에 대한 거리의 벡터값이 같아지도록 가로와 세로를 각각 확대 또는 축소하는 단계와,Optionally rotate the image information captured on the x-axis, y-axis, and z-axis, or check the distance of three points so that the same condition as the image information entered when creating the examinee or pass, while checking the state of the face that has been taken. Zooming in or out on the horizontal and vertical sides so that the vector values of are the same,

동일한 조건이 되도록 한 상기의 지금 촬영한 화상정보와, 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 전달받는 화상 비교부에서 1필드 데이터를 서로 비교한 결과 상이한 비율과 부위를 판단하도록 하는 단계와,A step of judging different ratios and parts as a result of comparing one field data with each other in the image comparing unit which receives the image information which has been taken under the same condition and the image information which has been input in advance when producing a test ticket or pass; ,

상기 화상 비교부의 비교 결과에 의하여 비교 판단부에서 상이한 부위가 안경이나 귀걸이와 같은 장신구에 의한 것인 것으로 판단되면 거의 동일한 장신구를 장착하도록 한 상태에서 다시 비교하여 상이한 비율과 부위를 판단하는 단계와,If it is determined by the comparison result of the image comparing unit that the different parts are made of jewelry such as glasses or earrings, the comparison is made again to determine different ratios and parts in a state in which almost identical jewelry is mounted;

상기 비교 판단부의 판단 결과와 함께 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 상기의 출입자 관리 시스템으로 전송하는 과정과,Transmitting the personal information and time information read from the admission ticket or the pass along with the determination result of the comparison determination unit to the accessor management system;

상기의 출입자 관리 장치들로부터 수험생이나 출입자의 정보 및 비교데이터를 수신한 출입 관리 장치의 컨트롤러에서 모니터에 표시하여 눈으로 확인할 수 있도록 하는 단계와,Displaying the information and comparison data of the examinee or the visitor from the visitor management devices on a monitor of the access management device so as to be visually confirmed;

미리 설정된 상이한 범위를 넘은 것으로 판단되면 데이터들을 데이터 베이스에 저장하는 동시에 정보 전송부를 통해 담당자 또는 시험 감독관의 휴대용 전화기나 PDA에 알려주도록 함으로써 효율적인 출입관리가 가능하도록 구성함을 특징으로 한다.If it is determined that the predetermined range is exceeded, it is characterized in that it is configured to enable efficient access management by storing the data in the database and notifying the mobile phone or PDA of the person in charge or the test supervisor through the information transmission unit.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 개략적인 구성을 도시한 것으로서이고, 도 2는 본 발명에 따른 상기 출입자 관리 시스템의 구성을 도시한 블록도이고, 도 3은 본 발명에 따른 출입자 관리 장치들 각각의 구성을 도시한 블록도이며, 도 4a,4b,4c,4d는 본 발명의 동작을 위한 과정들을 나타낸 플로차트이다.1 is a schematic configuration of the present invention, Figure 2 is a block diagram showing the configuration of the access management system according to the present invention, Figure 3 is a configuration of each of the access management devices according to the present invention 4A, 4B, 4C, and 4D are flowcharts illustrating processes for the operation of the present invention.

상기 도 1은 본 발명의 개략적인 구성을 도시한 것으로서,1 illustrates a schematic configuration of the present invention,

하나의 출입자 관리 시스템(1)에는 다수의 출입 관리 장치(10)(10a)...(10n)들을 연결하면서 각각의 출입문에 설치하여 출입하는 수험생이나 출입자가 수험표나 출입증의 본인인가의 여부를 판단하도록 한다.One entrance management system 1 is connected to a plurality of access management devices 10, 10a, 10n, and it is determined whether or not the examinee or passer who is installed at each entrance and enters the entrance ticket or pass. Use judgment.

도 2는 본 발명에 따른 상기 출입자 관리 시스템(1)의 구성을 도시한 것으로서,2 is a diagram showing the configuration of the person management system 1 according to the present invention,

상기의 출입자 관리 장치(10)(10a)...(10n)들과 데이터를 전송하거나 수신하기 위한 송수신부(2)와,A transceiving unit 2 for transmitting or receiving data to and from the person managing apparatus 10, 10a, ... 10n;

상기의 송수신부(2)를 통하여 수신되는 데이터에 의하여 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 현장에서 지금 촬영한 화상정보를 비교한 비교 데이터는 물론, 출입자의 정보까지 표시하는 모니터(3)와,The monitor (3) displaying not only the comparison data comparing the image information previously input when the examinee or pass is produced by the data received through the transmitting / receiving unit 2 and the image information photographed on the spot, but also the information of the person (3) )Wow,

상기의 모니터(3)에 표시된 화상 및 정보에 의하여 별도로 확인이 필요한 가의 여부를 선택하여 입력시키기 위한 다수의 키를 구비한 키입력부(4)와,A key input unit (4) having a plurality of keys for selecting and inputting whether or not confirmation is necessary separately based on the image and information displayed on the monitor (3);

상기 키입력부(4)를 통한 감독자 또는 관리자의 선택 사양을 전달받으면서 모니터(3)를 비롯한 내부의 동작을 제어하는 컨트롤러(5)와,A controller 5 for controlling an internal operation including a monitor 3 while receiving a selection of a supervisor or a manager through the key input unit 4;

상기 컨트롤러(5)의 제어를 받으면서 송수신되는 정보를 포함하는 데이터들을 저장하는 데이터베이스(6)와,A database 6 for storing data including information transmitted and received under the control of the controller 5;

상기 컨트롤러(5)의 제어를 받으면서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 지금 촬영한 화상정보가 상이한 것으로 판단되거나 키입력부(4)를 통한 입력이 있으면 그에 대한 정보를 출입을 관리하는 감독자 또는 관리자의 휴대용 전화기나 PDA에 알려준 후 전송 상태를 확인하도록 하는 정보 전송부(7)들로 구성한다.The supervisor who manages the entrance and exit of the image information which is previously input when the examination table or the pass is produced under the control of the controller 5 and the image information which is photographed now is different or the input is performed through the key input unit 4. Or it consists of information transmission unit 7 for confirming the transmission state after notifying the administrator's portable phone or PDA.

그리고 도 3은 상기 출입자 관리 장치(10)(10a)...(10n)들 각각의 구성을 도시한 것으로서,3 shows the configuration of each of the accessor management apparatuses 10, 10a, 10n,

출입을 원하는 출입자가 자신의 개인 정보와 함께 사진이 개재된 수험표나 출입증의 정보를 읽어 내는 스캐너(11)와,A scanner 11 in which a person who wants to enter and exits reads information about a test ticket or a pass containing a photograph together with his / her personal information;

상기의 스캐너(11)를 통하여 읽은 정보에 의하거나 출입자가 자신의 수험번호나 주민등록번호 등을 서브 키입력부(13)를 통해 직접 입력시키면 이에 의하여 지금 출입하는 출입자의 정보를 인식하는 정보처리부(12)와,Information processing unit 12 for recognizing the information of the person currently entering and exiting by the information read through the scanner 11 or directly enters his or her examinee's number or resident registration number through the sub-key input unit 13 Wow,

상기 정보처리부(12)를 통하여 출입자의 정보가 입력되는 것을 인식하면 촬영을 위해 내부의 동작을 제어하는 서브 컨트롤러(14)와,A sub-controller 14 for controlling an internal operation for capturing when the information of the person is input through the information processor 12;

상기 서브 컨트롤러(14)의 제어를 받으면서 전면을 응시하는 출입자의 얼굴 부위를 촬영하는 카메라(15)와,Camera 15 for taking a picture of the face of the person gazing at the front while being controlled by the sub-controller 14,

상기 카메라(15)에 의해 지금 촬영한 화상정보를 전달받으면서 이를 표시하여 출입자가 자신의 얼굴을 직접 확인할 수 있도록 하는 모니터(16)와,A monitor 16 for receiving the image information photographed by the camera 15 and displaying the same, thereby allowing a person to directly check his / her face;

상기 서브 컨트롤러(14)의 제어에 의하여 출입자의 전면 상단에 위치하는 상기의 카메라(15)를 응시하도록 하거나 촬영 상태에 따른 저장된 음성의 안내정보를 스피커(18)로 출력하는 음성출력부(17)와,The voice output unit 17 controls the sub-controller 14 to stare at the camera 15 located at the upper front of the visitor or to output the guide information of the stored voice to the speaker 18 according to the photographing state. Wow,

상기 서브 컨트롤러(14)의 제어를 받으면서 상기의 지금 촬영한 화상정보에 의하여 얼굴 중 눈에 해당하는 부위를 검출한 후 두 눈과 코 사이의 3점 거리를 벡터적으로 구하면서 화상정보의 3점 거리의 벡터값에 의하여 촬영한 얼굴의 상태를 판단하는 얼굴 인식부(19)와,Under the control of the sub-controller 14, the area corresponding to the eye of the face is detected by the image information of the photographed above, and then three points of the image information are obtained by vectorly obtaining the three-point distance between the two eyes and the nose. A face recognition unit 19 for judging the state of the photographed face based on the vector value of the distance,

상기 얼굴 인식부(19)에 의해 지금 촬영한 얼굴의 화상정보에서 두 눈을 찾거나 찾을 수 없는 경우 서브 컨트롤러(14)의 제어에 의하여 청색 램프(21)나 적색 램프(22)를 선택적으로 점등시키는 램프 구동부(20)와,If both eyes cannot be found or found in the image information of the face photographed by the face recognition unit 19, the blue lamp 21 or the red lamp 22 is selectively turned on under the control of the sub controller 14. Lamp driving unit 20 to make,

상기 얼굴 인식부(19)에 의한 두 눈과 코 사이의 3점 거리와 미리 입력시킨 출입자의 화상정보의 3점 거리에 의하여 촬영한 얼굴의 상태를 확인하면서 미리 입력시킨 화상정보와 동일한 조건이 되도록 지금 촬영한 화상정보를 x축, y축, z축으로 선택적으로 회전시키거나 3점에 대한 거리의 벡터값이 같아지도록 가로와 세로를 각각 확대 또는 축소하면서 최대한 동일한 조건의 화상 정보가 되도록 하여 비교하는 화상 비교부(23)와,The three-point distance between the eyes and the nose by the face recognizing unit 19 and the three-point distance of the image information of the previously inputted person are checked so as to be in the same condition as the image information input in advance. Selectively rotate the image information captured on the x-axis, y-axis, and z-axis, or enlarge or reduce the horizontal and vertical angles so that the vector value of the distance to the three points is the same, so that the image information can be the same as possible. Image comparison part 23 to say,

상기 화상 비교부(23)의 1필드 데이터를 비교한 결과 상이한 비율이 얼마인가를 인식하면서 특히 많이 상이한 부분이 얼굴의 어느 부분인가를 판단하는 비교 판단부(24)와,A comparison judging section 24 which determines which part of the face is particularly different while recognizing how many different ratios are as a result of comparing the one field data of the image comparing section 23,

상기 서브 컨트롤러(14)의 제어를 받으면서 상기 비교 판단부(24)의 판단 결과와 함께 출입자의 수험표나 출입증에서 읽은 신상정보를 상기의 출입자 관리 시스템(1)으로 전송하면서 출입자 관리 시스템(1)으로부터 전송되는 정보를 상기의 서브 컨트롤러(14)에 전하는 서브 송수신부(25)와,Under the control of the sub-controller 14, along with the determination result of the comparison determination unit 24 and the personal information read from the entrance examination card or pass of the person to the person management system (1) while transmitting from the person management system (1) A sub transceiver 25 which transmits the transmitted information to the sub controller 14 described above;

상기의 동작이 수행되는 실시간을 측정하여 출입하는 모든 출입자의 시간을 측정하여 상기의 서브 컨트롤러(14)에 전하는 리얼 타임 클록(26)들로 구성한다.The real time clock is measured to measure the time of all the persons entering and exiting the real time, and the real time clocks 26 are transmitted to the sub controller 14.

본 발명은 상기의 구성에 의하여 출입하는 사람이 수험표나 수험표 상의 본인과 동일한가를 판단하기 위한 얼굴인식에 의한 본인 여부의 판단방법에 그 특징이 있는 것으로서,The present invention is characterized in that the method of determining whether or not the person by the face recognition to determine whether the person entering and exiting the same as the person on the test ticket or the test ticket by the above configuration,

각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치(10)(10a)...(10n)는 출입을 원하는 출입자 자신의 개인 정보와 함께 사진이 개재된 수험표나 출입증을 스캐너(11)에 접근시켰는 가를 인식하여(단계 31) 접근시킨 경우에는 수험표나 출입증의 정보를 읽어 내도록 하는 한편(단계 32), 수험표나 출입증을 스캐너(11)에 접근시키지 않으면, 키입력부(13)를 통해 자신의 수험번호나 주민등록번호 등을 직접 입력시켰는 가를 인식하면서(단계 33) 음성출력부(17)로 제어신호를 출력하여 '신상정보의 입력을 위한 절차를 수행할 것을 권유하는 내용'의 음성안내를 수행하도록 한다(단계 34).At least one visitor management device (10) (10a) ... (10n) is installed at each entrance to access the scanner 11 with a test ticket or pass containing a photograph along with the personal information of the person who wants to enter. In the case of accessing the test ticket or pass by reading the test ticket or pass (step 32), if the test ticket or pass is not accessed by the scanner 11, the student's test number is entered through the key input unit 13 (B) while outputting a control signal to the voice output unit 17 while recognizing whether the resident registration number or the like has been directly input (step 33), a voice guidance of 'content recommending to perform a procedure for inputting personal information' is performed. Step 34).

상기의 수험생이나 출입자가 스캐너(11)에 수험표나 출입증을 접촉하거나 자신의 수험표나 주민등록번호를 키입력부(13)를 통해 입력하여 정보를 읽은 상태에서는(단계 35) 상기의 컨트롤러(14)에서 정보처리부(12)로 제어신호를 출력하여 읽은 정보에 의하여 지금 출입하는 출입자의 신상정보를 인식하도록 한다(단계 36).In the state in which the examinee or the person in contact with the examinee ticket or pass is entered into the scanner 11 or inputs his or her examinee ticket or social security number through the key input unit 13 to read the information (step 35), the information processing unit in the controller 14 above. The control signal is output to (12) to recognize the personal information of the person who is entering and exiting by the read information (step 36).

상기 정보처리부(12)를 통하여 출입자의 정보가 입력되는 것을 서브 컨트롤러(14)에서 인식하면(단계 37) 촬영을 위해 내부의 동작을 제어하도록 한다(단계 38).If the sub-controller 14 recognizes that the information of the visitor is input through the information processor 12 (step 37), the internal operation is controlled to capture the image (step 38).

상기 서브 컨트롤러(14)의 제어를 받는 음성출력부(17)에서 수험생이나 출입자가 전면의 상단에 위치하는 카메라(15)를 응시하도록 하는 음성의 안내를 수행하여 스피커(18)를 통해 들을 수 있도록 한다(단계 39).In the voice output unit 17 under the control of the sub-controller 14, the examinee or a person may guide the voice to stare at the camera 15 located at the top of the front so that the speaker 18 can listen through the speaker 18. (Step 39).

상기 서브 컨트롤러(14)에서는 전면을 응시하는 출입자의 얼굴 부위를 카메라(15)로 촬영하도록 한다(단계 40).In the sub-controller 14, the face of the person staring at the front is photographed with the camera 15 (step 40).

상기 카메라(15)에 의해 지금 촬영한 화상정보가 서브 컨트롤러(14)에 전달되면(단계 41), 얼굴 인식부(19)로 제어신호를 출력하여 상기의 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위와 그 하단에 위치하는 코를 검출하도록 하면서(단계 42) 두 눈과 코 사이의 3점 거리를 벡터적으로 구하도록 한다(단계 43).When the image information shot now by the camera 15 is transmitted to the sub controller 14 (step 41), a control signal is output to the face recognition unit 19 to the face of the face in the image information shot now. The three points of distance between the two eyes and the nose are vectorized (step 43) while detecting the corresponding area and the nose located at the bottom thereof (step 42).

상기 얼굴 인식부(19)를 통하여 촬영된 얼굴의 상태를 판단한 서브 컨트롤러(14)에서 지금 촬영한 화상정보와, 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보의 두 눈과 코 사이의 3점 거리를 벡터적으로 비교하면서 얼굴이 전면이 아닌 좌측이나 우측의 다른 방향을 응시한 것으로 판단되면(단계 44), 도 5에 도시한 것과 같이 얼굴이 전면을 향하도록 지금 촬영한 화상정보의 얼굴을 회전시키도록 한다(단계 45).The three-point distance between the two eyes and the nose of the image information photographed by the sub-controller 14 determining the state of the face photographed by the face recognizing unit 19 and the image information previously input when the examinee or pass is produced. If it is determined that the face is staring at another direction of the left or right side instead of the front side (step 44), the face of the image information imaged now is rotated so that the face faces the front side as shown in FIG. (Step 45).

상기의 비교 결과, 정면이 아닌 위쪽이나 아래쪽의 다른 방향을 응시한 것으로 판단되면(단계 46), 도 6에 도시한 것과 같이 얼굴이 정면을 향하도록 지금 촬영한 화상정보의 얼굴을 회전시키도록 한다(단계 47).As a result of the comparison, if it is determined that the image is stared at another direction above or below the front face (step 46), the face of the image information photographed now is rotated such that the face faces the front face as shown in FIG. (Step 47).

상기의 비교 결과, 얼굴이 시계방향이나 반시계방향으로 기울어진 것으로 판단되면(단계 48), 도 7에 도시한 것과 같이 얼굴이 정상이 되도록 지금 촬영한 화상정보의 얼굴을 반시계방향이나 시계방향으로 회전시키도록 한다(단계 49).As a result of the comparison, if it is determined that the face is inclined clockwise or counterclockwise (step 48), as shown in Fig. 7, the face of the image information photographed so that the face becomes normal is counterclockwise or clockwise. To rotate (step 49).

상기 서브 컨트롤러(14)에서 상기의 얼굴 인식부(19)에 의한 두 눈과 코 사이의 3점 거리와 입력된 출입자의 화상 정보가 동일한 크기가 되도록 가로와 세로를 각각 확대 또는 축소하면서 최대한 동일한 조건의 화상 정보가 되도록 변환한 후 화상 비교부(23)에서 화상이 동일한가를 비교하도록 출력한다(단계 50).In the sub-controller 14, the three-point distance between the eyes and the nose by the face recognition unit 19 and the image information of the inputted person are enlarged or reduced, respectively, so as to have the same size. After conversion so as to be image information, the image comparison section 23 outputs to compare whether the images are the same (step 50).

상기 서브 컨트롤러(14)에서 비교 판단부(24)로 제어신호를 출력하여 상기 화상 비교부(23)로부터 전달되는 화상정보의 1필드 데이터들을 서로 비교한 결과(단계 51), 상이한 비율이 얼마인가를 인식하도록 한다(단계 52).As a result of comparing one field data of the image information transmitted from the image comparing unit 23 by outputting a control signal from the sub controller 14 to the comparison determining unit 24 (step 51), what is the different ratio? (Step 52).

상기의 전체적인 비교는 얼굴에 대한 두 화상의 데이터를 서로 비교하여 동일하지 않는 부위가 얼마나 되는가를 판단하여 비슷하거나 상이한 얼굴의 정도를 빨리 인식하도록 한다.The overall comparison above compares data of two images of a face with each other to determine how many non-identical portions are present so as to quickly recognize the degree of similar or different faces.

상기의 비교 결과에 의하여 얼굴의 화상정보가 많이 상이한 부분이 얼굴의 어느 부분인가를 판단하도록 한다(단계 53).Based on the result of the comparison, it is judged which part of the face is the part where the image information of the face is greatly different (step 53).

상기의 상이한 얼굴의 부위가 안경이나 귀걸이와 같은 장신구를 하거나 하지 않은 상태에 의해 상이하게 판단되는 가를 인식하여(단계 54) 맞는 경우에는 상기의 화상 비교부(23)로 다시 피드백시키면서 안경이나 귀걸이와 같은 장신구를 착용하지 않은 쪽의 화상정보에 비슷한 장신구를 착용한 상태가 되도록 가상의 화상정보를 만든다(단계 55).Recognizing whether different parts of the face are judged differently by wearing or not wearing an accessory such as glasses or earrings (step 54), and if it fits, feeds back the glasses or earrings while feeding back to the image comparing unit 23 above. The virtual image information is made to be in a state in which jewelry is similar to the image information of the side not wearing the same ornament (step 55).

그 후에 서브 컨트롤러(14)에서 상기의 비교 판단부(24)로 제어신호를 출력하여 가상의 화상정보와 장신구를 착용한 화상정보를 서로 비교하도록 하여 상이한 정도와 부위에 대한 정보를 검출하도록 한다(단계 56).Subsequently, the sub-controller 14 outputs a control signal to the comparison determination unit 24 to compare the virtual image information with the image information wearing the jewelry so as to detect information about different degrees and regions ( Step 56).

이 경우에는 얼굴의 부위를, 머리와 이마를 포함하는 상단 부위, 눈과 코를 포함하는 중앙 부위, 귀를 포함하는 얼굴의 양측 부위, 입과 턱의 부위 등의 하단 부위 등으로 구분하여 알려주도록 함으로써 후에 육안으로 확인할 때 주의해서 살펴볼 수 있도록 한다.In this case, the parts of the face are classified into upper parts including the head and forehead, central parts including the eyes and nose, both parts of the face including the ears, and lower parts such as the parts of the mouth and chin. This will allow you to look carefully later when visually checking.

상기 서브 컨트롤러(14)에서는 리얼 타임 클록(26)으로부터 출입의 절차가 행하여지는 때의 시간정보를 전달받는다(단계 57).The sub controller 14 receives the time information when the entry / exit procedure is performed from the real time clock 26 (step 57).

상기 비교 판단부(24)의 한 차례 또는 두 차례에 걸친 판단 결과와 함께 출입자의 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 전달받은 상기의 서브 컨트롤러(14)에서는 서브 송수신부(25)로 제어신호를 출력하여 이들 정보를 상기의 출입자 관리 시스템(1)으로 전송하도록 하는 동시에 상기의 출입자 관리 시스템(1)으로부터 전송되는 정보를 상기의 서브 컨트롤러(14)에서 전달받도록 한다(단계 58).The sub-controller 14 controls the sub-transmitter and receiver 25 in the sub-controller 14 having received the identification information and time information read from the examinee's test ticket or the pass card together with one or two judgment results of the comparison determination unit 24. A signal is output so that these information is transmitted to the person management system 1, and at the same time, the sub controller 14 receives information transmitted from the person management system 1 (step 58).

상기의 출입자 관리 장치(10)(10a)...(10n)들로부터 수험생이나 출입자의 정보 및 비교데이터를 수신받은 송수신부(2)에서 컨트롤러(5)에 전달한다(단계 59).The transmission and reception unit 2 receives the examinee's information and the comparison data from the accessor management apparatuses 10, 10a, 10n, and transmits the received information and comparison data to the controller 5 (step 59).

상기의 송수신부(2)를 통하여 수신되는 데이터를 전달받은 컨트롤러(5)에서 미리 입력시킨 화상정보와 현장에서 지금 촬영한 화상정보를 비교한 비교 데이터는 물론, 출입자의 정보까지 모니터(3)에 표시한다(단계 60).In addition to the comparison data comparing the image information previously input by the controller 5, which has received the data received through the transmission / reception unit 2, and the image information currently taken in the field, the information of the person to the monitor 3 Display (step 60).

상기의 비교결과 미리 정한 범위 이상으로 상이한 것으로 판단되면(단계 61), 이를 인식한 컨트롤러(5)에서 송수신되는 정보를 포함하는 데이터들을 저장하는 데이터베이스(6)에 저장하는 동시에(단계 62), 정보 전송부(7)로 제어신호를 출력하여 미리 입력시킨 화상정보와 지금 촬영한 화상정보가 상이한 수험생이나 출입자의 정보를 출입을 관리하는 감독관 또는 관리자의 휴대용 전화기나 PDA에 알려주도록 한 후(단계 63) 정상적으로 수신하였는 가에 대한 정보를 수신한 후 종료하도록 함으로써 나중에 다른 사람이 대리로 하였는가의 여부를 담당자나 시험 감독관이 육안으로 직접 확인하여 정확하게 판단하면서 효율적인 출입관리가 가능하도록 한다(단계 64).If it is determined that the result of the comparison is different from the predetermined range or more (step 61), the data is stored in the database 6 that stores the information including the information transmitted and received by the controller 5 (step 62). After outputting a control signal to the transmission unit 7 to inform the examiner or manager's portable telephone or PDA that manages the entrance and exit the information of the examinee or the person who has differently inputted image information and the image information which has been taken now (step 63). After receiving the information on whether or not it was normally received, it is terminated by the person in charge or the test supervisor by visually confirming whether or not someone else has acted as a substitute so that efficient access management can be performed (step 64).

상기의 데이터 베이스(6)에는 모든 수험생이나 출입자의 정보가 저장되도록 저장함으로써 모든 출입자에 관한 정보를 필요한 기간동안 관리할 수 있도록 한다(단계 65).The database 6 stores the information of all examinees or visitors so that information about all persons can be managed for a necessary period (step 65).

이상에서 상세히 설명한 바와 같이 본 발명에 따른 얼굴인식에 의한 본인 여부의 판단방법에 의하여서는 수험표나 출입증에 사진과 인적사항에 대한 정보를 스캐너를 통하여 인식도록 하면서 출입자 또는 수험생의 정면 얼굴을 출입문에 설치한 카메라로 촬영하도록 하여 지금 촬영한 얼굴의 화상정보가 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 서로 동일한 조건으로 변환하는 중에 비교하여 상이한 정도와 많이 상이한 부위의 정보를 알려주어 후에 육안으로 확인할 때 보다 정확성을 기할 수 있도록 함으로써 부정을 미연에 방지할 수 있는 효과가 있다.As described in detail above, in accordance with the present invention, a face recognition method according to the present invention installs the front face of the person or examinee on the door while allowing the scanner to recognize information about the photograph and personal information on the test ticket or pass. It is possible to shoot with one camera so that the image information of the face you have taken now can be compared to each other while converting the previously entered image information into the same condition when producing the admission ticket or pass. When the accuracy can be more accurate, there is an effect that can be prevented in advance.

Claims (3)

각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치(10)(10a)...(10n)는 출입을 원하는 출입자 자신의 개인 정보와 함께 사진이 개재된 수험표나 출입증을 스캐너(11)에 접근시켜 판독하도록 하는 단계와,At least one access management device (10) (10a) ... (10n) is installed at each entrance to access the scanner 11 with a test ticket or pass containing a photograph along with the personal information of the person who wants to access. To read, 수험표나 출입증을 스캐너(11)에 접근시키지 않으면, 키입력부(13)를 통해 자신의 수험번호나 주민등록번호 등을 직접 입력시켰는 가를 인식하면서 음성출력부(17)로 제어신호를 출력하여 '신상정보의 입력을 위한 절차를 수행할 것을 권유하는 내용'의 음성안내를 수행하는 단계와,If the test ticket or pass does not approach the scanner 11, the control signal is output to the voice output unit 17 by recognizing whether the student's test number or resident registration number is directly input through the key input unit 13, and the " Performing a voice guidance of "inviting to perform a procedure for inputting" 상기의 수험표, 출입증, 수험번호 또는 주민등록번호에 의하여 수험생이나 출입자의 정보를 읽은 상태에서 정보처리부(12)를 통해 읽은 정보에 의해 출입자의 신상정보를 인식하도록 하는 단계와,Recognizing the personal information of the person by the information read through the information processing unit 12 in the state of reading the information of the examinee or the person by the test ticket, pass, entrance code or resident registration number; 서브 컨트롤러(14)에서 음성출력부(17)를 통해 수험생이나 출입자가 카메라를 응시하도록 하는 음성 안내를 수행하는 단계와,Performing a voice guidance in which the examinee or a person gazes at the camera through the voice output unit 17 in the sub controller 14; 상기 출입자의 얼굴 부위를 카메라(15)로 촬영한 상태에서 지금 촬영한 화상정보를 상기 서브 컨트롤러(14)에서 전달받으면 얼굴 인식부(19)로 제어신호를 출력하여 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위를 검출하면서 얼굴의 화상정보를 인식하도록 하는 단계와,When the sub controller 14 receives the image information photographed now while the face part of the person is photographed by the camera 15, a control signal is output to the face recognition unit 19 to display the face in the image information captured now. Recognizing image information of a face while detecting a part corresponding to the eye; 상기 서브 컨트롤러(14)에서 화상 비교부(23)로 제어신호를 출력하여 지금 촬영한 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 동일한 조건이 되도록 하여 동일한 가를 비교하는 단계와,Outputting a control signal from the sub-controller 14 to the image comparing unit 23 to compare the same whether the image information shot now and the image information input when the examinee or pass is made under the same conditions; 상기 서브 컨트롤러(14)에서 비교 판단부(24)로 제어신호를 출력하여 1필드 데이터를 서로 비교한 결과 상이한 비율이 얼마인가를 인식하는 동시에 많이 상이한 부분이 얼굴의 어느 부분인가를 판단하는 단계와,Outputting a control signal from the sub-controller 14 to the comparison determination unit 24 and comparing one field data with each other to recognize how many different ratios are included and determining which parts of the face are very different parts; , 리얼 타임 클록(26)으로부터 시간정보를 전달받는 단계와,Receiving time information from the real time clock 26; 상기 비교 판단부(24)의 판단 결과와 함께 출입자의 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 전달받는 상기의 서브 컨트롤러(14)에서 이들 정보를 출입자 관리 시스템(1)으로 전송하거나 출입자 관리 시스템(1)으로부터의 정보를 전달받는 단계와,The sub-controller 14, which receives the identification information and time information read from the examinee's admission ticket or pass, together with the determination result of the comparison determination unit 24, transmits the information to the accessor management system 1 or accessor management system. Receiving information from (1), 상기의 출입자 관리 장치(10)(10a)...(10n)들로부터 수험생이나 출입자의 정보 및 비교데이터를 송수신부(2)를 통해 전달받은 컨트롤러(5)에서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 현장에서 지금 촬영한 화상정보를 비교한 비교 데이터는 물론, 출입자의 정보까지 모니터(3)에 표시하는 단계와,When the examinee or pass is produced by the controller 5, which has received the information and comparison data of the examinee or the visitor from the visitor management devices 10, 10a, 10n, through the transceiver 2, Displaying not only the comparison data comparing the image information and the image information photographed on the spot, but also the information of the person on the monitor 3; 미리 설정된 상이한 범위를 넘은 것으로 판단되면 이를 인식한 컨트롤러(5)에서 송수신되는 정보를 포함하는 데이터들을 저장하는 데이터베이스(6)에 저장하는 동시에 정보 전송부(7)로 제어신호를 출력하여 미리 입력시킨 화상정보와 지금 촬영한 화상정보가 상이하거나 키입력부(4)를 통한 입력이 있는 수험생이나 출입자의 정보를 출입을 관리하는 감독관 또는 관리자의 휴대용 전화기나 PDA에 알려주는 단계들에 의해 수행됨을 특징으로 하는 얼굴인식에 의한 본인 여부의 판단방법.When it is determined that the predetermined range is exceeded, the controller 5 stores the data including the information transmitted and received by the controller 5, and outputs a control signal to the information transmitter 7 in advance. Characterized in that it is performed by the step of informing the examiner or administrator's portable telephone or PDA of the examinee or the administrator who manages the entrance and exit of the examinee or the person who has the image information different from the image information which has just been taken or is input through the key input unit 4. Judgment method of person by face recognition. 제 1 항에 있어서,The method of claim 1, 상기의 얼굴 인식부(19)에서 지금 촬영한 화상정보에서 얼굴의 화상정보를 인식하는 과정은,The process of recognizing the image information of the face from the image information photographed by the face recognition unit 19, 상기의 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위와 그 하단에 위치하는 코를 검출하도록 하면서 두 눈과 코 사이의 3점 거리를 벡터적으로 구하도록 하는 단계와,Detecting the area corresponding to the eyes of the face and the nose located at the bottom thereof from the image information of the photographed image, and vectorly obtaining the three-point distance between the eyes and the nose; 상기 얼굴 인식부(19)를 통하여 촬영된 얼굴의 상태를 판단한 서브 컨트롤러(14)에서 지금 촬영한 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보의 두 눈과 코 사이의 3점 거리를 벡터적으로 비교하면서 얼굴이 전면이 아닌 좌측이나 우측의 다른 방향을 응시한 것으로 판단되면 얼굴이 전면을 향하도록 지금 촬영한 화상정보의 얼굴을 회전시키도록 하는 단계와,The three-point distance between the two eyes and the nose of the image information photographed now and the image information previously input when the examinee or pass is produced by the sub-controller 14 having determined the state of the face photographed by the face recognition unit 19 is determined. If it is determined that the face is staring at a different direction of the left or right side of the face instead of the front side, rotating the face of the image information photographed so that the face faces the front side; 상기의 비교 결과 정면이 아닌 위쪽이나 아래쪽의 방향을 응시한 것으로 판단되면, 얼굴이 정면을 향하도록 지금 촬영한 화상정보의 얼굴을 회전시키도록 하는 단계와,If it is determined that the image is viewed from above or below, rather than from the front, rotating the face of the image information photographed so that the face faces the front; 상기의 비교 결과 얼굴이 시계방향이나 반시계방향으로 기울어진 것으로 판단되면 얼굴이 정상이 되도록 지금 촬영한 화상정보를 회전시키도록 하는 단계와,If it is determined that the face is inclined clockwise or counterclockwise as a result of the comparison, rotating the image information photographed so that the face is normal; 상기 서브 컨트롤러(14)에서 상기의 얼굴 인식부(19)에 의한 두 눈과 코 사이의 3점 거리와 입력된 출입자의 화상 정보가 동일한 크기가 되도록 가로와 세로를 각각 확대 또는 축소하면서 최대한 동일한 조건의 화상정보가 되도록 변환한 후 화상 비교부(23)에 출력하는 단계들에 수행됨을 특징으로 하는 얼굴인식에 의한 본인 여부의 판단방법.In the sub-controller 14, the three-point distance between the eyes and the nose by the face recognition unit 19 and the image information of the inputted person are enlarged or reduced, respectively, so as to have the same size. The method according to claim 1, characterized in that the conversion is performed to the image information of the image comparator 23 and then output to the image comparison step (23). 제 1 항에 있어서,The method of claim 1, 상기의 비교 판단부(24)에서 판단한 결과에 의하여 상이한 얼굴의 부위가 안경이나 귀걸이와 같은 장신구를 하거나 하지 않은 상태에 의한 것으로 인식되면 상기의 화상 비교부(23)로 다시 피드백시키면서 안경이나 귀걸이와 같은 장신구를 착용하지 않은 쪽의 화상정보에 비슷한 장신구를 착용한 상태가 되도록 가상의 화상정보를 만드는 단계와,When it is recognized that the parts of the different faces are caused by wearing or not wearing glasses or earrings according to the result determined by the comparison determining unit 24, the glasses or earrings are fed back to the image comparing unit 23 while being fed back. Creating virtual image information such that the image information of the side not wearing the same jewelry is worn with similar jewelry; 서브 컨트롤러(14)에서 상기의 비교 판단부(24)로 제어신호를 출력하여 가상의 화상정보와 장신구를 착용한 화상정보를 서로 비교하도록 한 후 상이한 정도와 부위에 대한 정보를 검출하도록 하는 단계들에 의해 수행됨을 특징으로 하는 얼굴인식에 의한 본인 여부의 판단방법.The sub-controller 14 outputs a control signal to the comparison determination unit 24 to compare the virtual image information with the image information wearing jewelry, and then detects information on different degrees and regions. Determination method of the identity by facial recognition, characterized in that performed by.
KR1020060006700A 2006-01-23 2006-01-23 A Method Of Face Recognizing KR100795360B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060006700A KR100795360B1 (en) 2006-01-23 2006-01-23 A Method Of Face Recognizing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060006700A KR100795360B1 (en) 2006-01-23 2006-01-23 A Method Of Face Recognizing

Publications (2)

Publication Number Publication Date
KR20070077264A KR20070077264A (en) 2007-07-26
KR100795360B1 true KR100795360B1 (en) 2008-01-17

Family

ID=38501874

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060006700A KR100795360B1 (en) 2006-01-23 2006-01-23 A Method Of Face Recognizing

Country Status (1)

Country Link
KR (1) KR100795360B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102078249B1 (en) 2019-06-18 2020-02-17 주식회사 페이스테그 Method for face authentication, apparatus for face authentication and computer program for the same
US11847849B2 (en) 2020-07-31 2023-12-19 Korea Institute Of Science And Technology System and method for companion animal identification based on artificial intelligence

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101499769B1 (en) * 2009-05-04 2015-03-09 신중철 The method and system to achieve the reality of examinee in on-line test using a webcam
CN107506735A (en) * 2017-08-28 2017-12-22 江西博瑞彤芸科技有限公司 Photo classifying method and taxis system
CN113542668A (en) * 2020-04-21 2021-10-22 上海复客云众创空间管理有限公司 Monitoring system and method based on 3D camera
KR102596462B1 (en) * 2021-09-07 2023-10-31 주식회사 에버정보기술 Access control authentication system and method capable of measuring heart rate using multi-modal sensor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020057522A (en) * 2001-01-05 2002-07-11 조양호 Face-image recognition method of similarity measure using correlation
KR20030015166A (en) * 2002-10-10 2003-02-20 (주)위즈빌 Two-Way Wireless Entrance Control System
KR20030026455A (en) * 2001-09-25 2003-04-03 주식회사 알파엔지니어링 The synthesis control system and application method
KR200337484Y1 (en) 2003-09-24 2003-12-31 주식회사 아이오시스템 Apparatus for creating source data for assiduity management
KR20040074242A (en) * 2003-02-17 2004-08-25 김태원 System and method for security using digital image recognition
KR20050059359A (en) * 2003-12-13 2005-06-20 주식회사 진곡 A system for controlling the exit and entry using a camera built-in no-touch type card reader

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020057522A (en) * 2001-01-05 2002-07-11 조양호 Face-image recognition method of similarity measure using correlation
KR20030026455A (en) * 2001-09-25 2003-04-03 주식회사 알파엔지니어링 The synthesis control system and application method
KR20030015166A (en) * 2002-10-10 2003-02-20 (주)위즈빌 Two-Way Wireless Entrance Control System
KR20040074242A (en) * 2003-02-17 2004-08-25 김태원 System and method for security using digital image recognition
KR200337484Y1 (en) 2003-09-24 2003-12-31 주식회사 아이오시스템 Apparatus for creating source data for assiduity management
KR20050059359A (en) * 2003-12-13 2005-06-20 주식회사 진곡 A system for controlling the exit and entry using a camera built-in no-touch type card reader

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102078249B1 (en) 2019-06-18 2020-02-17 주식회사 페이스테그 Method for face authentication, apparatus for face authentication and computer program for the same
US11847849B2 (en) 2020-07-31 2023-12-19 Korea Institute Of Science And Technology System and method for companion animal identification based on artificial intelligence

Also Published As

Publication number Publication date
KR20070077264A (en) 2007-07-26

Similar Documents

Publication Publication Date Title
US10796514B2 (en) System and method for optimizing a facial recognition-based system for controlling access to a building
CN108470169A (en) Face identification system and method
KR101710478B1 (en) Mobile electric document system of multiple biometric
CN104598797B (en) A kind ofly adopt face recognition, authenticate device that facial vena identification combines with finger vena identification and authentication method
CN103324879B (en) Mobile device is based on recognition of face and the authentication system of smart card and method
US20220270426A1 (en) System and method for identifying and verifying one or more individuals using facial recognition
CN103514440A (en) Facial recognition
CN108573203A (en) Identity identifying method and device and storage medium
KR100795360B1 (en) A Method Of Face Recognizing
CN103514439A (en) Facial recognition
CN105874473A (en) Apparatus and method for acquiring image for iris recognition using distance of facial feature
JP2007135149A (en) Mobile portable terminal
KR101594433B1 (en) A system for controlling the exit and entry using Iris Recognition portable terminal and Method for controlling the exit and entry using Iris Recognition portable
CN109766785A (en) A kind of biopsy method and device of face
WO2020020022A1 (en) Method for visual recognition and system thereof
CN208351494U (en) Face identification system
JP7428242B2 (en) Authentication device, authentication system, authentication method and authentication program
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
CN113303791A (en) Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium
RU2005100267A (en) METHOD AND SYSTEM OF AUTOMATIC VERIFICATION OF THE PRESENCE OF A LIVING FACE OF A HUMAN IN BIOMETRIC SECURITY SYSTEMS
US11734981B2 (en) Enhanced entry authorization
CN111582145A (en) Biometric identification method, electronic device, and computer-readable storage medium
KR101388236B1 (en) Face recognition system using camera glasses
KR101066097B1 (en) Face identifying device and face identifying method
CN107742214A (en) A kind of method of payment and payment system based on face recognition

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120110

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130110

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee