KR100795360B1 - A Method Of Face Recognizing - Google Patents
A Method Of Face Recognizing Download PDFInfo
- Publication number
- KR100795360B1 KR100795360B1 KR1020060006700A KR20060006700A KR100795360B1 KR 100795360 B1 KR100795360 B1 KR 100795360B1 KR 1020060006700 A KR1020060006700 A KR 1020060006700A KR 20060006700 A KR20060006700 A KR 20060006700A KR 100795360 B1 KR100795360 B1 KR 100795360B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- information
- image information
- image
- person
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은 수험표나 출입증에 사진과 인적사항에 대한 정보를 저장한 상태에서 출입문에 설치한 카메라로 지금 촬영한 얼굴의 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 비교하여 상이한 정도와 해당 부위를 알려주도록 하여 부정을 미연에 방지할 수 있도록 한 얼굴인식에 의한 본인 여부의 판단방법에 관한 것이다.The present invention compares the image information of the face photographed by the camera installed in the door with the information stored on the entrance ticket or pass and the image information previously input when making the admission ticket or pass. It relates to a method of judging whether or not a person is identified by face recognition so as to inform the relevant part so as to prevent fraud in advance.
상기의 본 발명은,The present invention described above,
각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치들의 서브 컨트롤러에서 수험표나 출입증을 스캐너에 접근시켰는 가를 인식하는 단계와,Recognizing whether a test ticket or pass has been accessed by the sub-controller of at least one guest management device installed at each entrance;
상기 수험표나 출입증의 정보를 인식하도록 하는 단계와,Recognizing information on the admission ticket or pass;
수험생이나 출입자의 얼굴을 촬영하는 단계와,Photographing the examinee's or person's face;
얼굴 인식부에서 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위를 검출하면서 두 눈과 코 사이의 3점에 대한 거리를 벡터값으로 구하도록 하는 단계와.Detecting the area corresponding to the eye of the face from the image information photographed by the face recognition unit, and calculating a distance of three points between the eyes and the nose as a vector value.
촬영한 얼굴의 상태를 확인하면서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 동일한 조건이 되도록 지금 촬영한 화상정보를 x축, y축, z축으로 선택적으로 회전시키거나 3점에 대한 거리의 벡터값이 같아지도록 가로와 세로를 각각 확대 또는 축소하는 단계와,While checking the condition of the photographed face, selectively rotate the image information captured on the x-axis, y-axis, and z-axis, or at a distance of 3 points so that the same conditions as the image information previously input when producing the admission ticket or pass. Zooming in or out on the horizontal and vertical lines so that the vector values are the same,
동일한 조건이 되도록 한 상기의 지금 촬영한 화상정보와, 수험표 또는 출입증을 제작할 때 미리 입력시킨 화상정보를 전달받는 화상 비교부에서 1 필드 데이터를 서로 비교한 결과 상이한 비율과 부위를 판단하도록 하는 단계와,Determining that different ratios and parts are determined by comparing one field data with each other in the image comparison unit which receives the image information which has been taken under the same condition and the image information which has been input in advance when producing the admission ticket or pass. ,
상기 화상 비교부의 비교 결과에 의하여 비교 판단부에서 상이한 부위가 안경이나 귀걸이와 같은 장신구에 의한 것인 것으로 판단되면 거의 동일한 장신구를 장착하도록 한 상태에서 다시 비교하여 상이한 비율과 부위를 판단하는 단계와,If it is determined by the comparison result of the image comparing unit that the different parts are made of jewelry such as glasses or earrings, the comparison is made again to determine different ratios and parts in a state in which almost identical jewelry is mounted;
상기 비교 판단부의 판단 결과와 함께 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 상기의 출입자 관리 시스템으로 전송하는 과정과,Transmitting the personal information and time information read from the admission ticket or the pass along with the determination result of the comparison determination unit to the accessor management system;
상기의 출입자 관리 장치들로부터 수험생이나 출입자의 정보 및 비교데이터를 수신한 출입 관리 장치의 컨트롤러에서 모니터에 표시하여 눈으로 확인할 수 있도록 하는 단계와,Displaying the information and comparison data of the examinee or the visitor from the visitor management devices on a monitor of the access management device so as to be visually confirmed;
미리 설정된 상이한 범위를 넘은 것으로 판단되면 데이터들을 데이터 베이스에 저장하는 동시에 정보 전송부를 통해 담당자 또는 시험 감독관의 휴대용 전화기나 PDA에 알려주도록 함으로써 효율적인 출입관리가 가능하도록 구성함을 특징으로 한다.If it is determined that the predetermined range is exceeded, it is characterized in that it is configured to enable efficient access management by storing the data in the database and notifying the mobile phone or PDA of the person in charge or the test supervisor through the information transmission unit.
Description
도 1은 본 발명의 전체적인 구성을 도시한 개략도.1 is a schematic diagram showing the overall configuration of the present invention.
도 2는 본 발명에 따른 상기 출입자 관리 시스템의 구성을 도시한 블록도.Figure 2 is a block diagram showing the configuration of the person management system according to the present invention.
도 3은 본 발명에 따른 출입자 관리 장치들 각각의 구성을 도시한 블록도.Figure 3 is a block diagram showing the configuration of each of the access management device according to the present invention.
도 4a,4b,4c,4d는 본 발명의 동작을 위한 과정들을 나타낸 플로차트.4A, 4B, 4C, and 4D are flowcharts showing procedures for the operation of the present invention.
도 5는 촬영한 화상이 좌측이나 우측을 응시한 상태에서 정정하는 과정을 나타낸 예시도.5 is an exemplary view illustrating a process of correcting a photographed image in a state of staring at the left side or the right side.
도 6은 촬영한 화상이 위쪽이나 아래쪽을 응시한 상태에서 정정하는 과정을 나타낸 예시도.6 is an exemplary view illustrating a process of correcting a photographed image in a state of staring at an upper side or a lower side.
도 7은 촬영한 화상이 시계방향이나 반시계 방향으로 기울어진 상태에서 정정하는 과정을 나타낸 예시도.7 is an exemplary view illustrating a process of correcting a photographed image in a state in which the photographed image is inclined clockwise or counterclockwise.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
1 : 출입자 관리 시스템 2, 25 : 송수신부1:
4, 13 : 키입력부 5 : 컨트롤러4, 13: key input unit 5: the controller
6 : 데이터베이스 7 : 정보 전송부6: database 7: information transmission unit
10, 10a, ... 10n : 출입자 관리 장치10, 10a, ... 10n: accessor management device
11 : 스캐너 12 : 정보처리부11: scanner 12: information processing unit
14 : 서브 컨트롤러 15 : 카메라14: sub controller 15: camera
17 : 음성출력부 19 : 얼굴 인식부17: voice output unit 19: face recognition unit
23 : 화상 비교부 24 : 비교 판단부23: image comparison unit 24: comparison determination unit
본 발명은 얼굴인식에 의한 본인 여부의 판단방법에 관한 것으로, 상세하게는 수험표나 출입증에 사진과 인적사항에 대한 정보를 저장한 상태에서 출입문에 설치한 카메라로 지금 촬영한 얼굴의 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 비교하여 상이한 정도와 해당 부위를 알려주도록 하여 부정을 미연에 방지할 수 있도록 한 얼굴인식에 의한 본인 여부의 판단방법에 관한 것이다.The present invention relates to a method of judging whether or not a person is identified by face recognition, and in detail, a photograph and a face sheet of a face photographed by a camera installed at a door in a state in which information about a photograph and personal information is stored in a facebook or a pass. B. The present invention relates to a method of judging whether or not a person is identified by face recognition to compare the image information inputted in advance when producing a pass so that the user may be informed of a different degree and a corresponding part.
일반적으로 큰 시험을 치르기 위하여 시험장에 입장하는 사람이 수험표에 있는 본인인 가를 확인하는 절차가 필요하고, 건설현장에도 출근하는 사람의 수는 물론 계약 당사자가 근무하는 가의 여부를 본사에서 알 수 있어야 한다.In general, in order to take a large examination, a procedure is required to confirm that the person entering the examination site is the person on the admission ticket, and the head office must know whether the contractor is working as well as the number of people who go to the construction site. .
더구나 보안을 유지해야 하는 장소의 출입을 통제하기 위하여 얼굴의 화상으로부터 동일한 사람을 식별하여 출입을 통제할 필요가 있게 된다.Moreover, in order to control the entrance and exit of the place where security is required, it is necessary to identify and control the same person from the image of the face.
그러므로 보안이나 각종 정보 사회 서비스의 제공을 위하여 얼굴의 화상을 이용하여 본인의 여부를 판단하는 것이 중요하다.Therefore, in order to provide security or various information social services, it is important to determine the identity of the person using the image of the face.
컴퓨터에 의한 얼굴 화상의 패턴을 이용한 개인의 인식에 관한 연구는 오래전부터 행해졌다.The research on the recognition of the individual using the pattern of the face image by the computer has been done for a long time.
종래에 행해져 온 얼굴을 이용한 개인의 식별에 관한 방법은 2가지로 대별할 수 있다.There are two methods for identifying a person using a face that have been conventionally performed.
그 중 하나는 국소적인 특징의 집합으로서 처리하는 방법이며, 다른 하나는 대국적으로 처리하는 방법이 있다.One of them is a method of processing as a set of local features, and the other is a method of processing locally.
전자는 얼굴의 윤곽이나, 눈, 코, 입 등의 형상 또는 상호의 위치관계를 얼굴의 중요 특징으로 하여 이들의 화상으로부터 특징을 추출하여 개인을 인식하는 방법이었다.The former is a method of recognizing an individual by extracting features from their images using the contours of the face, the shape of the eyes, the nose, the mouth, or the positional relationship of each other.
그러나, 이 방법에서는 얼굴의 방향이나 표정, 조정, 초점, 잡음 등에 의하여 특징 추출 자체가 곤란한 경우가 많았다.However, in this method, feature extraction itself is often difficult due to facial orientation, facial expression, adjustment, focus, and noise.
특히 얼굴의 경우에는 코나 턱 등은 음영이 부드럽기 때문에 정확히 특징을 추출하는 것은 대단히 곤란하였다.Especially in the case of the face, it is very difficult to extract the features accurately because the shadow of the nose or the chin is soft.
후자는 등농도(等濃度)의 화소를 연결한 등농도선(線)분포에 근거한 개인의 인식방법이었다.The latter was an individual recognition method based on an isoconcentration line connecting pixels of equal concentration.
그러나 조명 조건 등 화상입력 시에 입력환경 조건의 난점이 있었다.However, there was a difficulty in input environment conditions when inputting images such as lighting conditions.
그러므로 얼굴 인증 시스템이 사용되어 얼굴을 보다 정확히 인식하도록 하기 위한 방법들이 제안되었다.Therefore, methods have been proposed to use face authentication system to recognize faces more accurately.
즉, PCA(Principal Component Analysis:주성분 분석)를 얼굴 인식에 적용하여 고유 얼굴(eigenface)를 제작하였다.That is, an eigenface was produced by applying PCA (Principal Component Analysis) to face recognition.
얼굴의 집합은 소수의 전역적인 고유 벡터(eigenvector)를 이용하여 표현되며, 그 입력 집합에서 주요 변화들을 코드화하며 이것을 이용하여 고유 얼굴과 평 균 얼굴을 제작하였다.The face set is represented using a small number of global eigenvectors, the major changes in the input set are coded, and the eigenfaces and average faces are created using them.
주어진 고유 얼굴에서 각 얼굴은 가중치의 벡터로 구성하였다. 상기의 가중치는 이미지를 내적 연산(inner product)을 통해 고유 얼굴 평면으로 투영함으로 얻도록 하였다.For a given eigenface, each face consists of a vector of weights. The weight is obtained by projecting the image onto the eigenface plane through the inner product.
얼굴 인식은 DB에 기록된 이미지와의 비교에 의해서 가중치가 가장 가까운 것을 선택하였다.For face recognition, the closest weight was selected by comparison with the image recorded in the DB.
이 방법을 사용하면 조명, 방향, 크기의 영향도 극복할 수 있었다.This method also overcomes the effects of lighting, direction, and size.
그러나 이러한 방법에서는 이미지를 전체적으로 처리하기 때문에, 크고 복잡한 데이터 집합을 처리할 때 생기는 문제점을 극복하지 못하였다.However, these methods do not overcome the problems of processing large and complex data sets because they process the image as a whole.
두 번째로 국부 특징 분석(Local Feature Analysis)방법이 있었다.Second, there was a local feature analysis method.
이는 고유 얼굴 방법에서 유도되었는데, 고유 얼굴 방법에서의 문제점인 얼굴 표정의 변화, 조명이나 자세 등의 변화 때문에 나타나는 문제점을 해결하고자 제안되었다.This is derived from the eigenface method, which is proposed to solve the problems caused by the change of facial expression, lighting or posture, which are problems of the eigenface method.
이 방법은 얼굴의 전역적인 표현에 의존하는 대신 각 개인의 특징을 이용한다. 이 과정은 사진들의 데이터베이스를 모으고 그들로부터 고유얼굴을 추출하면서 시작하였다.This method uses the characteristics of each individual instead of relying on the global expression of the face. This process began by collecting a database of photographs and extracting the unique faces from them.
국부 특징 분석을 적용한 시스템은 다른 얼굴들과 가장 큰 차이점을 나타내는 각 얼굴에서의 특징들이나 블록을 모았다.The system using local feature analysis gathered the features or blocks in each face that represent the biggest difference from other faces.
상기의 주어진 얼굴은 32개에서 50개 정도의 블록으로 나타내어지고 가장 특징적인 점들인 코, 눈썹, 입 등을 모았다.The given face is represented by 32 to 50 blocks and collected the most characteristic points: nose, eyebrows and mouth.
얼굴 인식을 위해서 컴퓨터에는 인증받기 위한 사람의 이미지가 저장되어 있어야 하고, 각 개인이 다른 사람과 가장 다르게 구분되는 점들의 패턴을 측정해야 하였다.For face recognition, a computer had to store an image of a person to be authenticated and measure the pattern of the points at which each individual is most different from the others.
그 다음 무작위로 혹은 고유얼굴 평균에 기반을 둔 패턴을 시스템은 만들기 시작하였다.The system then began to create patterns based on random or eigenface averages.
각 선택에 대해 얼굴 이미지를 만들고, 인식을 하고자 하는 목표 얼굴과 비교하였다.For each selection, a face image was created and compared with the target face to be recognized.
그리고 목표와 매치되는 얼굴 이미지가 생성될 때까지 새로운 패턴이 생성되도록 하였다.The new pattern is created until a face image that matches the target is created.
매치되는 것이 있을 때 컴퓨터는 사용자와 매치되는 패턴에 대한 데이터베이스를 확인하도록 하였다.When there is a match, the computer checks the database for patterns that match the user.
세 번째로 신경망을 사용한 얼굴 인식방법이 있다.Third, there is a face recognition method using neural networks.
상기의 신경망 모델은 뉴런의 상호연결을 통해서 많은 추상적인 문제들을 해결하는 모델이므로 신경망은 학습이 가능하며, 추상적인 표현을 함축하는 기능을 가지고 있기 때문에, 얼굴 인식에 많이 활용되고 있다.Since the neural network model solves many abstract problems through the interconnection of neurons, the neural network is widely used for face recognition because it can learn and imply an abstract expression.
현재 다층 퍼셉트론(MLP)이 많이 사용되고 있으며, 이 MLP는 입력층, 은닉층, 출력층이 네트워크로 연결되어 있고, 은닉층에서 복잡한 얼굴 표현이 추상화되어 압축 저장되도록 하였다.Currently, multilayer perceptron (MLP) is widely used, and the input layer, hidden layer, and output layer are connected by a network, and complex face expressions are abstracted and stored in the hidden layer.
그러나 상기의 신경망에 의한 방법은 고유 얼굴의 방법과는 달리 학습에 의해서 구성되며, 이러한 학습과정은 전체 학습 패턴에 대해서 많은 반복을 거쳐야 하므로 매우 느리다는 단점을 지니고 있다. 또한 새로운 얼굴 패턴이 나타나면 재학습을 수행해야 한다는 단점이 있었다.However, the neural network method is composed of learning, unlike the unique face method, and this learning process has a disadvantage in that it is very slow because it requires a lot of repetition for the entire learning pattern. It also had the disadvantage of re-learning when new face patterns appeared.
그리하여 2001년 특허출원 제 10-2001-600호(상관관계를 이용한 유사도 측정의 얼굴 인증 방법)가 제안되었는바,Thus, in 2001, Patent Application No. 10-2001-600 (Face Recognition Method for Similarity Measurement Using Correlation) was proposed.
이는, 얼굴 인증시 기 저장된 얼굴과 인증을 위해 입력되는 얼굴 영상간의 상관관계를 이용하여 두 얼굴간의 유사도를 측정하여 얼굴을 인증하는 방법에 관한 것으로,The present invention relates to a method for authenticating a face by measuring a similarity between two faces using a correlation between a face previously stored during face authentication and a face image input for authentication.
카메라로부터 취득된 영상신호에서 특정 얼굴을 인식하기 위한 얼굴 인증 시스템에서의 상관관계를 이용한 유사도 측정의 얼굴 인증 방법에 있어서,In the face authentication method of the similarity measurement using the correlation in the face authentication system for recognizing a specific face in the image signal obtained from the camera,
입력된 얼굴영상을 고유 얼굴(Eigen Face) 기반으로 하여 얼굴영역을 추출하는 제1과정과,A first process of extracting a face region based on an input face image based on an eigen face;
상기 추출된 얼굴영역을 눈을 중심으로 일정한 범위 내에서 모자이크를 형성하여 눈 영역을 검출하는 제2과정과,A second process of detecting an eye region by forming a mosaic within a predetermined range around the eye with respect to the extracted face region;
검출된 눈 영역에서 노이즈 제거를 위한 전처리(preprocessing)과정을 수행하는 제3과정과,A third process of performing a preprocessing process for removing noise in the detected eye region;
상관관계식을 이용하여 입력된 정보와 데이터베이스에 저장된 얼굴정보의 유사도 측정을 수행하여 얼굴인증 결과를 출력하는 제4과정으로 이루어지도록 하였다.The fourth step of outputting the face authentication result is performed by measuring the similarity between the input information and the face information stored in the database using the correlation equation.
그러나 상기와 같은 종래의 상관관계를 이용한 유사도 측정의 얼굴 인증 방법에 의하여서는 얼굴을 비교하기 위하여 촬영할 때 방향이나 경사에 대하여 고려 하지 않고 일괄적으로 비교하게 되면서 동일한 사람이라도 다르게 나타나게 되는 문제점이 있었다.However, according to the face authentication method of similarity measurement using the conventional correlation as described above, there is a problem that even the same person appears differently while comparing them collectively without considering the direction or inclination when photographing to compare the faces.
2003년 9월 24일자 실용신안등록출원 제20-2003-30161호(근태 관리용 기초 데이터 생성 장치)가 제안되었는 바,Utility Model Registration Application No. 20-2003-30161 dated September 24, 2003 (basic data generation device for time and attendance management) was proposed.
이는, 노무자의 근태 관리용 기초 데이터를 생성하는 장치에 있어서,This is an apparatus for generating basic data for attendance management of laborers,
미리 지정된 거리 이내에 ID 카드가 위치한 경우, 상기 ID 카드로부터 노무자 식별 정보를 독출하는 ID 카드 입력부,An ID card input unit for reading laborer identification information from the ID card when the ID card is located within a predetermined distance;
상기 노무자의 얼굴 이미지를 촬영하여 디지털 이미지를 생성하는 카메라부,A camera unit for photographing the laborer's face to generate a digital image;
상기 노무자 식별 정보가 독출된 시각 정보를 제공하는 시간 정보 제공부,A time information providing unit providing time information from which the laborer identification information is read;
상기 ID 카드 입력부, 상기 카메라부 및 상기 시간 정보 제공부를 제어하고, 상기 노무자 식별 정보, 상기 디지털 이미지 및 상기 시각 정보를 이용하여 근태 관리용 기초 데이터를 생성하는 기초 데이터 생성 제어부,A basic data generation control unit which controls the ID card input unit, the camera unit and the time information providing unit, and generates basic time and attendance management basic data using the laborer identification information, the digital image and the time information;
상기 기초 데이터 생성 제어부의 제어에 의해 상기 노무자 식별 정보, 상기 디지털 이미지 및 상기 시각 정보를 디스플레이하는 표시부,A display unit which displays the laborer identification information, the digital image, and the visual information under control of the basic data generation controller;
상기 근태 관리용 기초 데이터를 저장하는 저장부 및 상기 기초 데이터 생성 제어부의 제어에 의해 미리 지정된 주기마다 상기 저장부에 저장된 하나 이상의 근태 관리용 기초 데이터를 통신망을 통해 근태 관리 시스템으로 전송하는 전송부를 포함하여 구성하였다.A storage unit storing the time and attendance management basic data and a transmission unit transmitting one or more time and attendance management basic data stored in the storage unit to a time and attendance management system through a communication network at predetermined intervals under the control of the basic data generation controller. It was configured by.
상기의 근태 관리용 기초 데이터 생성 장치는 상기의 저장부가 상기 노무자의 얼굴 형상에 상응하는 기준 이미지를 저장하는 경우, 상기 기준 이미지와 상기 디지털 이미지에 포함된 상기 노무자의 얼굴 형상의 외곽선을 추출하는 외곽선 추출부 및 상기 기준 이미지에 상응하여 추출된 외곽선과 상기 디지털 이미지에 상응하여 추출된 외곽선의 일치성 정도를 판단하여 이에 상응하는 수치 데이터를 생성하는 일치성 판단부를 더 포함할 수 있도록 하였다.The apparatus for generating basic time management data includes an outline for extracting an outline of a face shape of the laborer included in the reference image and the digital image when the storage unit stores a reference image corresponding to the face shape of the laborer. The extractor may further include a coincidence determiner configured to determine the degree of correspondence between the outline extracted in accordance with the reference image and the outline extracted in accordance with the digital image and generate numerical data corresponding thereto.
그러나 상기와 같은 종래의 근태 관리용 기초 데이터 생성 장치에 의하여서는 얼굴의 외곽만으로 동일인의 유무를 판단하는 방법으로는 많은 사람들 중에서 동일한 사람을 식별하는 데에는 부적합하여 사용이 한정되는 단점이 있었다.However, according to the conventional time and attendance management basic data generating apparatus as described above, the method of determining the presence or absence of the same person only by the outline of the face is inadequate for identifying the same person among many people, and thus has a disadvantage in that the use is limited.
이에 본 발명은 상기한 바와 같은 종래의 문제점을 해소시키기 위하여 안출된 것으로, 수험표나 출입증에 사진과 인적사항에 대한 정보를 저장한 상태에서 출입문에 설치한 카메라로 지금 촬영한 얼굴의 화상정보와 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 비교하여 상이한 정도와 해당 부위를 알려주도록 하여 부정을 미연에 방지할 수 있도록 한 얼굴인식에 의한 본인 여부의 판단방법을 제공하는 것을 그 목적으로 한다.Accordingly, the present invention has been made in order to solve the above-mentioned conventional problems, the image information and the examination table of the face photographed by the camera installed in the door in the state of storing the information on the photograph and personal information in the examination card or pass The purpose of the present invention is to provide a method of judging whether or not a person is identified by face recognition to compare the image information inputted in advance when making the pass so that the user may be informed of a different degree and a corresponding part.
상기 목적을 달성하기 위한 본 발명의 얼굴인식에 의한 본인 여부의 판단방법은,Determination of whether or not the person by the face recognition of the present invention for achieving the above object,
각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치들의 서브 컨트롤러에서 수험표나 출입증을 스캐너에 접근시켰는 가를 인식하는 단계와,Recognizing whether a test ticket or pass has been accessed by the sub-controller of at least one guest management device installed at each entrance;
상기 수험표나 출입증의 정보를 인식하도록 하는 단계와,Recognizing information on the admission ticket or pass;
수험생이나 출입자의 얼굴을 촬영하는 단계와,Photographing the examinee's or person's face;
얼굴 인식부에서 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위를 검출하면서 두 눈과 코 사이의 3점에 대한 거리를 벡터적으로 구하도록 하는 단계와.Detecting a region corresponding to the eyes of the face from the image information photographed by the face recognition unit, and vectorly obtaining a distance of three points between the eyes and the nose.
지금 촬영한 얼굴의 상태를 확인하면서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 동일한 조건이 되도록 지금 촬영한 화상정보를 x축, y축, z축으로 선택적으로 회전시키거나 3점에 대한 거리의 벡터값이 같아지도록 가로와 세로를 각각 확대 또는 축소하는 단계와,Optionally rotate the image information captured on the x-axis, y-axis, and z-axis, or check the distance of three points so that the same condition as the image information entered when creating the examinee or pass, while checking the state of the face that has been taken. Zooming in or out on the horizontal and vertical sides so that the vector values of are the same,
동일한 조건이 되도록 한 상기의 지금 촬영한 화상정보와, 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 전달받는 화상 비교부에서 1필드 데이터를 서로 비교한 결과 상이한 비율과 부위를 판단하도록 하는 단계와,A step of judging different ratios and parts as a result of comparing one field data with each other in the image comparing unit which receives the image information which has been taken under the same condition and the image information which has been input in advance when producing a test ticket or pass; ,
상기 화상 비교부의 비교 결과에 의하여 비교 판단부에서 상이한 부위가 안경이나 귀걸이와 같은 장신구에 의한 것인 것으로 판단되면 거의 동일한 장신구를 장착하도록 한 상태에서 다시 비교하여 상이한 비율과 부위를 판단하는 단계와,If it is determined by the comparison result of the image comparing unit that the different parts are made of jewelry such as glasses or earrings, the comparison is made again to determine different ratios and parts in a state in which almost identical jewelry is mounted;
상기 비교 판단부의 판단 결과와 함께 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 상기의 출입자 관리 시스템으로 전송하는 과정과,Transmitting the personal information and time information read from the admission ticket or the pass along with the determination result of the comparison determination unit to the accessor management system;
상기의 출입자 관리 장치들로부터 수험생이나 출입자의 정보 및 비교데이터를 수신한 출입 관리 장치의 컨트롤러에서 모니터에 표시하여 눈으로 확인할 수 있도록 하는 단계와,Displaying the information and comparison data of the examinee or the visitor from the visitor management devices on a monitor of the access management device so as to be visually confirmed;
미리 설정된 상이한 범위를 넘은 것으로 판단되면 데이터들을 데이터 베이스에 저장하는 동시에 정보 전송부를 통해 담당자 또는 시험 감독관의 휴대용 전화기나 PDA에 알려주도록 함으로써 효율적인 출입관리가 가능하도록 구성함을 특징으로 한다.If it is determined that the predetermined range is exceeded, it is characterized in that it is configured to enable efficient access management by storing the data in the database and notifying the mobile phone or PDA of the person in charge or the test supervisor through the information transmission unit.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 개략적인 구성을 도시한 것으로서이고, 도 2는 본 발명에 따른 상기 출입자 관리 시스템의 구성을 도시한 블록도이고, 도 3은 본 발명에 따른 출입자 관리 장치들 각각의 구성을 도시한 블록도이며, 도 4a,4b,4c,4d는 본 발명의 동작을 위한 과정들을 나타낸 플로차트이다.1 is a schematic configuration of the present invention, Figure 2 is a block diagram showing the configuration of the access management system according to the present invention, Figure 3 is a configuration of each of the access management devices according to the present invention 4A, 4B, 4C, and 4D are flowcharts illustrating processes for the operation of the present invention.
상기 도 1은 본 발명의 개략적인 구성을 도시한 것으로서,1 illustrates a schematic configuration of the present invention,
하나의 출입자 관리 시스템(1)에는 다수의 출입 관리 장치(10)(10a)...(10n)들을 연결하면서 각각의 출입문에 설치하여 출입하는 수험생이나 출입자가 수험표나 출입증의 본인인가의 여부를 판단하도록 한다.One
도 2는 본 발명에 따른 상기 출입자 관리 시스템(1)의 구성을 도시한 것으로서,2 is a diagram showing the configuration of the
상기의 출입자 관리 장치(10)(10a)...(10n)들과 데이터를 전송하거나 수신하기 위한 송수신부(2)와,A
상기의 송수신부(2)를 통하여 수신되는 데이터에 의하여 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 현장에서 지금 촬영한 화상정보를 비교한 비교 데이터는 물론, 출입자의 정보까지 표시하는 모니터(3)와,The monitor (3) displaying not only the comparison data comparing the image information previously input when the examinee or pass is produced by the data received through the transmitting / receiving
상기의 모니터(3)에 표시된 화상 및 정보에 의하여 별도로 확인이 필요한 가의 여부를 선택하여 입력시키기 위한 다수의 키를 구비한 키입력부(4)와,A key input unit (4) having a plurality of keys for selecting and inputting whether or not confirmation is necessary separately based on the image and information displayed on the monitor (3);
상기 키입력부(4)를 통한 감독자 또는 관리자의 선택 사양을 전달받으면서 모니터(3)를 비롯한 내부의 동작을 제어하는 컨트롤러(5)와,A controller 5 for controlling an internal operation including a monitor 3 while receiving a selection of a supervisor or a manager through the key input unit 4;
상기 컨트롤러(5)의 제어를 받으면서 송수신되는 정보를 포함하는 데이터들을 저장하는 데이터베이스(6)와,A
상기 컨트롤러(5)의 제어를 받으면서 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보와 지금 촬영한 화상정보가 상이한 것으로 판단되거나 키입력부(4)를 통한 입력이 있으면 그에 대한 정보를 출입을 관리하는 감독자 또는 관리자의 휴대용 전화기나 PDA에 알려준 후 전송 상태를 확인하도록 하는 정보 전송부(7)들로 구성한다.The supervisor who manages the entrance and exit of the image information which is previously input when the examination table or the pass is produced under the control of the controller 5 and the image information which is photographed now is different or the input is performed through the key input unit 4. Or it consists of
그리고 도 3은 상기 출입자 관리 장치(10)(10a)...(10n)들 각각의 구성을 도시한 것으로서,3 shows the configuration of each of the
출입을 원하는 출입자가 자신의 개인 정보와 함께 사진이 개재된 수험표나 출입증의 정보를 읽어 내는 스캐너(11)와,A
상기의 스캐너(11)를 통하여 읽은 정보에 의하거나 출입자가 자신의 수험번호나 주민등록번호 등을 서브 키입력부(13)를 통해 직접 입력시키면 이에 의하여 지금 출입하는 출입자의 정보를 인식하는 정보처리부(12)와,
상기 정보처리부(12)를 통하여 출입자의 정보가 입력되는 것을 인식하면 촬영을 위해 내부의 동작을 제어하는 서브 컨트롤러(14)와,A sub-controller 14 for controlling an internal operation for capturing when the information of the person is input through the
상기 서브 컨트롤러(14)의 제어를 받으면서 전면을 응시하는 출입자의 얼굴 부위를 촬영하는 카메라(15)와,
상기 카메라(15)에 의해 지금 촬영한 화상정보를 전달받으면서 이를 표시하여 출입자가 자신의 얼굴을 직접 확인할 수 있도록 하는 모니터(16)와,A
상기 서브 컨트롤러(14)의 제어에 의하여 출입자의 전면 상단에 위치하는 상기의 카메라(15)를 응시하도록 하거나 촬영 상태에 따른 저장된 음성의 안내정보를 스피커(18)로 출력하는 음성출력부(17)와,The
상기 서브 컨트롤러(14)의 제어를 받으면서 상기의 지금 촬영한 화상정보에 의하여 얼굴 중 눈에 해당하는 부위를 검출한 후 두 눈과 코 사이의 3점 거리를 벡터적으로 구하면서 화상정보의 3점 거리의 벡터값에 의하여 촬영한 얼굴의 상태를 판단하는 얼굴 인식부(19)와,Under the control of the sub-controller 14, the area corresponding to the eye of the face is detected by the image information of the photographed above, and then three points of the image information are obtained by vectorly obtaining the three-point distance between the two eyes and the nose. A
상기 얼굴 인식부(19)에 의해 지금 촬영한 얼굴의 화상정보에서 두 눈을 찾거나 찾을 수 없는 경우 서브 컨트롤러(14)의 제어에 의하여 청색 램프(21)나 적색 램프(22)를 선택적으로 점등시키는 램프 구동부(20)와,If both eyes cannot be found or found in the image information of the face photographed by the
상기 얼굴 인식부(19)에 의한 두 눈과 코 사이의 3점 거리와 미리 입력시킨 출입자의 화상정보의 3점 거리에 의하여 촬영한 얼굴의 상태를 확인하면서 미리 입력시킨 화상정보와 동일한 조건이 되도록 지금 촬영한 화상정보를 x축, y축, z축으로 선택적으로 회전시키거나 3점에 대한 거리의 벡터값이 같아지도록 가로와 세로를 각각 확대 또는 축소하면서 최대한 동일한 조건의 화상 정보가 되도록 하여 비교하는 화상 비교부(23)와,The three-point distance between the eyes and the nose by the
상기 화상 비교부(23)의 1필드 데이터를 비교한 결과 상이한 비율이 얼마인가를 인식하면서 특히 많이 상이한 부분이 얼굴의 어느 부분인가를 판단하는 비교 판단부(24)와,A
상기 서브 컨트롤러(14)의 제어를 받으면서 상기 비교 판단부(24)의 판단 결과와 함께 출입자의 수험표나 출입증에서 읽은 신상정보를 상기의 출입자 관리 시스템(1)으로 전송하면서 출입자 관리 시스템(1)으로부터 전송되는 정보를 상기의 서브 컨트롤러(14)에 전하는 서브 송수신부(25)와,Under the control of the sub-controller 14, along with the determination result of the
상기의 동작이 수행되는 실시간을 측정하여 출입하는 모든 출입자의 시간을 측정하여 상기의 서브 컨트롤러(14)에 전하는 리얼 타임 클록(26)들로 구성한다.The real time clock is measured to measure the time of all the persons entering and exiting the real time, and the
본 발명은 상기의 구성에 의하여 출입하는 사람이 수험표나 수험표 상의 본인과 동일한가를 판단하기 위한 얼굴인식에 의한 본인 여부의 판단방법에 그 특징이 있는 것으로서,The present invention is characterized in that the method of determining whether or not the person by the face recognition to determine whether the person entering and exiting the same as the person on the test ticket or the test ticket by the above configuration,
각각의 출입구에 적어도 하나 이상 설치되는 출입자 관리 장치(10)(10a)...(10n)는 출입을 원하는 출입자 자신의 개인 정보와 함께 사진이 개재된 수험표나 출입증을 스캐너(11)에 접근시켰는 가를 인식하여(단계 31) 접근시킨 경우에는 수험표나 출입증의 정보를 읽어 내도록 하는 한편(단계 32), 수험표나 출입증을 스캐너(11)에 접근시키지 않으면, 키입력부(13)를 통해 자신의 수험번호나 주민등록번호 등을 직접 입력시켰는 가를 인식하면서(단계 33) 음성출력부(17)로 제어신호를 출력하여 '신상정보의 입력을 위한 절차를 수행할 것을 권유하는 내용'의 음성안내를 수행하도록 한다(단계 34).At least one visitor management device (10) (10a) ... (10n) is installed at each entrance to access the
상기의 수험생이나 출입자가 스캐너(11)에 수험표나 출입증을 접촉하거나 자신의 수험표나 주민등록번호를 키입력부(13)를 통해 입력하여 정보를 읽은 상태에서는(단계 35) 상기의 컨트롤러(14)에서 정보처리부(12)로 제어신호를 출력하여 읽은 정보에 의하여 지금 출입하는 출입자의 신상정보를 인식하도록 한다(단계 36).In the state in which the examinee or the person in contact with the examinee ticket or pass is entered into the
상기 정보처리부(12)를 통하여 출입자의 정보가 입력되는 것을 서브 컨트롤러(14)에서 인식하면(단계 37) 촬영을 위해 내부의 동작을 제어하도록 한다(단계 38).If the sub-controller 14 recognizes that the information of the visitor is input through the information processor 12 (step 37), the internal operation is controlled to capture the image (step 38).
상기 서브 컨트롤러(14)의 제어를 받는 음성출력부(17)에서 수험생이나 출입자가 전면의 상단에 위치하는 카메라(15)를 응시하도록 하는 음성의 안내를 수행하여 스피커(18)를 통해 들을 수 있도록 한다(단계 39).In the
상기 서브 컨트롤러(14)에서는 전면을 응시하는 출입자의 얼굴 부위를 카메라(15)로 촬영하도록 한다(단계 40).In the sub-controller 14, the face of the person staring at the front is photographed with the camera 15 (step 40).
상기 카메라(15)에 의해 지금 촬영한 화상정보가 서브 컨트롤러(14)에 전달되면(단계 41), 얼굴 인식부(19)로 제어신호를 출력하여 상기의 지금 촬영한 화상정보에서 얼굴의 눈에 해당하는 부위와 그 하단에 위치하는 코를 검출하도록 하면서(단계 42) 두 눈과 코 사이의 3점 거리를 벡터적으로 구하도록 한다(단계 43).When the image information shot now by the
상기 얼굴 인식부(19)를 통하여 촬영된 얼굴의 상태를 판단한 서브 컨트롤러(14)에서 지금 촬영한 화상정보와, 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보의 두 눈과 코 사이의 3점 거리를 벡터적으로 비교하면서 얼굴이 전면이 아닌 좌측이나 우측의 다른 방향을 응시한 것으로 판단되면(단계 44), 도 5에 도시한 것과 같이 얼굴이 전면을 향하도록 지금 촬영한 화상정보의 얼굴을 회전시키도록 한다(단계 45).The three-point distance between the two eyes and the nose of the image information photographed by the sub-controller 14 determining the state of the face photographed by the
상기의 비교 결과, 정면이 아닌 위쪽이나 아래쪽의 다른 방향을 응시한 것으로 판단되면(단계 46), 도 6에 도시한 것과 같이 얼굴이 정면을 향하도록 지금 촬영한 화상정보의 얼굴을 회전시키도록 한다(단계 47).As a result of the comparison, if it is determined that the image is stared at another direction above or below the front face (step 46), the face of the image information photographed now is rotated such that the face faces the front face as shown in FIG. (Step 47).
상기의 비교 결과, 얼굴이 시계방향이나 반시계방향으로 기울어진 것으로 판단되면(단계 48), 도 7에 도시한 것과 같이 얼굴이 정상이 되도록 지금 촬영한 화상정보의 얼굴을 반시계방향이나 시계방향으로 회전시키도록 한다(단계 49).As a result of the comparison, if it is determined that the face is inclined clockwise or counterclockwise (step 48), as shown in Fig. 7, the face of the image information photographed so that the face becomes normal is counterclockwise or clockwise. To rotate (step 49).
상기 서브 컨트롤러(14)에서 상기의 얼굴 인식부(19)에 의한 두 눈과 코 사이의 3점 거리와 입력된 출입자의 화상 정보가 동일한 크기가 되도록 가로와 세로를 각각 확대 또는 축소하면서 최대한 동일한 조건의 화상 정보가 되도록 변환한 후 화상 비교부(23)에서 화상이 동일한가를 비교하도록 출력한다(단계 50).In the sub-controller 14, the three-point distance between the eyes and the nose by the
상기 서브 컨트롤러(14)에서 비교 판단부(24)로 제어신호를 출력하여 상기 화상 비교부(23)로부터 전달되는 화상정보의 1필드 데이터들을 서로 비교한 결과(단계 51), 상이한 비율이 얼마인가를 인식하도록 한다(단계 52).As a result of comparing one field data of the image information transmitted from the
상기의 전체적인 비교는 얼굴에 대한 두 화상의 데이터를 서로 비교하여 동일하지 않는 부위가 얼마나 되는가를 판단하여 비슷하거나 상이한 얼굴의 정도를 빨리 인식하도록 한다.The overall comparison above compares data of two images of a face with each other to determine how many non-identical portions are present so as to quickly recognize the degree of similar or different faces.
상기의 비교 결과에 의하여 얼굴의 화상정보가 많이 상이한 부분이 얼굴의 어느 부분인가를 판단하도록 한다(단계 53).Based on the result of the comparison, it is judged which part of the face is the part where the image information of the face is greatly different (step 53).
상기의 상이한 얼굴의 부위가 안경이나 귀걸이와 같은 장신구를 하거나 하지 않은 상태에 의해 상이하게 판단되는 가를 인식하여(단계 54) 맞는 경우에는 상기의 화상 비교부(23)로 다시 피드백시키면서 안경이나 귀걸이와 같은 장신구를 착용하지 않은 쪽의 화상정보에 비슷한 장신구를 착용한 상태가 되도록 가상의 화상정보를 만든다(단계 55).Recognizing whether different parts of the face are judged differently by wearing or not wearing an accessory such as glasses or earrings (step 54), and if it fits, feeds back the glasses or earrings while feeding back to the
그 후에 서브 컨트롤러(14)에서 상기의 비교 판단부(24)로 제어신호를 출력하여 가상의 화상정보와 장신구를 착용한 화상정보를 서로 비교하도록 하여 상이한 정도와 부위에 대한 정보를 검출하도록 한다(단계 56).Subsequently, the sub-controller 14 outputs a control signal to the
이 경우에는 얼굴의 부위를, 머리와 이마를 포함하는 상단 부위, 눈과 코를 포함하는 중앙 부위, 귀를 포함하는 얼굴의 양측 부위, 입과 턱의 부위 등의 하단 부위 등으로 구분하여 알려주도록 함으로써 후에 육안으로 확인할 때 주의해서 살펴볼 수 있도록 한다.In this case, the parts of the face are classified into upper parts including the head and forehead, central parts including the eyes and nose, both parts of the face including the ears, and lower parts such as the parts of the mouth and chin. This will allow you to look carefully later when visually checking.
상기 서브 컨트롤러(14)에서는 리얼 타임 클록(26)으로부터 출입의 절차가 행하여지는 때의 시간정보를 전달받는다(단계 57).The
상기 비교 판단부(24)의 한 차례 또는 두 차례에 걸친 판단 결과와 함께 출입자의 수험표나 출입증에서 읽은 신상정보 및 시간 정보를 전달받은 상기의 서브 컨트롤러(14)에서는 서브 송수신부(25)로 제어신호를 출력하여 이들 정보를 상기의 출입자 관리 시스템(1)으로 전송하도록 하는 동시에 상기의 출입자 관리 시스템(1)으로부터 전송되는 정보를 상기의 서브 컨트롤러(14)에서 전달받도록 한다(단계 58).The sub-controller 14 controls the sub-transmitter and
상기의 출입자 관리 장치(10)(10a)...(10n)들로부터 수험생이나 출입자의 정보 및 비교데이터를 수신받은 송수신부(2)에서 컨트롤러(5)에 전달한다(단계 59).The transmission and
상기의 송수신부(2)를 통하여 수신되는 데이터를 전달받은 컨트롤러(5)에서 미리 입력시킨 화상정보와 현장에서 지금 촬영한 화상정보를 비교한 비교 데이터는 물론, 출입자의 정보까지 모니터(3)에 표시한다(단계 60).In addition to the comparison data comparing the image information previously input by the controller 5, which has received the data received through the transmission /
상기의 비교결과 미리 정한 범위 이상으로 상이한 것으로 판단되면(단계 61), 이를 인식한 컨트롤러(5)에서 송수신되는 정보를 포함하는 데이터들을 저장하는 데이터베이스(6)에 저장하는 동시에(단계 62), 정보 전송부(7)로 제어신호를 출력하여 미리 입력시킨 화상정보와 지금 촬영한 화상정보가 상이한 수험생이나 출입자의 정보를 출입을 관리하는 감독관 또는 관리자의 휴대용 전화기나 PDA에 알려주도록 한 후(단계 63) 정상적으로 수신하였는 가에 대한 정보를 수신한 후 종료하도록 함으로써 나중에 다른 사람이 대리로 하였는가의 여부를 담당자나 시험 감독관이 육안으로 직접 확인하여 정확하게 판단하면서 효율적인 출입관리가 가능하도록 한다(단계 64).If it is determined that the result of the comparison is different from the predetermined range or more (step 61), the data is stored in the
상기의 데이터 베이스(6)에는 모든 수험생이나 출입자의 정보가 저장되도록 저장함으로써 모든 출입자에 관한 정보를 필요한 기간동안 관리할 수 있도록 한다(단계 65).The
이상에서 상세히 설명한 바와 같이 본 발명에 따른 얼굴인식에 의한 본인 여부의 판단방법에 의하여서는 수험표나 출입증에 사진과 인적사항에 대한 정보를 스캐너를 통하여 인식도록 하면서 출입자 또는 수험생의 정면 얼굴을 출입문에 설치한 카메라로 촬영하도록 하여 지금 촬영한 얼굴의 화상정보가 수험표나 출입증을 제작할 때 미리 입력시킨 화상정보를 서로 동일한 조건으로 변환하는 중에 비교하여 상이한 정도와 많이 상이한 부위의 정보를 알려주어 후에 육안으로 확인할 때 보다 정확성을 기할 수 있도록 함으로써 부정을 미연에 방지할 수 있는 효과가 있다.As described in detail above, in accordance with the present invention, a face recognition method according to the present invention installs the front face of the person or examinee on the door while allowing the scanner to recognize information about the photograph and personal information on the test ticket or pass. It is possible to shoot with one camera so that the image information of the face you have taken now can be compared to each other while converting the previously entered image information into the same condition when producing the admission ticket or pass. When the accuracy can be more accurate, there is an effect that can be prevented in advance.
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060006700A KR100795360B1 (en) | 2006-01-23 | 2006-01-23 | A Method Of Face Recognizing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060006700A KR100795360B1 (en) | 2006-01-23 | 2006-01-23 | A Method Of Face Recognizing |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070077264A KR20070077264A (en) | 2007-07-26 |
KR100795360B1 true KR100795360B1 (en) | 2008-01-17 |
Family
ID=38501874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060006700A KR100795360B1 (en) | 2006-01-23 | 2006-01-23 | A Method Of Face Recognizing |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100795360B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102078249B1 (en) | 2019-06-18 | 2020-02-17 | 주식회사 페이스테그 | Method for face authentication, apparatus for face authentication and computer program for the same |
US11847849B2 (en) | 2020-07-31 | 2023-12-19 | Korea Institute Of Science And Technology | System and method for companion animal identification based on artificial intelligence |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101499769B1 (en) * | 2009-05-04 | 2015-03-09 | 신중철 | The method and system to achieve the reality of examinee in on-line test using a webcam |
CN107506735A (en) * | 2017-08-28 | 2017-12-22 | 江西博瑞彤芸科技有限公司 | Photo classifying method and taxis system |
CN113542668A (en) * | 2020-04-21 | 2021-10-22 | 上海复客云众创空间管理有限公司 | Monitoring system and method based on 3D camera |
KR102596462B1 (en) * | 2021-09-07 | 2023-10-31 | 주식회사 에버정보기술 | Access control authentication system and method capable of measuring heart rate using multi-modal sensor |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020057522A (en) * | 2001-01-05 | 2002-07-11 | 조양호 | Face-image recognition method of similarity measure using correlation |
KR20030015166A (en) * | 2002-10-10 | 2003-02-20 | (주)위즈빌 | Two-Way Wireless Entrance Control System |
KR20030026455A (en) * | 2001-09-25 | 2003-04-03 | 주식회사 알파엔지니어링 | The synthesis control system and application method |
KR200337484Y1 (en) | 2003-09-24 | 2003-12-31 | 주식회사 아이오시스템 | Apparatus for creating source data for assiduity management |
KR20040074242A (en) * | 2003-02-17 | 2004-08-25 | 김태원 | System and method for security using digital image recognition |
KR20050059359A (en) * | 2003-12-13 | 2005-06-20 | 주식회사 진곡 | A system for controlling the exit and entry using a camera built-in no-touch type card reader |
-
2006
- 2006-01-23 KR KR1020060006700A patent/KR100795360B1/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020057522A (en) * | 2001-01-05 | 2002-07-11 | 조양호 | Face-image recognition method of similarity measure using correlation |
KR20030026455A (en) * | 2001-09-25 | 2003-04-03 | 주식회사 알파엔지니어링 | The synthesis control system and application method |
KR20030015166A (en) * | 2002-10-10 | 2003-02-20 | (주)위즈빌 | Two-Way Wireless Entrance Control System |
KR20040074242A (en) * | 2003-02-17 | 2004-08-25 | 김태원 | System and method for security using digital image recognition |
KR200337484Y1 (en) | 2003-09-24 | 2003-12-31 | 주식회사 아이오시스템 | Apparatus for creating source data for assiduity management |
KR20050059359A (en) * | 2003-12-13 | 2005-06-20 | 주식회사 진곡 | A system for controlling the exit and entry using a camera built-in no-touch type card reader |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102078249B1 (en) | 2019-06-18 | 2020-02-17 | 주식회사 페이스테그 | Method for face authentication, apparatus for face authentication and computer program for the same |
US11847849B2 (en) | 2020-07-31 | 2023-12-19 | Korea Institute Of Science And Technology | System and method for companion animal identification based on artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
KR20070077264A (en) | 2007-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10796514B2 (en) | System and method for optimizing a facial recognition-based system for controlling access to a building | |
CN108470169A (en) | Face identification system and method | |
KR101710478B1 (en) | Mobile electric document system of multiple biometric | |
CN104598797B (en) | A kind ofly adopt face recognition, authenticate device that facial vena identification combines with finger vena identification and authentication method | |
CN103324879B (en) | Mobile device is based on recognition of face and the authentication system of smart card and method | |
US20220270426A1 (en) | System and method for identifying and verifying one or more individuals using facial recognition | |
CN103514440A (en) | Facial recognition | |
CN108573203A (en) | Identity identifying method and device and storage medium | |
KR100795360B1 (en) | A Method Of Face Recognizing | |
CN103514439A (en) | Facial recognition | |
CN105874473A (en) | Apparatus and method for acquiring image for iris recognition using distance of facial feature | |
JP2007135149A (en) | Mobile portable terminal | |
KR101594433B1 (en) | A system for controlling the exit and entry using Iris Recognition portable terminal and Method for controlling the exit and entry using Iris Recognition portable | |
CN109766785A (en) | A kind of biopsy method and device of face | |
WO2020020022A1 (en) | Method for visual recognition and system thereof | |
CN208351494U (en) | Face identification system | |
JP7428242B2 (en) | Authentication device, authentication system, authentication method and authentication program | |
JP4862518B2 (en) | Face registration device, face authentication device, and face registration method | |
CN113303791A (en) | Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium | |
RU2005100267A (en) | METHOD AND SYSTEM OF AUTOMATIC VERIFICATION OF THE PRESENCE OF A LIVING FACE OF A HUMAN IN BIOMETRIC SECURITY SYSTEMS | |
US11734981B2 (en) | Enhanced entry authorization | |
CN111582145A (en) | Biometric identification method, electronic device, and computer-readable storage medium | |
KR101388236B1 (en) | Face recognition system using camera glasses | |
KR101066097B1 (en) | Face identifying device and face identifying method | |
CN107742214A (en) | A kind of method of payment and payment system based on face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120110 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20130110 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |