KR101606351B1 - Method and apparatus for discriminating imitation-body - Google Patents
Method and apparatus for discriminating imitation-body Download PDFInfo
- Publication number
- KR101606351B1 KR101606351B1 KR1020140075596A KR20140075596A KR101606351B1 KR 101606351 B1 KR101606351 B1 KR 101606351B1 KR 1020140075596 A KR1020140075596 A KR 1020140075596A KR 20140075596 A KR20140075596 A KR 20140075596A KR 101606351 B1 KR101606351 B1 KR 101606351B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- face
- rotation state
- state information
- subject
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 모조생체 판별 방법 및 장치에 관한 것으로, 개시된 모조생체 판별 방법은 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하는 단계와, 시간 흐름에 의한 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 단계와, 움직임 기준정보와 움직임 비교정보를 비교하여 피사체의 얼굴 움직임 특성을 파악하는 단계와, 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정하는 단계를 포함한다.The present invention relates to a method and an apparatus for discriminating an imitation living body, the method comprising: generating motion reference information by grasping a face region and an eye region in an initial image of a subject; A step of recognizing a facial region and an eye region to generate motion comparison information; comparing the motion reference information and the motion comparison information to determine a facial motion characteristic of the subject; Or not.
Description
본 발명은 모조생체 판별 방법 및 장치에 관한 것이다. 더 상세하게는 피사체를 대상으로 하여 촬영된 영상을 분석하여 피사체에 대한 모조생체 여부를 판정하는 모조생체 판별 방법 및 장치에 관한 것이다.
The present invention relates to a method and apparatus for dummy living body identification. And more particularly, to a method and apparatus for identifying a living body based on a living body by analyzing a photographed image of a subject.
주지하는 바와 같이, 정보화 및 인터넷의 발달로 인해 온라인 전자상거래 및 신원 확인과 관련된 산업의 규모가 커지고 정확한 개인의 인증에 대한 요구가 커짐에 따라 이를 인증하는 수단으로 기존에 사용되던 PIN(Personal Identification Number) 또는 패스워드 방식의 한계점이 포화상태에 이르렀다.As well as the development of the information and the Internet, the scale of the industry related to the online electronic commerce and the identity verification has been enlarged and the demand of the accurate personal authentication has become bigger, and as a means of authenticating it, a PIN (Personal Identification Number ) Or the limit of the password method reached saturation.
반면에, 생체 인식을 통한 사용자 인증은 사용이 편리할 뿐만 아니라 보안성 및 경제성이 뛰어나 현재 많이 상용화 되어 있으며, ATM(Automated Teller Machine) 등과 같은 임베디드 시스템(embedded system) 혹은 퍼스널 컴퓨터에 주로 사용되었으나, 최근에는 기술의 발전에 따라 휴대용 장치(mobile device)까지 쓰임이 확대되고 있다.On the other hand, user authentication through biometrics is widely used in embedded systems or personal computers such as ATMs (Automated Teller Machines) and the like, In recent years, the use of mobile devices has been expanding as technology advances.
지문을 비롯한 생체 정보의 가장 큰 특징은 패스워드와 같이 망각에 대한 위험요소가 없으며, 본인이 아니면 인증을 수행할 수 없는 고유한 장점을 가지고 있다는 것이다.The most important characteristic of biometric information, including fingerprints, is that there is no risk for forgetting such as a password, and there is a unique advantage that the authentication can not be performed unless it is the person himself.
하지만, 이러한 인증용 생체 정보는 디지털 데이터로 변환되어 퍼스널 컴퓨터나 휴대용 장치, 서버 등에서 사용이 되기 때문에, 이러한 디바이스의 해킹 사고가 발생하면 인증용 생체 정보까지 유출될 수 있으며, 이렇게 유출된 인증용 생체 정보는 모조생체를 이용한 악의적인 생체 인증에 사용될 수 있었다.However, since such authentication biometric information is converted into digital data and used in a personal computer, a portable device, a server, etc., if such a device hacking accident occurs, biometric information for authentication can be leaked. The information could be used for malicious biometric authentication using imitation biometrics.
따라서, 생체 인증 시에는 인증용 생체 정보가 실물생체인지 아니면 모조생체인지를 판정하여야 하며, 실물생체인 경우에만 정상적으로 인증 처리하여야 한다.Therefore, at the time of biometric authentication, it is necessary to judge whether the biometric information for authentication is a living body or a living body of a dummy body.
한편, 생체 인증 방식은 지문을 이용하는 방법, 얼굴을 이용하는 방법, 홍채를 이용하는 방법, 혈관을 이용하는 방법 등과 같이 매우 다양하지만, 종래 기술에 의하면 모조지문을 판별하는 기술들이 주종을 이루며, 얼굴을 대상으로 하여 모조생체 여부를 판정하지는 않았다.
On the other hand, biometrics authentication methods vary widely, such as a method of using fingerprint, a method of using face, a method of using iris, and a method of using blood vessel. However, according to the related art, techniques for discriminating phonetic fingerprint are mainly used. And it was not judged whether or not the living body was a dummy living body.
본 발명의 실시예에 따르면, 실물생체를 정당하게 인증 요청하는 경우라면 적어도 근접 거리에 얼굴이 위치된다는 것에 착안하여, 생체 인증 방식의 종별과는 무관하게 얼굴을 이용하여 모조생체 여부를 판정하는 모조생체 판별 방법 및 장치를 제공한다.According to the embodiment of the present invention, it is possible to use a face image to determine whether a living body is a living body, regardless of the type of the biometric authentication system, A method and apparatus for identifying a living body are provided.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
The problems to be solved by the present invention are not limited to those mentioned above, and another problem to be solved can be clearly understood by those skilled in the art from the following description.
본 발명의 제 1 관점에 따른 모조생체 판별 방법은, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하는 단계와, 시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 단계와, 상기 움직임 기준정보와 상기 움직임 비교정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 단계와, 파악된 상기 얼굴 움직임 특성에 따라 상기 피사체에 대한 모조생체 여부를 판정하는 단계를 포함할 수 있다.According to a first aspect of the present invention, there is provided a method of discriminating a living body from a subject, comprising: generating motion reference information by grasping a face region and an eye region in an initial image of a subject; The method comprising the steps of: generating motion comparison information by recognizing an area of a subject; comparing the motion reference information and the motion comparison information to obtain a face motion characteristic of the subject; And determining whether the subject is a living subject.
모조생체 판별 방법에서, 상기 움직임 기준정보 및 상기 움직임 비교정보는, 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하며, 상기 모조생체 여부를 판정하는 단계는, 상기 얼굴 회전 상태정보 및 상기 눈동자 회전 상태정보의 비교 결과에 따른 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체를 모조생체로 판정할 수 있다.Wherein the motion reference information and the motion comparison information include face rotation state information and pupil rotation state information, and wherein the step of determining whether the imitation living body includes the face rotation state information and the pupil rotation state The subject can be determined to be a dummy living body when the facial motion characteristic according to the comparison result of information does not correspond to the vestibular reflex motion.
모조생체 판별 방법에서, 상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타낼 수 있다.In the imitation living body determination method, the face rotation state information may indicate a relative placement angle between the position of the nose or mouth and the position of the eye.
본 발명의 제 2 관점에 따른 모조생체 판별 장치는, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하며, 시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 움직임 정보 생성부와, 상기 움직임 기준정보와 상기 움직임 비교정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 움직임 파악부와, 파악된 상기 얼굴 움직임 특성에 따라 상기 피사체에 대한 모조생체 여부를 판정하는 모조 판정부를 포함할 수 있다.A dummy living body identifying apparatus according to a second aspect of the present invention is a dummy living body identifying apparatus for detecting a face region and an eye region in an initial image of a subject to generate motion reference information, A movement detecting unit for detecting a face movement characteristic of the subject by comparing the motion reference information and the motion comparison information to generate motion comparison information; And an imitation judging section for judging whether the imitation living body is a living body or not.
모조생체 판별 방법에서, 상기 움직임 기준정보 및 상기 움직임 비교정보는, 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하며, 상기 모조 판정부는, 상기 얼굴 회전 상태정보 및 상기 눈동자 회전 상태정보의 비교 결과에 따른 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체를 모조생체로 판정할 수 있다.Wherein the motion reference information and the motion comparison information include face rotation state information and eye pupil rotation state information, and the imitation determination unit determines whether or not the face rotation state information and the pupil rotation state information It is possible to determine that the subject is a dummy living body when the facial motion characteristic according to the present invention does not correspond to the vestibular ocular reflex motion.
모조생체 판별 방법에서, 상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타낼 수 있다.
In the imitation living body determination method, the face rotation state information may indicate a relative placement angle between the position of the nose or mouth and the position of the eye.
본 발명의 실시예에 의하면, 실물생체를 정당하게 인증 요청하는 상황이라면 생체 인증 방식의 종별과는 무관하게 적어도 근접 거리에 얼굴이 위치된다는 것에 착안하여, 얼굴을 이용하여 모조생체 여부를 정확히 판정하게 된다.According to the embodiment of the present invention, it is possible to accurately determine whether the imitation living body is using the face by paying attention to the fact that the face is located at least close to the living body irrespective of the type of the biometric authentication system, do.
이러한 본 발명의 실시예에 따라 제공되는 모조생체 판별 기술은 생체 인증 방식의 종별과는 무관하게 모든 생체 인증 방식, 예컨대 지문을 이용하는 방법, 얼굴을 이용하는 방법, 홍채를 이용하는 방법, 혈관을 이용하는 방법 등에 적용할 수 있다.
The imitation biometric identification technology provided in accordance with the embodiment of the present invention can be applied to all biometric authentication methods such as a method using a fingerprint, a method using a face, a method using an iris, a method using a blood vessel Can be applied.
도 1은 본 발명의 실시예에 따른 모조생체 판별 장치의 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 모조생체 판별 방법을 설명하기 위한 흐름도이다.
도 3은 얼굴의 회전에 따른 코의 위치와 눈의 위치와의 상대 배치각도 및 입의 위치와 눈의 위치와의 상대 배치각도의 변화 과정을 보인 상태도이다.FIG. 1 is a block diagram of a dummy biometric identification device according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining a dummy living body identification method according to an embodiment of the present invention.
3 is a view showing a process of changing a relative arrangement angle between the position of the nose and the position of the eye and the relative arrangement angle between the position of the mouth and the position of the eye according to the rotation of the face.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.
본 발명의 실시예에 따른 모조생체 판별 방법 및 장치는, 피사체에 대한 전정 안구 반사(Vestibulo-Ocular Reflex; VOR) 시험을 통해 정상적으로 전정 안구 반사 운동을 하는 피사체에 대해서는 실물생체로 판정하며, 전정 안구 반사 운동을 하지 않는 피사체에 대해서는 모조생체로 판정한다. 전정 안구 반사란 생명체의 시각 작용 중 필수적으로 구현되어야 하는 대표적인 생체 메커니즘으로, 신체의 움직임 중에도 물체의 상이 안정되도록 하는 반사성 안구 운동이다. 전정 안구 반사는 인체의 머리가 움직일 때, 머리의 운동 방향과 반대 방향으로 안구 운동을 일으켜 외부 세계의 이미지가 망막에 가능한 오래 유지될 수 있도록 안구의 움직임을 자동적으로 유지하는 것이다.
A method and apparatus for dummy living body identification according to an embodiment of the present invention determines a living body to be a living body for a subject that normally performs vestibular ocular reflex movement through a Vestibulo-Ocular Reflex (VOR) test on a subject, For a subject not performing a reflex motion, it is judged to be a dummy living body. The vestibular reflex is a representative biomechanical mechanism that must be implemented in the visual action of living things. It is a reflective eye movement that stabilizes the image of the body even during the movement of the body. The vestibular reflex is to keep the movement of the eye automatically so that the image of the outside world is kept in the retina as long as possible, causing the eye movement in the direction opposite to the direction of movement of the head when the human head moves.
도 1은 본 발명의 실시예에 따른 모조생체 판별 장치의 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a dummy living body identifying apparatus according to an embodiment of the present invention; FIG.
이에 나타낸 바와 같이 실시예에 따른 모조생체 판별 장치(100)는, 움직임 정보 생성부(110), 움직임 파악부(120), 모조 판정부(130) 등을 포함한다.As shown in the figure, the dummy
움직임 정보 생성부(110)는 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하며, 시간 흐름에 의한 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성한다.The motion
이러한 움직임 정보 생성부(110)는 피사체를 대상으로 하여 시간 흐름에 따라 복수 회에 걸쳐 촬영된 영상을 분석하여 고개를 가로 젖는 얼굴 회전 운동에 의한 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성한다. 여기서, 얼굴 회전 상태정보는 코의 위치와 눈의 위치와의 상대 배치각도로 나타내거나 입의 위치와 눈의 위치와의 상대 배치각도로 나타낼 수 있다.The motion
움직임 파악부(120)는 움직임 정보 생성부(110)에 의해 생성된 움직임 기준정보와 움직임 비교정보를 비교하여 피사체의 얼굴 움직임 특성을 파악한다. 이러한 움직임 파악부(120)는 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교하여 피사체의 얼굴 움직임 특성을 파악할 수 있다.The
모조 판정부(130)는 움직임 파악부(120)에 의해 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정한다. 이러한 모조 판정부(130)는 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교한 결과에 따른 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 피사체를 모조생체로 판정한다.
The
도 2는 본 발명의 실시예에 따른 모조생체 판별 방법을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining a dummy living body identification method according to an embodiment of the present invention.
이에 나타낸 바와 같이 실시예에 따른 모조생체 판별 방법은, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하는 단계(S201)를 포함한다. 여기서, 피사체를 대상으로 하여 시간 흐름에 따라 복수 회에 걸쳐 촬영된 영상을 분석하여 고개를 가로 젖는 얼굴 회전 운동에 의한 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성할 수 있다. 예컨대, 얼굴 회전 상태정보는 코의 위치와 눈의 위치와의 상대 배치각도로 나타내거나 입의 위치와 눈의 위치와의 상대 배치각도로 나타낼 수 있다.As shown in the figure, the dummy biological body determination method according to the embodiment includes step S201 of generating motion reference information by grasping a face region and an eye region in an initial image of a subject. Here, the face rotated state information and the pupil rotation state information can be generated by analyzing the image photographed over a plurality of times in accordance with the time of the subject, and by rotating the face of the head. For example, the face rotation state information may be expressed as a relative placement angle between the position of the nose and the position of the eye, or may be expressed as a relative placement angle between the position of the mouth and the position of the eye.
그리고, 시간 흐름에 의한 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 단계(S203)를 더 포함한다.The method further includes a step S203 of generating motion comparison information by grasping the face region and the eye region in the next image of the subject by the time flow.
아울러, 생성된 움직임 기준정보와 움직임 비교정보를 비교하여 피사체의 얼굴 움직임 특성을 파악하는 단계(S205)를 더 포함한다. 여기서, 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교할 수 있다.In addition, the step of comparing the generated motion reference information and the motion comparison information to determine the facial motion characteristic of the subject (S205). Here, it is possible to compare the face rotation state information and the pupil rotation state information included in the motion reference information and the motion comparison information.
이어서, 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정하는 단계(S207 내지 S211)를 더 포함한다. 여기서, 여기서, 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보의 비교 결과에 따른 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 피사체를 모조생체로 판정할 수 있다.
Subsequently, steps S207 to S211 are performed to determine whether the subject is a dummy living body according to the detected facial motion characteristics. Here, if the facial motion characteristic according to the comparison result of the face rotation state information and the pupil rotation state information included in the motion reference information and the motion comparison information does not correspond to the vestibular reflex motion, the subject can be determined as the imitation living body have.
이하, 도 1 내지 도 3을 참조하여 본 발명의 실시예에 따른 모조생체 판별 장치에 의한 모조생체 판별 과정을 자세히 살펴보기로 한다.Hereinafter, a dummy biometric identification process performed by the dummy biometric identification device according to the embodiment of the present invention will be described in detail with reference to FIG. 1 to FIG.
본 발명의 실시예에 따른 모조생체 판별을 위해서 생체 판별의 대상이 되는 피사체, 즉 사람과 모조생체 판별 장치(100) 간에는 영상 촬영과 관련된 특정한 행동 요령이 사전에 약속된다. 예컨대, 사람은 움직임 정보 생성부(110)에 포함될 수 있는 카메라를 주시하여 얼굴의 정면을 촬영할 수 있도록 협조하여야 하며, 카메라를 주시하면서 고개를 돌리는 얼굴 회전 운동을 수행하여 움직임 정보 생성부(110)가 얼굴의 측면을 촬영할 수 있도록 하여야 한다.In order to discriminate a dummy living body according to an embodiment of the present invention, specific action tips related to image shooting are promised beforehand between a subject to be subjected to biometric identification, that is, a person and a dummy living
이러한 행동 요령이 사전에 약속된 상태에서, 사람이 카메라를 주시하면 움직임 정보 생성부(110)는 피사체를 대상으로 하여 초기 영상을 획득하고, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성한다(S201).When a person watches the camera in a state where such an action is promised in advance, the motion
여기서, 움직임 정보 생성부(110)는 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성하며, 얼굴 회전 상태정보는 코의 위치와 눈의 위치와의 상대 배치각도로 나타내거나 입의 위치와 눈의 위치와의 상대 배치각도로 나타낼 수 있다.Here, the motion
이를 위해, 움직임 정보 생성부(110)는 초기 영상을 분석하여 얼굴 요소 중의 하나인 양안의 위치를 검출하며, 코 또는 입의 중심부를 특징점으로 검출하고, 양안의 위치를 기준으로 하여 얼굴 영역을 추정할 수 있다. 예컨대, 공지의 아다부스트(adaboost) 알고리즘 등을 이용하여 양안의 위치를 검출할 수 있다. 또, 눈동자 회전 상태정보를 생성하기 위해서는 눈동자를 포함하는 눈 영역에 대한 영상 이진화(binarization)를 수행하여 눈동자가 어느 방향으로 치우쳐 있는지를 확인할 수 있다.For this purpose, the motion
이후, 사전에 약속된 행동 요령에 따라 사람이 카메라를 주시하면서 고개를 돌리는 얼굴 회전 운동을 수행하면 움직임 정보 생성부(110)는 얼굴의 측면을 촬영하여 피사체의 시간 흐름에 따른 다음 영상을 획득한다.Thereafter, when a person performs a face rotation movement while turning his / her head while looking at the camera according to the promised action, the motion
이어서, 움직임 정보 생성부(110)는 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성한다. 여기서, 움직임 정보 생성부(110)는 움직임 기준정보의 생성 시와 마찬가지의 방법 또는 원리에 의거하여 피사체의 다음 영상을 분석하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성할 수 있다(S203).Next, the motion
다음으로, 움직임 파악부(120)는 움직임 정보 생성부(110)에 의해 생성된 움직임 기준정보와 움직임 비교정보를 비교하며, 그 비교 결과에 의거하여 피사체의 얼굴 움직임 특성을 파악하고, 파악된 피사체의 얼굴 움직임 특성을 모조 판정부(130)에게 제공한다. 여기서, 움직임 파악부(120)는 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교하여 피사체가 얼굴을 한쪽 방향으로 회전시켰는지를 파악하며, 눈이 어떤 방향으로 응시하고 있는지를 파악한다(S205).Next, the
그러면, 모조 판정부(130)는 움직임 파악부(120)에 의해 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정한다(S207). 이러한 모조 판정부(130)는 얼굴 움직임 특성이 전정 안구 반사 운동에 해당할 경우에 피사체를 실물생체로 판정하며(S209), 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 피사체를 모조생체로 판정한다(S211). 즉, 모조 판정부(130)는 피사체의 얼굴 회전 방향과는 반대 방향으로 눈의 응시 방향이 파악된 경우에 전정 안구 반사 운동이 제대로 수행된 것으로 판별하여 피사체를 실물생체로 판정하는 것이다.Then, the
이러한 본 발명의 실시예에 따른 모조생체/실물생체 판정 원리를 도 3를 참조하여 살펴보면, 도 3의 (b)는 움직임 정보 생성부(110)에 의해 획득된 피사체의 초기 영상이며, 도 3의 (a)와 (c)는 움직임 정보 생성부(110)에 의해 획득된 피사체의 다음 영상이다. 이러한 피사체의 영상에서 눈동자 중심 위치인 A, B, A', B', A", B"가 검출된다. 그리고, 코 끝의 위치 또는 입술 중앙 위치가 특징점으로 검출된다. 즉, 코 끝의 위치인 C, C', C"가 특징점으로 검출되거나 입술 중앙 위치인 D, D', D"가 특징점으로 검출된다.3 (b) is an initial image of a subject obtained by the motion
그렇다면, 도 3의 (b)에서 양 눈의 중심과 코 끝의 중심 위치를 연결한 삼각형에서 ∠BAC 와 ∠ABC의 차이는 작다. 반면에 도 3의 (a)에서 ∠B'A'C'와 ∠A'B'C'의 차이는 큰 것을 볼 수 있다. 이는 도 3의 (c)에서도 마찬가지이며, 입술 중앙 위치가 특징점으로 검출되었을 때도 동일한 결과를 볼 수 있다.3 (b), the difference between ∠BAC and ∠ABC is small in the triangle connecting the center of both eyes and the center of the nose. On the other hand, in Fig. 3 (a), the difference between ∠B'A'C 'and ∠A'B'C' is large. This is also true in FIG. 3 (c), and the same result can be obtained when the lip center position is detected as the feature point.
따라서, 움직임 파악부(120)는 위의 두 내각의 크기를 비교하여 초기 위치 대비 상대적인 각도 변화가 큰 쪽으로 얼굴이 회전하였다는 것을 판별 할 수 있다.Therefore, the
이상에서 얼굴 회전 방향 파악을 위한 실시예를 설명하였지만, 여타의 방법 또는 원리에 의거하여 얼굴 회전 방향 및 눈동자 회전 방향이 검출 및 파악될 수 있다. 예컨대, 카메라의 연속 프레임간의 영상 차이값을 활용할 수도 있으며, 시선추적기술을 활용하여 눈동자의 움직임과 얼굴 움직임을 파악할 수도 있다.
Although the embodiments for grasping the face rotation direction have been described above, the face rotation direction and the pupil rotation direction can be detected and grasped based on other methods or principles. For example, image difference values between consecutive frames of a camera may be utilized, and eye movement and face movement may be grasped by using eye tracking technology.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Combinations of the steps of each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which are executed via a processor of a computer or other programmable data processing apparatus, Lt; / RTI > These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in each step of the flowchart. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each step of the flowchart.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the steps may occur out of order. For example, the two steps shown in succession may in fact be performed substantially concurrently, or the steps may sometimes be performed in reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100 : 모조생체 판별 장치
110 : 움직임 정보 생성부
120 : 움직임 파악부
130 : 모조 판정부100: Imitation biometric discriminator
110: a motion information generating unit
120:
130: Mojo board
Claims (6)
시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하는 움직임 비교정보를 생성하는 단계와,
상기 움직임 기준정보와 상기 움직임 비교정보에 포함된 상기 얼굴 회전 상태정보를 비교 및 상기 눈동자 회전 상태정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 단계와,
파악된 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체를 모조생체로 판정하는 단계를 포함하는 모조생체 판별 방법.
Generating motion reference information including face rotation state information and pupil rotation state information by grasping a face region and an eye region in an initial image of a subject,
Generating motion comparison information including the face rotation state information and the pupil rotation state information by grasping the face region and the eye region in the next image of the subject by time flow,
Comparing the motion reference information and the face rotation state information included in the motion comparison information and comparing the pupil rotation state information to obtain a face motion characteristic of the subject,
And judging the subject to be a dummy living body when the detected facial motion characteristic does not correspond to the vestibular ocular reflex motion .
상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타내는 모조생체 판별 방법.
The method according to claim 1,
Wherein the face rotation state information indicates a relative placement angle between a position of the nose or mouth and a position of the eye.
상기 움직임 기준정보와 상기 움직임 비교정보에 포함된 상기 얼굴 회전 상태정보를 비교 및 상기 눈동자 회전 상태정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 움직임 파악부와,
파악된 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체에 대한 모조생체 여부를 판정하는 모조 판정부를 포함하는 모조생체 판별 장치.
The face region and the eye region are grasped in the initial image of the subject to generate motion reference information including the face rotation state information and the pupil rotation state information and the face region and the eye region are grasped in the next image of the subject by the time flow A motion information generating unit for generating motion comparison information including face rotation state information and eye pupil rotation state information ,
Comparing the face rotation state information included in the motion reference information and the motion comparison information and comparing the pupil rotation state information to obtain a face movement characteristic of the subject;
And an imitation judging unit for judging whether or not the subject is a dummy living body when the detected face movement characteristic does not correspond to the vestibular ocular reflex movement .
상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타내는 모조생체 판별 장치.
5. The method of claim 4,
Wherein the face rotation state information indicates a relative placement angle between a position of the nose or mouth and a position of the eye.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140075596A KR101606351B1 (en) | 2014-06-20 | 2014-06-20 | Method and apparatus for discriminating imitation-body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140075596A KR101606351B1 (en) | 2014-06-20 | 2014-06-20 | Method and apparatus for discriminating imitation-body |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150145541A KR20150145541A (en) | 2015-12-30 |
KR101606351B1 true KR101606351B1 (en) | 2016-03-25 |
Family
ID=55087916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140075596A KR101606351B1 (en) | 2014-06-20 | 2014-06-20 | Method and apparatus for discriminating imitation-body |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101606351B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11176392B2 (en) | 2017-03-27 | 2021-11-16 | Samsung Electronics Co., Ltd. | Liveness test method and apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101179559B1 (en) | 2009-12-18 | 2012-09-04 | 주식회사 유니온커뮤니티 | Fingerprint Recognition Apparatus for Distinguishing Forged Fingerprint and Method therof |
-
2014
- 2014-06-20 KR KR1020140075596A patent/KR101606351B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11176392B2 (en) | 2017-03-27 | 2021-11-16 | Samsung Electronics Co., Ltd. | Liveness test method and apparatus |
US11721131B2 (en) | 2017-03-27 | 2023-08-08 | Samsung Electronics Co., Ltd. | Liveness test method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20150145541A (en) | 2015-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11188734B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
CN107995979B (en) | System, method and machine-readable medium for authenticating a user | |
KR101696602B1 (en) | Biometric authentication using gesture | |
EP2883189B1 (en) | Spoof detection for biometric authentication | |
EP3118762A1 (en) | Method, device and computer program for authenticating a user | |
EP3559847B1 (en) | Electronic device for biometric authentication of a user | |
EP2821938A1 (en) | Method and device for notification of facial recognition environment, and computer-readable recording medium for executing method | |
JP2017533516A (en) | Fingerprint authentication using stitching and cutting | |
WO2019011072A1 (en) | Iris live detection method and related product | |
US11682236B2 (en) | Iris authentication device, iris authentication method and recording medium | |
US11756338B2 (en) | Authentication device, authentication method, and recording medium | |
JP6267025B2 (en) | Communication terminal and communication terminal authentication method | |
KR20200080533A (en) | Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation | |
EP4343689A1 (en) | Body part authentication system and authentication method | |
KR101606351B1 (en) | Method and apparatus for discriminating imitation-body | |
JP2004178606A (en) | Personal identification device and method | |
US11507646B1 (en) | User authentication using video analysis | |
JP6798285B2 (en) | Biometric device, biometric method and program | |
KR101703690B1 (en) | Apparatus for recognizing iris and operating method thereof | |
KR20160045371A (en) | Certification method using biometric information | |
JP2008000464A (en) | Authentication device and authentication method | |
JP2017091276A (en) | Operation permission determination device, operation permission determination system, operation permission determination method, and operation permission determination program | |
Bakshi et al. | Biometric Technology: A Look and Survey at Face Recogntion | |
TWI576717B (en) | Dimensional biometric identification system and method | |
JP2007058525A (en) | Individual authentication device and individual authentication display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
N231 | Notification of change of applicant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200309 Year of fee payment: 5 |