KR101606351B1 - Method and apparatus for discriminating imitation-body - Google Patents

Method and apparatus for discriminating imitation-body Download PDF

Info

Publication number
KR101606351B1
KR101606351B1 KR1020140075596A KR20140075596A KR101606351B1 KR 101606351 B1 KR101606351 B1 KR 101606351B1 KR 1020140075596 A KR1020140075596 A KR 1020140075596A KR 20140075596 A KR20140075596 A KR 20140075596A KR 101606351 B1 KR101606351 B1 KR 101606351B1
Authority
KR
South Korea
Prior art keywords
motion
face
rotation state
state information
subject
Prior art date
Application number
KR1020140075596A
Other languages
Korean (ko)
Other versions
KR20150145541A (en
Inventor
이현창
신호철
이기덕
송봉섭
이재원
Original Assignee
주식회사 슈프리마
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 슈프리마 filed Critical 주식회사 슈프리마
Priority to KR1020140075596A priority Critical patent/KR101606351B1/en
Publication of KR20150145541A publication Critical patent/KR20150145541A/en
Application granted granted Critical
Publication of KR101606351B1 publication Critical patent/KR101606351B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 모조생체 판별 방법 및 장치에 관한 것으로, 개시된 모조생체 판별 방법은 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하는 단계와, 시간 흐름에 의한 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 단계와, 움직임 기준정보와 움직임 비교정보를 비교하여 피사체의 얼굴 움직임 특성을 파악하는 단계와, 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정하는 단계를 포함한다.The present invention relates to a method and an apparatus for discriminating an imitation living body, the method comprising: generating motion reference information by grasping a face region and an eye region in an initial image of a subject; A step of recognizing a facial region and an eye region to generate motion comparison information; comparing the motion reference information and the motion comparison information to determine a facial motion characteristic of the subject; Or not.

Description

모조생체 판별 방법 및 장치{METHOD AND APPARATUS FOR DISCRIMINATING IMITATION-BODY}METHOD AND APPARATUS FOR DISCRIMINATING IMITATION-BODY [0002]

본 발명은 모조생체 판별 방법 및 장치에 관한 것이다. 더 상세하게는 피사체를 대상으로 하여 촬영된 영상을 분석하여 피사체에 대한 모조생체 여부를 판정하는 모조생체 판별 방법 및 장치에 관한 것이다.
The present invention relates to a method and apparatus for dummy living body identification. And more particularly, to a method and apparatus for identifying a living body based on a living body by analyzing a photographed image of a subject.

주지하는 바와 같이, 정보화 및 인터넷의 발달로 인해 온라인 전자상거래 및 신원 확인과 관련된 산업의 규모가 커지고 정확한 개인의 인증에 대한 요구가 커짐에 따라 이를 인증하는 수단으로 기존에 사용되던 PIN(Personal Identification Number) 또는 패스워드 방식의 한계점이 포화상태에 이르렀다.As well as the development of the information and the Internet, the scale of the industry related to the online electronic commerce and the identity verification has been enlarged and the demand of the accurate personal authentication has become bigger, and as a means of authenticating it, a PIN (Personal Identification Number ) Or the limit of the password method reached saturation.

반면에, 생체 인식을 통한 사용자 인증은 사용이 편리할 뿐만 아니라 보안성 및 경제성이 뛰어나 현재 많이 상용화 되어 있으며, ATM(Automated Teller Machine) 등과 같은 임베디드 시스템(embedded system) 혹은 퍼스널 컴퓨터에 주로 사용되었으나, 최근에는 기술의 발전에 따라 휴대용 장치(mobile device)까지 쓰임이 확대되고 있다.On the other hand, user authentication through biometrics is widely used in embedded systems or personal computers such as ATMs (Automated Teller Machines) and the like, In recent years, the use of mobile devices has been expanding as technology advances.

지문을 비롯한 생체 정보의 가장 큰 특징은 패스워드와 같이 망각에 대한 위험요소가 없으며, 본인이 아니면 인증을 수행할 수 없는 고유한 장점을 가지고 있다는 것이다.The most important characteristic of biometric information, including fingerprints, is that there is no risk for forgetting such as a password, and there is a unique advantage that the authentication can not be performed unless it is the person himself.

하지만, 이러한 인증용 생체 정보는 디지털 데이터로 변환되어 퍼스널 컴퓨터나 휴대용 장치, 서버 등에서 사용이 되기 때문에, 이러한 디바이스의 해킹 사고가 발생하면 인증용 생체 정보까지 유출될 수 있으며, 이렇게 유출된 인증용 생체 정보는 모조생체를 이용한 악의적인 생체 인증에 사용될 수 있었다.However, since such authentication biometric information is converted into digital data and used in a personal computer, a portable device, a server, etc., if such a device hacking accident occurs, biometric information for authentication can be leaked. The information could be used for malicious biometric authentication using imitation biometrics.

따라서, 생체 인증 시에는 인증용 생체 정보가 실물생체인지 아니면 모조생체인지를 판정하여야 하며, 실물생체인 경우에만 정상적으로 인증 처리하여야 한다.Therefore, at the time of biometric authentication, it is necessary to judge whether the biometric information for authentication is a living body or a living body of a dummy body.

한편, 생체 인증 방식은 지문을 이용하는 방법, 얼굴을 이용하는 방법, 홍채를 이용하는 방법, 혈관을 이용하는 방법 등과 같이 매우 다양하지만, 종래 기술에 의하면 모조지문을 판별하는 기술들이 주종을 이루며, 얼굴을 대상으로 하여 모조생체 여부를 판정하지는 않았다.
On the other hand, biometrics authentication methods vary widely, such as a method of using fingerprint, a method of using face, a method of using iris, and a method of using blood vessel. However, according to the related art, techniques for discriminating phonetic fingerprint are mainly used. And it was not judged whether or not the living body was a dummy living body.

대한민국 등록특허공보 제1179559호, 등록일자 2012년 08월 29일.Korean Registered Patent No. 1179559, registered on August 29, 2012.

본 발명의 실시예에 따르면, 실물생체를 정당하게 인증 요청하는 경우라면 적어도 근접 거리에 얼굴이 위치된다는 것에 착안하여, 생체 인증 방식의 종별과는 무관하게 얼굴을 이용하여 모조생체 여부를 판정하는 모조생체 판별 방법 및 장치를 제공한다.According to the embodiment of the present invention, it is possible to use a face image to determine whether a living body is a living body, regardless of the type of the biometric authentication system, A method and apparatus for identifying a living body are provided.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
The problems to be solved by the present invention are not limited to those mentioned above, and another problem to be solved can be clearly understood by those skilled in the art from the following description.

본 발명의 제 1 관점에 따른 모조생체 판별 방법은, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하는 단계와, 시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 단계와, 상기 움직임 기준정보와 상기 움직임 비교정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 단계와, 파악된 상기 얼굴 움직임 특성에 따라 상기 피사체에 대한 모조생체 여부를 판정하는 단계를 포함할 수 있다.According to a first aspect of the present invention, there is provided a method of discriminating a living body from a subject, comprising: generating motion reference information by grasping a face region and an eye region in an initial image of a subject; The method comprising the steps of: generating motion comparison information by recognizing an area of a subject; comparing the motion reference information and the motion comparison information to obtain a face motion characteristic of the subject; And determining whether the subject is a living subject.

모조생체 판별 방법에서, 상기 움직임 기준정보 및 상기 움직임 비교정보는, 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하며, 상기 모조생체 여부를 판정하는 단계는, 상기 얼굴 회전 상태정보 및 상기 눈동자 회전 상태정보의 비교 결과에 따른 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체를 모조생체로 판정할 수 있다.Wherein the motion reference information and the motion comparison information include face rotation state information and pupil rotation state information, and wherein the step of determining whether the imitation living body includes the face rotation state information and the pupil rotation state The subject can be determined to be a dummy living body when the facial motion characteristic according to the comparison result of information does not correspond to the vestibular reflex motion.

모조생체 판별 방법에서, 상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타낼 수 있다.In the imitation living body determination method, the face rotation state information may indicate a relative placement angle between the position of the nose or mouth and the position of the eye.

본 발명의 제 2 관점에 따른 모조생체 판별 장치는, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하며, 시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 움직임 정보 생성부와, 상기 움직임 기준정보와 상기 움직임 비교정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 움직임 파악부와, 파악된 상기 얼굴 움직임 특성에 따라 상기 피사체에 대한 모조생체 여부를 판정하는 모조 판정부를 포함할 수 있다.A dummy living body identifying apparatus according to a second aspect of the present invention is a dummy living body identifying apparatus for detecting a face region and an eye region in an initial image of a subject to generate motion reference information, A movement detecting unit for detecting a face movement characteristic of the subject by comparing the motion reference information and the motion comparison information to generate motion comparison information; And an imitation judging section for judging whether the imitation living body is a living body or not.

모조생체 판별 방법에서, 상기 움직임 기준정보 및 상기 움직임 비교정보는, 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하며, 상기 모조 판정부는, 상기 얼굴 회전 상태정보 및 상기 눈동자 회전 상태정보의 비교 결과에 따른 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체를 모조생체로 판정할 수 있다.Wherein the motion reference information and the motion comparison information include face rotation state information and eye pupil rotation state information, and the imitation determination unit determines whether or not the face rotation state information and the pupil rotation state information It is possible to determine that the subject is a dummy living body when the facial motion characteristic according to the present invention does not correspond to the vestibular ocular reflex motion.

모조생체 판별 방법에서, 상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타낼 수 있다.
In the imitation living body determination method, the face rotation state information may indicate a relative placement angle between the position of the nose or mouth and the position of the eye.

본 발명의 실시예에 의하면, 실물생체를 정당하게 인증 요청하는 상황이라면 생체 인증 방식의 종별과는 무관하게 적어도 근접 거리에 얼굴이 위치된다는 것에 착안하여, 얼굴을 이용하여 모조생체 여부를 정확히 판정하게 된다.According to the embodiment of the present invention, it is possible to accurately determine whether the imitation living body is using the face by paying attention to the fact that the face is located at least close to the living body irrespective of the type of the biometric authentication system, do.

이러한 본 발명의 실시예에 따라 제공되는 모조생체 판별 기술은 생체 인증 방식의 종별과는 무관하게 모든 생체 인증 방식, 예컨대 지문을 이용하는 방법, 얼굴을 이용하는 방법, 홍채를 이용하는 방법, 혈관을 이용하는 방법 등에 적용할 수 있다.
The imitation biometric identification technology provided in accordance with the embodiment of the present invention can be applied to all biometric authentication methods such as a method using a fingerprint, a method using a face, a method using an iris, a method using a blood vessel Can be applied.

도 1은 본 발명의 실시예에 따른 모조생체 판별 장치의 블록 구성도이다.
도 2는 본 발명의 실시예에 따른 모조생체 판별 방법을 설명하기 위한 흐름도이다.
도 3은 얼굴의 회전에 따른 코의 위치와 눈의 위치와의 상대 배치각도 및 입의 위치와 눈의 위치와의 상대 배치각도의 변화 과정을 보인 상태도이다.
FIG. 1 is a block diagram of a dummy biometric identification device according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining a dummy living body identification method according to an embodiment of the present invention.
3 is a view showing a process of changing a relative arrangement angle between the position of the nose and the position of the eye and the relative arrangement angle between the position of the mouth and the position of the eye according to the rotation of the face.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

본 발명의 실시예에 따른 모조생체 판별 방법 및 장치는, 피사체에 대한 전정 안구 반사(Vestibulo-Ocular Reflex; VOR) 시험을 통해 정상적으로 전정 안구 반사 운동을 하는 피사체에 대해서는 실물생체로 판정하며, 전정 안구 반사 운동을 하지 않는 피사체에 대해서는 모조생체로 판정한다. 전정 안구 반사란 생명체의 시각 작용 중 필수적으로 구현되어야 하는 대표적인 생체 메커니즘으로, 신체의 움직임 중에도 물체의 상이 안정되도록 하는 반사성 안구 운동이다. 전정 안구 반사는 인체의 머리가 움직일 때, 머리의 운동 방향과 반대 방향으로 안구 운동을 일으켜 외부 세계의 이미지가 망막에 가능한 오래 유지될 수 있도록 안구의 움직임을 자동적으로 유지하는 것이다.
A method and apparatus for dummy living body identification according to an embodiment of the present invention determines a living body to be a living body for a subject that normally performs vestibular ocular reflex movement through a Vestibulo-Ocular Reflex (VOR) test on a subject, For a subject not performing a reflex motion, it is judged to be a dummy living body. The vestibular reflex is a representative biomechanical mechanism that must be implemented in the visual action of living things. It is a reflective eye movement that stabilizes the image of the body even during the movement of the body. The vestibular reflex is to keep the movement of the eye automatically so that the image of the outside world is kept in the retina as long as possible, causing the eye movement in the direction opposite to the direction of movement of the head when the human head moves.

도 1은 본 발명의 실시예에 따른 모조생체 판별 장치의 구성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a dummy living body identifying apparatus according to an embodiment of the present invention; FIG.

이에 나타낸 바와 같이 실시예에 따른 모조생체 판별 장치(100)는, 움직임 정보 생성부(110), 움직임 파악부(120), 모조 판정부(130) 등을 포함한다.As shown in the figure, the dummy biometric identification apparatus 100 according to the embodiment includes a motion information generation unit 110, a motion detection unit 120, a dummy determination unit 130, and the like.

움직임 정보 생성부(110)는 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하며, 시간 흐름에 의한 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성한다.The motion information generation unit 110 generates motion reference information by recognizing a face area and an eye area in an initial image of a subject and grasps a face area and an eye area in a next image of the subject by time flow to generate motion comparison information do.

이러한 움직임 정보 생성부(110)는 피사체를 대상으로 하여 시간 흐름에 따라 복수 회에 걸쳐 촬영된 영상을 분석하여 고개를 가로 젖는 얼굴 회전 운동에 의한 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성한다. 여기서, 얼굴 회전 상태정보는 코의 위치와 눈의 위치와의 상대 배치각도로 나타내거나 입의 위치와 눈의 위치와의 상대 배치각도로 나타낼 수 있다.The motion information generation unit 110 analyzes the photographed image over a plurality of times based on the subject and generates face rotation state information and pupil rotation state information based on the face rotation motion of the head. Here, the face rotation state information may be expressed as a relative arrangement angle between the position of the nose and the position of the eyes, or may be expressed as a relative arrangement angle between the position of the mouth and the position of the eyes.

움직임 파악부(120)는 움직임 정보 생성부(110)에 의해 생성된 움직임 기준정보와 움직임 비교정보를 비교하여 피사체의 얼굴 움직임 특성을 파악한다. 이러한 움직임 파악부(120)는 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교하여 피사체의 얼굴 움직임 특성을 파악할 수 있다.The motion detecting unit 120 compares the motion reference information generated by the motion information generating unit 110 with the motion comparison information to determine the facial motion characteristics of the subject. The motion detecting unit 120 may compute the face motion characteristics of the subject by comparing the face rotation state information and the pupil rotation state information included in the motion comparison information and the motion comparison information.

모조 판정부(130)는 움직임 파악부(120)에 의해 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정한다. 이러한 모조 판정부(130)는 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교한 결과에 따른 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 피사체를 모조생체로 판정한다.
The dummy determination unit 130 determines whether the dummy body is a living body based on the face movement characteristic detected by the motion detection unit 120. When the face motion characteristic according to the result of comparing the motion state information and the motion state information and the eye motion state information included in the motion comparison information does not correspond to the vestibular reflex motion, It is judged as a living body.

도 2는 본 발명의 실시예에 따른 모조생체 판별 방법을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining a dummy living body identification method according to an embodiment of the present invention.

이에 나타낸 바와 같이 실시예에 따른 모조생체 판별 방법은, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성하는 단계(S201)를 포함한다. 여기서, 피사체를 대상으로 하여 시간 흐름에 따라 복수 회에 걸쳐 촬영된 영상을 분석하여 고개를 가로 젖는 얼굴 회전 운동에 의한 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성할 수 있다. 예컨대, 얼굴 회전 상태정보는 코의 위치와 눈의 위치와의 상대 배치각도로 나타내거나 입의 위치와 눈의 위치와의 상대 배치각도로 나타낼 수 있다.As shown in the figure, the dummy biological body determination method according to the embodiment includes step S201 of generating motion reference information by grasping a face region and an eye region in an initial image of a subject. Here, the face rotated state information and the pupil rotation state information can be generated by analyzing the image photographed over a plurality of times in accordance with the time of the subject, and by rotating the face of the head. For example, the face rotation state information may be expressed as a relative placement angle between the position of the nose and the position of the eye, or may be expressed as a relative placement angle between the position of the mouth and the position of the eye.

그리고, 시간 흐름에 의한 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성하는 단계(S203)를 더 포함한다.The method further includes a step S203 of generating motion comparison information by grasping the face region and the eye region in the next image of the subject by the time flow.

아울러, 생성된 움직임 기준정보와 움직임 비교정보를 비교하여 피사체의 얼굴 움직임 특성을 파악하는 단계(S205)를 더 포함한다. 여기서, 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교할 수 있다.In addition, the step of comparing the generated motion reference information and the motion comparison information to determine the facial motion characteristic of the subject (S205). Here, it is possible to compare the face rotation state information and the pupil rotation state information included in the motion reference information and the motion comparison information.

이어서, 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정하는 단계(S207 내지 S211)를 더 포함한다. 여기서, 여기서, 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보의 비교 결과에 따른 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 피사체를 모조생체로 판정할 수 있다.
Subsequently, steps S207 to S211 are performed to determine whether the subject is a dummy living body according to the detected facial motion characteristics. Here, if the facial motion characteristic according to the comparison result of the face rotation state information and the pupil rotation state information included in the motion reference information and the motion comparison information does not correspond to the vestibular reflex motion, the subject can be determined as the imitation living body have.

이하, 도 1 내지 도 3을 참조하여 본 발명의 실시예에 따른 모조생체 판별 장치에 의한 모조생체 판별 과정을 자세히 살펴보기로 한다.Hereinafter, a dummy biometric identification process performed by the dummy biometric identification device according to the embodiment of the present invention will be described in detail with reference to FIG. 1 to FIG.

본 발명의 실시예에 따른 모조생체 판별을 위해서 생체 판별의 대상이 되는 피사체, 즉 사람과 모조생체 판별 장치(100) 간에는 영상 촬영과 관련된 특정한 행동 요령이 사전에 약속된다. 예컨대, 사람은 움직임 정보 생성부(110)에 포함될 수 있는 카메라를 주시하여 얼굴의 정면을 촬영할 수 있도록 협조하여야 하며, 카메라를 주시하면서 고개를 돌리는 얼굴 회전 운동을 수행하여 움직임 정보 생성부(110)가 얼굴의 측면을 촬영할 수 있도록 하여야 한다.In order to discriminate a dummy living body according to an embodiment of the present invention, specific action tips related to image shooting are promised beforehand between a subject to be subjected to biometric identification, that is, a person and a dummy living body identification device 100. For example, a person should cooperate to photograph a front face of a face by looking at a camera that can be included in the motion information generation unit 110, perform a face rotation motion to turn the head while looking at the camera, Should be able to photograph the side of the face.

이러한 행동 요령이 사전에 약속된 상태에서, 사람이 카메라를 주시하면 움직임 정보 생성부(110)는 피사체를 대상으로 하여 초기 영상을 획득하고, 피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 기준정보를 생성한다(S201).When a person watches the camera in a state where such an action is promised in advance, the motion information generating unit 110 acquires an initial image with respect to the subject, grasps the face region and the eye region in the initial image of the subject, And generates reference information (S201).

여기서, 움직임 정보 생성부(110)는 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성하며, 얼굴 회전 상태정보는 코의 위치와 눈의 위치와의 상대 배치각도로 나타내거나 입의 위치와 눈의 위치와의 상대 배치각도로 나타낼 수 있다.Here, the motion information generation unit 110 generates the face rotation state information and the pupil rotation state information, and the face rotation state information is represented by a relative placement angle between the position of the nose and the position of the eye, As shown in FIG.

이를 위해, 움직임 정보 생성부(110)는 초기 영상을 분석하여 얼굴 요소 중의 하나인 양안의 위치를 검출하며, 코 또는 입의 중심부를 특징점으로 검출하고, 양안의 위치를 기준으로 하여 얼굴 영역을 추정할 수 있다. 예컨대, 공지의 아다부스트(adaboost) 알고리즘 등을 이용하여 양안의 위치를 검출할 수 있다. 또, 눈동자 회전 상태정보를 생성하기 위해서는 눈동자를 포함하는 눈 영역에 대한 영상 이진화(binarization)를 수행하여 눈동자가 어느 방향으로 치우쳐 있는지를 확인할 수 있다.For this purpose, the motion information generation unit 110 analyzes the initial image, detects the position of one eye, which is one of the face elements, detects the center of the nose or mouth as a feature point, estimates the face region based on the positions of both eyes can do. For example, the position of both eyes can be detected using a known adaboost algorithm or the like. In order to generate the pupil rotation state information, image binarization of the eye region including the pupil can be performed to confirm in which direction the pupil is biased.

이후, 사전에 약속된 행동 요령에 따라 사람이 카메라를 주시하면서 고개를 돌리는 얼굴 회전 운동을 수행하면 움직임 정보 생성부(110)는 얼굴의 측면을 촬영하여 피사체의 시간 흐름에 따른 다음 영상을 획득한다.Thereafter, when a person performs a face rotation movement while turning his / her head while looking at the camera according to the promised action, the motion information generation unit 110 photographs the side of the face and acquires the next image according to the time course of the subject .

이어서, 움직임 정보 생성부(110)는 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 움직임 비교정보를 생성한다. 여기서, 움직임 정보 생성부(110)는 움직임 기준정보의 생성 시와 마찬가지의 방법 또는 원리에 의거하여 피사체의 다음 영상을 분석하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 생성할 수 있다(S203).Next, the motion information generating unit 110 grasps the face region and the eye region in the next image of the subject to generate motion comparison information. Here, the motion information generation unit 110 may generate the face rotation state information and the pupil rotation state information by analyzing the next image of the subject based on the same method or principle as that at the time of generation of the motion reference information (S203).

다음으로, 움직임 파악부(120)는 움직임 정보 생성부(110)에 의해 생성된 움직임 기준정보와 움직임 비교정보를 비교하며, 그 비교 결과에 의거하여 피사체의 얼굴 움직임 특성을 파악하고, 파악된 피사체의 얼굴 움직임 특성을 모조 판정부(130)에게 제공한다. 여기서, 움직임 파악부(120)는 움직임 기준정보와 움직임 비교정보에 포함된 얼굴 회전 상태정보 및 눈동자 회전 상태정보를 비교하여 피사체가 얼굴을 한쪽 방향으로 회전시켰는지를 파악하며, 눈이 어떤 방향으로 응시하고 있는지를 파악한다(S205).Next, the motion recognition unit 120 compares the motion reference information generated by the motion information generation unit 110 with the motion comparison information, grasps the facial motion characteristics of the subject based on the comparison result, And provides the facial motion characteristic of the facial motion estimation unit 130 to the facial motion estimation unit 130. [ Here, the motion detecting unit 120 compares the face rotation state information and the pupil rotation state information included in the motion reference information, the motion comparison information, and determines whether the subject rotates the face in one direction, (S205).

그러면, 모조 판정부(130)는 움직임 파악부(120)에 의해 파악된 얼굴 움직임 특성에 따라 피사체에 대한 모조생체 여부를 판정한다(S207). 이러한 모조 판정부(130)는 얼굴 움직임 특성이 전정 안구 반사 운동에 해당할 경우에 피사체를 실물생체로 판정하며(S209), 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 피사체를 모조생체로 판정한다(S211). 즉, 모조 판정부(130)는 피사체의 얼굴 회전 방향과는 반대 방향으로 눈의 응시 방향이 파악된 경우에 전정 안구 반사 운동이 제대로 수행된 것으로 판별하여 피사체를 실물생체로 판정하는 것이다.Then, the dummy determination unit 130 determines whether the dummy body is a living body based on the face movement characteristics captured by the motion recognition unit 120 (S207). When the facial motion characteristic corresponds to the vestibular reflex motion, the imitation determination unit 130 determines that the subject is a living body (S209). If the facial motion characteristic does not correspond to the vestibular reflex motion, (S211). That is, when the gazing direction of the eye is grasped in the direction opposite to the face rotation direction of the subject, the phantom determination unit 130 determines that the subject is a living body by judging that the vestibular ocular reflex motion is performed properly.

이러한 본 발명의 실시예에 따른 모조생체/실물생체 판정 원리를 도 3를 참조하여 살펴보면, 도 3의 (b)는 움직임 정보 생성부(110)에 의해 획득된 피사체의 초기 영상이며, 도 3의 (a)와 (c)는 움직임 정보 생성부(110)에 의해 획득된 피사체의 다음 영상이다. 이러한 피사체의 영상에서 눈동자 중심 위치인 A, B, A', B', A", B"가 검출된다. 그리고, 코 끝의 위치 또는 입술 중앙 위치가 특징점으로 검출된다. 즉, 코 끝의 위치인 C, C', C"가 특징점으로 검출되거나 입술 중앙 위치인 D, D', D"가 특징점으로 검출된다.3 (b) is an initial image of a subject obtained by the motion information generating unit 110, and FIG. 3 (b) is an initial view of the subject obtained by the motion information generating unit 110. Referring to FIG. 3, (a) and (c) are the next images of the subject acquired by the motion information generation unit 110. [ The pupil center positions A, B, A ', B', A ", and B " Then, the position of the nose tip or the lip center position is detected as the feature point. That is, the positions C, C ', and C "of the nose tip are detected as minutiae or the lip center positions D, D', D" are detected as minutiae.

그렇다면, 도 3의 (b)에서 양 눈의 중심과 코 끝의 중심 위치를 연결한 삼각형에서 ∠BAC 와 ∠ABC의 차이는 작다. 반면에 도 3의 (a)에서 ∠B'A'C'와 ∠A'B'C'의 차이는 큰 것을 볼 수 있다. 이는 도 3의 (c)에서도 마찬가지이며, 입술 중앙 위치가 특징점으로 검출되었을 때도 동일한 결과를 볼 수 있다.3 (b), the difference between ∠BAC and ∠ABC is small in the triangle connecting the center of both eyes and the center of the nose. On the other hand, in Fig. 3 (a), the difference between ∠B'A'C 'and ∠A'B'C' is large. This is also true in FIG. 3 (c), and the same result can be obtained when the lip center position is detected as the feature point.

따라서, 움직임 파악부(120)는 위의 두 내각의 크기를 비교하여 초기 위치 대비 상대적인 각도 변화가 큰 쪽으로 얼굴이 회전하였다는 것을 판별 할 수 있다.Therefore, the motion recognition unit 120 can compare the sizes of the two internal angles and determine that the face has rotated toward a larger angle change relative to the initial position.

이상에서 얼굴 회전 방향 파악을 위한 실시예를 설명하였지만, 여타의 방법 또는 원리에 의거하여 얼굴 회전 방향 및 눈동자 회전 방향이 검출 및 파악될 수 있다. 예컨대, 카메라의 연속 프레임간의 영상 차이값을 활용할 수도 있으며, 시선추적기술을 활용하여 눈동자의 움직임과 얼굴 움직임을 파악할 수도 있다.
Although the embodiments for grasping the face rotation direction have been described above, the face rotation direction and the pupil rotation direction can be detected and grasped based on other methods or principles. For example, image difference values between consecutive frames of a camera may be utilized, and eye movement and face movement may be grasped by using eye tracking technology.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Combinations of the steps of each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be loaded into a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus so that the instructions, which are executed via a processor of a computer or other programmable data processing apparatus, Lt; / RTI > These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible to produce manufacturing items that contain instruction means for performing the functions described in each step of the flowchart. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the steps may occur out of order. For example, the two steps shown in succession may in fact be performed substantially concurrently, or the steps may sometimes be performed in reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100 : 모조생체 판별 장치
110 : 움직임 정보 생성부
120 : 움직임 파악부
130 : 모조 판정부
100: Imitation biometric discriminator
110: a motion information generating unit
120:
130: Mojo board

Claims (6)

피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하는 움직임 기준정보를 생성하는 단계와,
시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하는 움직임 비교정보를 생성하는 단계와,
상기 움직임 기준정보와 상기 움직임 비교정보에 포함된 상기 얼굴 회전 상태정보를 비교 및 상기 눈동자 회전 상태정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 단계와,
파악된 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체를 모조생체로 판정하는 단계를 포함하는 모조생체 판별 방법.
Generating motion reference information including face rotation state information and pupil rotation state information by grasping a face region and an eye region in an initial image of a subject,
Generating motion comparison information including the face rotation state information and the pupil rotation state information by grasping the face region and the eye region in the next image of the subject by time flow,
Comparing the motion reference information and the face rotation state information included in the motion comparison information and comparing the pupil rotation state information to obtain a face motion characteristic of the subject,
And judging the subject to be a dummy living body when the detected facial motion characteristic does not correspond to the vestibular ocular reflex motion .
삭제delete 제 1 항에 있어서,
상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타내는 모조생체 판별 방법.
The method according to claim 1,
Wherein the face rotation state information indicates a relative placement angle between a position of the nose or mouth and a position of the eye.
피사체의 초기 영상에서 얼굴 영역 및 눈 영역을 파악하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하는 움직임 기준정보를 생성하며, 시간 흐름에 의한 상기 피사체의 다음 영상에서 얼굴 영역 및 눈 영역을 파악하여 얼굴 회전 상태정보와 눈동자 회전 상태정보를 포함하는 움직임 비교정보를 생성하는 움직임 정보 생성부와,
상기 움직임 기준정보와 상기 움직임 비교정보에 포함된 상기 얼굴 회전 상태정보를 비교 및 상기 눈동자 회전 상태정보를 비교하여 상기 피사체의 얼굴 움직임 특성을 파악하는 움직임 파악부와,
파악된 상기 얼굴 움직임 특성이 전정 안구 반사 운동에 해당하지 않을 경우에 상기 피사체에 대한 모조생체 여부를 판정하는 모조 판정부를 포함하는 모조생체 판별 장치.
The face region and the eye region are grasped in the initial image of the subject to generate motion reference information including the face rotation state information and the pupil rotation state information and the face region and the eye region are grasped in the next image of the subject by the time flow A motion information generating unit for generating motion comparison information including face rotation state information and eye pupil rotation state information ,
Comparing the face rotation state information included in the motion reference information and the motion comparison information and comparing the pupil rotation state information to obtain a face movement characteristic of the subject;
And an imitation judging unit for judging whether or not the subject is a dummy living body when the detected face movement characteristic does not correspond to the vestibular ocular reflex movement .
삭제delete 제 4 항에 있어서,
상기 얼굴 회전 상태정보는, 코 또는 입의 위치와 눈의 위치와의 상대 배치각도를 나타내는 모조생체 판별 장치.

5. The method of claim 4,
Wherein the face rotation state information indicates a relative placement angle between a position of the nose or mouth and a position of the eye.

KR1020140075596A 2014-06-20 2014-06-20 Method and apparatus for discriminating imitation-body KR101606351B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140075596A KR101606351B1 (en) 2014-06-20 2014-06-20 Method and apparatus for discriminating imitation-body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140075596A KR101606351B1 (en) 2014-06-20 2014-06-20 Method and apparatus for discriminating imitation-body

Publications (2)

Publication Number Publication Date
KR20150145541A KR20150145541A (en) 2015-12-30
KR101606351B1 true KR101606351B1 (en) 2016-03-25

Family

ID=55087916

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140075596A KR101606351B1 (en) 2014-06-20 2014-06-20 Method and apparatus for discriminating imitation-body

Country Status (1)

Country Link
KR (1) KR101606351B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11176392B2 (en) 2017-03-27 2021-11-16 Samsung Electronics Co., Ltd. Liveness test method and apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101179559B1 (en) 2009-12-18 2012-09-04 주식회사 유니온커뮤니티 Fingerprint Recognition Apparatus for Distinguishing Forged Fingerprint and Method therof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11176392B2 (en) 2017-03-27 2021-11-16 Samsung Electronics Co., Ltd. Liveness test method and apparatus
US11721131B2 (en) 2017-03-27 2023-08-08 Samsung Electronics Co., Ltd. Liveness test method and apparatus

Also Published As

Publication number Publication date
KR20150145541A (en) 2015-12-30

Similar Documents

Publication Publication Date Title
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN107995979B (en) System, method and machine-readable medium for authenticating a user
KR101696602B1 (en) Biometric authentication using gesture
EP2883189B1 (en) Spoof detection for biometric authentication
EP3118762A1 (en) Method, device and computer program for authenticating a user
EP3559847B1 (en) Electronic device for biometric authentication of a user
EP2821938A1 (en) Method and device for notification of facial recognition environment, and computer-readable recording medium for executing method
JP2017533516A (en) Fingerprint authentication using stitching and cutting
WO2019011072A1 (en) Iris live detection method and related product
US11682236B2 (en) Iris authentication device, iris authentication method and recording medium
US11756338B2 (en) Authentication device, authentication method, and recording medium
JP6267025B2 (en) Communication terminal and communication terminal authentication method
KR20200080533A (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
EP4343689A1 (en) Body part authentication system and authentication method
KR101606351B1 (en) Method and apparatus for discriminating imitation-body
JP2004178606A (en) Personal identification device and method
US11507646B1 (en) User authentication using video analysis
JP6798285B2 (en) Biometric device, biometric method and program
KR101703690B1 (en) Apparatus for recognizing iris and operating method thereof
KR20160045371A (en) Certification method using biometric information
JP2008000464A (en) Authentication device and authentication method
JP2017091276A (en) Operation permission determination device, operation permission determination system, operation permission determination method, and operation permission determination program
Bakshi et al. Biometric Technology: A Look and Survey at Face Recogntion
TWI576717B (en) Dimensional biometric identification system and method
JP2007058525A (en) Individual authentication device and individual authentication display method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200309

Year of fee payment: 5