KR101057718B1 - How to determine whether the acquired image can be identified by the user - Google Patents

How to determine whether the acquired image can be identified by the user Download PDF

Info

Publication number
KR101057718B1
KR101057718B1 KR1020090052019A KR20090052019A KR101057718B1 KR 101057718 B1 KR101057718 B1 KR 101057718B1 KR 1020090052019 A KR1020090052019 A KR 1020090052019A KR 20090052019 A KR20090052019 A KR 20090052019A KR 101057718 B1 KR101057718 B1 KR 101057718B1
Authority
KR
South Korea
Prior art keywords
user
image
face
similarity rate
automation device
Prior art date
Application number
KR1020090052019A
Other languages
Korean (ko)
Other versions
KR20100133233A (en
Inventor
나상희
Original Assignee
주식회사 미래인식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 미래인식 filed Critical 주식회사 미래인식
Priority to KR1020090052019A priority Critical patent/KR101057718B1/en
Publication of KR20100133233A publication Critical patent/KR20100133233A/en
Application granted granted Critical
Publication of KR101057718B1 publication Critical patent/KR101057718B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/10Payment architectures specially adapted for electronic funds transfer [EFT] systems; specially adapted for home banking systems
    • G06Q20/108Remote banking, e.g. home banking
    • G06Q20/1085Remote banking, e.g. home banking involving automatic teller machines [ATMs]

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서: 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하고, 각각의 얼굴 부위에 대한 각각의 부위별 영상을 추출하고, 각각의 부위별 형태 정보를 산출하고, 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하고, 상기 산출된 각각의 얼굴 부위별 유사도율에 의해 획득 영상의 사용자 식별 가능 여부 판정을 행하는 방법을 제공한다.The present invention provides a method of determining whether an acquired image can be identified by a user so that the user can use a financial automation device only when the user's face is identifiable: obtaining a user face image including only a face region from the user image and Extract the image for each part of each face part, calculate the shape information for each part, compare the calculated template information for each part with pre-stored template data for each part, A method of calculating a similarity rate for each face part and determining whether the acquired image can be identified by the user based on the calculated similarity rate for each face part is provided.

금융 자동화 기기, 사용자 얼굴 영상, 템플릿 데이터 Financial Automation Equipment, User Face Image, Template Data

Description

획득 영상의 사용자 식별 가능 여부 판정 방법{METHOD FOR DETECTING APPLICABILITY TO USER IDENTIFICATION OF OBTAINED IMAGE}{METHOD FOR DETECTING APPLICABILITY TO USER IDENTIFICATION OF OBTAINED IMAGE}

본 발명은 획득 영상의 사용자 식별 가능 여부 판정 방법에 관한 것으로서, 더욱 상세하게는, 금융 자동화 기기를 이용하고자 하는 사용자를 촬영하여 생성한 사용자 영상에서 사용자의 신체 각각의 부위가 사용자 식별 가능하도록 정확하게 촬영된 경우에만 금융 자동화 기기를 이용할 수 있도록, 획득 영상의 사용자 식별 가능 여부를 판정할 수 있도록 하는 방법에 관한 것이다. The present invention relates to a method for determining whether a user can identify an acquired image, and more particularly, to accurately photograph each part of a user's body in a user image generated by photographing a user who wants to use a financial automation device. The present invention relates to a method of determining whether the acquired image can be identified by the user so that the financial automation device can be used only when the financial automation device is used.

근래, 무인 자동화된 금융 업무를 수행하는 현금 자동 입출금기를 포함하는 금융 자동화 기기(ATM)가 널리 보급되어 사용되고 있다. 그러나 이러한 금융 자동화 기기는 정당한 사용자를 식별하기 위한 방법으로 단지 복수의 숫자의 조합으로 이루어지는 비밀번호만을 이용하고 있는 실정이다. Recently, ATM (Automated Teller Machine) including ATM automatic teller machine for performing unmanned automated financial tasks has been widely used. However, such financial automation devices use only a password composed of a plurality of combinations of numbers to identify legitimate users.

이러한 경우에, 부당한 사용자가 비밀번호를 도용하여 발생하는 금융 사고에 대해서는 전혀 대응할 수 없다는 치명적인 단점이 있다.In this case, there is a fatal disadvantage that an unjust user cannot cope with financial incidents caused by the theft of password.

한편, 최근에는 이러한 금융 사고의 발생을 최소화하기 위하여, 금융 자동화 기기에서 금융 업무를 행하는 사용자를 촬영하여 둠으로써, 추후 사고 발생시 부당 한 사용자를 쉽게 찾아낼 수 있도록 하는 방법이 널리 적용되고 있다. On the other hand, in recent years, in order to minimize the occurrence of such a financial accident, a method of making it easy to find an unjust user in the event of a future accident by taking a picture of a user performing a financial task in a financial automation device.

하지만, 부당한 사용자가 안면 마스크, 안대, 안경, 모자 등을 착용한 상태로 금융 업무를 행하게 되면, 이러한 부당한 사용자를 촬영한 영상에 의해서 용의자를 식별하는 것은 곤란하다. However, if an unjust user performs financial work with a face mask, eye patch, glasses, a hat, or the like, it is difficult to identify a suspect by an image of the unjust user.

따라서, 금융 업무를 행하는 사용자의 얼굴이 누구인지 식별할 수 있을 정도로 노출된 상태로 촬영되어 얼굴 식별에 대한 적합 영상인지를 판단하고, 적합 영상인 경우에 금융 업무를 계속할 수 있도록 하고, 얼굴 식별이 불가능하게 가려진 경우에는 금융 업무를 제한하도록 하는 방법의 적용이 필요하다.Therefore, it is determined that the image of the user who performs the financial affairs is exposed enough to identify who the face is and is a suitable image for face identification, and if it is a suitable image, the financial affairs can be continued. If it is impossible to conceal, it is necessary to apply a method to restrict financial operations.

한편, 금융 사고를 막기 위한 또다른 방법으로, 비밀번호에 추가하여, 사용자의 지문, 홍채의 영상, 얼굴 영상 등을 이용하여 사용자 식별을 행하는 방법이 연구되고 있으며, 금융 자동화 기기에도 점차 도입되고 있다. Meanwhile, as another method for preventing financial accidents, a method of identifying a user using a fingerprint, an iris image, a face image, and the like of a user in addition to a password has been studied, and has been gradually introduced into financial automation devices.

이 중에서 얼굴 영상을 이용한 얼굴 인식에 의해 사용자 식별을 행하는 방법은, 사용자에게 별도의 촬영 장치로의 접근을 요구하거나, 촬영 순간을 인식시키지 않으면서도 사용자 영상을 획득하고, 사용자 식별을 행할 수 있으므로, 사용자 식별 방법으로 각광받고 있다. In the method of identifying a user by face recognition using a face image, a user image can be obtained without requiring a user to access a separate photographing apparatus or recognize a photographing moment, and user identification can be performed. It has been spotlighted as a user identification method.

하지만, 얼굴 인식은 촬영시 사용자 얼굴의 촬영 각도나 주변 조명 등에 의해 얼굴 인식에 사용되는 사용자 얼굴 영상이 다르게 촬영될 수 있으며, 이에 의해 얼굴 인식 성공률이 변화할 수 있는 단점이 있다. 따라서, 정확한 얼굴 인식을 위해서는 사용자 얼굴의 각각의 부위가 정확하게 촬영될 수 있어야만 하며, 그렇지 않은 경우에는 사용자에게 얼굴의 재촬영을 유도할 수 있도록 하는 방법의 적용이 필요하다.However, in face recognition, a user's face image used for face recognition may be differently photographed by a photographing angle or ambient light of the user's face at the time of photographing, and thus the face recognition success rate may change. Therefore, for accurate face recognition, each part of the user's face must be accurately photographed. Otherwise, a method of inducing a user to re-photograph the face is required.

또한, 부당한 사용자가 정당한 사용자를 촬영한 영상을 이용하여 사용자 식별 또는 인증을 시도하는 경우가 발생할 수 있어, 이러한 상황을 감지하고 적절한 대응을 행할 수 있도록 할 필요성도 있다. In addition, there may be a case in which an invalid user attempts to identify or authenticate a user by using an image photographing a legitimate user, so that there is a need to detect such a situation and make an appropriate response.

본 발명은, 상술한 문제점을 해결하기 위한 것으로서, 금융 자동화 기기를 이용하고자 하는 사용자의 얼굴이 얼굴 인식에 사용되기 적합하게 촬영되었는지 또는 육안에 의해 사용자를 식별할 수 있을 정도로 촬영되었는지의 여부를 판정하는 방법을 제공하고자 하는 것을 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and determines whether a face of a user who wants to use a financial automation device is photographed to be used for face recognition or is photographed to the extent that the user can be identified by the naked eye. The purpose is to provide a way to.

또한, 본 발명은, 촬영된 사용자 얼굴 영상이 부당한 사용자에 의해 도용된 것인지의 여부를 판정하는 방법을 제공하는 것을 또다른 목적으로 한다.Another object of the present invention is to provide a method for determining whether a photographed user's face image is stolen by an illegal user.

상술한 과제를 달성하기 위한 본 발명은, 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계; 상기 획득된 사용자 얼굴 영상으로부터 각각의 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; 상기 산출된 각각의 얼굴 부위별 유사도율이 해당 부위에 대한 부위별 기준 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 포함하는 금융 자동화 기기에 있어서의 획득 영상의 사용자 식별 가능 여부 판정 방법을 제공한다.According to an aspect of the present invention, there is provided a method for determining whether a user can identify an acquired image so that the user can use the financial automation device only when the user's face is identifiable. Photographing a user's body to generate a user image; Obtaining a user face image including only a face area from the generated user image; Extracting an image for each part of each face from the obtained user face image; Calculating shape information for each part digitized from the extracted images for each part; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; If the calculated similarity rate for each facial part is greater than the standard similarity rate for each part for the corresponding part, the user can use the financial automation device, and if the user is small, the user can use the financial automation device. Provided is a method for determining whether a user can identify an acquired image in a financial automation device.

또한, 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계는: 상기 산출된 각각의 얼굴 부위별 유사도율 중 복수의 부위에 대한 상기 얼굴 부위별 유사도율을 소정의 산술식에 의해 조합하여 조합 유사도율을 산출하는 단계; 상기 조합 유사도율이 해당 부위에 대한 기준 조합 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 더 포함하는 것을 특징으로 한다.In addition, the step of disabling the financial automation device may include: calculating a combined similarity rate by combining similarity rates for each of the face parts of a plurality of parts among the calculated similarity rates for each face part by a predetermined arithmetic formula; Making; Allowing the user to use the financial automation device when the combined similarity rate is greater than the reference combined similarity rate for the corresponding part, and when the combination similarity rate is small, the user cannot use the financial automation device. It is characterized by.

또한, 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계는: 상기 사용자 얼굴 영상으로부터 추출된 상기 부위별 영상의 전부에 대하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; 상기 산출된 각각의 얼굴 부위별 유사도율을 소정의 산술식에 의해 모두 조합하여 총 유사도율을 산출하는 단계; 상기 산출된 총 유사도율이 기준 총 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 더 포함하는 것을 특징으로 한다.In addition, the step of making the financial automation device unusable may include: calculating a similarity rate for each face part with respect to all of the part-specific images extracted from the user face image; Calculating a total similarity rate by combining all of the calculated similarity rates for each facial part by a predetermined arithmetic formula; If the calculated total similarity rate is greater than a reference total similarity rate, allowing the user to use the financial automation device; and if the calculated total similarity rate is small, the user may not use the financial automation device. It is done.

또한, 상기 각각의 부위별 식별 가능 적합률을 조합하는 상기 산술식은 임의 설정 가능한 것을 특징으로 한다.In addition, the arithmetic expression combining the identifiable suitability for each part is characterized in that it can be arbitrarily set.

또한, 상기 부위별 기준 유사도율을 설정하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include setting a reference similarity rate for each site.

또한, 상기 생성된 사용자 영상으로부터 사용자 신체 부분을 제외한 배경 영상을 추출하는 단계; 상기 추출된 배경 영상으로부터 적어도 하나의 선형태를 추출하는 단계; 상기 추출된 선형태가 상기 사용자 영상 중 사용자 얼굴 부분을 둘러싸는 폐도형을 이루는 경우, 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 더 포함하는 것을 특징으로 한다. The method may further include extracting a background image excluding a user's body part from the generated user image; Extracting at least one line shape from the extracted background image; The method may further include disabling the financial automation device when the extracted linear form forms a closed figure surrounding the user face part of the user image.

또한, 상기 생성된 사용자 영상으로부터 사용자 신체에 대한 신체 외곽선을 추출하는 단계; 상기 추출된 신체 외곽선 중에서 가장 아래쪽의 상기 신체 외곽선이 상기 사용자 영상의 아래쪽 테두리와 중첩하지 않는 경우, 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include extracting a body outline of the user's body from the generated user image; The method may further include disabling the financial automation device if the user does not overlap the lower edge of the user image among the extracted body outlines.

또한, 본 발명은, 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계; 상기 획득된 사용자 얼굴 영상으로부터 각 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; 상기 산출된 각각의 얼굴 부위별 유사도율 중 소정의 복수 부위에 대한 상기 얼굴 부위별 유사도율을 소정의 산술식에 의해 조합하여 조합 유사도율을 산출하는 단계; 상기 산출된 조합 유사도율이 해당 부위에 대한 기준 조합 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법을 제공한다.In addition, the present invention provides a method for determining whether a user can identify the acquired image so that the user can use the financial automation device only when the user's face is identifiable: photographing a body of a user who intends to use the financial automation device. Generating a user image; Obtaining a user face image including only a face area from the generated user image; Extracting an image of each part of each face from the obtained user face image; Calculating shape information for each part digitized from the extracted images for each part; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; Calculating a combined similarity rate by combining the similarity rates for each of the face parts with respect to a plurality of predetermined areas among the calculated similarity rates for each face part by a predetermined arithmetic formula; Enabling the user to use the financial automation device when the calculated combined similarity rate is greater than the reference combined similarity rate for the corresponding part, and if the calculated combination similarity rate is small, the user cannot use the financial automation device. A method of determining whether a user can identify an acquired image is provided.

또한, 본 발명은, 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계; 상기 획득된 사용자 얼굴 영상으로부터 각 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; 상기 산출된 각각의 얼굴 부위별 유사도율을 소정의 산술식에 의해 모두 조합하여 총 유사도율을 산출하는 단계; 상기 산출된 총 유사도율이 기준 총 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법을 제공한다.In addition, the present invention provides a method for determining whether a user can identify the acquired image so that the user can use the financial automation device only when the user's face is identifiable: photographing a body of a user who intends to use the financial automation device. Generating a user image; Obtaining a user face image including only a face area from the generated user image; Extracting an image of each part of each face from the obtained user face image; Calculating shape information for each part digitized from the extracted images for each part; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; Calculating a total similarity rate by combining all of the calculated similarity rates for each facial part by a predetermined arithmetic formula; If the calculated total similarity rate is greater than a reference total similarity rate, allowing the user to use the financial automation device; and if the calculated total similarity rate is smaller, the user cannot use the financial automation device. A method for determining whether a user can be identified is provided.

또한, 본 발명은, 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계; 상기 생성된 사용자 영상으로부터 사용자 신체 부분을 제외한 배경 영상을 추출하여 상기 추출된 배경 영상으로부터 적어도 하나의 선형태를 추출하며 상기 추출된 선형태가 상기 사용자 영상 중 사용자 얼굴 부분을 둘러싸는 폐도형을 이루는 경우, 또는 상기 생성된 사용자 영상으로부터 사용자 신체에 대한 신체 외곽선을 추출하여 상기 추출된 신체 외곽선 중에서 가장 아래쪽 선이 상기 사용자 영상의 아래쪽 테두리와 중첩하지 않는 경우, 또는 상기 생성된 사용자 영상으로부터 사용자 신체 형태를 제거한 배경 영상을 추출하여 상기 추출된 배경 영상으로부터 적어도 하나의 선형태를 추출하며 상기 추출된 선형태가 현재 위치에서 사용자가 없이 촬영된 주변 영상으로부터 추출된 기준 선형태와 일치하지 않는 경우 중 적어도 하나의 경우에 해당하면 상기 사용자 영상이 도용된 영상에 의해 촬영된 것으로 판정하고, 상기 경우들 중 어느 하나에도 해당하지 않으면 사용자 영상이 정상적인 사용자를 촬영하여 생성된 것을 판정하는 단계; 상기 사용자 영상이 정상 영상으로 판정된 경우, 상기 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계; 상기 획득된 사용자 얼굴 영상으로부터 각 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; 상기 산출된 각각의 얼굴 부위별 유사도율 중 소정의 복수 부위에 대한 상기 얼굴 부위별 유사도율을 소정의 산술식에 의해 조합하여 조합 유사도율을 산출하는 단계; 상기 산출된 조합 유사도율이 해당 부위에 대한 기준 조합 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법을 제공한다.In addition, the present invention provides a method for determining whether a user can identify the acquired image so that the user can use the financial automation device only when the user's face is identifiable: photographing a body of a user who intends to use the financial automation device. Generating a user image; Extracting a background image excluding a user's body part from the generated user image to extract at least one line shape from the extracted background image, wherein the extracted line shape forms a closed figure surrounding the user face part of the user image. Or extracting a body outline of the user's body from the generated user image so that the lowest line among the extracted body outlines does not overlap with a lower edge of the user image, or the user's body shape from the generated user image. Extracting at least one line form from the extracted background image by extracting a background image from which the extracted line image is extracted; One case When determining that the photographed image is compromised by the user video, and if not true for any of the above, if the user determines that the image generated by photographing a normal user; When the user image is determined to be a normal image, acquiring a user face image including only a face area from the user image; Extracting an image of each part of each face from the obtained user face image; Calculating shape information for each part digitized from the extracted images for each part; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; Calculating a combined similarity rate by combining the similarity rates for each of the face parts with respect to a plurality of predetermined areas among the calculated similarity rates for each face part by a predetermined arithmetic formula; Enabling the user to use the financial automation device when the calculated combined similarity rate is greater than the reference combined similarity rate for the corresponding part, and if the calculated combination similarity rate is small, the user cannot use the financial automation device. A method of determining whether a user can identify an acquired image is provided.

상술한 바와 같은 구성의 본 발명에 따른 획득 영상의 사용자 식별 가능 여부 판정 방법에 의하면, 금융 자동화 기기를 이용하고자 하는 사용자가 얼굴의 일부를 부당하게 가리고 있는지의 여부를 판정할 수 있다. 따라서, 부당한 사용자가 얼굴을 식별할 수 없도록 가린 채로 금융 업무를 실행하고자 하는 경우를 판별해낼 수 있어서 부당 거래의 발생 가능성을 줄일 수 있다. According to the method for determining whether a user can identify the acquired image according to the present invention having the above-described configuration, it is possible to determine whether a user who intends to use the financial automation device is covering part of the face unfairly. Therefore, it is possible to determine a case in which an unjust user wants to execute a financial task while covering the face so that the face cannot be identified, thereby reducing the possibility of an unfair transaction.

또한, 정당한 사용자의 얼굴 부위의 일부가 질병이나 장식품 등에 의해 부득이하게 가려짐으로써 얼굴 부위중 일부가 식별 불가능한 경우에 있어서, 다양한 기준을 적용함으로써 유연하게 대응할 수 있다. In addition, when a part of the face part of a legitimate user is inevitably covered by a disease or an ornament, etc., when some part of the face part is indistinguishable, it can respond flexibly by applying various criteria.

이하, 첨부한 도면을 참조하여, 본 발명을 상세하게 설명한다. EMBODIMENT OF THE INVENTION Hereinafter, this invention is demonstrated in detail with reference to attached drawing.

본 발명의 일 실시예에 따른 사용자 식별 가능 판정 장치(100)는, 금융 자동 화 기기(ATM) 또는 디지털 도어락 등과 같이, 얼굴 인식을 이용하여 사용자 식별을 행하는 시스템 또는 사용자의 얼굴을 촬영하여 사용자의 신원이 명확하게 식별 가능한 경우에만 기기의 이용을 계속할 수 있도록 하는 시스템에 탑재되어, 사용자를 촬영한 영상 내의 사용자 얼굴이 얼굴 인식 또는 사용자 식별을 위하여 사용되기에 적합하게 촬영되었는지를 판정하는 데에 사용된다. 그리고 사용자 식별 가능 판정 장치(100)에서 촬영된 영상이 사용자 식별 가능하고 얼굴 인식에 적용될 수 있도록 적합하게 촬영된 것으로 판정된 경우에는 별도의 얼굴 인식 수단에서 얼굴 인식에 의한 사용자 식별을 수행하게 되고, 촬영된 영상이 사용자를 식별할 수 없을 정도로 가려진 상태로 촬영되었거나 얼굴 인식에 적합하게 촬영되지 않은 것으로 판정된 경우에는 이어지는 사용자의 접근을 차단하거나 사용자에게 재촬영을 요구하는 등의 별도의 안내를 행할 수 있다.The apparatus 100 for determining a user identifiable according to an embodiment of the present invention may capture a face of a user by capturing a face of a user or a system that performs user identification using face recognition, such as an ATM or a digital door lock. Equipped with a system that allows the user to continue using the device only if his or her identity is clearly identifiable, used to determine if the user's face in the image of the user's image has been captured to be used for face recognition or user identification. do. If it is determined that the image photographed by the user identifiable determining apparatus 100 is properly captured to be user identifiable and applied to face recognition, a separate face recognition means performs user identification by face recognition. If it is determined that the captured image was captured in a state that is hidden so that the user cannot be identified, or that the image was not captured for face recognition, additional guidance such as blocking access to the user or asking the user to retake the image may be performed. Can be.

또한, 본 발명의 일 실시예에 따른 사용자 식별 가능 판정 장치(100)에는, 상술한 바와 같은 사용자 식별 가능 여부 판정 또는 얼굴 인식 가능 여부를 판정하기 이전 또는 이후에 추가될 수 있는 절차로서, 사용자 식별을 위하여 촬영된 영상이 부당한 사용자에 의해 도용된 영상으로부터 촬영된 것인지의 여부를 판정하는 기능을 더 포함한다. 그리고 영상이 도용된 것으로 판정되면 사용자에게 재촬영을 요구하거나 별도의 보안 경보를 출력함과 동시에 이용하고자 하는 시스템에 대한 접근을 차단한다. 한편, 촬영된 영상이 도용되지 않은 정상 영상인 것으로 판정된 경우에는 이용하고자 하는 시스템의 계속적인 이용이 가능하도록 한다. In addition, the user identifiable determination apparatus 100 according to an embodiment of the present invention is a procedure that may be added before or after determining whether the user identifiability or face recognition is possible as described above. And determining whether the captured image is captured from an image stolen by an illegal user. If it is determined that the image is stolen, the user is asked to retake the picture or output a separate security alert and block access to the system to be used. On the other hand, if it is determined that the captured image is a normal image without theft, it is possible to continue using the system to be used.

이와 같이, 본 발명에 따른 사용자 식별 가능 판정 장치(100)는, 금융 자동화 기기를 포함하는 어떠한 시스템에 결합되어, 시스템의 제어하에 동작하게 된다. 즉, 사용자 식별을 위하여 촬영된 영상을 시스템으로부터 제공받은 후, 그 영상이 적합 영상인지의 여부 및/또는 도용된 영상인지의 여부를 판정하고, 판정된 결과만을 출력하게 된다. 물론 별도의 촬영 수단을 구비하고 필요에 의해 사용자를 직접 촬영할 수도 있다.As such, the user identifiable determining device 100 according to the present invention is coupled to any system including a financial automation device, and operates under the control of the system. In other words, after receiving the captured image from the system for user identification, it is determined whether the image is a suitable image and / or a stolen image, and only the determined result is output. Of course, a separate photographing means may be provided and the user may be photographed directly as needed.

도 1은 본 발명의 일 실시예에 따른 획득 영상의 사용자 식별 가능 여부 판정 방법을 실행하기 위한 사용자 식별 가능 판정 장치의 구성을 나타낸 블록도이다. 도 1에 따르면, 사용자 식별 가능 판정 장치(100)는, 부위별 영상 추출부(10), 유사도율 산출부(20), 템플릿 저장부(25), 식별 가능 판정부(30), 및 도용 판정부(35)를 포함하여 이루어진다. 1 is a block diagram showing the configuration of a user identifiable determining apparatus for executing a method for determining a user identifiability of an acquired image according to an embodiment of the present invention. According to FIG. 1, the user identifiable determining apparatus 100 includes an image extracting unit 10, a similarity rate calculating unit 20, a template storage unit 25, an identifiable determining unit 30, and an illegal plate for each part. It includes the government 35.

이하의 설명에서, 본 발명에 따른 식별 가능 판정 장치는 금융 자동화 기기(ATM)의 일부로서 동작하는 경우로서 설명한다. In the following description, the identifiable determination device according to the present invention will be described as a case of operating as a part of the ATM.

부위별 영상 추출부(10)는, 별도의 촬영 수단(도시하지 않음) 또는 사용자 식별 가능 판정 장치가 적용된 금융 자동화 기기로부터 기기의 이용을 요청하는 사용자를 촬영하여 생성한 사용자 영상을 제공받은 후, 제공받은 사용자 영상을 분석하여 사용자의 얼굴 영역에 해당하는 사용자 얼굴 영상을 획득하게 되고, 획득한 사용자 얼굴 영상으로부터 얼굴을 구성하는 각각의 부위를 포함하는 부위별 영상을 추출한다. 추출된 부위별 영상은 후술하는 유사도율 산출부(20)에 제공된다.The part-specific image extraction unit 10 receives a user image generated by photographing a user requesting the use of the device from a financial automation device to which a separate photographing means (not shown) or a user identifiable determination device is applied, A user face image corresponding to the face region of the user is obtained by analyzing the provided user image, and an image for each part including each part constituting the face is extracted from the obtained user face image. The extracted region-specific image is provided to the similarity rate calculator 20 to be described later.

유사도율 산출부(20)는, 사용자 얼굴의 각각의 부위에 대응하여 제공되는 부위별 영상에 포함된 얼굴 부위에 대한 형태 정보(예를 들면, 특징점을 수치적으로 나타내는 정보)를 산출한다. 그리고 산출된 형태 정보와 템플릿 저장부(25)에 미리 저장되어 있는 부위별 템플릿 데이터와의 유사도를 비교함으로써 각 부위에 대한 얼굴 부위별 유사도율을 산출하게 된다. The similarity rate calculation unit 20 calculates shape information (for example, numerically representing a feature point) of a face part included in a part-specific image provided corresponding to each part of the user's face. The similarity ratio between the calculated shape information and the template data for each part previously stored in the template storage unit 25 is calculated to calculate the similarity rate for each face part.

템플릿 저장부(25)에는 얼굴의 각 부위별로 구분된 템플릿 데이터가 부위별 템플릿 데이터로서 유지되어 있다.In the template storage unit 25, template data divided for each part of the face is maintained as template data for each part.

식별 가능 판정부는(30)는, 산출된 얼굴 부위별 유사도율을 단독으로, 또는 복수의 부위에 대한 얼굴 부위별 유사도율을 서로 조합하여, 또는 모든 부위에 대한 얼굴 부위별 유사도율을 일체로 조합한 후, 산출된 값이 기준 적합률보다 큰 경우에는 제공된 사용자 영상이 사용자 식별 또는 얼굴 인증에 사용될 수 있는 적합 영상인 것으로 판정하여 계속적으로 금융 자동화 기기를 이용할 수 있도록 한다. 한편, 그외의 경우에는 사용자의 얼굴이 가려져 있거나 얼굴 표정이 변하여 사용자 식별 또는 얼굴 인식이 불가능한 것으로 판정하고 금융 자동화 기기의 이용을 불가하도록 차단한다. The identifiable determining unit 30 is a combination of the calculated similarity rate for each face part alone, or a combination of similarity rates for each face part for a plurality of parts, or a combination of similarity rates for each part for all parts. After that, if the calculated value is larger than the standard fit ratio, it is determined that the provided user image is a suitable image that can be used for user identification or face authentication so that the financial automation device can be continuously used. On the other hand, in other cases, it is determined that the user's face is blocked or the facial expression is changed so that the user identification or face recognition is impossible and the use of the financial automation device is blocked.

여기에서, 얼굴 영상의 각각의 부위라 함은, 눈썹, 눈, 코, 입, 귀, 턱선, 광대뼈 윤곽, 특정 부위의 주름 등을 포함하는 모든 신체 부위를 말한다. 더욱, 눈썹이나 눈, 귀 등은 왼쪽 및 오른쪽을 구분하여 분석한다. Here, each part of the face image refers to all body parts including eyebrows, eyes, nose, mouth, ears, jawline, cheekbone contour, wrinkles of a specific part, and the like. Moreover, eyebrows, eyes, ears, etc. are analyzed by distinguishing between left and right sides.

부위별 영상은, 사용자 얼굴 영상을 상기 각각의 부위 중 어느 하나의 부위 만을 포함하는 영상으로 재구성한 것을 말한다. 즉, 사용자 얼굴 영상에서 각각의 부위에 해당하는 위치를 먼저 개략적으로 지정하고, 지정된 영역에서 색상, 채도, 명암 등에 의해 분석함으로써 해당 부위의 형태를 정확하게 특정하여 부위별 영상으로서 추출하게 된다. The section-specific image refers to a reconstruction of the user's face image into an image including only one of the sections. That is, the position corresponding to each part of the user's face image is roughly designated first, and the shape of the corresponding part is precisely identified and extracted as the image for each part by analyzing the color, saturation, and contrast in the designated area.

부위별 형태 정보는, 부위별 영상에 포함된 얼굴 부위를 얼굴 인식에 사용하기 위하여 특징점을 추출하고, 이 특징점을 벡터 방식 또는 비트맵 방식에 의해 분석하여 수치 정보로 변환시킨 디지털 정보를 말한다. 이러한 특징점 정보를 수치화하는 방법은 상용의 다양한 기술을 적용할 수 있다. The form-specific information for each region refers to digital information obtained by extracting feature points in order to use face parts included in the region-specific image for face recognition, analyzing the feature points by a vector method or a bitmap method, and converting the feature points into numerical information. The method of quantifying the feature point information can be applied to a variety of commercially available techniques.

부위별 템플릿 데이터는, 각각의 부위를 디지털 영상 내에서 검출해내기 위해 기준으로 사용될 영상에 대한 데이터를 말한다. 이러한 부위별 템플릿 데이터는 다양한 얼굴 영상들로부터 해당 부위의 영상을 임의의 M×N 크기의 영상으로 추출하고, 추출된 영상의 각 얼굴 부위의 형태를 평균하여 해당 부위의 기준 형태를 나타내는 정보를 생성한다. 또는 해당 부위 영상으로부터 특징점을 추출하고, 이 특징점을 부위별 템플릿 데이터로서 저장할 수도 있다.The site-specific template data refers to data about an image to be used as a reference for detecting each site within a digital image. The template data for each region extracts an image of the corresponding region from a variety of face images into an image having an arbitrary M × N size, and generates information indicating a reference form of the corresponding region by averaging the shape of each facial region of the extracted image. do. Alternatively, a feature point may be extracted from the corresponding part image, and the feature point may be stored as template data for each part.

본 발명의 일 실시예에 따른 사용자 식별 가능 판정 장치(100)는, 도용 판정부(35)를 더 포함할 수도 있다. The user identifiable determination device 100 according to an embodiment of the present invention may further include the theft determining unit 35.

도용 판정부(35)는, 제공된 사용자 영상에서 사용자 얼굴 및 사용자 신체 부분을 제외한 배경 영상을 이용하여, 사용자 영상이 도용된 영상으로부터 촬영된 것인지의 여부를 판정하게 된다. 즉, 배경 영상에서 직선 형태를 포함하는 선형태를 추출하고, 추출된 선형태를 분석하여 도용된 영상인지의 여부를 판정하게 된다. The theft determining unit 35 determines whether the user image is captured from the stolen image by using the background image excluding the user face and the user's body part from the provided user image. That is, a line shape including a straight line shape is extracted from the background image, and the extracted line shape is analyzed to determine whether the image is stolen.

이와 같은 식별 가능 판정부(30) 및 도용 판정부(35)는 판정한 결과를 금융 자동화 기기의 제어 수단(도시하지 않음)으로 출력하게 되고, 제어 수단에서는 제공된 판정 결과에 대응하는 처리를 행하게 된다. 여기에서, 사용자 식별 가능 여부의 판정과 도용 영상 여부 판정은 동시에 행해지거나 소정의 순서에 따라 연속적으로 행해질 수도 있으며, 이는 설계자에 의해 자유롭게 설정될 수 있다. Such an identifiable determination unit 30 and the theft determination unit 35 output the determination result to the control means (not shown) of the financial automation device, and the control means performs a process corresponding to the provided determination result. . Here, the determination of whether the user can be identified and whether the theft image is performed may be performed simultaneously or continuously in a predetermined order, which may be freely set by the designer.

이어서, 도 2 내지 도 8을 참조하여, 상술한 구성의 사용자 식별 가능 판정 장치를 이용하여 획득 영상이 사용자의 얼굴을 식별 가능하도록 촬영되었는지의 여부를 판정하는 방법을 상세하게 설명한다. Next, with reference to FIGS. 2 to 8, a method of determining whether an acquired image is photographed so as to be able to discern a user's face using the user identifiable determination apparatus having the above-described configuration will be described in detail.

도 2는 본 발명의 일 실시예에 따른 획득 영상의 사용자 식별 가능 여부를 판정하는 방법에 대한 전체 흐름을 나타낸 도면이다. 사용자 식별 가능 판정 장치(100)는, 먼저, 사용자를 촬영한 사용자 영상을 제공받는다(S10). 그리고 제공된 사용자 영상으로부터 사용자 얼굴 부위만을 포함하는 사용자 얼굴 영상을 획득한다(S20). 사용자 얼굴 영상이 획득되면, 사용자 얼굴 영상으로부터 얼굴을 형성하는 각각의 부위별로 영상을 분석하여 부위별 영상을 추출한다(S30).FIG. 2 is a diagram illustrating an overall flow of a method of determining whether an acquired image can be identified by a user according to an embodiment of the present invention. First, the user identifiable determination apparatus 100 is provided with a user image photographing the user (S10). In operation S20, a user face image including only a user face part may be acquired from the provided user image. When the user's face image is obtained, an image for each part is extracted by analyzing an image for each part forming a face from the user's face image (S30).

이어서, 각각의 부위에 대하여 추출된 부위별 영상으로부터, 포함된 얼굴 부위의 특징점을 지정하여 수치화하거나 얼굴 부위의 형태를 나타내는 벡터를 생성하여 수치화함으로써, 부위별 형태 정보를 산출한다(S40). 부위별 형태 정보가 산출되면, 이 정보를 기준이 되는 부위별 형태 정보(부위별 템플릿 데이터)와 비교하여 각각의 부위별로 서로 일치하는 정도를 나타내는 유사도를 산출하고, 이 유사도를 기초하여 얼굴 부위별 유사도율을 산출한다(S50). 이 얼굴 부위별 유사도율은, 얼굴의 각각의 부위가 카메라에 대하여 올바른 각도로, 올바른 조명 하에서, 올바른 해상도로 촬영됨으로써, 생성된 사용자 영상에 포함된 얼굴 영상이 사용자 식별을 위한 얼굴 인식에 사용하기에 적합한지의 여부를 나타내는 척도, 또는 추출된 사용자 얼굴 영상에 의해 해당 사용자를 식별할 수 있는지의 여부를 나타내는 척도가 된다. Subsequently, shape information for each region is calculated by specifying and quantifying feature points of the included facial regions or generating and quantifying a vector representing the shape of the facial region from the extracted region-specific image for each region (S40). When the shape information for each part is calculated, the degree of similarity indicating the degree of coincidence for each part is calculated by comparing the information with the shape information for each part (template data for each part) which is a reference, and based on the similarity for each face part. The similarity rate is calculated (S50). The similarity rate for each face part is that each part of the face is photographed at the correct angle with respect to the camera, under the correct illumination, and at the correct resolution, so that the face image included in the generated user image is used for face recognition for user identification. Or a scale indicating whether or not the user can be identified by the extracted user face image.

한편, 이와 같이, 각각의 부위별로 얼굴 부위별 유사도율이 산출되면, 산출된 얼굴 부위별 유사도율과 해당 부위 마다에 대하여 미리 설정된 기준 유사도율인 부위별 기준 유사도율과의 크기를 비교하게 된다(S60). 이때, 모든 얼굴 부위별 유사도율이 대응하는 부위별 기준 유사도율보다 큰 것으로 판정되면, 촬영된 사용자 영상을 이용하여 사용자를 식별할 수 있는 정도로 얼굴이 명확하게 촬영된 것으로 판정하여 사용자가 이용하고자 하는 금융 자동화 기기를 계속하여 이용할 수 있도록 하고(S70), 얼굴 부위별 유사도율 중 적어도 어느 하나라도 대응하는 부위별 기준 유사도율보다 작은 것이 존재하면, 부당한 사용자가 얼굴 부위의 일부를 가린 채 촬영 수단에 접근하여 금융 자동화 기기를 이용하고자 하는 상황으로 판단하여 금융 자동화 기기를 이용할 수 없도록 차단한다(S80). On the other hand, when the similarity rate for each facial part is calculated for each part as described above, the size of the calculated similarity rate for each facial part is compared with the reference similarity rate for each part, which is a preset standard similarity rate for each corresponding part ( S60). At this time, if it is determined that the similarity rate for every face part is larger than the corresponding similarity rate for each part, it is determined that the face is clearly photographed to the extent that the user can be identified using the photographed user image. If the financial automation device can continue to be used (S70), and at least one of the similarity rates for each facial part is smaller than the corresponding similarity rate for each part, an unfair user obscures a part of the facial part to the photographing means. Approach as determined to use the financial automation device to block the use of the financial automation device (S80).

또한, S80의 단계는 금융 자동화 기기가 사용자의 얼굴을 적절하게 촬영하지 못하여 발생할 수도 있으므로, 소정의 안내 신호를 사용자에게 표시하여 재촬영을 유도하거나, 해당 부위에 대한 부위별 기준 유사도율의 값을 감소시켜 재 비교하거나, 이어지는 완화된 적합 영상 판정 단계(A)로 진행할 수도 있다. A 단계는 도 4에 해당한다.In addition, the step of S80 may be caused by the financial automation device not properly photographing the user's face, so that a predetermined guide signal is displayed to the user to induce re-shooting, or the value of the reference similarity rate for each part of the corresponding part is determined. It may be reduced to recompare or proceed to the relaxed fit image determination step (A). Step A corresponds to FIG. 4.

이러한 상황에 대한 일례를 들면, 부위별 기준 유사도율이 70%로 설정되어 있는 상태에서, 사용자가 마스크 등으로 코와 입을 가린 채로 촬영 수단에 의해 촬영되었다면, 눈썹, 눈, 귀 등의 얼굴 부위는 얼굴 인식에 사용될 수 있겠지만, 코와 입은 촬영될 수 없기 때문에 각각의 식별 가능 유사도율은 0%가 되고, 따라서, 금융 자동화 기기에 대한 이용 불가능으로 판정된다. As an example of such a situation, if the user has been photographed by a photographing means while covering the nose and mouth with a mask or the like while the reference similarity rate for each part is set to 70%, the face parts such as eyebrows, eyes, ears, etc. Although it can be used for face recognition, since the nose and mouth cannot be photographed, each identifiable similarity rate is 0%, thus determining that it is not available for financial automation equipment.

한편, 사용자를 촬영한 주변의 환경이 어둡거나 조명에 의한 반사광이 발생했거나, 사용자가 모자 등을 착용하여 사용자의 특정 얼굴 부위가 정확히 촬영되지 않아 유사도율이 낮게 산출되는 경우가 있을 수 있는데(예를 들면, 왼쪽 눈썹에 대한 얼굴 부위별 유사도율이 70%로 산출될 수 있다), 이러한 경우에는 눈썹 부분에 대한 부위별 기준 유사도율을 60% 정도로 완화하여 재비교함으로써 이러한 상황에 유연하게 대처할 수 있도록 한다. On the other hand, there may be a case where the similarity rate is low because the surrounding environment where the user is photographed is dark or the reflected light is generated by the light or the user wears a hat or the like so that a specific face part of the user is not accurately photographed (eg, For example, the similarity rate of each part of the face for the left eyebrow may be calculated as 70%). In this case, the relative similarity rate of each part of the eyebrow part may be reduced to about 60% to be flexibly responded to this situation. Make sure

여기에서 부위별 기준 유사도율은 적어도 육안에 의해 각각의 얼굴 부위를 확인하여 사용자를 식별할 수 있는 정도의 수치를 하한으로 하여 설정되는 것이 바람직하다. Here, it is preferable that the reference similarity rate for each site is set as a lower limit to a level that can identify the user by identifying each face area at least by visual observation.

도 3은, 도 2에 있어서 얼굴 부위별 유사도율을 산출하는 절차를 설명하기 위한 흐름도이다. 먼저, 사용자 얼굴 영상으로부터 적어도 하나의 얼굴 부위에 대한 부위별 형태 정보가 산출되면(S14; 도 2의 S40에 대응), 해당 부위에 대응하여 미리 설정되어 유지하고 있는 부위별 템플릿 데이터를 템플릿 저장부(25)로부터 독출함으로써 획득하고(S15), 획득한 부위별 템플릿 데이터와 산출된 부위별 형태 정보를 비교하여(S16) 유사도를 산출하고, 이 유사도에 기초하여 해당 부위에 대한 얼굴 부위별 유사도율을 산출하게 된다(S17). FIG. 3 is a flowchart for explaining a procedure for calculating a similarity rate for each facial part in FIG. 2. First, when shape information for each of at least one face part is calculated from the user face image (S14; corresponding to S40 of FIG. 2), the template storage unit stores the template data for each part that is preset and maintained in correspondence to the corresponding part. Acquiring by reading from (25) (S15), and comparing the acquired template data for each part and the calculated form information for each part (S16) to calculate the similarity, based on the similarity rate of similarity for each face part for the corresponding part It is calculated (S17).

도 4는, 복수의 부위에 대한 얼굴 부위별 유사도율을 조합하여 적합 영상을 판정하는 절차를 설명하기 위한 흐름도이다. 도 4의 절차는 도 2의 절차에서 금융 자동화 기기에 대해 이용 불가로 판정된 경우에 완화된 기준을 적용하는 방법으로 이용될 수도 있다. 4 is a flowchart for describing a procedure of determining a suitable image by combining similarity rates of facial parts for a plurality of parts. The procedure of FIG. 4 may be used as a method of applying relaxed criteria when it is determined in the procedure of FIG. 2 that it is not available for a financial automation device.

먼저, 얼굴을 구성하는 각각의 부위에 대하여 산출한 얼굴 부위별 유사도율을 획득하고(S25), 두 개 이상의 부위에 대해 산출된 각각의 얼굴 부위별 유사도율을 특정의 산술식에 의해 조합하여 조합 유사도율을 산출한다(S26). First, a similarity rate for each facial part calculated for each part constituting the face is obtained (S25), and the similarity rate for each facial part calculated for two or more parts is combined by a specific arithmetic formula. The similarity rate is calculated (S26).

여기에서, 조합 유사도율을 산출하기 위한 산술식은 임의로 설정될 수 있다. 즉, 복수의 얼굴 부위별 유사도율을 단순한 합계에 의해 또는 각 유사도율에 가중치를 부여한 후 합계하여 조합 유사도율을 산출할 수도 있고, 다양한 사칙 연산 또는 더욱 복잡한 산술식을 통해 조합 유사도율을 산출할 수도 있다. 산출된 조합 유사도율은 어떤 얼굴 부위에 대한 얼굴 부위별 유사도율을 조합하였는지를 나타내는 정보를 더 포함할 수 있다. Here, the arithmetic formula for calculating the combined similarity rate can be arbitrarily set. That is, the combined similarity rate may be calculated by a simple sum or by adding weights to each similarity rate, and calculating the combined similarity rate. The combined similarity rate may be calculated through various arithmetic operations or more complex arithmetic expressions. It may be. The calculated combined similarity rate may further include information indicating which facial parts have similar similarity rates.

그리고 산출된 조합 유사도율과 조합에 사용된 각각의 부위에 대한 기준 조합 유사도율과 비교하고(S27), 산출된 조합 유사도율이 기준 조합 유사도율보다 큰 것으로 판단되면 사용자 영상의 사용자 얼굴 영상이 사용자 식별 가능한 적합 영상인 것으로 판정하여 금융 자동화 기기의 이용 가능으로 판정하고(S28), 작은 것으로 판단되면 사용자 식별이 불가능한 부적합 영상으로 판정하여 금융 자동화 기기에 대해 이용 불가능으로 판정하게 된다(S29). The calculated combination similarity rate is compared with the reference combination similarity rate for each part used in the combination (S27), and when it is determined that the calculated combination similarity rate is greater than the reference combination similarity rate, the user face image of the user image is displayed. If it is determined that the image is suitable to be identified, it is determined that the financial automation device is available (S28). If it is determined to be small, the image is determined to be unsuitable image that cannot be identified by the user (S29).

더욱, 부적합 영상으로 판정되면 사용자에게 소정의 안내를 제공하거나, 이어지는 더욱 완화된 적합 영상 판정 단계(B)로 진행할 수 있다. 완화된 B 단계는 도 5에 해당한다.Further, if it is determined that the image is not suitable, the user can be provided with a predetermined guide, or can proceed to the further relaxed suitable image determination step (B). The relaxed step B corresponds to FIG. 5.

이러한 경우의 일례를 들면, 사용자 얼굴 영상 중에서 왼쪽 눈썹과 오른쪽 눈썹, 왼쪽 눈과 오른쪽 눈의 각각의 얼굴 부위별 유사도율을 합계 및 평균하여 조합 유사도율을 산출하고, 이 산출된 조합 유사도율이 양쪽 눈썹 및 양쪽 눈에 대하여 미리 설정된 기준 조합 유사도율보다 큰 경우에는 육안에 의해 사용자의 신원을 식별할 수 있는 것으로 판정하거나 사용자 얼굴 영상을 얼굴 인식에 사용할 수 있는 것으로 판정하게 된다. For example, in this case, the combined similarity rate is calculated by adding and averaging the similarity rate for each face part of the left eyebrow, the right eyebrow, the left eye and the right eye in the user's face image, and the calculated combined similarity rates are both If the eyebrow and both eyes are larger than the preset reference combination similarity rate, it is determined that the user's identity can be identified by the naked eye or that the user's face image can be used for face recognition.

즉, 사용자가 선글라스 등을 착용하여 양쪽 눈이 거의 가려진 상태에서는, 왼쪽 눈썹의 유사도율이 80%, 오른쪽 눈썹의 유사도율이 90%, 왼쪽 눈 및 오른쪽 눈의 유사도율이 10%로 판정될 수 있다. 이때, 단순 합계 및 평균에 의해 산출되는 조합 유사도율은 47.5%가 된다. 한편, 양 눈썹 및 눈에 대한 기준 조합 유사도율이 60% 라고 설정되었다면, 사용자를 촬영하여 생성한 사용자 얼굴 영상이 부적합 영상인 것으로 판정되게 되는 것이다. That is, when the user wears sunglasses or the like and both eyes are almost covered, the similarity rate of the left eyebrow is 80%, the similarity rate of the right eyebrow is 90%, and the similarity rate of the left eye and the right eye is 10%. have. At this time, the combined similarity rate calculated by the simple sum and average is 47.5%. On the other hand, if the reference combination similarity rate for both eyebrows and eyes is set to 60%, it is determined that the user face image generated by photographing the user is an inappropriate image.

한편, 사용자가 눈병 등에 의하여 한 쪽 눈에 안대를 한 경우에는, 왼쪽 눈썹의 유사도율이 80%, 오른쪽 눈썹의 유사도율이 90%, 왼쪽 눈의 유사도율이 80%, 오른쪽 눈의 유사도율이 0%로 판정될 수 있으며, 조합 유사도율은 62.5%가 되어, 적합 영상으로 판정될 수 있다. On the other hand, when the user puts an eye patch on one eye, the similarity rate of the left eyebrow is 80%, the similarity rate of the right eyebrow is 90%, the similarity rate of the left eye is 80%, and the similarity rate of the right eye is 0%, and the combined similarity rate is 62.5%, which can be determined as a suitable image.

이와 같이 조합 유사도율을 적용하게 되면, 사용자의 얼굴 부위의 일부가 질병이나 장식품, 주변 환경에 의해 부득이하게 가려진 경우에도 사용자 식별을 행할 수 있게 된다.By applying the combination similarity rate as described above, the user identification can be performed even if a part of the face part of the user is inevitably covered by a disease, an ornament, or a surrounding environment.

도 5는, 모든 얼굴 부위에 대한 얼굴 부위별 유사도율을 조합한 후 적합 영상을 판정하는 절차를 설명하기 위한 흐름도이다. 도 5의 절차는 도 4의 절차에서 금융 자동화 기기에 대해 이용 불가한 부적합 영상으로 판정된 경우에 완화된 기준을 적용하는 방법으로 이용될 수도 있다. 또한 도 2의 A 단계로서 적용될 수도 있다. FIG. 5 is a flowchart for explaining a procedure of determining a suitable image after combining the similarity rate for each facial region for all facial regions. The procedure of FIG. 5 may be used as a method of applying a relaxed criterion when it is determined in the procedure of FIG. 4 that the image is not available for the financial automation device. It may also be applied as step A of FIG.

먼저, 얼굴을 구성하는 모든 부위(얼굴 인식에 사용되는 부위)에 대하여 산출된 얼굴 부위별 유사도율을 획득하고(S35), 각각의 모든 얼굴 부위별 유사도율을 소정의 산술식에 의해 모두 조합하여 총 유사도율을 산출한다(S36). 그리고 산출된 총 유사도율과 기준 총 유사도율을 비교하고(S37), 총 유사도율이 기준 총 유사도율보다 큰 경우에는 사용자 얼굴 영상을 적합 영상으로 판정하게 되고(S38), 작은 경우에는 부적합 영상으로 판정한다(S39). 이렇게 부적합 영상 판정되면 소정의 안내를 출력하여, 사용자를 촬영하여 생성한 사용자 얼굴 영상이 사용자 식별에 사용될 수 없어서 금융 자동화 기기를 이용할 수 없음을 통보한다.First, the similarity rate for each face part calculated for all parts constituting the face (the part used for face recognition) is obtained (S35), and the similarity rate for each and every face part are all combined by a predetermined arithmetic formula. The total similarity rate is calculated (S36). The calculated total similarity rate is compared with the reference total similarity rate (S37). If the total similarity rate is greater than the reference total similarity rate, the user's face image is determined as a suitable image (S38). It determines (S39). When the inappropriate image is determined as described above, a predetermined guide is output to notify that the financial automation device cannot be used because the user face image generated by photographing the user cannot be used for user identification.

이와 같이 전체 부위에 대한 총 유사도율을 이용하면, 상술한 조합 유사도율을 사용하는 것과 유사하게, 사용자 얼굴의 가려짐에 대한 유연한 대응이 가능하게 된다.By using the total similarity rate for the entire region as described above, a flexible response to the occlusion of the user's face is possible, similar to using the combination similarity rate described above.

상술한 바와 같은 부위별 영상 추출부(10) 및 유사도율 산출부(20)를 포함하여 이루어지는 사용자 식별 가능 판정 장치(100)에 의한 획득 영상의 얼굴 인식에 대한 적합 여부 판정 방법에 의하면, 사용자 식별을 위하여 촬영 수단에 촬영된 사용자의 얼굴이 일부 또는 전체가 얼굴 인식 가능한 정도로 정확한 각도에서 또한 선명하게 촬영되었는지 판단할 수 있게 된다. 또한, 사용자의 얼굴의 일부 또는 전체가 부정한 목적에 의해 가려져 있는지의 여부도 판단할 수 있게 된다. According to the method of determining suitability for face recognition of the acquired image by the user-identifiable determination apparatus 100 including the image extraction unit 10 and the similarity rate calculation unit 20 for each part as described above, the user identification For this purpose, it is possible to determine whether a part of the user's face photographed by the photographing means is clearly and clearly captured at an accurate angle such that a part or the whole of the face can be recognized. In addition, it is also possible to determine whether part or all of the user's face is covered by an illegal purpose.

따라서, 금융 자동화 기기 등에서 금융 업무를 수행하고자 하는 사용자가 얼굴을 부정하게 가리고 있는 경우에 대해서, 금융 업무를 원활히 수행할 수 없도록 제한하거나 보안 센터 등에 신고하여 부당 사용 여부를 관리자에 의해 확인하도록 통보하는 등의 처리가 가능하게 된다. Therefore, when a user who wants to perform financial affairs in a financial automation device, etc. is covering his face unjustly, he or she can notify the administrator to confirm whether the user is using illegally by limiting the financial affairs smoothly or by reporting to a security center. And the like can be processed.

또한, 반대로, 얼굴의 일부가 가려져 있는 경우라도, 나머지 정상적으로 촬영된 부분을 이용하여 원활한 사용자 식별이 가능하게 할 수도 있다. On the contrary, even when a part of the face is hidden, the user can be smoothly identified by using the remaining normally photographed part.

도 6은, 본 발명의 일 실시예에 따른 사용자 식별 가능 판정 장치(100)를 이용하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법 중에서, 도용 판정부(35)에서 이루어지는 사용자 영상에 대한 도용 여부를 판정하는 방법을 설명하기 위한 흐름도이다. 여기에서는, 사용자 얼굴이 표시되는 디스플레이 수단을 이용하여, 특히 사용자 얼굴이 촬영된 사진을 이용하여 사용자 식별을 시도하는 경우를 판정할 수 있는 방법을 개시한다. FIG. 6 illustrates whether or not the user image is stolen by the theft determining unit 35 in the method of determining whether the acquired image is identifiable using the user identifiable determination apparatus 100 according to an embodiment of the present invention. It is a flowchart for explaining the method of determining. Here, a method for determining a case in which a user identification is attempted using display means in which a user's face is displayed, in particular, using a photograph in which the user's face is taken, is disclosed.

먼저, 도 6을 참조하면, 도용 판정부(35)에서는, 촬영 수단에서 촬영되어 제공된 사용자 영상으로부터 사용자의 얼굴 및 신체 부위를 제외한 배경에 대한 배경 영상을 추출하고(S51), 추출된 배경 영상으로부터 직선 및/또는 인위적으로 형성된 곡선을 포함하는 선형태를 추출한다(S52). 바람직하게는 직선 형태를 추출한다. 그리고 추출된 선형태를 분석하여 사용자 영상이 도용된 영상인지 또는 정상적으로 실제 사용자를 직접 촬영하여 생성한 정상 영상를 판정한다(S53). First, referring to FIG. 6, the theft determining unit 35 extracts a background image of a background excluding a face and a body part of a user from a user image photographed by a photographing means (S51) and from the extracted background image. A linear form including a straight line and / or artificially formed curves is extracted (S52). Preferably, the straight form is extracted. The extracted line shape is analyzed to determine whether the user image is a stolen image or a normal image generated by directly photographing an actual user (S53).

도 7 및 도 8은, 도 6에서의 영상 도용 여부를 판정하기 위한 상세한 방법을 설명하는 흐름도이다. 7 and 8 are flowcharts illustrating a detailed method for determining whether the image is stolen in FIG. 6.

먼저, 도 7에 있어서, 도용 판정부(35)는, 배경 영상으로부터 추출된 선형태가 사용자 얼굴 부분을 둘러싸는 폐도형을 이루는지를 판정한다(S63, S64). 이때, 사용자의 얼굴 부분을 둘러싸는 폐도형이 존재하는 경우는 사용자의 얼굴 및 사용자의 신체 일부를 포함하는 증명 사진과 같은 출력물의 외부 테두리 또는 사용자 얼굴이 표시되고 있는 디스플레이 수단의 테두리가 촬영 수단의 촬영 영역 내에 모두 보여지게 촬영된 상태를 의미한다.(도 10 참조) First, in FIG. 7, the theft determining unit 35 determines whether the linear form extracted from the background image forms a closed figure surrounding the user's face (S63, S64). In this case, when there is a closed figure surrounding the face of the user, the outer edge of the output, such as an ID photo including the face of the user and the body part of the user, or the edge of the display means on which the user's face is displayed, It means a state in which the image is captured to be seen in the image capturing area (see FIG. 10).

이와 같이 사용자의 얼굴을 둘러싸는 폐도형이 발견되면, 부당한 사용자에 의해 사용자의 영상이 도용되고 있는 것으로 판정하고(S65), 금융 자동화 기기의 사용에 제한을 가하도록 할 수 있다(S66).When a closed figure surrounding the face of the user is found in this manner, it is determined that the user's image is stolen by an unjust user (S65), and the use of the financial automation device can be restricted (S66).

다음, 도 8에 있어서, 도용 판정부(35)는, 배경 영상의 내측 경계선이 되는 사용자 신체의 윤곽을 나타내는 신체 외곽선을 추출하고(S72), 추출된 신체 외곽선의 가장 아래쪽 선형태가 사용자 영상의 가장 아래쪽 테두리선과 중첩하는지의 여부를 검토한다(S73, S74). 그리고 검토의 결과, 추출된 신체 외곽선의 가장 아래쪽 선형태가 촬영된 사용자 영상의 가장 아래쪽 테두리선과 중첩하고 있지 않은 것으로 확인된 경우에는 사용자 신체를 촬영한 영상에 의해 도용이 시도되고 있는 것으로 판정하게 된다(S75). 한편, 추출된 신체 외곽선의 가장 아래쪽 선형태가 촬영된 사용자 영상의 가장 아래쪽 테두리선과 중첩한 경우에는 정상적으로 사용자가 촬영되고 있는 것으로 판정하게 된다(S76).Next, in FIG. 8, the theft determining unit 35 extracts a body outline representing the outline of the user's body, which is the inner boundary of the background image (S72), and the bottom line of the extracted body outline is the user's image. It is examined whether or not to overlap with the bottom border (S73, S74). As a result of the examination, when it is confirmed that the bottom line of the extracted body outline does not overlap with the bottom border of the captured user image, it is determined that theft is attempted by the image of the body of the user. (S75). On the other hand, if the bottom line of the extracted body outline overlaps the bottom edge of the captured user image, it is determined that the user is normally photographed (S76).

이러한 경우는, 도 11에 도시된 바와 같은 경우로서, 부당한 사용자가 정당한 사용자의 얼굴 및/또는 신체 일부가 촬영된 사진 등을 도용하여 촬영 수단에 접근시킨 경우에 있어서, 도용된 사진의 아래쪽의 테두리가 촬영 수단의 촬영 영역 내에 보여지게 되는 경우가 된다. 예를 들어 증명 사진 등은 사용자의 적어도 가슴 아래의 부분은 보여지지 않기 때문에 이 부분은 신체 외곽선 중의 직선 형태로 나타나게 되고, 이 직선 형태가 사용자 영상의 아래쪽 테두리와 일치하지 않고 있는 경우는 명백하게 영상이 도용되고 있는 경우가 된다. In this case, as illustrated in FIG. 11, when an unjust user steals a photograph of a legitimate user's face and / or a body part and approaches the photographing means, a lower edge of the stolen photograph is used. Is a case where the image is viewed in the photographing area of the photographing means. For example, at least part of the user's chest is not shown because the ID photo is shown as a straight line in the outline of the body. If the straight line does not coincide with the lower edge of the user's image, the image is clearly displayed. It may be stolen.

상술한 바와 같은 영상 도용을 판정하는 절차를 실제 사진을 이용하여 설명하면 도 9 내지 도 11과 같다. The above-described procedure for determining image theft is described with reference to FIGS. 9 to 11.

먼저, 도 9는 정당한 사용자가 모든 얼굴이 노출된 상태에서 정상적으로 카메라에 의해 촬영된 사용자 영상을 나타낸다. 사용자의 얼굴 부분을 둘러싸는 폐도형이 존재하지 않으며, 신체 외곽선의 가장 아래쪽 선형태는 사용자 영상의 가장 아래쪽 테두리와 일치한다.First, FIG. 9 illustrates a user image normally taken by a camera in a state in which a legitimate user is exposed to all faces. There is no closed figure surrounding the user's face, and the bottom line of the body outline coincides with the bottom edge of the user image.

도 10은 부당한 사용자가 정당한 사용자가 촬영된 사진을 이용하여 사용자 식별을 시도하는 상태를 나타낸다. 여기에서는, 사용자 영상의 얼굴 부분(녹색 동그라미로 표시된 부분)을 제외한 부분에서 사각형의 선형태(적색 사각형으로 표시된 부분)가 추출되었으며, 이 추출된 선형태가 얼굴 영상을 둘러싸고 있는 상태가 된다. 이러한 상태는 도 7의 절차에 의해 도용된 영상으로 판정된다. 10 illustrates a state in which an invalid user attempts to identify a user by using a photograph taken by a valid user. Here, a rectangular linear form (part represented by a red square) has been extracted from a portion of the user image except for a facial portion (part represented by a green circle), and the extracted linear form surrounds the facial image. This state is determined to be the stolen image by the procedure of FIG.

다음, 도 11은 부당한 사용자가 정당한 사용자를 촬영한 사진으로 부당한 접근을 시도하는 상태로서, 여기에서는, 사용자의 신체 외곽선 중 가슴 아래쪽 부분의 신체 외곽선이 사용자 영상의 아래쪽 테두리와 중첩하지 않고 이격된 상태를 나타내고 있다. 이러한 상태는 도 8의 절차에 의해 도용된 영상인 것으로 판정되게 된다. Next, FIG. 11 is a state in which an invalid user attempts an illegal access to a picture of a legitimate user. Here, the body outline of the lower part of the chest of the user's body space is spaced apart without overlapping the bottom edge of the user image. Indicates. This state is determined to be the stolen image by the procedure of FIG.

한편, 도용된 영상이 이용되고 있는 경우를 판정하는 또다른 방법을 도 12(a) 및 도 12(b)를 참조하여 설명한다. Meanwhile, another method of determining the case where the stolen image is used will be described with reference to FIGS. 12A and 12B.

먼저, 도용 판정부(35)는 금융 자동화 기기의 현재 위치에서 사용자가 없는 상태에서 전방을 촬영하여 생성된 주변 영상으로부터 복수의 선형태를 추출하여 유지한다. 그리고, 이후 사용자가 금융 자동화 기기를 이용하고자 접근했을 때, 사용 자 영상으로부터 추출한 배경 영상의 선형태가 미리 유지하고 있던 주변 영상으로부터의 선형태와 일치하지 않는 경우에는 도용된 영상이 적용된 것으로 판정하여, 이어지는 요청을 차단하도록 할 수 있다. First, the theft determining unit 35 extracts and maintains a plurality of line shapes from the surrounding image generated by photographing the front in a state where there is no user at the current position of the financial automation device. Then, when the user approaches to use the financial automation device, if the line shape of the background image extracted from the user image does not match the line shape from the surrounding image previously held, it is determined that the stolen image is applied. For example, you can block subsequent requests.

도 12(a)는 주변 영상 및 추출된 선형태의 일례이며, 도 12(b)는 사용자 영상 및 추출된 선형태의 일례이다. FIG. 12A illustrates an example of the surrounding image and the extracted line form, and FIG. 12B illustrates an example of the user image and the extracted line form.

상술한 본 발명에 따른 획득 영상의 사용자 식별 가능 여부 판정 방법에서는, 먼저 각각의 부위별로 모든 부위에 대하여 얼굴 부위별 유사도율을 판정하고 해당 부위의 기준 유사도율과 비교함으로써 적합 영상을 판정하고, 부적합 영상으로 판정된 경우 이어서 조합 유사도율 또는 총 유사도율을 순차적으로 적용하는 구성으로 하고 있다. In the above-described method for determining whether the user can identify the acquired image according to the present invention, first, the similarity rate for each face part is determined for each part for each part, and a suitable image is determined by comparing with the reference similarity rate of the corresponding part, and the nonconformity is determined. When it is determined that the image is determined, the combination similarity rate or the total similarity rate is sequentially applied.

하지만, 특정 얼굴 부위별 유사도율, 조합 유사도율 또는 총 유사도율 중 어느 하나를 단독 비교에 의해 사용자 식별 가능 여부 판정을 마치도록 하는 구성도 가능하다.However, a configuration may be made such that any one of the similarity rate, the combined similarity rate, or the total similarity rate for each specific face part is completed to determine whether the user can be identified.

도 1은 본 발명의 일 실시예에 따른 획득 영상의 사용자 식별 가능 여부 판정방법을 실행하기 위한 사용자 식별 가능 판정 장치의 구성을 나타낸 블록도이다.1 is a block diagram illustrating a configuration of a user identifiable determining apparatus for executing a method of determining a user identifiability of an acquired image according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 획득 영상의 사용자 식별 가능 여부를 판정하는 방법에 대한 전체 흐름을 나타낸 도면이다. FIG. 2 is a diagram illustrating an overall flow of a method of determining whether an acquired image can be identified by a user according to an embodiment of the present invention.

도 3은, 도 2에 있어서 얼굴 부위별 유사도율을 산출하는 절차를 설명하기 위한 흐름도이다. FIG. 3 is a flowchart for explaining a procedure for calculating a similarity rate for each facial part in FIG. 2.

도 4는 복수의 부위에 대한 얼굴 부위별 유사도율을 조합하여 적합 영상을 판정하는 절차를 설명하기 위한 흐름도이다FIG. 4 is a flowchart illustrating a procedure of determining a suitable image by combining similarity rates of facial parts of a plurality of parts.

도 5는, 모든 얼굴 부위에 대한 얼굴 부위별 유사도율을 모두 조합한 후 적합 영상을 판정하는 절차를 설명하기 위한 흐름도이다.FIG. 5 is a flowchart for explaining a procedure of determining a suitable image after combining all similarity rates for each facial part for all facial parts.

도 6은, 사용자 영상에 대한 도용 여부를 판정하는 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of determining whether the user image is stolen.

도 7 및 도 8은, 도 6에서의 영상 도용 여부를 판정하기 위한 상세한 방법을 설명하는 흐름도이다. 7 and 8 are flowcharts illustrating a detailed method for determining whether the image is stolen in FIG. 6.

도 9는 정당한 사용자에 의한 사용자 영상을 나타낸다. 9 shows a user image by a legitimate user.

도 10 및 도 11은 부당한 사용자가 정당한 사용자가 촬영된 사진을 이용하는 상태를 나타낸다. 10 and 11 illustrate a state in which an unjust user uses a picture taken by a right user.

도 12(a)는 주변 영상 및 추출된 선형태의 일례를 보여주는 도면이고, 도 12(b)는 사용자 영상 및 추출된 선형태의 일례를 보여주는 도면이다. 12 (a) is a diagram showing an example of the surrounding image and the extracted line shape, Figure 12 (b) is a diagram showing an example of the user image and the extracted line form.

Claims (10)

삭제delete 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서:A method of determining whether an acquired image is user identifiable so that a user can use a financial automation device only when the user's face is identifiable: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계;Generating a user image by photographing a body of a user who intends to use the financial automation device; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계;Obtaining a user face image including only a face area from the generated user image; 상기 획득된 사용자 얼굴 영상으로부터 각각의 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계;Extracting an image for each part of each face from the obtained user face image; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; Calculating shape information for each part digitized from the extracted images for each part; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; 상기 산출된 각각의 얼굴 부위별 유사도율의 모두가 해당 부위에 대한 부위별 기준 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 상기 산출된 각각의 얼굴 부위별 유사도율 중 어느 하나라도 상기 해당 부위에 대한 부위별 기준 유사도율보다 작은 경우에는 상기 산출된 각각의 얼굴 부위별 유사도율 중 복수의 부위에 대한 상기 얼굴 부위별 유사도율을 소정의 산술식에 의해 조합하여 조합 유사도율을 산출하고, 상기 조합 유사도율이 상기 복수의 부위에 대하여 미리 설정된 기준 조합 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 상기 조합 유사도율이 상기 기준 조합 유사도율보다 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법.If all of the calculated similarity rate for each face part is larger than the standard similarity rate for each part for the corresponding part, the user can use the financial automation device, and among the calculated similarity rates for each face part. If any one is smaller than the site-specific similarity rate for each of the corresponding sites, the combination similarity is obtained by combining similarity rates for each of the face parts for a plurality of sites among the calculated similarity rates for each face part by a predetermined arithmetic formula. Calculating a ratio, and allowing the user to use the financial automation device when the combination similarity rate is greater than a preset reference combination similarity rate for the plurality of parts, and the combination similarity rate is greater than the reference combination similarity rate. In small cases, the financial automation device may not be available to the user. Determining whether the acquired image of the acquired image includes a step. 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서:A method of determining whether an acquired image is user identifiable so that a user can use a financial automation device only when the user's face is identifiable: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계;Generating a user image by photographing a body of a user who intends to use the financial automation device; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계;Obtaining a user face image including only a face area from the generated user image; 상기 획득된 사용자 얼굴 영상으로부터 각각의 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계;Extracting an image for each part of each face from the obtained user face image; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; Calculating shape information for each part digitized from the extracted images for each part; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; 상기 산출된 각각의 얼굴 부위별 유사도율의 모두가 해당 부위에 대한 부위별 기준 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 상기 산출된 각각의 얼굴 부위별 유사도율 중 어느 하나라도 상기 해당 부위에 대한 부위별 기준 유사도율보다 작은 경우에는 상기 산출된 각각의 얼굴 부위별 유사도율의 모두를 소정의 산술식에 의해 조합하여 총 유사도율을 산출하고, 상기 산출된 총 유사도율이 미리 설정된 기준 총 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 상기 총 유사도율이 상기 기준 총 유사도율보다 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 더 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법.If all of the calculated similarity rate for each face part is larger than the standard similarity rate for each part for the corresponding part, the user can use the financial automation device, and among the calculated similarity rates for each face part. When any one is smaller than the site-specific similarity rate for the corresponding site, all of the calculated similarity rates for each face part are combined by a predetermined arithmetic formula to calculate a total similarity rate, and the calculated total similarity rate. If the rate is greater than the preset reference total similarity rate, the user can use the financial automation device. If the total similarity rate is less than the reference total similarity rate, the user cannot use the financial automation device. The method of claim 1, further comprising the step of identifying the user identification of the acquired image. 제2항 또는 제3항에 있어서,The method according to claim 2 or 3, 상기 각각의 얼굴 부위별 유사도율을 조합하는 상기 산술식은 임의 설정 가능한 것을 특징으로 하는 획득 영상의 사용자 식별 가능 여부 판정 방법.And the arithmetic expression combining the similarity rate for each face part can be arbitrarily set. 제2항 또는 제3항에 있어서,The method according to claim 2 or 3, 상기 부위별 기준 유사도율을 설정하는 단계를 더 포함하는 것을 특징으로 하는 획득 영상의 사용자 식별 가능 여부 판정 방법.And determining the reference similarity rate for each part. 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서:A method of determining whether an acquired image is user identifiable so that a user can use a financial automation device only when the user's face is identifiable: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계;Generating a user image by photographing a body of a user who intends to use the financial automation device; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계;Obtaining a user face image including only a face area from the generated user image; 상기 획득된 사용자 얼굴 영상으로부터 각각의 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계;Extracting an image for each part of each face from the obtained user face image; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; Calculating shape information for each part digitized from the extracted images for each part; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; 상기 산출된 각각의 얼굴 부위별 유사도율 중 어느 하나라도 해당 부위에 대한 부위별 기준 유사도율보다 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하고, 상기 산출된 각각의 얼굴 부위별 유사도율의 모두가 상기 해당 부위에 대한 부위별 기준 유사도율보다 큰 경우에는 상기 생성된 사용자 영상으로부터 사용자 신체 부분을 제외한 배경 영상을 추출하고, 상기 추출된 배경 영상으로부터 적어도 하나의 선형태를 추출하고, 상기 추출된 선형태가 상기 사용자 영상 중 사용자 얼굴 부분을 둘러싸는 폐도형을 이루는 경우, 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하고, 폐도형이 발견되지 않은 경우 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하는 단계를 더 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법.If any one of the calculated similarity rates for each face part is smaller than the standard similarity rate for each part for the corresponding part, the user cannot use the financial automation device, and the similarity rate for each face part is calculated. When all of the values are larger than the reference similarity rate for each part of the corresponding part, a background image excluding a user body part is extracted from the generated user image, and at least one line shape is extracted from the extracted background image. If the extracted line forms a closed figure surrounding the user's face in the user image, the user cannot use the financial automation device, and if the closed figure is not found, the user may use the financial automated device. The user of the acquired image further comprising the step of enabling Determination by way possible. 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서:A method of determining whether an acquired image is user identifiable so that a user can use a financial automation device only when the user's face is identifiable: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계;Generating a user image by photographing a body of a user who intends to use the financial automation device; 상기 생성된 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계;Obtaining a user face image including only a face area from the generated user image; 상기 획득된 사용자 얼굴 영상으로부터 각각의 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계;Extracting an image for each part of each face from the obtained user face image; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; Calculating shape information for each part digitized from the extracted images for each part; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; 상기 산출된 각각의 얼굴 부위별 유사도율 중 어느 하나라도 해당 부위에 대한 부위별 기준 유사도율보다 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하고, 상기 산출된 각각의 얼굴 부위별 유사도율의 모두가 상기 해당 부위에 대한 부위별 기준 유사도율보다 큰 경우에는 상기 생성된 사용자 영상으로부터 사용자 신체에 대한 신체 외곽선을 추출하고, 상기 추출된 신체 외곽선 중에서 가장 아래쪽의 신체 외곽선이 상기 사용자 영상의 아래쪽 테두리와 중첩하지 않는 경우, 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하고, 서로 중첩하는 경우 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하는 단계를 더 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법.If any one of the calculated similarity rates for each face part is smaller than the standard similarity rate for each part for the corresponding part, the user cannot use the financial automation device, and the similarity rate for each face part is calculated. If all of the values are larger than the reference similarity rate for each part of the corresponding part, the body outline of the user's body is extracted from the generated user image, and the body outline of the extracted body outline is the bottom of the user image. The method of determining whether the user can identify the acquired image further comprises the step of disallowing the user to use the financial automation device when not overlapping with an edge, and allowing the user to use the financial automation device when overlapping each other. . 삭제delete 삭제delete 사용자의 얼굴이 식별 가능한 경우에만 사용자가 금융 자동화 기기를 이용할 수 있도록 하기 위하여 획득 영상의 사용자 식별 가능 여부를 판정하는 방법으로서:A method of determining whether an acquired image is user identifiable so that a user can use a financial automation device only when the user's face is identifiable: 금융 자동화 기기를 사용하고자 하는 사용자의 신체를 촬영하여 사용자 영상을 생성하는 단계;Generating a user image by photographing a body of a user who intends to use the financial automation device; 상기 생성된 사용자 영상으로부터 사용자 신체 부분을 제외한 배경 영상을 추출하여 상기 추출된 배경 영상으로부터 적어도 하나의 선형태를 추출한 후 상기 추출된 선형태가 상기 사용자 영상 중 사용자 얼굴 부분을 둘러싸는 폐도형을 이루는 경우, 또는 상기 생성된 사용자 영상으로부터 사용자 신체에 대한 신체 외곽선을 추출하고 상기 추출된 신체 외곽선 중에서 가장 아래쪽 신체 외곽선이 상기 사용자 영상의 아래쪽 테두리와 중첩하지 않는 경우, 또는 상기 생성된 사용자 영상으로부터 사용자 신체 형태를 제거한 배경 영상을 추출하여 상기 추출된 배경 영상으로부터 적어도 하나의 선형태를 추출한 후 상기 추출된 선형태가 현재 위치에서 사용자가 없이 촬영된 주변 영상으로부터 추출된 기준 선형태와 일치하지 않는 경우 중 적어도 하나의 경우에 해당하면 상기 사용자 영상이 도용된 영상을 촬영한 것으로 판정하고, 상기 경우들 중 어느 하나에도 해당하지 않으면 사용자 영상이 정상적인 사용자를 촬영하여 생성된 것을 판정하는 단계;Extracting a background image excluding a user's body part from the generated user image to extract at least one line shape from the extracted background image, and the extracted line shape forms a closed figure surrounding the user's face part of the user image. Or extracting a body outline of the user's body from the generated user image, and the lowest body outline among the extracted body outlines does not overlap with a lower edge of the user image, or from the generated user image. After extracting the background image from which the shape has been removed and extracting at least one line shape from the extracted background image, the extracted line shape does not match the reference line shape extracted from the surrounding image photographed without the user at the current position. At least one Determining that the user's image has been stolen if the image is stolen, and determining that the user's image is generated by photographing a normal user if none of the above cases is true; 상기 사용자 영상이 도용된 영상을 촬영한 것으로 판정된 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하고, 상기 사용자 영상이 정상적인 사용자를 촬영하여 생성된 것으로 판정되면 상기 사용자 영상으로부터 얼굴 영역만을 포함하는 사용자 얼굴 영상을 획득하는 단계;When it is determined that the user image is taken from the stolen image, the user cannot use the financial automation device, and when it is determined that the user image is generated by photographing a normal user, only the face area is included from the user image. Obtaining a user face image; 상기 획득된 사용자 얼굴 영상으로부터 각 얼굴 부위에 대한 각각의 부위별 영상을 추출하는 단계;Extracting an image of each part of each face from the obtained user face image; 상기 추출한 각각의 부위별 영상으로부터 수치화된 각각의 부위별 형태 정보를 산출하는 단계; Calculating shape information for each part digitized from the extracted images for each part; 상기 산출된 각각의 부위별 형태 정보와 해당 부위에 대하여 미리 저장된 부위별 템플릿 데이터를 비교하여 각각의 얼굴 부위별 유사도율을 산출하는 단계; Calculating similarity rate for each face part by comparing the calculated shape information for each part and template data for each part previously stored for the corresponding part; 상기 산출된 각각의 얼굴 부위별 유사도율 중 소정의 복수 부위에 대한 상기 얼굴 부위별 유사도율을 소정의 산술식에 의해 조합하여 조합 유사도율을 산출하는 단계; Calculating a combined similarity rate by combining the similarity rates for each of the face parts with respect to a plurality of predetermined areas among the calculated similarity rates for each face part by a predetermined arithmetic formula; 상기 산출된 조합 유사도율이 상기 복수 부위에 대하여 미리 설정된 기준 조합 유사도율보다 큰 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 있도록 하고, 상기 산출된 조합 유사도율이 상기 기준 조합 유사도율보다 작은 경우에는 상기 사용자가 상기 금융 자동화 기기를 이용할 수 없도록 하는 단계를 포함하는 획득 영상의 사용자 식별 가능 여부 판정 방법.When the calculated combination similarity rate is greater than the reference combination similarity rate preset for the plurality of parts, the user can use the financial automation device, and the calculated combination similarity rate is smaller than the reference combination similarity rate. And determining that the user cannot use the financial automation device.
KR1020090052019A 2009-06-11 2009-06-11 How to determine whether the acquired image can be identified by the user KR101057718B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090052019A KR101057718B1 (en) 2009-06-11 2009-06-11 How to determine whether the acquired image can be identified by the user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090052019A KR101057718B1 (en) 2009-06-11 2009-06-11 How to determine whether the acquired image can be identified by the user

Publications (2)

Publication Number Publication Date
KR20100133233A KR20100133233A (en) 2010-12-21
KR101057718B1 true KR101057718B1 (en) 2011-08-18

Family

ID=43508645

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090052019A KR101057718B1 (en) 2009-06-11 2009-06-11 How to determine whether the acquired image can be identified by the user

Country Status (1)

Country Link
KR (1) KR101057718B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102079535B1 (en) * 2013-01-30 2020-02-20 삼성전자주식회사 Apparatus and method for collecting sensor data for each user, TV and personalized sensing platform system
KR101515214B1 (en) * 2014-02-13 2015-04-24 (주)청우티에스 Identification method using face recognition and entrance control system and method thereof using the identification method

Also Published As

Publication number Publication date
KR20100133233A (en) 2010-12-21

Similar Documents

Publication Publication Date Title
JP4406547B2 (en) ID card creation device, ID card, face authentication terminal device, face authentication device and system
US8493178B2 (en) Forged face detecting method and apparatus thereof
JP2007135149A (en) Mobile portable terminal
JP2006114018A (en) Security system
WO2020048535A1 (en) Method and apparatus for unlocking head-mounted display device
JP4521086B2 (en) Face image recognition apparatus and face image recognition method
CN110191234B (en) Intelligent terminal unlocking method based on fixation point analysis
KR101640014B1 (en) Iris recognition apparatus for detecting false face image
JP6265592B2 (en) Facial feature extraction apparatus and face authentication system
US20220254193A1 (en) Iris authentication device, iris authentication method and recording medium
JP7318833B2 (en) Image processing device, image processing method, and program
WO2020065954A1 (en) Authentication device, authentication method, and storage medium
JP2013148961A (en) Iris authentication system, iris authentication method and iris authentication program
KR20100010480A (en) System and method for user identifying
JP6150509B2 (en) Face recognition device
KR101057718B1 (en) How to determine whether the acquired image can be identified by the user
JP6150491B2 (en) Face recognition device
KR101372365B1 (en) Illegal access detecting device for atm
KR20020032048A (en) Face cognition the preservation a means
JP5871764B2 (en) Face recognition device
JP2005149145A (en) Object detecting device and method, and computer program
JP5975828B2 (en) Facial feature extraction apparatus and face authentication system
KR101539944B1 (en) Object identification method
KR100608307B1 (en) The method and system for recognition human face
TWI729679B (en) Authentication system, authentication device, and authentication method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee