KR100871557B1 - A Method for Detecting and Determining Face for Image-based Security - Google Patents

A Method for Detecting and Determining Face for Image-based Security Download PDF

Info

Publication number
KR100871557B1
KR100871557B1 KR1020070041475A KR20070041475A KR100871557B1 KR 100871557 B1 KR100871557 B1 KR 100871557B1 KR 1020070041475 A KR1020070041475 A KR 1020070041475A KR 20070041475 A KR20070041475 A KR 20070041475A KR 100871557 B1 KR100871557 B1 KR 100871557B1
Authority
KR
South Korea
Prior art keywords
image
face
region
extracting
model
Prior art date
Application number
KR1020070041475A
Other languages
Korean (ko)
Other versions
KR20080096252A (en
Inventor
고재필
김은주
임동악
Original Assignee
금오공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 금오공과대학교 산학협력단 filed Critical 금오공과대학교 산학협력단
Priority to KR1020070041475A priority Critical patent/KR100871557B1/en
Publication of KR20080096252A publication Critical patent/KR20080096252A/en
Application granted granted Critical
Publication of KR100871557B1 publication Critical patent/KR100871557B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target

Abstract

안정적인 정상 얼굴을 검출할 수 있고, 선글라스나 마스크의 착용을 정확히 판별하여 신뢰성을 향상시킬 수 있는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법이 제공된다. 영상-기반 보안을 위한 얼굴 검출 및 판별 방법은, 적외선 센싱에 따라 사용자 접근을 탐지하는 단계; 시공간 모델 및 배경 모델을 이용하여 1차 얼굴후보 영역을 추출하는 단계; 추출된 1차 얼굴후보 영역에 대해 RPCA(Robust Principal Component Analysis)-기반 배경 모델 및 시간 변화 영상을 이용하여 2차 얼굴후보 영역을 추출하는 단계; 추출된 2차 얼굴후보 영역에 대해 ASM(Active Shape Model)을 이용하여 얼굴 윤곽을 추출하는 단계; 추출된 얼굴 윤곽으로부터 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별하는 단계; 및 판별된 눈 영역 및 입 영역에 따라 장신구 착용을 판별하는 단계를 포함한다.There is provided a face detection and discrimination method for image-based security that can detect a stable normal face and improve the reliability by accurately determining the wearing of sunglasses or a mask. A face detection and determination method for image-based security includes detecting a user's approach according to infrared sensing; Extracting a primary face candidate region using a space-time model and a background model; Extracting a second facial candidate region using a robust principal component analysis (RPCA) -based background model and a time-varying image of the extracted first facial candidate region; Extracting a facial contour using an active shape model (ASM) for the extracted second facial candidate region; Determining an eye region and a mouth region from the extracted face contour using histogram indexing; And determining the wearing of jewelry according to the determined eye area and mouth area.

ATM, 보안, 얼굴 판별, 윤곽 추출, ASM, 히스토그램 인덱싱 ATM, Security, Face Determination, Contour Extraction, ASM, Histogram Indexing

Description

영상-기반 보안을 위한 얼굴 검출 및 판별 방법 {A Method for Detecting and Determining Face for Image-based Security}Face Detection and Determination for Image-Based Security {A Method for Detecting and Determining Face for Image-based Security}

도 1은 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 방법의 개략적인 동작 흐름도이다.1 is a schematic operation flowchart of a face detection and determination method for image-based security according to an embodiment of the present invention.

도 2는 도 1의 구체적인 동작 흐름도이다.2 is a detailed operation flowchart of FIG. 1.

도 3은 본 발명의 실시예에 따른 시스템 사용 환경을 예시하는 도면이다.3 is a diagram illustrating a system usage environment according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 시간변화 영상 보정 결과를 나타내는 도면이다.4 is a diagram illustrating a time-varying image correction result according to an exemplary embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 1차 얼굴후보 영역 검출 과정을 나타내는 도면이다.5 is a diagram illustrating a process of detecting a primary face candidate area according to an embodiment of the present invention.

도 6은 본 발명의 실시예에 따른 얼굴후보 및 상반신 영역 검출 결과를 나타내는 도면이다.6 is a diagram illustrating a result of detecting face candidates and a torso region according to an exemplary embodiment of the present invention.

도 7은 본 발명의 실시예에 따른 RPCA를 이용한 복원영상을 나타내는 도면이다.7 is a diagram illustrating a reconstructed image using RPCA according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 입력영상과 복원영상의 변화 영상을 나타내는 도면이다.8 is a view showing a change image of the input image and the reconstructed image according to an embodiment of the present invention.

도 9는 본 발명의 실시예에 따른 2차 얼굴후보 영역 검출 과정을 나타내는 도면이다.9 is a diagram illustrating a second facial candidate area detection process according to an exemplary embodiment of the present invention.

도 10은 본 발명의 실시예에 따른 21개의 랜드마크 위치를 나타내는 도면이다.10 is a diagram illustrating 21 landmark positions according to an embodiment of the present invention.

도 11은 본 발명의 실시예에 따른 5개의 ASM 모델 초기위치를 나타내는 도면이다.FIG. 11 is a view illustrating initial positions of five ASM models according to an embodiment of the present invention. FIG.

도 12는 본 발명의 실시예에 따른 정합 랜드마크를 이용한 눈 영역 및 입 영역 추출을 나타내는 도면이다.12 illustrates eye and mouth region extraction using registration landmarks in accordance with an embodiment of the present invention.

도 13a 및 도 13b는 각각 본 발명의 실시예에 따른 눈과 선글라스, 입과 마스크 영역에 대한 히스토그램을 비교한 결과를 나타내는 도면이다.13A and 13B are diagrams showing results of comparing histograms of the eyes, sunglasses, mouth, and mask areas according to an embodiment of the present invention.

도 14a 및 도 14b는 본 발명의 실시예에 따른 어두운 눈에 대한 히스토그램을 이동시켜 평균 눈(왼쪽) 및 선글라스(오른쪽)의 히스토그램과 비교한 결과를 나타내는 도면이다.14A and 14B are views illustrating a result of moving a histogram for dark eyes and comparing the histograms of average eyes (left) and sunglasses (right) according to an embodiment of the present invention.

본 발명은 얼굴 검출 및 판별 방법에 관한 것으로, 보다 구체적으로, 영상-기반 ATM(Automated Teller Machine) 보안을 위한 얼굴 검출 및 판별 방법에 관한 것이다.The present invention relates to a face detection and discrimination method, and more particularly, to a face detection and discrimination method for image-based automated teller machine (ATM) security.

최근 신체의 물리적인 특성을 감지하여 사용자를 판단하는 기법이 개발되고 있다. 이들은 다른 사람과 구별되는 특성을 찾아 비교하는 방법으로서, 지문, 홍 채, 얼굴 등의 다양한 생물학적 특성을 이용한 보안 방법을 선택할 수 있다.Recently, a technique for determining a user by sensing physical characteristics of a body has been developed. As a method of finding and comparing characteristics distinguishing from others, they can select a security method using various biological characteristics such as fingerprint, iris, and face.

예를 들면, 홍채 인식의 경우, 단말기의 가격이 비싸고, 그 처리 시간이나 방법이 복잡하다. 얼굴영상-기반의 보안 방식의 경우, 일반 사용자의 편의를 제약하지 않고 거부감을 줄일 수 있는 적절한 방법이라고 할 수 있다.For example, in the case of iris recognition, the price of the terminal is expensive, and the processing time or method thereof is complicated. In the case of a face image-based security method, it is an appropriate method for reducing the rejection without limiting the convenience of the general user.

그러나 기존의 얼굴영상-기반 보안 시스템의 문제점은 크게 두 가지로 요약할 수 있다. 첫째, 단순히 상황적으로 얼굴이 보일 경우를 가정하여 영상을 저장하는 방식이 대부분이었다. 그러나 이러한 경우는 얼굴이 포함되지 않은 영상도 획득한다는 문제점이 있다.However, the problems of the existing face image-based security system can be summarized into two main categories. First, it was mostly a way of storing images assuming a face is seen in a situation. However, in this case, there is a problem in that an image without a face is also acquired.

둘째, 기존에 개발 되었던 시스템은 초기 얼굴인식 기술 또는 얼굴검출 알고리즘을 적용함에 따라 신뢰성이 낮고, 안정적인 성능을 확보하기 어렵기 때문에 상용화 수준까지 도달하지 못하였다. 그 결과, 정상 얼굴 검출에 의존하게 되며, 얼굴이 가려진 경우나 얼굴이 없는 경우, 선글라스나 마스크 착용을 단순하게 가정하게 됨으로써 신뢰성이 떨어진다는 문제점이 있다. Second, the system developed in the past did not reach the commercialization level because the reliability was low and it was difficult to secure stable performance by applying the initial face recognition technology or the face detection algorithm. As a result, it depends on the normal face detection, there is a problem that the reliability is lowered by simply assuming wearing sunglasses or mask when the face is covered or there is no face.

전술한 문제점을 해결하기 위한 본 발명의 목적은 안정적인 정상 얼굴을 검출할 수 있는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법을 제공하기 위한 것이다.An object of the present invention for solving the above-mentioned problem is to provide a face detection and discrimination method for image-based security that can detect a stable normal face.

본 발명의 다른 목적은 선글라스나 마스크의 착용을 정확히 판별하여 신뢰성을 향상시킬 수 있는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법을 제공하기 위한 것이다.Another object of the present invention is to provide a face detection and determination method for image-based security that can accurately determine the wearing of sunglasses or mask to improve reliability.

상기 목적을 달성하기 위한 본 발명에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 방법은, 적외선 센싱에 따라 사용자 접근을 탐지하는 단계; 시공간 모델 및 배경 모델을 이용하여 1차 얼굴후보 영역을 추출하는 단계; 상기 추출된 1차 얼굴후보 영역에 대해 RPCA(Robust Principal Component Analysis)-기반 배경 모델 및 시간 변화 영상을 이용하여 2차 얼굴후보영역을 추출하는 단계; 상기 추출된 2차 얼굴후보 영역에 대해 ASM(Active Shape Model)을 이용하여 얼굴 윤곽을 추출하는 단계; 상기 추출된 얼굴 윤곽으로부터 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별하는 단계; 및 상기 판별된 눈 영역 및 입 영역에 따라 장신구 착용을 판별하는 단계를 포함하여 이루어진다.According to an aspect of the present invention, there is provided a face detection and discrimination method for image-based security, comprising: detecting a user's approach according to infrared sensing; Extracting a primary face candidate region using a space-time model and a background model; Extracting a second face candidate region from the extracted first face candidate region using a RPCA-based background model and a time-varying image; Extracting a facial contour on the extracted second facial candidate region using an active shape model (ASM); Determining an eye region and a mouth region using histogram indexing from the extracted face contour; And determining the wearing of jewelry according to the determined eye area and mouth area.

여기서, 상기 사용자 접근을 탐지하는 단계는 사용자 접근을 탐지 시에 대기 상태에서 동작 상태로 진입하며, 상기 대기 상태는 배경영상을 획득하고, 이를 이용하여 배경모델을 갱신하고, 상기 동작 상태는 얼굴 윤곽을 검출하고, 눈과 입 영역을 추정하여 선글라스 및 마스크 착용 여부를 판별하는 것을 특징으로 한다.The detecting of the user's approach may include: entering the operating state from the standby state upon detecting the user's approach, the waiting state obtaining a background image, updating the background model using the same, and the operating state of the face contour. It is characterized in that to detect the wearing and sunglasses and mask by estimating the eye and mouth area.

여기서, 상기 사용자 접근을 탐지하는 단계는 현 프레임 영상과 이전 프레임 영상의 차이인 차영상의 모션량을 측정하여 사용자의 움직임 영역을 추정하는 것을 특징으로 한다.The detecting of the user's approach may include estimating a motion region of the user by measuring a motion amount of a difference image, which is a difference between a current frame image and a previous frame image.

여기서, 상기 1차 얼굴후보 영역 추출 단계는 모션량에 따라 보정된 시간변화 영상과 공간변화 영상을 픽셀단위로 더하여 이진화한 후, 각각의 이진화 영상을 수직 및 수평 투영함으로써, 머리의 윗부분 및 상반신 위치를 대략적으로 찾아내는 것을 특징으로 한다.In the extracting of the first face candidate region, binarization is performed by adding a temporal change image and a spatial change image corrected according to the amount of motion in units of pixels, and then vertically and horizontally projecting the respective binarized images so that the upper and upper body positions of the head are located. It is characterized by finding approximately.

여기서, 상기 2차 얼굴후보 영역 추출 단계는, 입력영상과 배경영상의 변화영상을 이용하며, 대기 상태에서 획득한 영상 전체를 그대로 사용하는 RPCA(Robust Principal Component Analysis)-기반 배경 모델을 이용하여 2차 얼굴후보 영역을 추출하는 것을 특징으로 한다.In the extracting of the second face candidate region, a change image of an input image and a background image is used, and a second image using a Robust Principal Component Analysis (RPCA) -based background model is used. And extracting a facial candidate region.

여기서, 상기 2차 얼굴후보 영역 추출 단계는, 입력영상과 복원영상의 배경변화 영상에 대해 상기 1차 얼굴영역 추출에서 얻어낸 얼굴의 높이에 해당하는 영역에 한정하여 수직 투영을 수행하여 얼굴의 너비를 추정한 후, 상기 추정된 얼굴의 너비에 해당하는 영역에 한정해 수평투영을 수행하여 얼굴의 높이를 다시 추정함으로써, 최종 얼굴후보 영역을 추정하는 것을 특징으로 한다.In the extracting of the second face candidate region, the width of the face may be determined by performing vertical projection on the background change image of the input image and the reconstructed image to be limited to an area corresponding to the height of the face obtained by the first face region extraction. After estimating, the final face candidate area is estimated by performing horizontal projection only on the area corresponding to the estimated face width to estimate the height of the face again.

여기서, 상기 얼굴 윤곽 추출 단계는 초기 위치를 소정 횟수만큼 달리하여 최적의 정합 결과를 선정하는 것을 특징으로 한다.Here, the facial contour extraction step is characterized by selecting the optimal matching result by varying the initial position by a predetermined number of times.

여기서, 상기 최적 정합 판정은 배경변화영상 및 수직적 공간변화영상과 정합된 모델의 좌표 간의 거리에 따라, 얼굴의 좌우 측면에 해당하는 좌표만 사용하여 판정하는 것을 특징으로 한다.In this case, the optimum matching determination may be performed using only coordinates corresponding to the left and right sides of the face according to the distance between the background change image and the vertical spatial change image and the coordinates of the matched model.

여기서, 상기 얼굴 윤곽 추출 단계는 ASM 정합 결과로부터 양쪽 눈을 기준으로 정면으로 회전시키고, 랜드마크를 이용하여 눈 영역과 입 영역을 각각 추출하는 것을 특징으로 한다.Here, the facial contour extraction step may be rotated to the front with respect to both eyes from the ASM registration result, and extracting the eye area and the mouth area using the landmark, respectively.

여기서, 상기 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별하는 단계는, 가장 큰 이진화 값(bin)을 기준으로, 입력영상의 히스토그램을 정합하고자 하는 참조 히스토그램 방향으로 이동시켜 비교하는 것을 특징으로 한다.The determining of the eye region and the mouth region using the histogram indexing may include comparing the histogram of the input image in the direction of the reference histogram to be matched based on the largest binarization value bin. .

이하, 첨부한 도면을 참조하여 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 방법을 상세히 설명한다.Hereinafter, a face detection and discrimination method for image-based security according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

일반적으로 마스크 및 선글라스 착용으로 인해 얼굴의 외양이 심각하게 변하기 때문에 기존의 외양기반 얼굴검출 기법을 그대로 적용할 수는 없다.In general, the appearance of the face is seriously changed by wearing a mask and sunglasses, so the existing appearance-based face detection technique cannot be applied as it is.

본 발명의 실시예는 선글라스나 마스크 착용에도 일관성 있게 유지되는 얼굴의 윤곽을 먼저 추출하고, 추출된 윤곽을 기준으로 눈 및 입 영역을 추정하여 착용여부를 판별한다. 또한, 본 발명의 실시예는 ASM-기반 얼굴 윤곽 추출의 성능을 보장하기 위해 시-공간 변화영상과 주기적으로 갱신 가능한 배경모델기반 변화영상을 사용하여 얼굴후보 영역을 먼저 검출한다. 이때, 배경모델링 시점을 결정하기 위해 시간변화 영상 외에 적외선 센싱 결과를 함께 사용한다. 또한, 본 발명의 실시예는 ASM의 정합 정확도를 높이기 위해 모델의 초기위치를 다변화하는데, 이를 위해 정합 정확도 측정치를 제공한다. 마지막으로, 본 발명의 실시예는 눈 및 입 영역에 대해 조명에 강인한 히스토그램 인덱싱 기법을 적용하여 선글라스 및 마스크 착용여부를 판별한다.The embodiment of the present invention first extracts the contour of the face that is consistently maintained even when wearing sunglasses or a mask, and then determines whether to wear the eye and the mouth area based on the extracted contour. In addition, the embodiment of the present invention first detects the face candidate region by using a space-time change image and a periodically updateable background model-based change image to ensure performance of ASM-based face contour extraction. At this time, the infrared sensing result is used together with the time-varying image to determine the background modeling time. In addition, the embodiment of the present invention is to vary the initial position of the model to increase the matching accuracy of the ASM, to provide a matching accuracy measurement. Lastly, the embodiment of the present invention determines whether the sunglasses and the mask are worn by applying a histogram indexing technique that is robust against illumination for the eye and mouth regions.

도 1은 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 방법의 개략적인 동작 흐름도이다.1 is a schematic operation flowchart of a face detection and determination method for image-based security according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 방법은, 먼저, 적외선 센싱에 의해 사용자 접근을 탐지한다(S110). 이 후, 시공간 모델 및 배경 모델을 이용하여 1차 얼굴후보 영역을 추출하고(S120), RPCA(Robust Principal Component Analysis) 모델 및 시간 변화 영상을 이용하여 2차 얼굴후보 영역을 추출한다(S130).Referring to FIG. 1, in the face detection and determination method for image-based security according to an embodiment of the present invention, first, a user's approach is detected by infrared sensing (S110). Thereafter, the primary face candidate region is extracted using the space-time model and the background model (S120), and the second face candidate region is extracted using the Robust Principal Component Analysis (RPCA) model and the time-variable image (S130).

다음으로, ASM(Active Shape Model)을 이용하여 얼굴 윤곽을 추출하고(S140), 상기 추출된 얼굴 윤곽으로부터 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별한다(S150). 이후, 상기 판별된 눈 영역 및 입 영역에 따라 장신구 착용을 판별하게 된다(S160).Next, a face contour is extracted using an active shape model (ASM) (S140), and an eye region and a mouth region are determined using histogram indexing from the extracted face contour (S150). Thereafter, wearing jewelry is determined according to the determined eye region and mouth region (S160).

한편, 도 2는 도 1의 구체적인 동작 흐름도이다.2 is a flowchart illustrating a specific operation of FIG. 1.

도 2를 참조하면, 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 방법은, 먼저 적외선 센서를 사용하여 적외선 센싱을 하고(S201), 사용자가 접근하는지 여부를 확인한다(S202).Referring to FIG. 2, in the face detection and determination method for image-based security according to an embodiment of the present invention, infrared sensing is first performed using an infrared sensor (S201), and it is determined whether a user approaches (S202). ).

만일, 사용자가 접근하지 않은 경우, 배경 영상을 저장하고, 배경 모델링을 지속적으로 갱신한다(S203).If the user does not approach, the background image is stored and the background modeling is continuously updated (S203).

만일, 사용자가 접근한 경우, 카메라를 사용하여 영상을 촬영하고, 에지 영상을 추출한다(S204). If the user approaches, the camera captures an image using a camera and extracts an edge image (S204).

이후, 현재 영상과 이전 영상의 차이인 차영상과 에지 영상에 대해 프로젝션을 수행하여(S205), 상체 영역 추출한다(S206).Thereafter, projection is performed on the difference image and the edge image, which are the difference between the current image and the previous image (S205), and the upper body region is extracted (S206).

이후, 시공간 모델 및 배경 모델을 이용하여 1차 얼굴후보 영역을 추출하고(S207), 상기 추출된 1차 얼굴후보 영역에 RPCA(Robust Principal Component Analysis) 모델 및 시간 변화 영상을 적용하여 2차 얼굴후보 영역 추출한다(S208).After that, the first face candidate region is extracted using the space-time model and the background model (S207), and the second face candidate is applied to the extracted first face candidate region by applying a RPCA (Robust Principal Component Analysis) model and a time-varying image. The area is extracted (S208).

다음으로, 2차에 걸친 얼굴후보 검출 방법을 통해 최적의 모델 초기위치를 결정한 후, 얼굴후보 영역을 기반으로 모델의 다양한 초기 위치를 선정하고(S209), ASM 정합을 실시하며(S210), 이러한 ASM 모델 정합 결과를 기반으로 최적 정합결과 산정하여 얼굴 윤곽에 대응하는 눈 영역 및 입 영역을 추출한다(S211). 즉, 얼굴모양 모델링에 널리 사용되어 왔던 Active Shape Model(ASM)을 사용한다. 다양한 사람을 대상으로 하는 응용인 관계로 개인별 모델링을 해야 하는 Active Appearance Model(AAM)보다 ASM을 적용한다. ASM이 모델의 초기위치 선정에 민감하다는 문제점을 해결하기 위해 초기위치를 변화시켜가며 ASM 정합을 반복 시행하여 최적 정합을 이끌어낸다.Next, after determining the optimal initial position of the model through the second step candidate detection method, various initial positions of the model are selected based on the face candidate area (S209), and ASM registration is performed (S210). The optimal matching result is calculated based on the ASM model matching result, and an eye region and a mouth region corresponding to the facial contour are extracted (S211). In other words, it uses the Active Shape Model (ASM), which has been widely used for face modeling. ASM is applied to Active Appearance Model (AAM), which requires individual modeling because it is an application for various people. In order to solve the problem that ASM is sensitive to the initial position selection of the model, the ASM registration is repeated while the initial position is changed to obtain the optimal registration.

이후, 상기 추출된 얼굴 윤곽으로부터 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별함에 따라 얼굴 윤곽 정보를 추출하고(S212), 후속적으로 상기 판별된 눈 영역 및 입 영역에 따라 장신구, 즉, 선글라스 및 마스크 착용을 판별하게 된다.Thereafter, face contour information is extracted from the extracted face contour using histogram indexing (S212), and subsequently, ornaments, that is, sunglasses according to the determined eye region and mouth region, are extracted. And mask wearing.

한편, 도 3은 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 시스템 사용 환경을 예시하는 도면이다.3 is a diagram illustrating an environment of using a face detection and discrimination system for image-based security according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에서 사용한 정해진 간격은 19~45cm, 정해진 시간은 10초, 그리고 정해진 모션량은 0.78로 가정한다. 카메라(330)의 위치는 비교적 배경이 단순한 천정을 촬영하도록 함으로써, 그리고 사용자(310)의 바로 뒤에 대기하는 사용자(310)가 촬영될 수 있는 경우를 최소화시킨다.Referring to FIG. 3, it is assumed that the predetermined interval used in the embodiment of the present invention is 19 to 45 cm, the predetermined time is 10 seconds, and the predetermined motion amount is 0.78. The position of the camera 330 allows the user to photograph the ceiling with a relatively simple background, and minimizes the case where the user 310 waiting immediately behind the user 310 can be photographed.

본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 시스템 은 대기 상태 및 동작 상태로 이루어진다. 대기 상태에서는 배경영상을 획득하고, 이를 이용하여 배경모델을 갱신한다. 동작 상태에서는 얼굴 윤곽을 검출하고, 눈과 입 영역을 추정하여 선글라스 및 마스크 착용 여부를 판별한다. 본 발명의 실시예에 따른 영상-기반 보안을 위한 얼굴 검출 및 판별 시스템은 다음 두 가지 조건을 만족하면 사용자가 기기 사용을 위해 다가왔다고 간주하고 대기상태에서 동작 상태로 전환된다. 즉, 사용자(310)와 ATM 과의 간격이 정해진 거리 이내이면서 정해진 시간 동안 유지될 때, 적외선 센서(320)에 의한 센싱-기반 거리를 측정한다. 또한, 정해진 모션량 이상이 정해진 시간 동안 유지될 때, 시간변화 영상에서의 모션량을 측정하게 된다. The face detection and discrimination system for image-based security according to an embodiment of the present invention comprises a standby state and an operating state. In the standby state, the background image is acquired and the background model is updated using the background image. In the operating state, the face contour is detected, and the eye and mouth regions are estimated to determine whether to wear sunglasses and a mask. The face detection and discrimination system for image-based security according to an embodiment of the present invention is deemed that the user is approaching the use of the device when the following two conditions are satisfied, and is switched from the standby state to the operating state. That is, when the distance between the user 310 and the ATM is within a predetermined distance and maintained for a predetermined time, the sensing-based distance by the infrared sensor 320 is measured. In addition, when more than a predetermined amount of motion is maintained for a predetermined time, the amount of motion in the time-varying image is measured.

이하, 도 4 내지 도 10을 참조하여, 본 발명의 실시예에 따른 얼굴 윤곽 추출을 설명한다.Hereinafter, face contour extraction according to an embodiment of the present invention will be described with reference to FIGS. 4 to 10.

현 프레임 영상과 이전 프레임 영상의 차이인 시간변화 영상(temporal gradient image)으로부터 사용자의 움직임 영역을 추정한다. 움직임이 느린 경우, 변화 영상에서 변화의 정도가 작기 때문에 추정한 움직임 영역이 작아지고, 움직임이 빠른 경우는 모션 블러링에 의해 변화영상에서 변화의 정도가 크기 때문에 추정한 움직임 영역이 넓어지는 문제점이 있다. 본 발명의 실시예에서는 느리거나 빠른 움직임에 상관없이 변화의 정도를 일정수준 유지시켜 주기 위해 다음과 같이 모션량을 정의한다.The user's motion region is estimated from a temporal gradient image that is a difference between the current frame image and the previous frame image. If the motion is slow, the estimated motion region is small because the change is small in the change image, and if the motion is fast, the estimated motion region is widened because the change is large in the change image due to motion blurring. have. In the embodiment of the present invention, the motion amount is defined as follows to maintain a constant level of change regardless of slow or fast movement.

Figure 112007032118376-pat00001
Figure 112007032118376-pat00001

여기서,

Figure 112007032118376-pat00002
는 i프레임의 k번째 픽셀 밝기 값을,
Figure 112007032118376-pat00003
는 픽셀 값 차이가 0이상이면 1을 그렇지 않으면 0을 반환하는 이진함수를 나나내며, N은 영상의 픽셀 수를 나타낸다. 이 값이 하위 임계치 이하 또는 상위 임계치 이상인 경우, 각각 몰폴로지컬 다일레이션(Dilation)과 이로우전(Erosion)을 적용하여 모션량을 보정한다.here,
Figure 112007032118376-pat00002
Is the kth pixel brightness value of the iframe,
Figure 112007032118376-pat00003
Represents a binary function that returns 1 if the pixel value difference is greater than 0, or 0 otherwise, where N represents the number of pixels in the image. If this value is below the lower threshold or above the upper threshold, morphological dilation and effect are applied to correct the amount of motion, respectively.

도 4는 본 발명의 실시예에 따른 시간변화 영상 보정 결과를 나타내는 도면으로서, 도면부호 410은 시간적 변화 영상을 나타내고, 도면부호 420은 수정된 시간적 변화 영상을 각각 나타낸다. 즉, 도 4는 몰폴로지컬 다일레이션(Dilation)과 이로우전(Erosion)을 적용하여 모션량을 보정한 것을 예시하는 도면이다.4 is a diagram illustrating a time-varying image correction result according to an exemplary embodiment of the present invention, wherein 410 denotes a temporal change image and 420 denotes a modified temporal change image, respectively. That is, FIG. 4 is a diagram exemplifying correction of a motion amount by applying morphological dilation and rotation.

여기서, 상위 임계치 및 하위 임계치는 다음과 같이 실험적으로 결정한다. 실험자에게 천천히, 보통, 빠른 움직임을 요구하여 대략 10초 정도로 150프레임 정도의 영상 시퀀스를 획득한다. 획득한 시퀀스의 시간변화 영상을 구하고 모션량을 구한다. 모션량의 최소값과 최대값 사이를 3등분하여, 상, 중, 하로 구분한다. 10명의 실험자로부터 얻은 각 구간별 모션량 평균을 구하고, 중앙과 상위 그리고 중앙과 하위 평균의 중심을 각각 상위 임계치, 하위 임계치로 결정한다.Here, the upper threshold and the lower threshold are determined experimentally as follows. The experimenter requires slow, normal, and fast movement to obtain a sequence of 150 frames of approximately 10 seconds. Obtain the time-varying image of the acquired sequence and obtain the motion amount. It divides into 3 parts between the minimum value and the maximum value of motion quantity, and divides into upper, middle, and lower. The average amount of motion from each of the 10 experimenters is obtained, and the centers of the middle, upper, and middle and lower averages are determined as upper and lower thresholds, respectively.

도 5는 본 발명의 실시예에 따른 1차 얼굴후보영역 검출 과정을 나타내는 도면이다.5 is a diagram illustrating a process of detecting a primary face candidate area according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 1차 얼굴후보 영역 검출은 모션량에 따라 보정된 시간변화 영상(503)과 공간변화 영상(spatial gradient image)(501, 502)을 이용한다. 시간변화 영상(503)과 수직 및 수평 공간변화 영상(501, 502)을 픽셀단위로 가산기(504, 505)에 의해 각각 더한 후, 이를 이진화한 후(506), 각각의 이진화 영상(507, 508)을 세로 및 가로방향으로 수직 및 수평 투영(509, 510)함으로써, 머리의 윗부분(511) 및 얼굴 너비(512) 및 상반신 위치를 대략적으로 찾아낼 수 있다. 이때, 얼굴의 가로와 세로 비율이 1.2이라는 정보도 함께 사용할 수 있다.Referring to FIG. 5, the primary face candidate area detection according to an embodiment of the present invention uses a temporal change image 503 and a spatial gradient image 501 and 502 corrected according to a motion amount. The temporal change image 503 and the vertical and horizontal spatial change images 501 and 502 are added by the adders 504 and 505 in units of pixels, respectively, and then binarized (506), and the respective binarized images 507 and 508. By vertical and horizontal projections 509 and 510 in the vertical and horizontal directions, the upper part 511 of the head and the face width 512 and the torso position can be roughly found. At this time, the information that the aspect ratio of the face is 1.2 can be used together.

또한, 빠른 움직임이나 느린 움직임이 있는 경우, 즉, 움직임 영역이 각각 커지거나 작아지는 경우, 보관해 두었던 얼굴후보영역의 위치 큐로부터 바로 이전에 찾아졌던 위치를 가져온다. 그러나 얼굴의 중심을 벗어나는 경우가 종종 발생한다.In addition, when there is a fast movement or a slow movement, that is, when the movement region becomes larger or smaller, respectively, the position previously found from the position queue of the stored face candidate region is taken. But often it is out of the center of the face.

도 6은 본 발명의 실시예에 따른 얼굴후보 및 상반신 영역 검출 결과를 나타내는 도면이다.6 is a diagram illustrating a result of detecting face candidates and a torso region according to an exemplary embodiment of the present invention.

도 6을 참조하면, 도면부호 610은 정확히 얼굴의 중심에 얼굴후보 영역이 찾아진 경우이고, 도면부호 620은 얼굴이 포함되어 있으나 중심을 벗어난 경우이며, 도면부호 630은 얼굴이 얼굴후보 영역에서 벗어나 있는 경우를 각각 나타낸다. 얼굴 윤곽 추출을 위해 ASM을 적용하기 위해서는 도면부호 610과 같은 결과를 도출해야 한다. 그러나 세 경우 모두 얼굴이 후보영역의 상하 경계 안쪽에 들어올 수 있다.Referring to FIG. 6, reference numeral 610 denotes a case where a face candidate region is exactly located at the center of the face, reference numeral 620 denotes a case in which the face is included but is out of the center, and reference numeral 630 denotes that the face moves away from the face candidate region. Each case is shown. In order to apply ASM for face contour extraction, a result as shown by reference numeral 610 should be derived. In all three cases, however, the face may enter the upper and lower boundaries of the candidate area.

다음으로, RPCA-기반 배경모델을 이용한 얼굴후보 영역 검출을 설명한다.Next, face candidate region detection using RPCA-based background model will be described.

움직임이 너무 빠르거나 느린 경우, 시간변화 영상에-기반을 둔 얼굴영역 검출의 정확도를 높이기 위해 입력영상과 배경영상의 변화영상을 이용한다. 이때, 배경영상이 고정되지 않고 지속적으로 갱신되어야 성능이 보장된다. 이를 위해, 대기 모드에서 (사용자가 ATM 앞에 없을 가능성이 큰 경우) 지속적으로 획득한 영상을 이용하여 배경모델을 갱신하고, 이로부터 배경영상을 생성한다. 본 발명의 실시예에서는 획득한 영상들 중에서 순수하게 배경만 포함되어 있는 영상을 골라낼 필요 없이 대기 상태에서 획득한 영상 전체를 그대로 사용할 수 있는 RPCA(Robust Principal Component Analysis)를 도입하였다.When the motion is too fast or slow, the change image of the input image and the background image are used to increase the accuracy of the face region detection based on the time-varying image. At this time, the background image is not fixed and is continuously updated to ensure performance. To this end, in the standby mode (when the user is unlikely to be in front of the ATM), the background model is updated using the continuously acquired image, and the background image is generated therefrom. In the embodiment of the present invention, RPCA (Robust Principal Component Analysis), which can use the entire image acquired in the standby state without using a purely background image, is introduced.

이러한 RPCA를 이용하여 얼굴후보 영역을 검출하는 과정은 다음과 같다. 먼저,

Figure 112007032118376-pat00004
Figure 112007032118376-pat00005
차원의 행렬이라고 하자. 여기서,
Figure 112007032118376-pat00006
는 하나의 영상을, n은 학습영상의 수를, d 는 각 영상의 픽셀 수를 나타낸다.
Figure 112007032118376-pat00007
에 대한 k 개의 주성분을
Figure 112007032118376-pat00008
라고 하자. 그러면, 입력영상 f와 RPCA를 이용하여 얻어낸 복원영상
Figure 112007032118376-pat00009
은 도 7과 같이 배경만으로 구성된다. 도 7은 본 발명의 실시예에 따른 RPCA를 이용한 복원 영상으로서, 왼쪽은 입력영상(710)을 나타내고, 오른쪽은 복원영상(720)을 각각 나타낸다.The process of detecting the face candidate area using the RPCA is as follows. first,
Figure 112007032118376-pat00004
Is
Figure 112007032118376-pat00005
Let's call it a matrix of dimensions. here,
Figure 112007032118376-pat00006
Denotes one image, n denotes the number of learning images, and d denotes the number of pixels of each image.
Figure 112007032118376-pat00007
K principal components for
Figure 112007032118376-pat00008
Let's say Then, the restored image obtained by using the input image f and RPCA
Figure 112007032118376-pat00009
7 is composed of only the background as shown in FIG. 7 is a reconstructed image using the RPCA according to an embodiment of the present invention, the left shows the input image 710, the right shows the reconstructed image 720, respectively.

한편, 도 8은 본 발명의 실시예에 따른 입력영상과 복원영상의 변화영상을 나타내는 도면으로서, 왼쪽부터 입력, 복원, 이진화된 배경변화 영상을 각각 나타 낸다.Meanwhile, FIG. 8 is a diagram illustrating a change image of an input image and a reconstructed image according to an embodiment of the present invention, and shows input, reconstruction, and binarized background change images, respectively, from the left side.

도 9는 본 발명의 실시예에 따른 2차 얼굴후보영역 검출 과정을 나타내는 도면이다.9 is a view illustrating a second facial candidate area detection process according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 2차 얼굴후보영역 검출 과정은, 입력영상과 복원영상의 배경변화 영상에 대해 1차 얼굴영역추출에서 얻어낸 얼굴의 높이에 해당하는 영역에 한정하여 수직 투영을 수행하고, 얼굴의 너비를 추정한다. 추정된 얼굴의 너비에 해당하는 영역에 한정해 수평투영을 수행하여 얼굴의 높이를 다시 추정한다. 이렇게 해서 최종 얼굴후보 영역을 추정한다.Referring to FIG. 8, the second face candidate area detection process according to an embodiment of the present invention may be limited to an area corresponding to a height of a face obtained by extracting a first face region with respect to a background change image of an input image and a restored image. Perform a vertical projection and estimate the width of the face. The height of the face is estimated again by performing horizontal projection on the area corresponding to the estimated face width. In this way, the final face candidate area is estimated.

도 9를 참조하면, 도면부호 910은 1차 얼굴후보 영역을 나타내고, 도면부호 920은 입력영상과 복원영상의 변화 영상에 대한 이진화 영상을 나타내고, 도면부호 930은 최종 얼굴후보 영역을 각각 나타낸다.Referring to FIG. 9, reference numeral 910 denotes a primary face candidate area, reference numeral 920 denotes a binarized image of a change image of an input image and a reconstructed image, and reference numeral 930 denotes a final face candidate area, respectively.

따라서 투영 방식의 한계로 인해 얼굴을 정확하게 찾지는 못하지만, 얼굴후보 영역의 중심에 얼굴의 중심이 비교적 일치하게 된다. 이는 얼굴 중심 위치에 ASM 모델의 초기위치를 설정할 수 있도록 함으로서, 모델의 초기위치에 민감한 ASM 정합 성능을 안정화시키기에는 적절하다.Therefore, due to the limitation of the projection method, the face cannot be found accurately, but the center of the face is relatively coincident with the center of the face candidate area. This makes it possible to set the initial position of the ASM model at the center of the face, which is suitable for stabilizing ASM matching sensitivity sensitive to the initial position of the model.

이하, 도 10 및 도 11을 참조하여, 본 발명의 실시예에 따른 ASM을 이용한 2차 얼굴 윤곽 추출을 설명한다.Hereinafter, with reference to FIGS. 10 and 11, secondary face contour extraction using ASM according to an embodiment of the present invention will be described.

도 10은 본 발명의 실시예에 따른 21개의 랜드마크 위치를 나타내는 도면이고, 도 11은 본 발명의 실시예에 따른 5개의 ASM 모델 초기 위치를 나타내는 도면이다.FIG. 10 is a view showing 21 landmark positions according to an embodiment of the present invention, and FIG. 11 is a view showing initial positions of five ASM models according to an embodiment of the present invention.

도 10을 참조하면, 마스크나 선글라스 착용을 고려하여 얼굴의 윤곽 위주로 21개의 점(도면부호 1010)만으로 ASM을 모델링한다. 이로 인해, ASM의 정합 성능이 다소 떨어질 수 있다. Referring to FIG. 10, in consideration of wearing a mask or sunglasses, an ASM is modeled using only 21 points (1010) mainly on the contour of the face. As a result, the matching performance of the ASM may be somewhat degraded.

따라서 모델의 초기위치에 특히 민감한 ASM의 정합 성능을 높이기 위해, 얼굴후보 영역을 중심으로 도 11에 도시된 바와 같이 5개의 초기위치(1110, 1120)를 주어 5번의 독립적인 정합을 수행한다. 여기서, 5개의 초기위치(1110, 1120) 선정은 실험을 통하여 결정될 수 있다.Therefore, in order to increase the matching performance of the ASM which is particularly sensitive to the initial position of the model, five independent positions are performed by giving five initial positions 1110 and 1120 as shown in FIG. 11 around the face candidate region. Here, the selection of five initial positions 1110 and 1120 may be determined through experiments.

도 11은 2차 얼굴후보 영역을 포함한 5개의 ASM 모델 초기위치(1110, 1120)를 보여준다. 초기 위치를 달리하여 5번의 정합 결과 중 최적의 정합 결과를 선정한다. 이때, 최적정합 판정은 배경변화영상

Figure 112007032118376-pat00010
및 수직적 공간변화영상
Figure 112007032118376-pat00011
와 정합된 모델의 좌표 간의 거리 s에 따른다. 이때, ASM 모델의 모든 모델 좌표를 사용하지는 않고, 얼굴의 좌우 측면에 해당하는 좌표만 사용한다.
Figure 112007032118376-pat00012
Figure 112007032118376-pat00013
을 각각 모델의 좌측 및 우측 좌표에 대한 벡터라고 하자. 이들 이외의 눈 및 입에 해당하는 좌표는 선글라스나 마스크 착용에 의해 안정된 변화영상을 얻을 수 없기 때문에 제외하였다. 이때, 거리는 다음 수학식 2와 같이 계산한다.11 shows the five ASM model initial positions 1110 and 1120 including the secondary face candidate region. The optimal matching result is selected from the five matching results by changing the initial position. At this time, the best match decision is based on the background change image
Figure 112007032118376-pat00010
And vertical spatial change image
Figure 112007032118376-pat00011
And the distance s between the coordinates of the matched model. At this time, not all model coordinates of the ASM model are used, only coordinates corresponding to the left and right sides of the face are used.
Figure 112007032118376-pat00012
And
Figure 112007032118376-pat00013
Let be the vector for the left and right coordinates of the model, respectively. Coordinates corresponding to eyes and mouths other than these are excluded because stable change images cannot be obtained by wearing sunglasses or a mask. At this time, the distance is calculated as in Equation 2 below.

Figure 112007032118376-pat00014
Figure 112007032118376-pat00014

Figure 112007032118376-pat00015
Figure 112007032118376-pat00015

여기서,

Figure 112007032118376-pat00016
는 대응되는 픽셀 값을 더하는 연산자이고,
Figure 112007032118376-pat00017
는 임계치
Figure 112007032118376-pat00018
에 따라 0 또는 1을 출력하는 이진화 함수이며,
Figure 112007032118376-pat00019
는 좌표 (x, y)에서의 배경변화 영상이고,
Figure 112007032118376-pat00020
는 수직적 공간변화 영상이다. 그리고 모델이 얼굴의 어느 한쪽 측면에만 잘 정합된 경우를 배제하기 위해
Figure 112007032118376-pat00021
Figure 112007032118376-pat00022
사이의 거리가 충분히 작은 경우에 정합 정확도가 양수가 되도록 다음과 같이 정의한다.here,
Figure 112007032118376-pat00016
Is an operator that adds the corresponding pixel values.
Figure 112007032118376-pat00017
Is the threshold
Figure 112007032118376-pat00018
Is a binarization function that outputs 0 or 1 depending on
Figure 112007032118376-pat00019
Is the background change image at coordinates (x, y),
Figure 112007032118376-pat00020
Is a vertical spatial change image. And to exclude the case that the model is well matched to only one side of the face
Figure 112007032118376-pat00021
and
Figure 112007032118376-pat00022
If the distance between them is small enough, we define as follows so that the matching accuracy is positive.

Figure 112007032118376-pat00023
Figure 112007032118376-pat00023

따라서 전술한 바와 같이, ASM을 이용하여 얼굴 윤곽을 추출할 수 있다.Therefore, as described above, the facial contour may be extracted using the ASM.

이하, 도 12 내지 도 14를 참조하여, 본 발명의 실시예에 따른 선글라스 및 마스크 착용 판별을 설명한다.Hereinafter, referring to FIGS. 12 to 14, determination of wearing sunglasses and a mask according to an embodiment of the present invention will be described.

도 12는 본 발명의 실시예에 따른 ASM 정합 랜드마크를 이용한 눈 및 입 영역 추출을 나타내는 도면이다.12 illustrates eye and mouth region extraction using ASM registration landmarks in accordance with an embodiment of the present invention.

도 12를 참조하면, 얼굴 윤곽선-기반 눈 영역 및 입 영역은 ASM 정합 결과로부터 쉽게 추출할 수 있다. 먼저, 양쪽 눈을 기준으로 도면부호 1210으로 도시된 영상을 정면으로 회전시키고, 도면부호 1220과 같이 0, 12, 2, 4, 8, 10 랜드마크 를 이용해 눈 영역과 입 영역을 각각 추출한다.Referring to FIG. 12, the facial contour-based eye region and mouth region can be easily extracted from the ASM registration result. First, the image shown by reference numeral 1210 is rotated to the front with respect to both eyes, and the eye region and the mouth region are extracted using 0, 12, 2, 4, 8, and 10 landmarks, respectively, as shown by reference numeral 1220.

그런데 ASM 정합을 통한 눈, 입 영역 추출 정확도는 ASM 정합 정확도에 의존적이다. 21개의 윤곽중심으로 모델링한 ASM의 정합 정확도는 비교적 낮기 때문에, 눈 영역 및 입 영역이 안정되게 추출되지 않을 수 있다. 따라서 크기, 위치, 회전에 무관한 특징을 사용하여 선글라스와 마스크 착용 판별을 수행해야 한다. 이를 위해 히스토그램 인덱싱 기법을 도입하였다.However, the accuracy of eye and mouth region extraction through ASM matching depends on ASM matching accuracy. Since the matching accuracy of ASM modeled with 21 contour centers is relatively low, the eye and mouth regions may not be extracted stably. Therefore, it is necessary to perform sunglasses and mask wearing discrimination using features independent of size, position, and rotation. To this end, a histogram indexing technique is introduced.

도 13a 및 도 13b는 본 발명의 실시예에 따른 눈과 선글라스, 입과 마스크 영역에 대한 히스토그램 비교를 나타내는 도면이다.13A and 13B illustrate a histogram comparison of eyes, sunglasses, a mouth, and a mask area according to an embodiment of the present invention.

도 13a 및 도 13b는 눈과 입 영역에 대해 선글라스 및 마스크 착용 경우의 히스토그램을 비교한 것으로, 각각의 히스토그램이 비교적 명확히 구분되는 것을 볼 수 있다.13A and 13B compare histograms in the case of wearing sunglasses and a mask with respect to the eye and mouth regions, and it can be seen that each histogram is relatively clearly distinguished.

이때, 조명에 따라 히스토그램이 달라지는데 이를 해결하기 위해 히스토그램 평활화와 같은 전처리 기법을 사용할 수는 없다. 왜냐하면, 추출된 눈 및 입역이 작고 유사한 픽셀 값으로 구성되어 있어 히스토그램 평활화를 수행하면 오히려 잡영을 강조하는 결과를 낳기 때문이다. 이를 해결하기 위해 가장 큰 값을 갖는 빈(bin), 즉, 이진화 값을 기준으로, 입력영상의 히스토그램을 정합하고자 하는 참조 히스토그램 방향으로 이동시켜 비교하는 방법을 적용한다.At this time, the histogram varies depending on the lighting. To solve this problem, a preprocessing technique such as histogram smoothing cannot be used. This is because the extracted eye and region are composed of small and similar pixel values, so that histogram smoothing results in emphasizing miscellaneous effects. To solve this problem, a method of moving a histogram of an input image in the direction of a reference histogram to be matched based on a bin having the largest value, that is, a binarization value, is applied.

도 14a 및 도 14b는 본 발명의 실시예에 따른 어두운 눈에 대한 히스토그램을 이동시켜 평균 눈 (왼쪽) 및 선글라스 (오른쪽)의 히스토그램과 비교한 결과를 나타내는 도면이다.14A and 14B are views illustrating a result of moving a histogram for dark eyes according to an embodiment of the present invention and comparing the histograms of average eyes (left) and sunglasses (right).

도 14a 및 도 14b를 참조하면, 어두운 눈 영역에 대한 히스토그램을 평균 눈과 선글라스의 히스토그램을 고려하여 변환한 후 비교한 결과를 보면, 이 히스토그램이 평균 선글라스 히스토그램보다 평균 눈 히스토그램과 더욱 흡사해지는 것을 확인할 수 있다. Referring to FIGS. 14A and 14B, when the histogram for the dark eye area is converted by considering the histogram of the average eye and the sunglasses, the comparison result shows that the histogram is more similar to the average eye histogram than the average sunglasses histogram. Can be.

결국, 본 발명의 실시예에서는 영상기반 ATM 보안시스템을 위한 선글라스 및 마스크를 착용한 얼굴을 검출하고 이들의 착용 여부를 판별하는 전자동 시스템이 제공된다. 이를 위해 시스템을 대기 모드와 동작 모드로 구분하였으며, 대기 모드에서는 배경모델을 갱신하고, 동작 모드에서는 얼굴영역 추출, 얼굴 윤곽 추출, 눈 및 입 영역 추출, 선글라스 및 마스크 착용 판별을 처리한다. 이 과정에서 카메라 설치각도, 모션량 보정, 배경모델의 자동갱신, 마스크 및 선글라스 착용을 고려한 ASM 랜드마크 설정, ASM 최적 정합도 측정 방법, 조명에 강인한 히스토그램 인덱싱 방법 등을 적용된다. 이러한 방법들은 ATM 사용 환경에 한정되어 설계되었지만, 동영상에서의 가려진 얼굴검출에도 적용될 수 있다.As a result, in an embodiment of the present invention, a fully automatic system for detecting a face wearing sunglasses and a mask for an image-based ATM security system and determining whether to wear them is provided. To this end, the system is divided into a standby mode and an operation mode. In the standby mode, the background model is updated, and in the operation mode, face area extraction, face contour extraction, eye and mouth area extraction, sunglasses and mask wearing discrimination are processed. In this process, camera installation angle, motion correction, background model automatic update, ASM landmark setting considering mask and sunglasses wearing, ASM optimal matching method, lighting histogram indexing method, etc. are applied. Although these methods are designed to be limited to ATM environments, they can be applied to hidden face detection in video.

이상에서 설명한 본 발명은 상술한 실시예 및 첨부된 도면에 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and it is common in the art that various substitutions, modifications, and changes can be made without departing from the technical spirit of the present invention. It will be evident to those who have knowledge of.

본 발명에 따르면, 안정적인 정상 얼굴을 검출할 수 있고, 선글라스나 마스크의 착용을 정확히 판별하여 신뢰성을 향상시킬 수 있다.According to the present invention, a stable normal face can be detected and reliability can be improved by accurately determining the wearing of sunglasses or a mask.

Claims (12)

적외선 센싱에 따라 사용자 접근을 탐지하는 단계;Detecting user access according to infrared sensing; 시공간 모델 및 배경 모델을 이용하여 1차 얼굴후보 영역을 추출하는 단계;Extracting a primary face candidate region using a space-time model and a background model; 상기 추출된 1차 얼굴후보 영역에 대해 RPCA(Robust Principal Component Analysis)-기반 배경 모델 및 시간 변화 영상을 이용하여 2차 얼굴후보 영역을 추출하는 단계;Extracting a second face candidate region from the extracted first face candidate region using a robust principal component analysis (RPCA) -based background model and a time-varying image; 상기 추출된 2차 얼굴후보 영역에 대해 ASM(Active Shape Model)을 이용하여 얼굴 윤곽을 추출하는 단계;Extracting a facial contour on the extracted second facial candidate region using an active shape model (ASM); 상기 추출된 얼굴 윤곽으로부터 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별하는 단계; 및Determining an eye region and a mouth region using histogram indexing from the extracted face contour; And 상기 판별된 눈 영역 및 입 영역에 따라 장신구 착용을 판별하는 단계Determining the wearing of jewelry according to the determined eye area and mouth area 를 포함하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.Face detection and identification method for image-based security comprising a. 제1항에 있어서,The method of claim 1, 상기 사용자 접근을 탐지하는 단계는 사용자 접근을 탐지 시에 대기 상태에서 동작 상태로 진입하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The detecting of the user's access may include entering the operating state from the standby state when the user's access is detected. 제2항에 있어서,The method of claim 2, 상기 대기 상태는 배경영상을 획득하고, 이를 이용하여 배경모델을 갱신하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.And the standby state acquires a background image and updates the background model using the background image. 제2항에 있어서,The method of claim 2, 상기 동작 상태는 얼굴 윤곽을 검출하고, 눈과 입 영역을 추정하여 선글라스 및 마스크 착용 여부를 판별하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The operation state is a face detection and detection method for image-based security, characterized in that for detecting the contour of the face, the eye and mouth area to determine whether to wear sunglasses and mask. 제1항에 있어서,The method of claim 1, 상기 사용자 접근을 탐지하는 단계는 현 프레임 영상과 이전 프레임 영상의 차이인 차영상의 모션량을 측정하여 사용자의 움직임 영역을 추정하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.And detecting the user's approach by estimating a motion region of the user by measuring a motion amount of a difference image, which is a difference between a current frame image and a previous frame image. 제1항에 있어서,The method of claim 1, 상기 1차 얼굴후보 영역 추출 단계는 모션량에 따라 보정된 시간변화 영상과 공간변화 영상을 픽셀단위로 더하여 이진화한 후, 각각의 이진화 영상을 수직 및 수평 투영함으로써, 머리의 윗부분 및 상반신 위치를 대략적으로 찾아내는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The first facial candidate region extracting step binarizes the time-varying image and the spatial-changing image corrected according to the motion amount by pixel unit, and then vertically and horizontally projects each binarized image, thereby approximating the upper and upper body positions of the head. Face detection and discrimination method for image-based security, characterized in that finding. 제1항에 있어서,The method of claim 1, 상기 2차 얼굴후보 영역 추출 단계는, 입력영상과 배경영상의 변화영상을 이용하며, 대기 상태에서 획득한 영상 전체를 그대로 사용하는 RPCA(Robust Principal Component Analysis)-기반 배경 모델을 이용하여 2차 얼굴후보 영역을 추출하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The second face candidate region extraction step uses a change image of the input image and the background image, and uses the RPCA (Robust Principal Component Analysis) -based background model that uses the entire image acquired in the standby state. A face detection and discrimination method for image-based security, comprising extracting candidate regions. 제1항에 있어서,The method of claim 1, 상기 2차 얼굴후보영역 추출 단계는, 입력영상과 복원영상의 배경변화 영상에 대해 상기 1차 얼굴영역 추출에서 얻어낸 얼굴의 높이에 해당하는 영역에 한정하여 수직 투영을 수행하여 얼굴의 너비를 추정한 후, 상기 추정된 얼굴의 너비에 해당하는 영역에 한정해 수평투영을 수행하여 얼굴의 높이를 다시 추정함으로써, 최종 얼굴후보 영역을 추정하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.In the extracting of the second face candidate region, the width of the face is estimated by performing vertical projection on the background change image of the input image and the reconstructed image, by performing a vertical projection on the region corresponding to the height of the face obtained from the first face region extraction. And then estimating the final face candidate area by performing horizontal projection only on the area corresponding to the estimated face width to estimate the height of the face again. 제1항에 있어서,The method of claim 1, 상기 얼굴 윤곽 추출 단계는 초기 위치를 소정 횟수만큼 달리하여 최적의 정합 결과를 선정하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.In the facial contour extraction step, an optimal matching result is selected by varying an initial position by a predetermined number of times, and detecting and determining a face for image-based security. 제9항에 있어서,The method of claim 9, 상기 최적 정합 판정은 배경변화영상 및 수직적 공간변화영상과 정합된 모델 의 좌표 간의 거리에 따라, 얼굴의 좌우 측면에 해당하는 좌표만 사용하여 판정하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The optimum matching determination is based on the distance between the background change image and the vertical spatial change image and the coordinates of the matched model, using only the coordinates corresponding to the left and right sides of the face detection and face detection for image-based security How to determine. 제1항에 있어서,The method of claim 1, 상기 얼굴 윤곽 추출 단계는 ASM 정합 결과로부터 양쪽 눈을 기준으로 정면으로 회전시키고, 랜드마크를 이용하여 눈 영역과 입 영역을 각각 추출하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The facial contour extraction step rotates the front face with respect to both eyes from the ASM registration result, and extracts the eye region and the mouth region using landmarks, respectively. 제1항에 있어서,The method of claim 1, 상기 히스토그램 인덱싱을 이용하여 눈 영역 및 입 영역을 판별하는 단계는, 가장 큰 이진화 값(bin)을 기준으로, 입력영상의 히스토그램을 정합하고자 하는 참조 히스토그램 방향으로 이동시켜 비교하는 것을 특징으로 하는 영상-기반 보안을 위한 얼굴 검출 및 판별 방법.The determining of the eye region and the mouth region using the histogram indexing may include moving the histogram of the input image in the direction of the reference histogram to be matched based on the largest binarization value bin, and comparing the image. Face detection and discrimination method for security based.
KR1020070041475A 2007-04-27 2007-04-27 A Method for Detecting and Determining Face for Image-based Security KR100871557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070041475A KR100871557B1 (en) 2007-04-27 2007-04-27 A Method for Detecting and Determining Face for Image-based Security

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070041475A KR100871557B1 (en) 2007-04-27 2007-04-27 A Method for Detecting and Determining Face for Image-based Security

Publications (2)

Publication Number Publication Date
KR20080096252A KR20080096252A (en) 2008-10-30
KR100871557B1 true KR100871557B1 (en) 2008-12-01

Family

ID=40155656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070041475A KR100871557B1 (en) 2007-04-27 2007-04-27 A Method for Detecting and Determining Face for Image-based Security

Country Status (1)

Country Link
KR (1) KR100871557B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US10116901B2 (en) * 2015-03-18 2018-10-30 Avatar Merger Sub II, LLC Background modification in video conferencing
CN104794457A (en) * 2015-05-05 2015-07-22 哈尔滨工程大学 Hyperspectral image target detection method based on sparse error matrix

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980020738A (en) * 1996-09-11 1998-06-25 양승택 Facial component extraction system and its extraction method
KR20050061975A (en) * 2003-12-19 2005-06-23 노틸러스효성 주식회사 System and method for authenticating person using human body's heat
KR100647322B1 (en) 2005-03-02 2006-11-23 삼성전자주식회사 Apparatus and method of generating shape model of object and apparatus and method of automatically searching feature points of object employing the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980020738A (en) * 1996-09-11 1998-06-25 양승택 Facial component extraction system and its extraction method
KR20050061975A (en) * 2003-12-19 2005-06-23 노틸러스효성 주식회사 System and method for authenticating person using human body's heat
KR100647322B1 (en) 2005-03-02 2006-11-23 삼성전자주식회사 Apparatus and method of generating shape model of object and apparatus and method of automatically searching feature points of object employing the same

Also Published As

Publication number Publication date
KR20080096252A (en) 2008-10-30

Similar Documents

Publication Publication Date Title
JP5010905B2 (en) Face recognition device
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
JP5675229B2 (en) Image processing apparatus and image processing method
US7916904B2 (en) Face region detecting device, method, and computer readable recording medium
JP3695990B2 (en) Face image processing device
Geetha et al. Facial expression recognition–A real time approach
CN108171201B (en) Rapid eyelash detection method based on gray scale morphology
JP6234762B2 (en) Eye detection device, method, and program
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
JP2010003117A (en) Object deciding device and program
JP5955031B2 (en) Face image authentication device
JP6351243B2 (en) Image processing apparatus and image processing method
CN108537131B (en) Face recognition living body detection method based on face characteristic points and optical flow field
Zhang et al. Knowledge-based eye detection for human face recognition
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
CN101887518A (en) Human detecting device and method
KR100871557B1 (en) A Method for Detecting and Determining Face for Image-based Security
KR20190009006A (en) Real time multi-object tracking device and method by using global motion
KR100977259B1 (en) Method for a human searching and tracking using a multifulscale histogram of oriented gradient
KR20220050125A (en) Slab segmentation of contactless fingerprint images
Li et al. Detecting and tracking human faces in videos
Cai et al. Robust contour tracking by combining region and boundary information
CN110073406A (en) Face detection means and its control method and program
Alhamazani et al. Using depth cameras for recognition and segmentation of hand gestures
JP6543546B2 (en) Specific motion detection device and specific motion detection method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111109

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee