KR20050096484A - Decision of occlusion of facial features and confirmation of face therefore using a camera - Google Patents
Decision of occlusion of facial features and confirmation of face therefore using a camera Download PDFInfo
- Publication number
- KR20050096484A KR20050096484A KR1020040021868A KR20040021868A KR20050096484A KR 20050096484 A KR20050096484 A KR 20050096484A KR 1020040021868 A KR1020040021868 A KR 1020040021868A KR 20040021868 A KR20040021868 A KR 20040021868A KR 20050096484 A KR20050096484 A KR 20050096484A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- area
- nose
- length
- region
- Prior art date
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65F—GATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
- B65F1/00—Refuse receptacles; Accessories therefor
- B65F1/04—Refuse receptacles; Accessories therefor with removable inserts
- B65F1/06—Refuse receptacles; Accessories therefor with removable inserts with flexible inserts, e.g. bags or sacks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65F—GATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
- B65F1/00—Refuse receptacles; Accessories therefor
- B65F1/14—Other constructional features; Accessories
- B65F1/141—Supports, racks, stands, posts or the like for holding refuse receptacles
- B65F1/1415—Supports, racks, stands, posts or the like for holding refuse receptacles for flexible receptables, e.g. bags, sacks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65F—GATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
- B65F1/00—Refuse receptacles; Accessories therefor
- B65F1/14—Other constructional features; Accessories
- B65F1/16—Lids or covers
- B65F1/1607—Lids or covers with filling openings
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65D—CONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
- B65D33/00—Details of, or accessories for, sacks or bags
- B65D33/14—Suspension means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65F—GATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
- B65F1/00—Refuse receptacles; Accessories therefor
- B65F1/14—Other constructional features; Accessories
- B65F2001/1653—Constructional features of lids or covers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65F—GATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
- B65F2210/00—Equipment of refuse receptacles
- B65F2210/18—Suspending means
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
카메라를 사용하여 취득한 영상에서 사람의 얼굴을 확인하고 선글라스나 마스크 등으로 가려졌는지 여부를 판단하는 방법이 개시된다. 본 발명에 따른 사람의 얼굴을 확인하는 방법은 (a) 차영상과 얼굴색상 정보를 이용하여 사람의 형체와 배경을 구분하는 단계와, (b) 2차원 프로파일을 이용하여 사람의 형태영역에서 사람의 얼굴영역만을 분리하는 단계와, (c) 얼굴영역에서 눈과 코와 입이 위치하는 영역을 구분하고 출력하는 단계와, (d) 마스크나 선글라스를 착용했는지 판단하는 단계를 포함한다.Disclosed is a method of checking a face of a person in an image acquired using a camera and determining whether it is covered by sunglasses or a mask. A method for identifying a face of a person according to the present invention includes the steps of (a) classifying a person's shape and background by using a difference image and face color information, and (b) using a two-dimensional profile in a person's shape region. Separating only the face area of the face; and (c) separating and outputting the area where the eyes, nose and mouth are located in the face area, and (d) determining whether a mask or sunglasses is worn.
본 발명에 따르면, 카메라에 나타난 사람이 마스크나 선글라스로 얼굴의 중요부위를 가리고 있는지의 여부를 판단할 수 있으며, 눈과 코, 그리고 입의 위치를 명확히 판정함으로써 얼굴인식이 가능한 상태인지를 판단할 수 있는 특징이 있다.According to the present invention, it is possible to determine whether the person displayed on the camera is covering an important part of the face with a mask or sunglasses, and whether the face recognition is possible by clearly determining the positions of the eyes, the nose, and the mouth. There are features that can be.
Description
본 발명은 카메라를 이용한 얼굴의 가려짐을 판단하고 얼굴의 특징을 설명하는 눈과 코, 그리고 입의 존재여부 및 위치를 정확히 구분하는 방법에 관한 것이다. 본 발명은 얼굴의 확인 혹은 인식이 필요한 경우 얼굴의 일부분을 고의로 가리고 있는 지를 자동으로 판단할 수 있도록 고안되어서 인증이나 보안의 목적으로 활용할 수 있다.The present invention relates to a method of accurately distinguishing the presence and location of eyes, nose, and mouth for determining facial occlusion using a camera and explaining facial features. The present invention is designed to automatically determine whether a part of the face is intentionally hidden when the face is required to be identified or recognized, and thus can be used for authentication or security purposes.
본 발명은 카메라를 이용한 얼굴의 가려짐 여부를 판단하여 얼굴의 인지 가능성여부를 판단하는 방법에 관한 것이다.The present invention relates to a method of determining whether a face is recognized by determining whether a face is covered using a camera.
이러한 기술은 은행 등에서 널리 사용되는 ATM(현금자동인출기)에서 사용자의 신원을 확인할 목적으로 얼굴을 선글라스나 마스크로 가리지 않은 사람에게만 인출을 허용하는 도구로 사용되거나, 인터넷을 이용한 각종 서비스에서 얼굴의 인식을 목적으로 사용할 수 있다.This technology is used as a tool that allows users to withdraw money only to people who do not cover their faces with sunglasses or masks to check the user's identity in ATMs, which are widely used in banks, etc., or recognizes faces in various services using the Internet. Can be used for this purpose.
실질적으로 선글라스와 마스크의 착용을 구체적으로 구분하는 방법은 종래에 명확히 제시된 것이 없다. 다만 다음과 같이 얼굴의 특징을 확인하는 과정에서 얼굴인지 아닌지를 판단하는 방법들이 제안되어 사용되고 있다.Substantially, the method of specifically distinguishing the wearing of sunglasses and a mask is not clearly presented in the related art. However, the following methods have been proposed and used to determine whether or not the face in the process of identifying the features of the face.
1) 얼굴 색상만을 이용하는 방법1) How to use only face color
얼굴의 색상을 포함하는 영역을 구분하고 그 영역 내에서 눈과 코와 입을 찾아보는 방법이다. 이 방법은 얼굴의 위치, 회전 또는 크기 등에 강인한 장점을 보이나 조명 환경에 따라 성능이 좌우되며 다양한 조명 환경에 적응적인 모델을 구현하기가 용이하지 않다.It is a way to identify the areas that contain the color of the face and look for eyes, nose and mouth within the area. This method has strong advantages such as face position, rotation or size, but its performance depends on the lighting environment and it is not easy to implement an adaptive model for various lighting environments.
2) 에지(edge) 정보를 이용2) Using edge information
입력영상에서 에지를 검출하고 눈과 코 입의 에지와 유사한 형태를 영상에서 찾아보는 방법이다. 이 방법은 에지영상이 이상적으로 구해지는 경우 눈, 코와 입술 등의 모양을 정확히 검출할 수 있는 특성을 가지나 배경이 복잡한 경우 많은 에지들 중에서 얼굴 특징들의 에지를 구분하기 어렵게 되며 다양한 조명 환경에서의 적응적인 임계 값 설정이 어렵다.This method detects edges in the input image and finds shapes similar to the edges of the eyes and nose in the image. This method has the characteristic of accurately detecting the shape of eyes, nose and lips when the edge image is ideally obtained, but it is difficult to distinguish the edges of facial features among many edges when the background is complex. Adaptive threshold setting is difficult.
3) 신경망 등의 학습에 의한 모델 사용3) Use of models by learning neural networks
이 방법은 얼굴의 특징들을 신경망에 학습시킨 후에입력영상에서 학습된 특징부위를 찾아보는 방법이다. 다양한 많은 훈련 셋에 의한 학습으로 보다 좋은 성능을 보이나 거의 무한대에 가까운 다양한 조명환경의 얼굴 영상들을 모두 사용할 수 없으며 많은 계산량을 요구하므로 실시간 구현에 어려움을 초래한다.This method is to learn the features of the face from the input image after learning the features of the face in the neural network. Learning by many different training sets shows better performance, but it is impossible to use all face images of various lighting environments near infinity and requires a large amount of computation, which causes difficulty in real-time implementation.
4) 통계학적 접근 방법4) Statistical approach
통계적인 특성을 이용하여 수학적인 모델링에 의하여 얼굴을 검출하여 좋은 성능을 보이나 모델링 시에 다양한 조명 환경에 대하여 통게적 특성을 추출하기가 용이하지 않으며 이에 따라 고려하지 못한 조명 환경에서의 얼굴에 대해서는 성능이 안정적이지 못하며 수학적인 모델링에 따라 높은 complexity를 요구하는 문제가 있다.It shows good performance by detecting face by mathematical modeling using statistical characteristics, but it is not easy to extract general characteristics for various lighting environments during modeling. This is not stable and there is a problem that requires high complexity depending on mathematical modeling.
따라서 본 발명에서는 기존에 제안된 방법들이 다양한 조명환경에 적용되지 못하는 문제를 해결하는 방법을 제공하며 얼굴의 영상이 입력되면 0.2초 내에 얼굴여부 및 가려짐 여부를 판단하는 방법을 제공한다.Therefore, the present invention provides a method for solving a problem that the conventionally proposed methods are not applied to various lighting environments, and provides a method of determining whether a face is covered or hidden within 0.2 seconds when an image of a face is input.
상기 과제를 이루기 위한 본 발명에 따른 얼굴여부와 마스크나 선글라스로 가려짐 여부를 판단하기 위한 방법은 (a) 차영상과 얼굴색상 정보를 이용하여 사람의 형체와 배경을 구분하는 단계;와 (b) 2차원 프로파일을 이용하여 사람의 형태영역에서 사람의 얼굴영역만을 분리하는 단계;와 (c) 얼굴영역에서 눈과 코와 입이 위치하는 영역을 구분하여 표시하는 단계;와, (d) 마스크나 선글라스를 착용했는지 판단하는 단계;를 포함한다.According to an aspect of the present invention, a method for determining whether a face is covered by a mask or sunglasses includes: (a) distinguishing a person's shape and a background by using a difference image and face color information; and (b Separating only the face region of the person from the shape region of the person using a two-dimensional profile; and (c) distinguishing and displaying the areas where the eyes, nose and mouth are located in the face region; and (d) a mask Determining whether or not wearing sunglasses; includes.
또한, 상기 (a) 단계는, (a-1) 그레이 변환된 t시간에서의 입력영상과 이전 (t-1)시간에서의 입력영상에서 에지 정보와의 차를 계산하여 동일위치의 에지 하소들의 차이가 80 이상일 경우 유효한 차이로 인정하여 사람이 나타났다고 판단하는 단계;와 (a-2) 차영상이 존재하는 영역을 사람영역으로 판단하여 배경과 분리하는 단계;를 포함한다.In addition, the step (a), (a-1) calculates the difference between the edge information in the input image at the time (a-1) gray-converted t time and the input image at the time (t-1) time of the edge calcination of the same location If the difference is greater than 80, it is determined that the person appeared by valid recognition as a difference; and (a-2) judging an area in which the difference image exists as a human area and separating it from the background.
또한, 상기 (b) 단계는, (b-1) 움직임이 검출된 화소들에 대하여 인접한 화소들을 연결하기 위하여 morphological operator임 3픽셀간격의 dilation을 적용하여 화소들을 확장시키며 해당 결과로부터 가로축을 기준으로 세로축으로의 최고의 위치를 가지는 픽셀들, 즉 상위 경계의 에지화소들만을 계산 한 후 불필요한 고주파 성분을 제거하기 위한 Low pass filter를 수행하는 단계; 및(b-2) 이 결과로부터 8픽셀 간격을 가진 화소와의 차분 정보를 산출하고 차분 정보가 20 이상의 경우만을 유효한 차분 정보로 간주하며 차분정보가 연속되어 발생되는 경우는 연속된 차분 정보 중 차이가 가장 큰 것을 선택하고 나머지는 제거한 후, 가로축상으로 차분 정보가 존재하는 화소들의 쌍을 이용하여 얼굴이 존재 가능한 영역을 추출하는 단계; 그리고 (b-3) 추출된 영역에서 평균 높이가 80 이상이고 두개의 평균 높이의 차가 일정 비율인 영역들은 그룹핑하고 결합된 영역의 폭이 50 미만일 경우와 연속된 영역이 존재하는 경우 평균 높이가 작은 영역은 잡음 영역으로 간주어 제거하는 단계;를 포함하는 것이 바람직하다.Also, in the step (b), (b-1) is a morphological operator which is a morphological operator to connect adjacent pixels with respect to the pixels in which motion is detected and expands the pixels by applying a dilation of 3 pixel intervals, and based on the horizontal axis from the result. Performing a low pass filter to remove unnecessary high frequency components after calculating only pixels having the highest position on the vertical axis, that is, edge pixels of an upper boundary; And (b-2) calculating the difference information with the pixels having 8 pixel intervals from this result, and considers only difference information when the difference information is 20 or more, and when the difference information is generated continuously, the difference among the consecutive difference information. Selecting the largest one and removing the remaining ones, and extracting an area where a face can exist using a pair of pixels having difference information on a horizontal axis; And (b-3) in the extracted areas, the average height is more than 80 and the difference between two average heights is grouped and the average height is small when the combined area width is less than 50 and the continuous area exists. The area is preferably considered to be a noise area and removed.
또한, 상기 (c) 단계는, (c-1) 앞의 (b) 단계에서 얻어진 얼굴영역의 수평길이의 좌우 1/5 영역을 제외한 영역에 대해 Y-profile을 계산하고 검출된 프로파일의 최대치로 정규화한 후 잡음요소를 제거하기 위해 저주파 필터링 하는 단계;와 (c-2) 프로파일의 차분(1차 미분)을 계산하여 peak에 대한 변곡점을 조사하고 이를 기반으로 특징영역의 시작점과 끝점을 최종적으로 판단하는 단계;를 포함한다.In addition, in the step (c), the Y-profile is calculated for the area except for the left and right 1/5 of the horizontal length of the face area obtained in the step (b) before (c-1), and the maximum value of the detected profile is obtained. Low frequency filtering to remove the noise component after normalization; and (c-2) calculating the difference (first derivative) of the profile to investigate the inflection point for the peak and finally starting and ending the feature region. Determining; includes.
또한, 상기 (d) 단계는, (d-1) 상기의 (c) 단계에서 1) 입술이나 코가 검출이 되지 않을 경우, 코와 입술의 중점 간격이 얼굴 수평 길이의 50% 이상의 거리를 갖는 경우, 코 요소의 최하위 좌-우 경계점과 입술 요소의 최하위 수평 중심을 이용한 두개의 대각선 기울기의 부호가 같은 경우는 마스크의 착용했다고 판단하는 단계;와, (d-2) 입술과 코는 검출되었으며 에지 변환에 대한 수평 프로파일의 peak사이에 그레이 변환에 대한 수평 프로파일의 peak가 존재하는 경우를 선글라스를 착용하였다고 판단하는 단계;를 포함한다.Also, in the step (d), (d-1) in the step (c), when 1) the lips or the nose are not detected, the midpoint interval between the nose and the lips has a distance of 50% or more of the horizontal length of the face. If the sign of the two diagonal inclinations using the lowest left-right boundary point of the nose element and the lowest horizontal center of the lip element is the same, determining that the mask is worn; and (d-2) the lips and nose are detected. And determining that sunglasses are worn when there is a peak of the horizontal profile for the gray transformation between the peaks of the horizontal profile for the edge transformation.
또한, 상기 (e) 단계는 눈과 코와 입이 적절한 위치에 존재하는지를 판단하는 단계;를 포함하는 것이 바람직하다.In addition, the step (e) preferably comprises a step of determining whether the eyes, nose and mouth are in the proper position.
또한, 상기 다른 과제를 다루기 위한 본 발명에 따른 얼굴자동확인 및 선글라스나 마스크에 의해 가려짐을 판단하는 장치는 차영상과 얼굴색상 정보를 이용하여 사람의 형체와 배경을 구분하는 얼굴영역검출부; 2차원 프로파일을 이용하여 사람의 형태영역에서 사람의 얼굴영역만을 분리하는 얼굴특징 분리부; 얼굴영역에서 눈과 코와 입이 위치하는 영역을 구분하는 얼굴특징의 세부위치 판단부; 마스크나 선글라스를 착용했는지 판단하는 선글라스와 마스크의 착용여부 판단부; 눈과 코와 입이 적절한 위치에 존재하는지를 판단하고 영상에 표시해주는 출력부;를 포함한다.In addition, the apparatus for determining the face is automatically covered by the automatic identification and sunglasses or mask according to the present invention for dealing with the other problem is a face region detection unit for distinguishing the shape and background of the person using the car image and the face color information; A facial feature separator that separates only the face region of the person from the shape region of the person using a two-dimensional profile; A detailed position determination unit of a facial feature for distinguishing an area where eyes, nose and mouth are located in the face area; Determining whether the wearing of the sunglasses and mask to determine whether wearing a mask or sunglasses; And an output unit for determining whether the eyes, the nose, and the mouth exist at an appropriate position and displaying the image.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하도록 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1에서는 본 발명의 실시예에 따른 얼굴확인 및 가려짐 판단 장치의 구조를 블록도로써 나타내었으며, 도 2에는 도 1의 장치 내에서 수행되는 본발명의 실실예에 따른 얼굴확인 및 가려짐판단 방법의 주요 단계를 흐름도 로써 나타내었다. 도 2는 이하에서 수시로 참조된다.1 illustrates a block diagram of a face identification and occlusion determination apparatus according to an exemplary embodiment of the present invention, and FIG. 2 illustrates a face identification and occlusion determination according to an exemplary embodiment of the present invention performed in the apparatus of FIG. 1. The main steps of the method are shown in a flowchart. 2 is often referenced below.
도 1을 참조하면, 본 발명의 실시예에 따른 얼굴확인 및 가려짐 판단 장치는 카메라부(10)와 영상처리부(14), 및 출력부(12)를 구비한다. 영상처리부(14)는 얼굴영역검출부(140)를 구비한다. 얼굴영역검출부(140)는 차영상획득부(142)와 얼굴색상 및 2차원프로파일을 이용한 얼굴영역판단부(144)를 구비한다. 또한, 상기 영상처리부(14)는 얼굴특징분리부(146)을 구비한다. 얼굴특징분리부(146)는 얼굴영역의 Y축 프로파일획득부(148)과 Peak와 Valley 분포 분석을 통한 특징영역분리부(150)을 구비한다. 또한, 상기 영상처리부(14)는 얼굴특징의 세부위치판단부(152)를 구비한다. 얼굴특징의 세부위치판단부(152)는 입의 영역 및 위치판단부(154), 코의 영역 및 위치판단부(156), 눈의 영역 및 위치판단부(158) 및 눈코입의 배치판단부(160)를 구비한다. 또한, 상기 영상처리부(14)는 선글라스 및 마스크착용판단부(162)를 구비한다. 선글라스 및 마스크착용판단부(162)는 선글라스에 의한 눈 특징의 가려짐판단부(164)와 마스크에 의한 입 특징의 가려짐판단부(168)을 구비한다. 출력부(12)는 선글라스와 마스크의 착용여부 및 얼굴에서 눈, 코, 입의 위치를 표시하는 표시부이다.Referring to FIG. 1, the apparatus for identifying and covering a face according to an exemplary embodiment of the present invention includes a camera unit 10, an image processor 14, and an output unit 12. The image processor 14 includes a face region detector 140. The face area detection unit 140 includes a difference image acquisition unit 142 and a face area determination unit 144 using a face color and a two-dimensional profile. In addition, the image processor 14 includes a face feature separator 146. The facial feature separator 146 includes a Y-axis profile acquirer 148 of the face region and a feature region separator 150 through peak and valley distribution analysis. In addition, the image processing unit 14 includes a detail position determining unit 152 of a facial feature. The detailed position determination portion 152 of the facial features includes the mouth region and the position determination portion 154, the nose region and the position determination portion 156, the eye region and the position determination portion 158, and the placement determination portion of the eye nose ( 160). In addition, the image processing unit 14 includes a sunglasses and a mask wearing decision unit 162. The sunglasses and mask wearing decision portion 162 includes a covering decision portion 164 of the eye feature by the sunglasses and a covering determination part 168 of the mouth feature by the mask. The output unit 12 is a display unit which displays whether sunglasses, masks are worn, and positions of eyes, nose, and mouth on the face.
상기와 같은 얼굴확인 및 가려짐 판단 장치의 동작을 설명한다.The operation of the face identification and occlusion determination device as described above will be described.
카메라부(10)는 계속적으로 영상 It(x,y)를 영상처리부(14)에 전달하며 얼굴영역검출부(140)의 차영상획득부(142)는. 먼저, 입력된 영상 It(x,y)를 다음의 수학식 1을 이용하여 에지영상 Et(x,y)으로 변환한다. 수학식 1에서 COP(i,j)는 Canny 에지 검출을 위한 연산자이고 (*)는 콘볼루션을 나타낸다.The camera unit 10 continuously transmits the image I t (x, y) to the image processing unit 14, and the difference image acquisition unit 142 of the face region detection unit 140. First, the input image I t (x, y) using the following equation (1) is converted into an edge image E t (x, y). In Equation 1, COP (i, j) is an operator for Canny edge detection and (*) represents convolution.
[수학식 1] Et(x,y) = It(x,y) * COP(i,j)[Equation 1] E t (x, y) = I t (x, y) * COP (i, j)
다음 단계에서는 Et-1(x,y)과 Et(x,y)의 차를 이용하한 수학식 2에서 N이 20 이상인 경우에 사람이 영상안에 등장했다고 판단한다.In the next step, when N is 20 or more in Equation 2 using the difference between E t-1 (x, y) and E t (x, y), it is determined that a person appears in the image.
[수학식 2] Dt(x,y) = Et-1(x,y) -Et(x,y)Equation 2 D t (x, y) = E t-1 (x, y) -E t (x, y)
상기와 같이 판단하는 과정을 도 2에서 보면 카메라(202)가 영상을 연속적으로 제공하고 차영상획득과정(204)에서 차영상을 구하여 사람등장의 판단과정(210)에서 사람이 영상안에 나타났다고 판단할때까지 반복하는 것이 적절함을 보여준다.2, the camera 202 continuously provides an image, obtains the difference image in the difference image acquisition process 204, and determines that the person appeared in the image in the determination process 210 of the appearance of the person. Repeat until appropriate.
도 (1)의 차영상 획득부(142)에서 얻어진 도 3의 (c)에 도시된 차영상 Dt(x,y)는 얼굴영역판단부(144)에 전달된다. 얼굴영역판단부(144)에서는 Dt(x,y)에서 사람의 영역을 확실히 표현하기 위해 수학식 3의 모폴로지의 열림(opening)연산을 통해 에지들 사이의 빈공간을 채운다. 수학식 3에서 MDt(x,y)는 에지들이 연결된 차영상을 나타내고 MOOP(i,j)는 모폴로지의 열림연산자를 의미하며 (*)는 콘볼루션을 나타낸다.The difference image D t (x, y) shown in FIG. 3C obtained by the difference image acquisition unit 142 of FIG. 1 is transmitted to the face region determination unit 144. The face region determination unit 144 fills the empty space between the edges through the opening operation of the morphology of Equation 3 to express the human region at D t (x, y). In Equation 3, MDt (x, y) represents a difference image with edges connected, MOOP (i, j) represents an open operator of a morphology, and (*) represents a convolution.
[수학식 3] MDt(x,y) = Dt(x,y) * MOOP(i,j)Equation 3 MDt (x, y) = D t (x, y) * MOOP (i, j)
도 4의 (a)는 Dt(x,y)에 수학식 3을 적용하여 얻은 MDt(x,y)(402)를 보여준다. 도 (1)의 얼굴영역판단부(144)는 MDt(x,y)에 대해 도 (2)에서 2차원 프로파일은 X축과 축 각각의 2개의 프로파일을 이용하여 얼굴영역의 수직과 수평의 얼굴영역을 예측하는 과정(212)와 색상정보를 이용하여 얼굴영역을 확인하는 과정(214)를 통해 얼굴영역을 구분한다. 도 4의 (b)는 2차원프로파일을 적용하는 과정(212)에서 X축 프로파일을 적용한 결과를 보여준다. 도 4의 (b)에서 위쪽 수평선분(404)은 얼굴영역의 상한선을 보여주고, 아래쪽 수평선분(406)은 얼굴영역의 하한선을 보여준다. 도 4의 (c)는 2차원프로파일을 적용하는 과정(212)에서 Y축 프로파일을 적용한 결과를 보여준다. 도 4의 (c)에서 왼쪽 픽크(408)은 얼굴영역의 좌측한계를 보여주고 오른쪽 피크(410)은 얼굴영역의 우측한계를 보여준다.(404), (406), (408)과 (410)에 의해 정의 되는 영역에서 얼굴색상정보를 이용하여 도 2의 얼굴분리부(216)를 적용하여 결정된 얼굴영역의 예가 도 4의 (d)에서 사각형(412)로 도시되어 있다.4 (a) shows MD t (x, y) 402 obtained by applying Equation 3 to D t (x, y). In the face region determination unit 144 of FIG. 1, the two-dimensional profile in FIG. 2 is used for the MD t (x, y). The face region is classified through the process of predicting the face region 212 and the process of identifying the face region using the color information 214. 4 (b) shows the result of applying the X-axis profile in the process 212 of applying the two-dimensional profile. In FIG. 4B, the upper horizontal part 404 shows the upper limit of the face area, and the lower horizontal part 406 shows the lower limit of the face area. 4 (c) shows the result of applying the Y-axis profile in the process 212 of applying the two-dimensional profile. In FIG. 4C, the left peak 408 shows the left limit of the face area and the right peak 410 shows the right limit of the face area. (404), (406), (408) and (410). An example of the face region determined by applying the face separator 216 of FIG. 2 using face color information in the region defined by FIG. 4 is shown as a rectangle 412 in FIG.
상기의 얼굴영역판단부(146)가 정한 얼굴영역(412)은 도 1의 얼굴특징분리부(146)에 전달된다. 얼굴특징분리부(146)에서는 눈과 코와 입이 있을 위치를 얼굴영역의 Y축 프로파일을 획득(148)하고 프로파일의 Peak와 Valley를 분석(150)하여 얼굴영역(412)를 수평으로 분리한다. 수평으로 분리되는 영역의 시작점과 끝점은 도 2의 과정(220)에 해당하는 다음의 알고리즘에 의해 결정된다. 수학식에서 x(i)는 Y축 프로파일을 나타내며 (i)는 얼굴영역의 하단에서 시작하고 x(i)는 I번째 열의 밝기 합을 표시한다.The face region 412 determined by the face region determination unit 146 is transmitted to the face feature separation unit 146 of FIG. 1. The facial feature separator 146 acquires the Y-axis profile of the face region at the position where the eyes, nose and mouth are located (148), analyzes the peak and valley of the profile (150), and horizontally separates the face region 412. . The starting point and the ending point of the horizontally separated region are determined by the following algorithm corresponding to the process 220 of FIG. 2. In the equation, x (i) represents the Y-axis profile, (i) starts at the bottom of the face region and x (i) represents the sum of the brightness of the I-th column.
[시점, 종점, Peak, Valley 판정 알고리즘] [Start, end, peak, valley judgment algorithm]
과정 1. 수학식 4를 만족하는 점을 영역의 시작점으로 정한다.Procedure 1. Set the point satisfying Equation 4 as the starting point of the region.
[수학식 4][Equation 4]
x(i-1)==x(i) && x(i+1)〉0x (i-1) == x (i) && x (i + 1)> 0
과정 2. 수학식 2를 만족하는 점을 영역의 종점으로 정한다.Step 2. Set the point satisfying Equation 2 as the end point of the region.
[수학식 5][Equation 5]
x(i-1)〉x(i) && x(i+1)==0x (i-1)> x (i) && x (i + 1) == 0
과정 3. 수학식 6을 만족하는 점으로 peak로 정한다.Step 3. Set the peak to satisfy the equation (6).
[수학식 6][Equation 6]
x(i-1)〈t(i)〉=t(i+1)x (i-1) <t (i)> = t (i + 1)
과정 4. 수학식 7를 만족하는 점을 valley로 정한다.Step 4. Determine the valley that satisfies Equation 7.
[수학식 7][Equation 7]
[x(i-1)〉x(i)〈x(i+1)] AND [x(i-1)〉x(i)==x(i+1)][x (i-1)> x (i) <x (i + 1)] AND [x (i-1)> x (i) == x (i + 1)]
도 5의 (a)는 결정된 얼굴영역(412)에 대한 Y축 프로파일을 보여준다. 이에 대해 특징점을 찾는 과정(220)을 적용한 결과로 얻어진 시점, 종점, peak, valley의 예가 도 5의 (b)에서 시점(502), valley(504), peak(506), 종점(508)의 순으로 도시되어 있다. 도 5의 (c)에는 valley와 종점을 이용하여 얼굴영역(412)를 구분한 결과를 빨간선(510)을 이용하여 영역의 시작점을 도시하고 녹색선(512)를 이용하여 영역의 끝점을 도시하고 있다. 이와 같이 얼굴영역(412)은 RC={(R1),(R2),(R3),(R4),(R5),(R6),(R7)}의 7개 영역으로 분리된다.FIG. 5A shows the Y-axis profile of the determined face region 412. An example of a viewpoint, an end point, a peak, and a valley obtained as a result of applying the feature point finding process 220 is illustrated in (b) of FIG. 5 (b) for the viewpoint 502, valley 504, peak 506, and end point 508. In order. In FIG. 5C, the result of dividing the face area 412 using the valley and the end point is shown using the red line 510, and the end point of the area is illustrated using the green line 512. Doing. In this way, the face area 412 is divided into seven areas of RC = {(R1), (R2), (R3), (R4), (R5), (R6), and (R7)}.
도 1의 얼굴특징분리부(146)의 적용에 의해 분리된 얼굴특징영역의 집합 RC는 얼굴특징의 세부위치판단부(152)에 전달된다. 전달된 얼굴특징영역, RC에 대해 입의 영역 및 위치판단부(154)는 알고리즘 1을 포함한다.The set RC of the facial feature areas separated by the application of the facial feature separator 146 of FIG. 1 is transmitted to the detail position determining unit 152 of the facial feature. The delivered facial feature region, the mouth region for the RC, and the position determining unit 154 include Algorithm 1.
[알고리즘 1: 입술검출 알고리즘]Algorithm 1: Lip Detection Algorithm
과정 1. 에지영상 Et(x,y)에서 얼굴 영역의 수직 영역의 중심이 50% 이하인 영역에 대하여4개이상의 화소의 밝기 값 평균이 12이상인 10개의 입술후보 초기영역을 선택한다.Procedure 1. In the edge image E t (x, y), 10 initial regions of the lip candidates having an average of 12 or more brightness values of 4 or more pixels are selected for an area of 50% or less of the vertical area of the face area.
과정 2. 각각의 초기영역을 중심으로 8-이웃 화소에 대해서는 시작점의 밝기의 50% 이상인 화소를 같은 영역으로 포함한다.Step 2. For 8-neighboring pixels around each initial region, the same region includes pixels that are 50% or more of the brightness of the starting point.
과정 3. 확장된 영역들이 이웃하며 다음 조건을 만족할 때 하나의 영역으로 합병한다.Process 3. When the extended regions are neighboring and the following conditions are met, they merge into one region.
조건 1) 결합된 전체 수평길이〈 얼굴 길이의 70%Condition 1) Combined Total Horizontal Length <70% of Face Length
조건 2) 결합된 가로/세로 비율 〉= 2.0Condition 2) Combined Aspect Ratio〉 = 2.0
조건 3) 밝기가 낮은 요소/밝기가 높은 요소 〉50%Condition 3) Low Brightness Element / High Brightness Element〉 50%
과정 4. 이들 영역중에서 입술 색상과 가장 유사한 색상을 갖는 영역을 입술영역으로 선택한다.Procedure 4. From these areas, the area with the color most similar to the lip color is selected as the lip area.
도 6에서 (a)는 알고리즘 1의 과정 1과 2의 적용예를 도시한다. RC중에서 얼굴영역(412)의 수직 영역의 중심이 50% 이하인 영역에 해당하는 (R1),(R2),(R3),(R4)에 대해 10개의 입술후보 초기영역을 검출하여 도시하였다. 도 6의 (a)에서 (602)는 5개의 초기영역을 도시하고 있고, (604)가 나머지 5개의 영역을 도시하고 있다. 도 6에서 (b)는 알고리즘 1의 과정 3의 적용예를 도시한다. (602)로 표시된 영역들은 경계선과 가까워 잡음으로 제거되었고 (604)로 표시된 용욕들은 조건 1에서 3을 적용하여 3개의 독립된 입특징영역, (604), (606), 그리고 (608)으로 통합된다. 도 6에서 (d)는 (604), (606), (608) 중에서 입술색상의 특성을 가장 많이 갖는 특징을 입으로 판정한 결과를 도시하고 있다.In FIG. 6, (a) shows an application example of the process 1 and 2 of the algorithm 1. In the RC, 10 initial regions of the lip candidates were detected and illustrated for (R1), (R2), (R3), and (R4), which correspond to an area where the center of the vertical region of the face region 412 is 50% or less. 6 (a) to 602 show five initial regions, and 604 shows the remaining five regions. (B) of FIG. 6 shows an application example of Process 3 of Algorithm 1. FIG. The areas marked (602) are close to the perimeter and are removed with noise, and the baths marked (604) are integrated into three independent mouth features, (604), (606), and (608), applying condition 3 in condition 1 . In FIG. 6, (d) shows the result of determining by mouth that the characteristic having the most characteristic of the lip color among the 604, 606, and 608 is shown.
또한, 상기 세부위치판단부(152)에서는 전달된 얼굴특징영역, RC에 대해 코의 영역 및 위치판단부(156)는 알고리즘 2를 포함한다.Further, in the detailed position determination unit 152, the area of the nose with respect to the transferred facial feature region, RC, and the position determination unit 156 include algorithm 2.
[알고리즘 2: 코검출 알고리즘]Algorithm 2: Nose Detection Algorithm
과정 1. 입력영상 It(x,y)를 그레이변환한 Gt-1(x,y)의 얼굴영역에서 수직영역의 중심이 16~75% 범위의 영역에 대해 4개 이상의 화소 밝기 값의 평균이 12이상인 8개의 코후보 초기영역을 선택한다.Procedure 1. In the face region of G t-1 (x, y) which is gray converted from the input image I t (x, y), the center of the vertical region is 4 or more pixel brightness values for the region ranging from 16 to 75%. Eight initial candidates with a mean of 12 or more are selected.
과정 2. 각각의 초기영역을 중심으로 8-이웃 화소에 대해 밝기의 90%이상인 화소들을 영역에 포함한다.Step 2. Include pixels in the region that are at least 90% of the brightness for 8-neighbor pixels around each initial region.
과정 3. 확장된 영역들이 다음의 조건을 만족할 때 하나의 영역으로 합병한다.Process 3. The expanded areas merge into one area when the following conditions are met.
조건 1) 두 요소의 밝기의 차이 〈 높은 밝기 요소의 40%Condition 1) The difference between the brightness of the two elements 〈40% of the high brightness factor
조건 2) 결합 수평 길이 〈 얼굴길이의 1/4Condition 2) Combined horizontal length 〈1/4 of face length
조건 3) 결합 중점이 얼굴의 중앙 부분의 3/5 범위안에 존재하는 경우Condition 3) The combined midpoint is within 3/5 of the central part of the face
조건 4) 결합 길이 〈 얼굴 길이의 1/5 이거나Condition 4) The combined length 〈1/5 of the face length
결합길이의 가로/세로 비율 〉 1.3Aspect ratio of mating length> 1.3
과정 4. 확장된 영역에서 다음의 조건을 만족하는 것들을 코후보로 선택 한다.Procedure 4. In the expanded area, select the candidates that meet the following conditions.
조건 1) 수평길이는 〈 얼굴의 수평 길이의 1/3Condition 1) The horizontal length is 〈1/3 of the horizontal length of the face
조건 2) 요소는 얼굴 영역의 수평적 위치 중 중앙의 3/5 영역 안에 존재해야 한다.Condition 2) The element must be in the center 3/5 of the horizontal position of the face area.
조건 3) 수평 길이 〈 얼굴의 수평길이/10 일 경우Condition 3) Horizontal Length 〈Horizontal Length / 10 Faces
0.4 〈 수평길이/수직길이 〈= 0.70.4 〈Horizontal Length / Vertical Length 〈= 0.7
과정 5. 다음의 조건을 만족하는 영역을 코의 후보로 최종 결정한다.Process 5. The candidates for the nose are finally determined to satisfy the following conditions.
조건 1) 화소들의 평균 밝기가 가장 높은 2개를 검출Condition 1) Detects two of the highest average brightness of pixels
조건 2) 2개를 모두 포함하는 요소를 다음의 조건으로 합병Condition 2) Merging elements containing both under the following conditions
2-1) 결합 길이 〈 얼굴 길이의 3/102-1) Coupling Length 〈3/10 of Face Length
2-2) 결합 길이 〈 얼굴 길이의 2/10 이거나2-2) The combined length 〈2/10 of the face length
수평 길이/수직길이 〉 1.3 이거나Horizontal length / vertical length〉 1.3
수평 길이 〈 얼굴 수평길이/10 이며 수평길이/수직길이 〉 0.7Horizontal length 〈face horizontal length / 10 and horizontal length / vertical length〉 0.7
도 7에서 (a)는 알고리즘 2의 과정 1과 2를 통해 얻어진 4개의 코후보영역(702)을 보여준다. 코는 얼굴의 중앙에 위치하므로 얼굴의 모든 특징을 후보로 포함하는 경우가 있을 수 있다. 이들 코후보영역에 대해 알고리즘 2의 과정 3과 4, 그리고 5를 적용하여 얻어진 코영역(704)는 도 7에서 (b)에 포함되어 도시되고 있다.In FIG. 7, (a) shows four co-candidate regions 702 obtained through the processes 1 and 2 of Algorithm 2. In FIG. Since the nose is located at the center of the face, there may be a case where all features of the face are included as candidates. The nose regions 704 obtained by applying the processes 3, 4, and 5 of the algorithm 2 to these ko candidate regions are shown in (b) of FIG. 7.
상기의 알고리즘 1과 알고리즘 2에서 입과 눈에 해당하는 얼굴특징이 정의되지 않으면 도 2의 입출과 코 추출 판단과정(230)에서 마스크확인과정(232)으로 이동하여 마스크로 가려짐을 나타내는 태그를 세트시킨다. 입과 눈에 해당하는 얼굴특징이 얻어지면 다음의 알고리즘 3에 의해 정의되는 도 1의 눈의 영역 및 위치판단부(158)에 해당하는 도 2의 눈 추출과정(242)를 수행하게 된다.If the facial features corresponding to the mouth and the eye are not defined in Algorithm 1 and Algorithm 2, the tag is set to indicate that the mask is masked by moving to the mask verification process 232 in the extraction and extraction process 230 of FIG. 2. Let's do it. When the facial features corresponding to the mouth and eyes are obtained, the eye extraction process 242 of FIG. 2 corresponding to the area and position determination unit 158 of the eye of FIG. 1 defined by the following algorithm 3 is performed.
[알고리즘 3: 눈검출 알고리즘]Algorithm 3: Eye Detection Algorithm
과정 1. 입력영상 It(x,y)를 그레이변환한 Gt-1(x,y)의 얼굴영역에서 코의 위쪽으로 코와 입술의 간격의 3배 이내에 존재하는 영역에 대해 4개 이상의 화소 밝기 값의 평균이 12이상인 8개의 코후보 초기 영역을 선택한다.Procedure 1. Four or more areas of the face of G t-1 (x, y) that are gray converted from the input image I t (x, y) within three times the distance between the nose and lips above the nose Eight initial candidate areas for which the average value of the pixel brightness values are 12 or more are selected.
과정 2. 각각의 초기영역을 중심으로 8-이웃 화소에 대해 밝기의 90%이상인 화소들을 영역에 포함한다.Step 2. Include pixels in the region that are at least 90% of the brightness for 8-neighbor pixels around each initial region.
과정 3. 코 요소의 최상위 수평 중심과 입술 요소의 최하위 수평 중심을 이용하여 중심선을 계산하고 코 요소의 최하위 좌-우 경계점과 입술 요소의 최하위 수평 중심을 이용하여 두개의 대각선을 계산하여 과정 1에서 얻은 영역들 중에서 이 대각선 사이에 존재하는 영역들을 운 후보로 선택한다.Step 3. Calculate the centerline using the highest horizontal center of the nose element and the lowest horizontal center of the lip element, and calculate two diagonal lines using the lowest left-right boundary point of the nose element and the lowest horizontal center of the lip element. Among the areas obtained, the areas existing between the diagonal lines are selected as the candidates for operation.
과정 4. 후보영역에서 수평길이/수직길이의 비율이(1.0~7.5)의 범위를 갖는 것 중에서 눈-입의 역삼각형 조합을 생성하여 실험에 의한 정상적인 얼굴의 두 눈과 입술이 이루는 내각의 임계치와 가장 유사한 각을 가지는 조합을 조사하여 눈을 결정한다. 단 두개의 눈의 중점간의 거리는 입술의 대각선의 길이의 1.5 배 미만의 거리를 가져야 한다.Process 4. Threshold of the cabinet formed by the two eyes and lips of the normal face by experiment by creating an inverse triangle combination of eye-mouth among the ratio of horizontal length / vertical length in the range of (1.0 ~ 7.5) Determine the eye by examining the combination with the angle that most closely resembles The distance between the midpoints of only two eyes should be less than 1.5 times the length of the diagonal of the lips.
도 8에서 (a)에는 상기 알고리즘 3의 과정 3을 상기 알고리즘 1과 2를 통해 획득한 코(808)와 입(810)의 위치를 이용하여 계산한 눈이 존재할 가능성이 있는 영역의 중앙선(806), 좌측대각선(804), 그리고 우측 대각선(804)을 보여준다. 이에 더하여 그림 8의 (b)에는 과정 1과 2를 통해 획득한 눈 후보영역들(812)이 도시되어 있다. 도 8의 (c)에는 과정 3을 통해 얻어진 눈 후보영역들(812)에 대해 과정 4를 적용하여 얻어진 좌측눈(814)와 우측눈(816)을 도시하고 있다.In FIG. 8A, the centerline 806 of an area in which eye 3 may be calculated by using the positions of the nose 808 and the mouth 810 obtained through Algorithms 1 and 2 in Step 3 of Algorithm 3 is described. ), Left diagonal 804 and right diagonal 804. In addition, (b) of FIG. 8 shows eye candidate regions 812 obtained through steps 1 and 2. FIG. FIG. 8C illustrates the left eye 814 and the right eye 816 obtained by applying the process 4 to the eye candidate regions 812 obtained through the process 3.
도 2의 흐름도의 눈검출과정(242)에서 알고리즘 3을 이용하여 눈을 검출하게 되면 도 1의 출력부(12)에 눈과 코, 그리고 입의 위치를 출력한다. 눈이 검출되지 않는 경우는 도 2의 흐름도에서 선글라스판단과정(244)을 실행하게 된다. 상기 과정은 도 1에서 선글라스 및 마스크의 착용판단부(162)에서 처리한다.When the eye is detected using the algorithm 3 in the eye detection process 242 of the flowchart of FIG. 2, the positions of the eyes, the nose, and the mouth are output to the output unit 12 of FIG. 1. If the eye is not detected, the sunglasses determination process 244 is executed in the flowchart of FIG. 2. The process is processed in the wearing decision portion 162 of the sunglasses and mask in FIG.
도 2의 흐름도에서 마스크판단과정(232)는 코와 입술의 중점 간격이 얼굴 수평 길이의 50% 이상의 거리를 갖는 경우와 입술이나 코로 오판되어 검출되었으나 코와 입술간의 수직 거리의 3배 이내의 범위와 에지의 수평 프로파일에 의한 수직적 영역 구분 코 위의 3개의 영역 범위 안에 눈의 후보가 존재하지 않는 경우, 그리고 코 요소의 최하위 좌-우 경계점과 입술 요소의 최하위 수평 중심을 이용한 두개의 대각선 기울기의 부호가 같은 경우에 마스크를 착용한 것으로 판단한다. 도 9에서 하단의 2개의 Y축 프로파일(902)와 (904)는 각각 상단의 사람영역 (906)과 (908)에 해당한다. 이에 대해 최종적으로 마스크의 착용여부를 판단한 결과예를 (914)에 도시하고 있다.In the flowchart of FIG. 2, the mask determination process 232 is detected when the midpoint distance between the nose and the lips has a distance of 50% or more of the horizontal length of the face and is incorrectly detected by the lips or the nose, but within three times the vertical distance between the nose and the lips. Vertical zone distinction by the horizontal profile of the edges of the edges of the two diagonal slopes, where no eye candidates exist within the three zones above the nose and using the lowest left-right boundary of the nose element and the lowest horizontal center of the lip element. If the signs are the same, it is determined that a mask is worn. In FIG. 9, the lower two Y-axis profiles 902 and 904 correspond to the upper human regions 906 and 908, respectively. An example of the result of finally determining whether the mask is worn is shown in 914.
도 2의 흐름도에서 선글라스판단과정(244)는 Y축 프로파일에서 peak사이에 그레이 변환에 대한 수평 프로파일의 peak가 존재하는 경우에는 선글라스를 착용한 것으로 판단한다. 단 검사 영역은 코와 입술간의 수직 거리의 3배 이내의 범위와 코 위의 3개의 영역 범위에 한정한다. 선글라스는 그레이 변환시 렌즈부분이 어두운 특성을 가지므로 어떤 타원과 같은 일정한 면적을 가지게 되는데 에지를 이용하게 되면 렌즈의 경계나 안경테 부분에 값이 존재하고 그 안에는 값이 많이 검출되지 않으므로 선글라스의 눈에 대한 프로파일은 다른 특성을 갖게 된다. 도 10에서 하단 좌측의 Y축프로파일(1004)를 기준으로 그레이 변환에 대한 수평 프로파일의 peak가 존재하는 지를 판단하는 Y축프로파일(1008)을 이용하면 선글라스를 착용한 얼굴영역(1004)에서 선글라스의 중앙에 peak선이 통과하게 된다. 얼굴영역(1014)는 (1012)의 눈이 둘로 갈라지는 경우를 도시하여 보여주고 있다.In the flowchart of FIG. 2, the sunglasses judging process 244 determines that the sunglasses are worn when the peak of the horizontal profile for the gray conversion exists between the peaks in the Y-axis profile. However, the test area is limited to a range within three times the vertical distance between the nose and the lips and three areas on the nose. Sunglasses have a certain area such as an ellipse because the lens part has a dark characteristic when converting gray. When the edge is used, the value exists at the boundary of the lens or the frame of the lens, and the value is not detected much in the sunglasses. Profiles have different characteristics. In FIG. 10, using the Y-axis profile 1008 that determines whether there is a peak of a horizontal profile for gray conversion based on the Y-axis profile 1004 of the lower left side, the sunglasses may be displayed in the face region 1004 wearing sunglasses. The peak line passes through the center. The face region 1014 illustrates a case where the eyes of 1012 are divided into two.
도 1의 선글라스 및 마스크 착용판단부(162)에서 도 2의 마스크착용판단과정(232)와 선글라스착용판단과정(244)를 통과하면 도 1의 출력부(12)에 도 2의 얼굴가려짐판정(250)결과를 도 11의 (a)와 (b)에서와 같이 도시하게 된다. 선글라스를 착용의 판단결과는 도 11의(a)에서 Sunglass Image!!!(1104)로 표시하고 마스크를 착용한 결과는 도 11의 (b)에서 Mask Image!!!(1108)로 표시한다. 도 2의 눈추출과정(242)까지를 통과한 경우는 도 1의 출력부(12)에 도 2의 눈, 코, 입의 위치측정결과(260)를 출력하게 된다. 도 11의 (c)에서 얼굴이라는 판정결과는 Normal Face!!!(1110)로 표시하고 좌측눈(1112), 우측눈(1114), 코(1116), 입(1118)은 각각 4각형으로 도시한다.In the sunglasses and mask wearing decision unit 162 of FIG. 1, the mask wearing decision process 232 of FIG. 2 and the sunglasses wearing decision process 244 of FIG. 2 are passed to the output unit 12 of FIG. 1. (250) The results are shown as in Figure 11 (a) and (b). The determination result of wearing the sunglasses is indicated by Sunglass Image !!! 1104 in FIG. 11A and the result of wearing the mask is indicated by Mask Image !!! 1108 in FIG. 11B. In the case of passing through the eye extraction process 242 of FIG. 2, the position measurement result 260 of the eyes, nose, and mouth of FIG. 2 is output to the output unit 12 of FIG. 1. In FIG. 11C, the determination result of the face is displayed as Normal Face 1110, and the left eye 1112, the right eye 1114, the nose 1116, and the mouth 1118 are respectively shown in quadrangles. do.
상술한 바와 같이 본 발명에 따르면, 카메라에 나타나는 사람의 얼굴이 선글라스나 마스크로 가려져 있는지를 판단할 수 있으며 눈과 코와 입의 정확한 위치를 확인할 수 있게 된다. 뿐만 아니라 선글라스나 마스크 이외에도 손으로 얼굴을 가린다거나 하여 눈, 코, 입 등의 얼굴 특징이 사라진 경우도 판단이 가능하여 얼굴을 확인하여 인증하는 각종 도구에 활용될 수 있다.As described above, according to the present invention, it is possible to determine whether the face of the person appearing in the camera is covered with sunglasses or a mask, and it is possible to check the exact positions of eyes, nose and mouth. In addition, in addition to sunglasses or masks, the face features such as eyes, nose, mouth, etc. disappeared by covering the face with the hand can be determined and can be used in various tools for verifying and authenticating the face.
도 1은 본 발명의 실시에 따른 얼굴확인 및 가려짐 판단기법의 촬영장치 구조와 알고리즘 구조를 도시한 블록도이다.1 is a block diagram showing the structure of the image pickup device and algorithm of the face identification and occlusion determination method according to an embodiment of the present invention.
도 2는 도 1의 장치구조 내에서 수행되는 본 발명의 실시예에 따른 얼굴확인 및 가려짐 판단방법의 주요단계를 도시한 흐름도이다.FIG. 2 is a flow chart showing the main steps of a method for face identification and occlusion determination according to an embodiment of the present invention performed in the apparatus structure of FIG.
도 3은 에지차영상에서 사람의 등장을 결정하는 과정을 설명하는 도면이다.3 is a view for explaining a process of determining the appearance of a person in the edge difference image.
도 4는 에지차영상을 모폴로지 오프닝과 필터링을 통해 전처리하고 2차원 프로파일을 통해 얼굴영역을 찾아내는 과정을 설명하는 도면이다.4 is a diagram illustrating a process of preprocessing an edge difference image through morphology opening and filtering and finding a face region through a two-dimensional profile.
도 5는 얼굴영역에서 눈, 코와 입이 존재할 것으로 예측되는 영역을 Y-축 프로파일에서 찾아내는 과정을 설명하는 도면이다.FIG. 5 is a diagram illustrating a process of finding, from the Y-axis profile, an area where eyes, nose, and mouth are expected to exist in a face area.
도 6은 입술이 존재하는 영역을 검색하여 입술을 찾아내는 과정을 설명하는 도면이다.6 is a diagram illustrating a process of finding a lip by searching a region in which the lip exists.
도 7은 코가 존재하는 영역을 검색하여 입술을 찾아내는 과정을 설명하는 도면이다.7 is a diagram illustrating a process of finding a lip by searching a region where a nose exists.
도 8은 입술과 코의 위치정보를 이용하여 눈이 존재하는 영역을 정의하고 그 내부를 검색하여 눈을 찾아내는 과정을 설명하는 도면이다.8 is a diagram illustrating a process of defining an area in which an eye exists using the position information of the lips and the nose and searching the inside to find the eye.
도 9는 Y-축 프로파일을 이용하여 마스크로 입을 가리고 있는지를 판단하는 과정을 설명하는 도면이다.FIG. 9 is a diagram illustrating a process of determining whether a mouth is covered by a mask using a Y-axis profile.
도 10은 Y-축 프로파일을 이용하여 눈이 존재하는 영역에서 선글라스가 눈을 가리고 있는 지를 판단하는 과정을 설명하는 도면이다.FIG. 10 is a diagram illustrating a process of determining whether sunglasses are covering an eye in an area where an eye exists by using a Y-axis profile.
도 11은 출력화면의 예를 도시하는 도면이다.11 is a diagram illustrating an example of an output screen.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040021868A KR20050096484A (en) | 2004-03-30 | 2004-03-30 | Decision of occlusion of facial features and confirmation of face therefore using a camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040021868A KR20050096484A (en) | 2004-03-30 | 2004-03-30 | Decision of occlusion of facial features and confirmation of face therefore using a camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20050096484A true KR20050096484A (en) | 2005-10-06 |
Family
ID=37276551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040021868A KR20050096484A (en) | 2004-03-30 | 2004-03-30 | Decision of occlusion of facial features and confirmation of face therefore using a camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20050096484A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101023207B1 (en) * | 2007-09-05 | 2011-03-18 | 한국전자통신연구원 | Video object abstraction apparatus and its method |
CN111517037A (en) * | 2020-05-20 | 2020-08-11 | 海南来个碗网络科技有限公司 | Garbage classification supervision method and device for intelligent perspective classification garbage can |
KR20200101630A (en) * | 2019-02-20 | 2020-08-28 | 삼성전자주식회사 | Method for controlling avatar display and electronic device thereof |
KR102282364B1 (en) * | 2020-10-28 | 2021-07-28 | (주)그린공간정보 | Image Blurring Processing System |
KR102282374B1 (en) * | 2020-11-02 | 2021-07-28 | (주)그린공간정보 | MMS Data Processing System |
KR102282373B1 (en) * | 2020-10-28 | 2021-07-28 | (주)그린공간정보 | Position Verification System For Confirming Change In MMS Image |
KR102618508B1 (en) | 2022-09-01 | 2023-12-27 | 인빅 주식회사 | Object detection and tracking system and method using edge cctv |
-
2004
- 2004-03-30 KR KR1020040021868A patent/KR20050096484A/en not_active Application Discontinuation
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101023207B1 (en) * | 2007-09-05 | 2011-03-18 | 한국전자통신연구원 | Video object abstraction apparatus and its method |
KR20200101630A (en) * | 2019-02-20 | 2020-08-28 | 삼성전자주식회사 | Method for controlling avatar display and electronic device thereof |
CN111517037A (en) * | 2020-05-20 | 2020-08-11 | 海南来个碗网络科技有限公司 | Garbage classification supervision method and device for intelligent perspective classification garbage can |
KR102282364B1 (en) * | 2020-10-28 | 2021-07-28 | (주)그린공간정보 | Image Blurring Processing System |
KR102282373B1 (en) * | 2020-10-28 | 2021-07-28 | (주)그린공간정보 | Position Verification System For Confirming Change In MMS Image |
KR102282374B1 (en) * | 2020-11-02 | 2021-07-28 | (주)그린공간정보 | MMS Data Processing System |
KR102618508B1 (en) | 2022-09-01 | 2023-12-27 | 인빅 주식회사 | Object detection and tracking system and method using edge cctv |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7127086B2 (en) | Image processing apparatus and method | |
US7869626B2 (en) | Iris recognition method and apparatus thereof | |
KR100480781B1 (en) | Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image | |
JP3350296B2 (en) | Face image processing device | |
US7460693B2 (en) | Method and apparatus for the automatic detection of facial features | |
CN106056079B (en) | A kind of occlusion detection method of image capture device and human face five-sense-organ | |
CN109670430A (en) | A kind of face vivo identification method of the multiple Classifiers Combination based on deep learning | |
KR101937323B1 (en) | System for generating signcription of wireless mobie communication | |
US20050063568A1 (en) | Robust face detection algorithm for real-time video sequence | |
CN109858439A (en) | A kind of biopsy method and device based on face | |
Abate et al. | BIRD: Watershed based iris detection for mobile devices | |
KR102005150B1 (en) | Facial expression recognition system and method using machine learning | |
CN101923645A (en) | Iris splitting method suitable for low-quality iris image in complex application context | |
CN105893946A (en) | Front face image detection method | |
Monwar et al. | Pain recognition using artificial neural network | |
JP2000105819A (en) | Face image area detecting device | |
CN107862298A (en) | It is a kind of based on the biopsy method blinked under infrared eye | |
KR20050096484A (en) | Decision of occlusion of facial features and confirmation of face therefore using a camera | |
Phung et al. | Detecting people in images: An edge density approach | |
Guan | Robust eye detection from facial image based on multi-cue facial information | |
JP2003317084A (en) | System, method and program for detecting gaze from face image | |
CN104615985B (en) | A kind of recognition methods of human face similarity degree | |
KR101614468B1 (en) | Eye Detection and Its Opening and Closing State Recognition Method Using Block Contrast in Mobile Device | |
KR100596197B1 (en) | Face Detection Method Using A Variable Ellipsoidal Mask and Morphological Features | |
Deng et al. | A new method for eye extraction from facial image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
E601 | Decision to refuse application |