KR20120113912A - The detection and recovery method of occlusion of a face image using a correlation based method - Google Patents

The detection and recovery method of occlusion of a face image using a correlation based method Download PDF

Info

Publication number
KR20120113912A
KR20120113912A KR1020110031596A KR20110031596A KR20120113912A KR 20120113912 A KR20120113912 A KR 20120113912A KR 1020110031596 A KR1020110031596 A KR 1020110031596A KR 20110031596 A KR20110031596 A KR 20110031596A KR 20120113912 A KR20120113912 A KR 20120113912A
Authority
KR
South Korea
Prior art keywords
face image
pixel
image
correlation
pixel values
Prior art date
Application number
KR1020110031596A
Other languages
Korean (ko)
Other versions
KR101308347B1 (en
Inventor
배상식
이인성
홍영민
곽노준
이지은
Original Assignee
한국수자원공사
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국수자원공사, 아주대학교산학협력단 filed Critical 한국수자원공사
Priority to KR1020110031596A priority Critical patent/KR101308347B1/en
Publication of KR20120113912A publication Critical patent/KR20120113912A/en
Application granted granted Critical
Publication of KR101308347B1 publication Critical patent/KR101308347B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method for detecting and restoring a hidden face image by using a correlation is provided to minimize a noise generated around a hidden face area and surrounding areas by detecting a hidden part of a face image based on the correlation between pixels included in the face images. CONSTITUTION: A correlation coefficient of pixel values included in a face image is calculated with a learning face image(S130). A difference is calculated by receiving a test face image partially hidden from the face image and comparing pixel values of the test face image with pixel values predicted through pixel values having a high correlation(S230). A hidden area included in the test face image is detected(S240). The face image is restored by predicting pixel values of the hidden area through pixel values of an unhidden part having the high correlation according to the correlation coefficient and replacing the predicted pixel values to the pixel values of the hidden area(S300). [Reference numerals] (AA) Unhidden part; (BB) Hidden part; (S100) Learning; (S110) Inputting learning images; (S120) Calculating average and standard deviation; (S130) Calculating a correlation coefficient; (S200) Detection; (S210) Inputting test image; (S220) Estimating pixel value; (S230) Difference image; (S300) Restoration; (S310) Re-estimating pixel value; (S330) A reference value is satisfied?; (S340) Image finally restored

Description

상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법 {The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method}{The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method}

본 발명은 얼굴 영상의 가려진 부분을 검출하고 복원하는 방법에 관한 것으로, 특히 얼굴 인식 단계 이전에 얼굴 영상의 가려진 부분을 상관계수를 이용하여 검출하고, 검출된 가려진 얼굴 영역을 상관계수를 이용하여 복원할 수 있도록 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법에 관한 것이다.
The present invention relates to a method for detecting and restoring a masked portion of a face image. In particular, a masked portion of a face image is detected using a correlation coefficient and a detected face region is restored using a correlation coefficient before a face recognition step. The present invention relates to a method for detecting and restoring a masked face image using correlation.

전 세계적으로 감시카메라는 산업분야뿐만 아니라 사람이 많이 모이는 장소인 시가지나 편의점, 은행 등 곳곳에 설치되어 있다. 이렇게 우리 주변에 감시카메라가 많이 존재하고 있는 이유는 감시카메라가 적은 인원으로 넓은 장소 또는 여러 장소를 한 눈에 감시할 수 있고, 녹화 저장된 영상을 통해 문제 발생 시의 상황을 다시 볼 수 있어서 매우 편리하기 때문이다. All over the world, surveillance cameras are installed not only in the industrial sector but also in many places such as urban areas, convenience stores and banks. The reason why there are so many surveillance cameras around us is that it is very convenient to monitor a large place or several places at a glance with a small number of surveillance cameras, and to see the situation when a problem occurs through the recorded video. Because.

그러나 감시카메라가 항상 모든 상황에서 유용한 것은 아니다. 만일 범죄자들이 선글라스나 마스크 등으로 얼굴을 가린 채 감시카메라 영상에 잡힌다면, 실제 문제가 발생했을 시에도 그 범죄자의 신원을 확인할 수 있는 중요한 특징들을 잡아낼 수가 없을 가능성이 크다. 이는 곧, 최근 응용 범위가 확대되고 있는 얼굴 인식을 이용하여 범죄자의 신원을 알아내기가 어렵다는 뜻이다. 그러므로 더욱 정확히 신원을 확인하기 위해 얼굴 인식 단계 이전에 영상의 가려진 부분을 검출하고 검출된 영역을 복원하는 것이 영상 처리 분야에서 시급히 해결해야 할 중요한 과제이다.
But surveillance cameras are not always useful in every situation. If criminals are captured by surveillance cameras with their faces covered in sunglasses or masks, it is likely that they will not be able to capture the important features of the criminal's identity even when a problem occurs. This means that it is difficult to determine the identity of criminals by using face recognition, which is recently expanding its scope of application. Therefore, detecting the hidden part of the image and restoring the detected area before the face recognition step is more important in the image processing field in order to more accurately identify the identity.

영상, 특히 얼굴 영상에서 가려진 부분을 검출하고 복원하기 위한 대표적인 방법으로는 주성분 분석법(Principal Component Analysis, PCA)을 응용하는 방법이 있다. 이를 이용하여 얼굴 영상에서 안경을 제거하는 방법, 또는 얼굴에 존재하는 잡음을 제거하는 방법 등이 제시되었다. 또한 기존 주성분 분석법을 응용하는 방법을 발전시켜 영상의 가려진 부분을 더 빠르게 복원하는 Fast Recursive PCA, 확률론적 주성분 분석법(Probabilistic PCA)을 이용하는 Tipping과 Bishop의 연구 등 영상의 가려진 부분에 대한 연구가 다양한 방법으로 진행되고 있다. As a representative method for detecting and restoring an image, especially a masked part of a face image, there is a method of applying a principal component analysis (PCA). A method of removing glasses from a face image or a method of removing noise from a face by using the same has been proposed. In addition, research on hidden parts of images has been conducted in various ways such as Fast Recursive PCA, which reconstructs the hidden parts of images faster by developing methods of applying existing principal component analysis methods, and Tipping and Bishop's research using Probabilistic PCA. Is going on.

도 1은 이러한 종래 주성분 분석법(PCA)을 이용하여 얼굴 영상에서 가려진 부분을 검출하고 복원하는 방법을 나타낸 개념도로서, 주성분 분석법을 이용한 얼굴 복원 방법은 학습과정(S10)과 검출과정(S20) 및 복원과정(S30)을 통하여 이루어진다. 1 is a conceptual diagram illustrating a method of detecting and restoring a hidden part of a face image using the conventional principal component analysis method (PCA). The face restoration method using the principal component analysis method includes a learning process (S10), a detection process (S20), and a restoration. It is made through the process (S30).

[학습과정][Learning Course]

학습 과정(S10)은 먼저 학습 영상을 입력받아(S11), 정규화를 수행하고(S12), 공분산 행렬을 계산한 후(S13), 변환 행렬(W)을 구하는 과정(S14)으로 이루어진다. 즉 학습 과정(S10)에서 최종적으로 구하고자 하는 것은 축소하고자 하는 차원 수만큼의 고유 벡터로 구성된 변환 행렬(W)이다. The learning process (S10) consists of first receiving the training image (S11), performing normalization (S12), calculating a covariance matrix (S13), and then obtaining a transformation matrix (W) (S14). In other words, the final calculation in the learning process S10 is a transformation matrix W composed of as many eigenvectors as the number of dimensions to be reduced.

학습 영상이 입력되면(S11), 픽셀의 개수가 d개인 N개의 학습 얼굴 영상을

Figure pat00001
라 표현하고, 학습을 위해 하나의 열벡터로 표현한다. 그 다음 전체 얼굴 영상들의 평균 영상을 구하여 정규화를 수행한 후(S12), 각 얼굴 영상들로부터 평균을 뺀다. 위의 내용을 식으로 표현하면 다음과 같다.When the learning image is input (S11), N learning face images having the number of pixels d are
Figure pat00001
And a single column vector for learning. Then, the average image of the entire face image is obtained and normalized (S12), and then the average is subtracted from each face image. If the above content is expressed as an expression, it is as follows.

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

각 얼굴 영상들로부터 평균을 뺀 영상들의 공분산 행렬(covariance matrix)을 구한다(S13).A covariance matrix of images obtained by subtracting the mean from each face image is obtained (S13).

Figure pat00004
Figure pat00004

공분산 행렬에 대한 고유분석을 행하여 d'개의 가장 큰 고유값

Figure pat00005
을 선택한다. 선택된 고유 값과 관련된 고유벡터를 구하고 변환 행렬
Figure pat00006
을 만든다(S14). 고유벡터는 원래의 차원 수인 d차원만큼 얻을 수 있는데, 축소하고자 하는 차원 수인 d' 차원만큼만 취하고 나머지는 버리면 된다.Perform eigenvalue analysis on the covariance matrix to determine the d 'largest eigenvalues
Figure pat00005
. Find the eigenvectors associated with the selected eigenvalues and transform matrix
Figure pat00006
(S14). The eigenvectors can be obtained by the number of dimensions, d, which is the original dimension, but take only the d 'dimension, which is the number of dimensions to be reduced, and discard the rest.

Figure pat00007
Figure pat00007

상기의 학습 과정을 통하여 변환 행렬(W)이 구해진다.
The transformation matrix W is obtained through the above learning process.

[가려진 얼굴 영상의 검출 및 복원 과정][Detection and Restoration Process of Hidden Face Image]

상기 검출과정(S20)에서는 테스트 얼굴 영상

Figure pat00008
가 입력되면(S21) 이를 정규화하여(S22) 재구성한 후(S23), 테스트 얼굴 영상과 재구성된 얼굴 영상의 차를 계산하여(S24), 얼굴 영상의 가려진 부분을 검출하게 된다(S25)(S26). 또한, 복원과정(S30)에서는 상기 검출과정(S20)을 통하여 검출된 가려진 부분을 재구성한 영상을 이용하여 복원하게 되는데(S31), 이러한 복원은 기준치를 만족할 때까지 반복되어(S32), 최종 복원된 영상이 생성되게 된다(S33). 상기 입력되는 테스트 얼굴 영상들은 임의의 너비와 높이를 가진 사각형으로 얼굴의 일부분을 가린 영상을 의미한다.In the detection process (S20), a test face image
Figure pat00008
Is input (S21), and normalized it (S22), and then reconstructed (S23), and calculating a difference between the test face image and the reconstructed face image (S24), and detecting a hidden portion of the face image (S25) (S26). ). In addition, the restoration process (S30) is to restore using the reconstructed image detected by the masked portion detected through the detection process (S20) (S31), such restoration is repeated until the reference value is satisfied (S32), the final restoration The generated image is generated (S33). The input test face images mean an image in which a part of the face is covered by a rectangle having an arbitrary width and height.

각 테스트 얼굴 영상들은 앞의 학습과정(S10)에서 구한 평균 영상으로 정규화시킨 다음(S22), 학습 단계에서 마지막으로 도출해 낸 고유벡터에 대하여 가중치(weight) 값을 구하고, 이를 이용하여 각 테스트 얼굴 영상들을 고유벡터의 가중합계(weighted sum)의 형태로 재구성한다(S23).Each test face image is normalized to the average image obtained in the previous learning process (S10) (S22), and then a weight value is obtained for the eigenvector finally derived in the learning step, and each test face image is used. Are reconstructed in the form of a weighted sum of eigenvectors (S23).

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

여기서 x는 테스트 얼굴 영상이고, x'는 변환 행렬에 의해 재구성된 새로운 얼굴 영상이다. 이렇게 재구성된 얼굴 영상 x'와 테스트 얼굴 영상 x의 각 픽셀 사이의 차이값이 일정 경계값을 넘느냐 안 넘느냐에 따라 가려진 영역인지 아닌지를 판별하게 된다(S24). 얼굴 영상에서 가려진 영역을 판별한 후(S26), x"라는 새로운 영상에 재구성된 얼굴 영상과 테스트 얼굴 영상으로 채워 복원과정을 수행하게 된다(S30). 즉, 가려진 부분이라 판단된 픽셀 값에는 앞에서 재구성된 얼굴 영상의 픽셀 값으로 채우고, 가려지지 않은 부분이라 판단된 픽셀 값에는 원래 입력으로 들어온 테스트 얼굴 영상의 픽셀 값으로 채운다(S31).Where x is a test face image and x 'is a new face image reconstructed by the transformation matrix. The difference between each pixel of the reconstructed face image x 'and the test face image x is determined to be a masked area depending on whether or not a predetermined boundary value is exceeded (S24). After determining the hidden region in the face image (S26), a reconstruction process is performed by reconstructing the reconstructed face image and the test face image into a new image called "x" (S30). The pixel value of the reconstructed face image is filled, and the pixel value determined to be the unobscured portion is filled with the pixel value of the test face image input as an original input (S31).

Figure pat00011
Figure pat00011

Figure pat00012
Figure pat00012

여기서

Figure pat00013
는 가려지지 않은 영역을 뜻하고,
Figure pat00014
는 가려진 영역을 뜻한다. 이렇게 새롭게 구성된 영상
Figure pat00015
로 여기고 위의 과정을 기존에 정해 놓은 기준치가 수렴할 때까지 계속 반복한다(S32). 모든 반복 과정을 거지고 기준치가 수렴했을 때 생성된 영상을 최종적으로 복원된 영상으로 결정한다(S33).
here
Figure pat00013
Means an unobstructed area,
Figure pat00014
Is the hidden area. This newly composed video
Figure pat00015
It is regarded as and the above process is repeated until the reference value established previously converges (S32). After all repetitive processes and the reference value converges, the generated image is determined as the finally reconstructed image (S33).

상기의 과정을 통하여 최종적으로 얼굴 영상의 가려진 부분이 복원되는데, 이러한 종래 주성분 분석법(PCA)을 이용한 얼굴 영상 복원 방법은 얼굴 영상 복원 과정에서 얼굴 영상의 모든 픽셀 정보를 이용하기 때문에 계산 과정이 복잡하고 계산 속도가 느린 문제점이 있었다. Finally, the hidden part of the face image is restored through the above process. The face image restoration method using the conventional PCA uses the all the pixel information of the face image in the face image restoration process, which makes the calculation process complicated. There was a problem of slow computation.

또한, 상기 주성분 분석법(PCA)을 이용한 얼굴 영상 복원 방법은 가려진 부분이 검출된 영상에서 가려진 부분의 모든 픽셀들을 검출하지 못하거나 가려진 부분 외의 픽셀에서 많은 잡음이 발생하는 문제점이 있었다. 뿐만 아니라, 상기 주성분 분석법(PCA)을 이용한 얼굴 영상 복원 방법은 복원된 영상에서 가려진 부분과 가려지지 않은 부분과의 경계선이 매끄럽게 연결되지 않고 끊기는 문제점이 있었으며, 복원된 영상 또한 뭉개지는 현상이 발생하는 문제점이 있었다.
In addition, the face image reconstruction using the principal component analysis (PCA) has a problem in that the masked portion does not detect all the pixels of the masked portion in the detected image or a lot of noise occurs in pixels other than the masked portion. In addition, the face image restoration method using the principal component analysis (PCA) has a problem that the boundary line between the hidden portion and the unobscured portion of the reconstructed image is not smoothly connected and broken, and the reconstructed image is also crushed. There was a problem.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 제안된 것으로서, 본 발명의 목적은 얼굴 영상에서 가려진 부분을 검출하는 과정에서 각 픽셀간의 상관관계를 이용함으로써 가려진 영역이 검출된 얼굴 영상의 잡음 발생을 저하시킬 수 있도록 하는 상관관계를 이용한 가려진 얼굴 영상 검출 방법을 제공하는 데 있다. The present invention has been proposed to solve the above-described problems of the prior art, and an object of the present invention is to generate a noise of a face image in which a masked region is detected by using correlation between pixels in a process of detecting a portion of the face image. The present invention provides a method for detecting a masked face image using a correlation that can reduce the error.

또한 본 발명의 다른 목적은 얼굴 영상의 가려진 부분을 복원하는 과정에서 가려진 부분과 상관도가 높은 적은 수의 픽셀 정보만을 이용하여 얼굴 영상을 복원하도록 함으로서 얼굴 영상 복원 속도가 빠르게 이루어질 수 있도록 하며, 복원된 얼굴 영상이 뭉개지는 현상을 방지하고 복원되는 얼굴 영상의 가려진 부분과 가려지지 않는 부분의 경계가 부드럽게 형성될 수 있도록 하는 상관관계를 이용한 가려진 얼굴 영상 복원 방법을 제공하는 데 있다.
In addition, another object of the present invention is to restore the face image by using only a small number of pixel information that has a high correlation with the masked portion in the process of restoring the masked portion of the face image so that the face image restoration speed can be made faster, The present invention provides a method for restoring a masked face image using a correlation that prevents a crushed face image from being formed and smoothly forms a boundary between a masked portion and a portion that is not covered.

상기 목적을 달성하기 위한 본 발명에 따른 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법은 입력되는 얼굴 영상의 가려진 부분을 검출하여 복원하는 얼굴 영상 검출 및 복원 방법에 있어서, 학습 얼굴 영상을 입력받아, 학습 얼굴 영상에 포함된 각 픽셀 값들의 상관계수를 계산하는 학습 단계와; 얼굴 영상 일부가 가려진 테스트 얼굴 영상을 입력받아, 상기 테스트 얼굴 영상의 각 픽셀 값과 상기 학습 단계를 통하여 계산된 상관계수에 따라 상관도가 높은 다수 개의 픽셀 값들에 의해 예측된 픽셀 값을 비교하여 차이를 계산함으로써 테스트 얼굴 영상에 포함된 가려진 영역을 검출하는 검출 단계와; 상기 검출 단계에서 검출된 가려진 영역의 픽셀 값을 상기 학습 단계에서 계산된 상관계수에 따라 상관도가 높은 다수 개의 가려지지 않은 부분의 픽셀 값들로 예측하고, 예측된 픽셀 값으로 가려진 영역의 픽셀 값을 대체하여 얼굴 영상을 복원하는 복원 단계;를 포함하여 이루어진다.In order to achieve the above object, the method for detecting and restoring a masked face image using correlation according to the present invention is a face image detection and restoration method for detecting and restoring a hidden portion of an input face image. A learning step of calculating a correlation coefficient of each pixel value included in the learning face image; Receives a test face image in which part of the face image is masked, and compares each pixel value of the test face image with a pixel value predicted by a plurality of highly correlated pixel values according to the correlation coefficient calculated through the learning step. Detecting a hidden region included in the test face image by calculating a; The pixel value of the masked region detected in the detecting step is predicted as pixel values of the plurality of unobscured parts having a high correlation according to the correlation coefficient calculated in the learning step, and the pixel value of the masked region is estimated as the predicted pixel value. And a restoration step of restoring a face image instead.

상기 학습 단계는 입력되는 학습 얼굴 영상에 포함된 각 픽셀 값의 평균 및 표준편차를 계산하고, 평균 및 표준편차를 이용하여 각 픽셀 간의 상관계수를 계산하게 되는데, 상기 학습 단계에서 계산되는 각 픽셀 간의 상관계수는 기준 값을 초과하는 일부 큰 값들이 선택되어, 검출 단계 및 복원 단계에서 이용되게 된다.The learning step calculates an average and a standard deviation of each pixel value included in the input learning face image, and calculates a correlation coefficient between each pixel using the average and standard deviation. The correlation coefficient is selected so that some large values exceeding the reference value are used in the detection and recovery steps.

또한, 상기 검출 단계는 테스트 얼굴 영상의 각 픽셀과 상관도가 높은 다수 개의 픽셀 값을 예측하여 예측된 영상으로 각 픽셀 값을 재구성하는 단계와, 상기 계산된 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 픽셀 값으로 재구성된 픽셀 값을 비교하여 각 픽셀 값의 차이가 기준 값을 초과하는 픽셀을 선택하여 가려진 영역으로 판단하는 단계를 포함하여 이루어진다. The detecting may include reconstructing each pixel value into a predicted image by predicting a plurality of pixel values highly correlated with each pixel of the test face image, and correlating with each pixel value of the calculated test face image. Comparing the pixel values reconstructed with the high pixel values, and selecting pixels in which the difference of each pixel value exceeds the reference value and determining the area as a hidden area.

상기 테스트 얼굴 영상의 각 픽셀 값을 재구성하는 단계에서 예측되는 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은, 상기 학습 단계에서 계산된 상관계수 중 기준 값을 초과하는 값이 큰 일부의 상관계수 값을 갖는 픽셀 값으로 예측되는 것이 바람직하다.The plurality of pixel values having a high correlation with each pixel value of the test face image predicted in the reconstructing each pixel value of the test face image has a value that exceeds a reference value among the correlation coefficients calculated in the learning step. It is desirable to predict a pixel value with some correlation coefficient value.

상기 테스트 얼굴 영상의 각 픽셀 값을 재구성하는 단계에서 예측되는 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은 다음의 수학식에 의해 계산된다.A plurality of pixel values highly correlated with each pixel value of the test face image predicted in the step of reconstructing each pixel value of the test face image is calculated by the following equation.

[수학식][Mathematical Expression]

Figure pat00016
Figure pat00016

Figure pat00017
Figure pat00017

여기에서, N은 얼굴 영상의 개수이고,

Figure pat00018
은 n번째 얼굴 영상에서의 i번째 픽셀 값이고,
Figure pat00019
는 i번 째, j번 째 샘플 평균을 나타낸다.Where N is the number of face images,
Figure pat00018
Is the i th pixel value in the n th face image,
Figure pat00019
Denotes the i th and j th sample averages.

한편, 상기 복원 단계에서 예측되는 가려진 영역의 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은, 상기 검출 단계에서 가려진 영역으로 판단되지 않은 테스트 얼굴 영역의 픽셀 값인 것이 바람직하다.On the other hand, it is preferable that the plurality of pixel values having a high correlation with the pixel values of the masked area predicted in the reconstructing step are the pixel values of the test face area not determined as the area masked in the detecting step.

뿐만 아니라, 상기 복원 단계에서 예측되는 가려진 영역의 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은, 상기 학습 단계에서 계산된 상관계수 중 기준 값을 초과하는 값이 큰 일부의 상관계수 값을 갖는 픽셀 값으로 예측되는 것이 바람직하다.
In addition, the plurality of pixel values having a high correlation with the pixel values of the masked region predicted in the reconstructing step may include pixels having some correlation coefficient values having a value exceeding a reference value among correlation coefficients calculated in the learning step. Preferred by value.

본 발명에 따른 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법은 얼굴 영상에 포함된 각 픽셀간의 상관관계를 이용하여 얼굴 영상에서 가려진 부분을 검출함으로써 가려진 얼굴 영역 및 주변 영역에서 발생하는 잡음을 최소화할 수 있는 효과가 있다. 또한 본 발명에 따른 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법은 얼굴 영역에서 가려진 영역이 검출되면 가려진 얼굴 영역과 상관도가 높은 픽셀을 이용하여 얼굴 영상을 복원함으로써 복원 속도가 빠르고, 복원된 얼굴 영상에서 뭉개지는 현상을 최소화할 수 있으며 복원된 얼굴 영상의 가려진 부분과 가려지지 않은 부분과의 경계가 부드럽게 형성할 수 있는 효과가 있다.
The method for detecting and restoring a masked face image using correlation according to the present invention minimizes noise generated in the masked face area and the surrounding area by detecting a hidden part of the face image by using the correlation between each pixel included in the face image. It can be effective. In addition, the method for detecting and restoring a masked face image using correlation according to the present invention has a high restoration speed by restoring a face image by using pixels having a high correlation with the masked face area when a hidden area is detected in the face area. It is possible to minimize crushing in the image and to smoothly form a boundary between the masked and unhidden portions of the restored face image.

도 1은 종래 주성분 분석법(PCA)을 이용하여 얼굴 영상에서 가려진 부분을 검출하고 복원하는 방법을 나타낸 개념도,
도 2는 본 발명에 따른 상관관계를 이용하여 얼굴 영상에서 가려진 부분을 검출하고 복원하는 과정을 나타낸 개념도,
도 3은 본 발명에 따른 상관계수 예측치를 이용한 실제 얼굴 영상에서 얼굴의 특정 부분에 대하여 각각의 상관계수 맵을 나타낸 도면,
도 4는 상기 도 2의 얼굴 영상 중 눈, 코, 입, 볼 부분에 대해 연관도가 높은 여러 픽셀들의 집합을 나타낸 도면,
도 5는 얼굴 영상 부분 및 이 얼굴 영상 부분과 상관관계가 높은 픽셀들의 영향 관계를 나타낸 도면,
도 6은 테스트 얼굴 영상을 입력받아 가려진 부분을 검출하고 검출된 부분을 복원하는 과정을 주성분 분석법과 상관계수를 이용하여 실험한 일례를 나타낸 것이다.
1 is a conceptual diagram illustrating a method of detecting and restoring a hidden part of a face image using a conventional principal component analysis method (PCA);
2 is a conceptual diagram illustrating a process of detecting and restoring a hidden part of a face image using correlation according to the present invention;
3 is a diagram illustrating a correlation coefficient map for a specific portion of a face in an actual face image using the correlation coefficient prediction value according to the present invention;
FIG. 4 is a diagram illustrating a set of various pixels having a high correlation with respect to an eye, a nose, a mouth, and a cheek part of the face image of FIG. 2;
5 is a view showing an influence relationship between a face image portion and pixels having a high correlation with the face image portion;
6 illustrates an example in which a process of detecting a hidden portion and restoring the detected portion by receiving a test face image by using a principal component analysis method and a correlation coefficient is shown.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 상관관계를 이용하여 얼굴 영상에서 가려진 부분을 검출하고 복원하는 과정을 나타낸 개념도이다.2 is a conceptual diagram illustrating a process of detecting and restoring a hidden part of a face image by using a correlation according to the present invention.

도 2에 도시된 바와 같이, 본 발명에 따른 상관관계를 이용한 얼굴 검출 및 복원 방법은 학습과정(S100)과 검출과정(S200) 및 복원과정(S300)을 통하여 이루어진다. As shown in FIG. 2, the method for detecting and restoring a face using correlation according to the present invention is performed through a learning process S100, a detection process S200, and a restoration process S300.

상기 학습과정(S100)은 얼굴 영상의 어느 한 부분도 가려지지 않은 얼굴 영상을 학습 얼굴 영상으로 입력받아, 학습 얼굴 영상에 포함된 각 픽셀 값들의 상관계수를 계산하는 과정을 수행한다. 상기 학습과정(S100)에서는 입력되는 학습 얼굴 영상(S110)에 포함된 각 픽셀들의 평균 및 표준편차를 계산한 후(S120), 이를 이용하여 각 픽셀들의 상관계수를 계산하게 된다(S130). The learning process S100 receives a face image that is not covered by any part of the face image as a learning face image, and calculates a correlation coefficient of each pixel value included in the learning face image. In the learning process (S100), after calculating the average and standard deviation of each pixel included in the input learning face image (S110) (S120), the correlation coefficient of each pixel is calculated using this (S130).

상기 검출과정(S200)은 얼굴 영상 일부가 가려진 테스트 얼굴 영상을 입력받아 상기 테스트 얼굴 영상의 각 픽셀 값과 상기 학습 단계를 통하여 계산된 상관계수에 따라 상관도가 높은 다수 개의 픽셀 값을 비교하여 차이를 계산함으로써 테스트 얼굴 영상에 포함된 가려진 영역을 검출하는 과정을 수행하게 된다. 이를 위하여 검출과정(S200)에서는 입력되는 테스트 얼굴 영상의 각 픽셀 값을 계산하고(S210), 상기 테스트 얼굴 영상의 각 픽셀과 상관도가 높은 다수 개의 픽셀 값을 예측하여 추정하며(S220), 추정된 영상으로 각 픽셀 값을 재구성한 후 상기 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 픽셀 값으로 재구성된 테스트 얼굴 영상의 픽셀 값을 비교하여 차를 계산하고(S230), 각 픽셀 값의 차이가 기준 값을 초과하는 픽셀을 선택하여 가려진 영역으로 판단하게 된다(S240)(S250). The detection process (S200) receives a test face image covering a part of the face image, compares each pixel value of the test face image with a plurality of pixel values having a high correlation according to the correlation coefficient calculated through the learning step, and makes a difference. By calculating the step of detecting the hidden area included in the test face image. To this end, the detection process (S200) calculates each pixel value of the input test face image (S210), predicts and estimates a plurality of pixel values having a high correlation with each pixel of the test face image (S220). After reconstructing each pixel value with the extracted image, the difference is calculated by comparing the pixel value of the test face image reconstructed with the pixel value having a high correlation with each pixel value of the test face image (S230), and the difference between each pixel value. Selects a pixel that exceeds the reference value and determines the area to be a masked area (S240) (S250).

또한, 상기 복원과정(S300)은 검출과정(S200)에서 검출된 가려진 영역의 픽셀 값을 상기 학습과정(S100)에서 계산된 상관계수에 따라 상관도가 높은 다수 개의 픽셀 값으로 예측하여 추정하고(S310), 추정된 픽셀 값으로 가려진 영역의 픽셀 값을 대체하여 얼굴 영상을 복원하게 되는데(S320), 이러한 얼굴 영상 복원은 복원되는 영상이 최종 복원된 영상으로 기 설정된 기준치를 만족할 때까지 반복하여 수행하여(S330), 최종 복원된 영상을 생성하게 된다(S340).
In addition, the reconstructing process (S300) predicts and estimates the pixel value of the hidden region detected in the detecting process (S200) as a plurality of pixel values having a high correlation according to the correlation coefficient calculated in the learning process (S100) ( S310), the face image is restored by replacing the pixel value of the region covered by the estimated pixel value (S320). The face image restoration is repeatedly performed until the restored image satisfies the preset reference value as the final restored image. In operation S330, a final reconstructed image is generated in operation S340.

이하에서는 상기의 과정을 통하여 수행되는 상관관계를 이용한 얼굴 영상 검출 및 복원 방법의 각 과정에 대하여 상세히 설명하기로 한다.
Hereinafter, each process of the face image detection and reconstruction method using the correlation performed through the above process will be described in detail.

먼저, 본 발명에 따른 상관관계를 이용한 얼굴 검출 및 복원 방법의 설명에 앞서, 본 발명에서 이용하고 있는 상관계수에 대하여 설명하기로 한다. First, prior to the description of the face detection and restoration method using the correlation according to the present invention, the correlation coefficient used in the present invention will be described.

상관계수는 영상의 픽셀 간 연관성을 나타내는 값으로서, 영상의 각 픽셀을 하나의 확률변수라 가정하면, 이 상관계수는 두 확률변수 사이에 얼마나 연관성이 존재하는지를 나타내는 지표가 된다. 상관계수는 공분산을 표준편차로 나눠서 표준화시킨 것으로, -1에서 1까지의 값을 가진다. 상관계수는 1 또는 -1 값에 가까울수록 두 확률변수 간의 관련성이 크다는 뜻이고, 0에 가까울수록 관련성이 없다는 뜻이다.The correlation coefficient is a value representing the correlation between pixels of the image. Assuming that each pixel of the image is a single random variable, the correlation coefficient is an index indicating how correlation exists between the two random variables. The correlation coefficient is normalized by dividing the covariance by the standard deviation and has a value from -1 to 1. The correlation coefficient means that the closer to 1 or -1 value, the greater the relationship between the two random variables, and the closer to 0, the less relevant.

두 확률변수 간의 상관계수는 다음의 수학식 9를 통하여 계산된다.The correlation coefficient between two random variables is calculated through Equation 9 below.

Figure pat00020
Figure pat00020

여기에서,

Figure pat00021
는 i번째 확률변수이고,
Figure pat00022
는 j번 째 확률변수를 의미한다. 또한,
Figure pat00023
는 두 확률변수의 공분산을 나타내고,
Figure pat00024
는 각각의 확률변수의 표준편차를 나타내며,
Figure pat00025
를 의미한다.From here,
Figure pat00021
Is the i th random variable,
Figure pat00022
Is the j th random variable. Also,
Figure pat00023
Represents the covariance of two random variables,
Figure pat00024
Represents the standard deviation of each random variable,
Figure pat00025
Means.

입력 영상에서는 각각의 픽셀을 하나의 확률변수로 생각할 수 있으므로 한 장의 영상은 하나의 d차원 확률벡터의 실현으로 생각할 수 있고, 각 픽셀들 사이의 연관도는 상기 수학식 9에서 정의한 상관계수를 통해 유추할 수 있다. 가려진 영상의 경우 가려진 부분의 픽셀 값을 해당 픽셀과 연관도가 높은 가려지지 않은 부분의 픽셀 값들로부터 예측할 수 있다는 것이 본 발명의 기본 개념이다.In the input image, each pixel can be thought of as one random variable, so one image can be thought of as a realization of one d-dimensional probability vector, and the correlation between each pixel is determined through the correlation coefficient defined in Equation 9 above. Can be inferred. In the case of a masked image, it is a basic concept of the present invention that a pixel value of a hidden portion can be predicted from pixel values of an unhidden portion having a high association with the corresponding pixel.

만약, N장의 학습 얼굴 영상이 주어졌다고 가정하면, 실제 상황에서 수학식 9의 두 확률변수의 기댓값 E(.)을 알 수 없으므로 N개의 샘플을 이용한 상관계수의 예측치를 다음의 수학식 10과 같이 구할 수 있다.Assuming that N learning face images are given, the expected value E (.) Of the two random variables in Equation 9 cannot be known in the real situation, so the predicted value of the correlation coefficient using N samples is expressed as in Equation 10 below. You can get it.

Figure pat00026
Figure pat00026

Figure pat00027
Figure pat00027

여기에서

Figure pat00028
은 n번째 학습 영상에서의 i번째 픽셀 값이고,
Figure pat00029
는 i번 째, j번 째 샘플 평균을 나타낸다.From here
Figure pat00028
Is the i th pixel value in the n th training image,
Figure pat00029
Denotes the i th and j th sample averages.

도 3은 이러한 상관계수 예측치를 이용한, 실제 얼굴 영상에서 얼굴의 특정 4부분, 즉 눈과 코, 입, 볼 부분에 대하여 각각의 상관계수 맵을 나타낸 것이다. FIG. 3 shows the correlation coefficient maps for four specific parts of the face, ie eyes, nose, mouth, and cheek, in the real face image using the correlation coefficient prediction value.

도 3의 상관관계 맵에서 밝게(하얀색) 표시된 부분은 상관계수의 절대값이 높은 부분이고, 어둡게(검정색) 표시된 부분은 상관계수의 절대값이 낮은 부분이다. 여기서 눈에 대한 상관계수 맵을 살펴보면, 왼쪽 눈동자의 한 픽셀과 연관도가 높은 픽셀들, 즉 왼쪽 눈동자 주변과 오른쪽 눈동자 주변이 밝게 표시되어 있는 것을 볼 수 있다. 이렇게 상관계수를 이용하면, 가까운 픽셀들의 정보뿐만이 아니라 그 픽셀과 멀리 떨어져 있는 픽셀들의 정보도 이용하여 더 좋은 결과를 얻을 수 있을 것으로 예상할 수 있다.
In the correlation map of FIG. 3, the lighter (white) portion is the portion where the absolute value of the correlation coefficient is higher, and the darker (black) portion is the portion where the absolute value of the correlation coefficient is low. Here, looking at the correlation coefficient map for the eye, it can be seen that pixels that are highly related to one pixel of the left eye, that is, the area around the left eye and the right eye are brightly displayed. Using the correlation coefficient like this, it can be expected that better information can be obtained by using not only the information of the near pixels but also the information of the pixels far from the pixel.

만약, 얼굴 영상의

Figure pat00030
의 픽셀 값을 모른다고 가정하고,
Figure pat00031
의 픽셀 값은 알고 있다고 가정하면,
Figure pat00032
의 픽셀 값은 해당 픽셀과 연관도가 높은 여러 픽셀들의 집합
Figure pat00033
을 이용해서 구할 수 있는데, 이때 이용하는 것이 jointly Gaussian 방법이다. If, of face image
Figure pat00030
Suppose you don't know the pixel value of,
Figure pat00031
Suppose you know the pixel value of
Figure pat00032
A pixel value of is a set of pixels that are highly related to that pixel.
Figure pat00033
This can be obtained using the jointly Gaussian method.

도 4는 상기 도 3의 얼굴 영상 중 눈, 코, 입, 볼 부분에 대해 연관도가 높은 여러 픽셀들의 집합을 나타낸 것으로,

Figure pat00034
로 표시된 픽셀은
Figure pat00035
픽셀을 나타낸 것이다.FIG. 4 illustrates a set of several highly correlated pixels of the eye, nose, mouth, and cheek parts of the face image of FIG. 3.
Figure pat00034
Pixels marked with
Figure pat00035
It represents a pixel.

만약,

Figure pat00036
일 때,
Figure pat00037
번째 픽셀 값이 v라고 가정하고
Figure pat00038
의 확률을 식으로 표현하면 다음의 수학식 11과 같이 나타낼 수 있다.if,
Figure pat00036
when,
Figure pat00037
Suppose the first pixel value is v
Figure pat00038
When the probability of is expressed by the equation, it can be expressed as Equation 11 below.

Figure pat00039
Figure pat00039

여기에서,

Figure pat00040
는 상수이기 때문에
Figure pat00041
Figure pat00042
에 비례한다고 볼 수 있다. 그러므로
Figure pat00043
Figure pat00044
를 생략하고
Figure pat00045
에 대해 나타낼 수 있는데,
Figure pat00046
를 정리하면 다음의 수학식 12와 같이 나타낼 수 있다. From here,
Figure pat00040
Is a constant
Figure pat00041
The
Figure pat00042
It can be regarded as proportional to. therefore
Figure pat00043
The
Figure pat00044
Omit
Figure pat00045
Can represent
Figure pat00046
In summary, it can be expressed as Equation 12 below.

Figure pat00047
Figure pat00047

여기에서

Figure pat00048
은 다음의 수학식 13과 같다.From here
Figure pat00048
Equation 13 is as follows.

Figure pat00049
Figure pat00049

상기 수학식 12를 통해 기댓값과 분산값을 아래의 수학식 14 및 수학식 15와 같이 정리할 수 있다.Through Equation 12, the expected value and the variance value may be arranged as shown in Equations 14 and 15 below.

Figure pat00050
Figure pat00050

Figure pat00051
Figure pat00051

만약,

Figure pat00052
이 경우에
Figure pat00053
번째 픽셀 값이 v,
Figure pat00054
번째 픽셀 값이 w 라고 가정할 때,
Figure pat00055
값을 구하기 어려우므로 가중합계(weighted sum)에 의해 구하게 된다. 이때, 가중치(weight)는 신뢰도(confidence)로 1/variance, 즉
Figure pat00056
이다. 만일 신뢰도(confidence)가 높으면 가중치(weight) 값을 크게 주고, 신뢰도(confidence)가 낮으면 가중치(weight) 값을 작게 준다.
if,
Figure pat00052
In this case
Figure pat00053
The first pixel value is v,
Figure pat00054
Assuming that the th pixel value is w,
Figure pat00055
Since the value is difficult to obtain, it is obtained by weighted sum. In this case, the weight is 1 / variance, that is, confidence
Figure pat00056
to be. If the confidence is high, the weight value is increased. If the confidence is low, the weight value is made small.

이하에서는 상술한 상관관계를 이용하여 얼굴 영상에서 가려진 검출하고 복원하는 과정에 대하여 설명한다.Hereinafter, a process of detecting and restoring the image hidden in the face image using the above-described correlation will be described.

도 2에서 설명하였던 바와 같이, 본 발명에 따른 상관관계를 이용한 얼굴 검출 및 복원 방법은 학습과정과 검출과정 및 복원과정을 통하여 이루어진다. As described in FIG. 2, the face detection and restoration method using correlation according to the present invention is performed through a learning process, a detection process, and a restoration process.

상기 학습과정은 학습 영상을 입력받아 각 픽셀들의 상관관계를 계산하게 되고, 검출과정은 테스트 영상을 입력받아 상기 학습과정을 통하여 계산된 각 픽셀들의 상관관계를 이용하여 각 픽셀 값의 차를 계산하여 테스트 영상에서 가려진 부분을 검출하게 되며, 복원과정은 상기 검출과정에서 검출된 가려진 부분을 각 픽셀들의 상관관계를 이용하여 복원하게 된다. The learning process receives a learning image and calculates the correlation of each pixel, and the detection process receives a test image and calculates a difference of each pixel value by using the correlation of each pixel calculated through the learning process. The hidden part of the test image is detected, and the reconstruction process reconstructs the hidden part detected in the detection process by using the correlation of each pixel.

상기 학습 과정은 가려지지 않은 얼굴 영상을 입력받아 모든 얼굴 영상들의 모든 픽셀에 대하여 상관계수를 구하게 된다. 즉, 상술한 수학식 10에서와 같이, 먼저 모든 얼굴 영상들의 평균 영상과 표준편차 영상을 구하고, 각 얼굴 영상들에서 평균 영상과의 차 영상들을 구한 후, 이렇게 구해진 차 영상들의 각 픽셀에 대해 상관계수를 구하고, 상관계수 값들 중 기준치를 초과하는 큰 값들의 일부만을 저장하여 이후 검출과정 및 복원과정에서 이용하게 된다. 본 발명의 실시예에서는 얼굴 영상의 픽셀이 10,000개라면 이중 상관계수가 높은 1,000개 정도의 상관계수만을 선택하여 이용함으로써, 이 후 이 상관계수를 이용하는 검출 및 복원 과정이 신속하게 이루어질 수 있도록 한다. 또한, 상기 상관계수 값을 구하기 위하여 먼저 계산되었던 평균 영상과 표준 편차 영상도 추후에 이용하기 위하여 저장하게 된다.The learning process receives an unoccluded face image and obtains a correlation coefficient for every pixel of all face images. That is, as shown in Equation 10, first, the average image and the standard deviation image of all the face images are obtained, the difference images of the average image are obtained from the face images, and then the correlations are obtained for each pixel of the obtained difference images. Coefficients are obtained, and only a part of large values exceeding a reference value among the correlation coefficient values are stored and used for later detection and restoration. In the embodiment of the present invention, if there are 10,000 pixels in the face image, only a correlation coefficient of about 1,000 having a high double correlation coefficient is selected and used, so that a detection and reconstruction process using this correlation coefficient can be quickly performed. In addition, the average image and the standard deviation image, which were previously calculated to obtain the correlation coefficient value, are also stored for later use.

상기 과정을 통하여 학습과정이 수행되면, 테스트 얼굴 영상을 입력받아 테스트 영상 중 가려진 부분을 검출하는 검출과정을 수행하게 된다. 상기 테스트 얼굴 영상은 배경기술에서 설명하였던 주성분 분석법(PCA)에서와 같이, 임의의 위치에 임의의 너비와 높이를 가진 사각형으로 얼굴의 일부분이 가려진 영상이다. When the learning process is performed through the above process, the test face image is input to perform a detection process of detecting a hidden portion of the test image. The test face image is an image in which a part of the face is covered with a rectangle having an arbitrary width and height at an arbitrary position, as in PCA described in the background art.

상기 입력된 테스트 얼굴 영상들은 상기 학습과정을 통하여 구해진 평균 영상으로 정규화 시킨 다음, 정규화된 각 테스트 얼굴 영상의 픽셀 값을 상관관계를 이용하여 추정하게 된다. 만약, 정규화된 각 테스트 얼굴 영상들의 첫 번째 픽셀 값을 모른다고 가정하면, 첫 번째 픽셀에 대해 해당 픽셀과 연관도가 높은 여러 픽셀들의 픽셀 값을 이용하여 해당 픽셀 값을 예측할 수 있다. 이때, 해당 픽셀 값은 상관계수 값이 일정값을 넘는 여러 픽셀 값들의 가중합계(weighted sum)에 의해 구해지는데, 가중치(weight) 값과 예측되는 픽셀 값에 대한 내용을 더 쉽게 이해하기 위해 식으로 표현하면 다음의 수학식 16 내지 수학식 18과 같다.The input test face images are normalized to the average image obtained through the learning process, and then the pixel values of each normalized test face image are estimated using correlation. If it is assumed that the first pixel value of each of the normalized test face images is not known, the pixel value of the first pixel may be predicted by using pixel values of various pixels that are highly related to the pixel. In this case, the corresponding pixel value is obtained by the weighted sum of several pixel values whose correlation coefficient value exceeds a certain value. In order to more easily understand the content of the weighted value and the predicted pixel value, Expressed in the following equations (16) to (18).

Figure pat00057
Figure pat00057

Figure pat00058
Figure pat00058

Figure pat00059
Figure pat00059

여기에서

Figure pat00060
는 i번 째 픽셀(모른다고 가정한 첫 번째 픽셀)과 j번 째 픽셀 사이의 상관관계에 대한 가중치(weight) 값, 즉 앞에서 언급한 신뢰도(confidence)를 의미한다. 또한,
Figure pat00061
는 i번 째 픽셀과 연관도가 높은 픽셀들로, 그 픽셀들의 값은 우리가 알고 있다고 여긴다. 이를 간단히 그림으로 나타내면 도 5과 같은데, 도 5의 왼쪽은 얼굴 영상 부분을 간단하게 나타낸 도면이고, 오른쪽 그림은 상관관계가 높은 픽셀들이
Figure pat00062
에 영향을 주는 것을 나타낸 도면이다.From here
Figure pat00060
Denotes a weight value for the correlation between the i th pixel (the first pixel assuming unknown) and the j th pixel, that is, the aforementioned confidence. Also,
Figure pat00061
Is a pixel that is highly related to the i th pixel, and the values of those pixels are assumed to be known to us. This is shown in Fig. 5 in brief. The left side of Fig. 5 is a simplified view of the face image portion, and the right side shows pixels having high correlation.
Figure pat00062
It is a diagram showing that affects.

상기 도 5을 살펴보면,

Figure pat00063
로 나타낸 것은 픽셀 값을 알지 못해 값을 추정해야 하는 i번 째 픽셀을 나타낸 것이고,
Figure pat00064
는 i번 째 픽셀과 연관도가 높은 픽셀들을 그림으로 도시화한 것이다. 결론적으로 의 픽셀 값은 연관도가 높은 각각의
Figure pat00066
의 픽셀 값들의 가중합계(weighted sum)에 의해 결정된다.
Looking at Figure 5,
Figure pat00063
Is the i-th pixel for which to estimate the value without knowing the pixel value.
Figure pat00064
Is a pictorial representation of pixels highly related to the i th pixel. In conclusion The pixel value of is highly relevant for each
Figure pat00066
Is determined by the weighted sum of the pixel values.

상기에서는 첫 번째 픽셀 값을 모른다고 가정하였다. 이제는 정규화된 각 테스트 얼굴 영상들의 각각의 픽셀 값을 모른다고 가정해 보면, 테스트 얼굴 영상들의 각각의 픽셀 값은 연관도가 높은 픽셀 값들의 가중합계(weighted sum)에 의해 구해진 것으로 간주할 수 있다. In the above, it is assumed that the first pixel value is not known. Now assume that each pixel value of each of the normalized test face images is not known, each pixel value of the test face images may be regarded as obtained by a weighted sum of highly correlated pixel values.

이때, 테스트 얼굴 영상 데이터들의 각각의 실제 픽셀 값

Figure pat00067
와 상관계수를 이용하여 예측된 픽셀 값
Figure pat00068
와의 차이값이 일정 경계값보다 크면 그 부분은 임의의 너비와 높이를 가지는 사각형에 의해 가려진 부분이라 판단되게 되는데, 이를 식으로 표현하면 다음의 수학식 19와 같다. At this time, the actual pixel value of each of the test face image data
Figure pat00067
Pixel values predicted using and correlation coefficient
Figure pat00068
If the difference between and is greater than a certain boundary value, the part is determined to be a part covered by a rectangle having an arbitrary width and height, which is expressed by Equation 19 below.

Figure pat00069
Figure pat00069

여기에서

Figure pat00070
는 가려지지 않은 영역을 의미하고,
Figure pat00071
는 가려진 영역을 의미한다.From here
Figure pat00070
Means an unobstructed area,
Figure pat00071
Means the hidden area.

상기 수학식 19에 의해 각 테스트 얼굴 영상의 특정 부분이 가려진 부분인지 아닌지를 판단하게 되며, 이로써 얼굴 영상의 가려진 부분을 검출할 수 있다.
By using Equation 19, it is determined whether a specific part of each test face image is a hidden part, thereby detecting a hidden part of the face image.

상기의 과정을 통하여 테스트 얼굴 영상의 가려진 영역이 검출되면, 검출된 가려진 영역을 각 픽셀간의 상관관계를 이용하여 복원하게 된다. When the hidden area of the test face image is detected through the above process, the detected hidden area is reconstructed using the correlation between pixels.

상기 검출과정에서와는 달리, 복원과정에서는 얼굴 영상에서 어느 부분이 가려져 픽셀 값을 알지 못하는지 미리 알 수 있다. 따라서, 이 부분의 픽셀 값을 하나씩 채우기 위해서 각각의 픽셀을 제외한 나머지 부분, 즉 픽셀 값을 알고 있다고 가정한 부분만을 이용하여 가려진 픽셀과 연관도가 높은 픽셀들을 다시 찾게 된다. 모르는 픽셀 값은 상기 수학식 16과, 수학식 17, 수학식 18을 통해 예측값이 구해지며, 예측된 픽셀 값들은 상기 수학식 19에서 아래 수학식 20의 조건을 만족할 경우에 한해서 기존 픽셀 값들과 대체된다.Unlike in the detection process, it is possible to know in advance which part of the face image is hidden so that the pixel value is unknown. Therefore, in order to fill the pixel values of this portion one by one, only the remaining portions except for each pixel, that is, the portion assuming that the pixel value is known, are used to find the pixels highly related to the hidden pixels. An unknown pixel value is obtained by using Equation 16, Equation 17, and Equation 18, and the predicted pixel values are replaced with the existing pixel values only when the condition of Equation 20 is satisfied in Equation 19 below. do.

Figure pat00072
Figure pat00072

만약, 픽셀 값을 알고 있다고 가정한 부분이 값을 예측하고자 하는 픽셀의 주변이고 그 부분도 가려진 영역이라면, 가려진 픽셀은 상기 수학식 19의 조건을 만족하지 못하므로 다시 가려진 영역으로 판단된다. 반대로 픽셀 값을 알고 있다고 가정한 부분이 가려지지 않은 영역에 속한다면, 예측된 픽셀 값은 수학식 19의 조건을 만족하므로 모른다고 가정한 픽셀 값은 예측된 값으로 채워진다. 그러므로 알고 있다고 가정한 픽셀들이 가려진 영역에 속한 경우에는 먼저 앞에서 설명한 후자의 경우에 속하는 픽셀들부터 예측된 픽셀 값으로 채워진 다음, 예측된 값들에 의해 유추되게 된다. 결국 최종적으로 복원된 얼굴 영상은 영상의 가려진 영역의 각 픽셀 값들이

Figure pat00073
로 대체될 때까지 상기의 과정을 반복하여 마지막으로 얻어진 영상을 의미한다.
If the part assuming that the pixel value is known is the area around the pixel for which the value is to be predicted and the part is also a hidden area, the hidden pixel does not satisfy the condition of Equation 19 and is determined as the hidden area. On the contrary, if the part assuming that the pixel value is known belongs to the unobscured region, the predicted pixel value is filled with the predicted value because the predicted pixel value satisfies the condition of Equation 19. Therefore, if the pixels assumed to be known belong to the hidden region, they are first filled with predicted pixel values from the pixels belonging to the latter case, and then inferred by the predicted values. Eventually, the finally reconstructed face image is obtained by each pixel value of the hidden region of the image.
Figure pat00073
It means the last image obtained by repeating the above process until replaced by.

상기의 과정을 통하여 테스트 얼굴 영상에서 가려진 부분을 검출하게 되고, 검출된 가려진 부분의 픽셀은 상관관계에 따라 연관도가 높은 다른 픽셀들을 통하여 채워짐으로써 얼굴 영상이 복원된다.
Through the above process, the hidden part of the test face image is detected, and the pixel of the detected hidden part is filled through other highly related pixels according to the correlation to restore the face image.

도 6은 테스트 얼굴 영상을 입력받아 가려진 부분을 검출하고 검출된 부분을 복원하는 과정을 주성분 분석법과 상관계수를 이용하여 실험한 일례를 나타낸 것이다.6 illustrates an example in which a process of detecting a hidden portion and restoring the detected portion by receiving a test face image by using a principal component analysis method and a correlation coefficient is shown.

실험에 사용된 얼굴 영상은 BioID 데이터로 총 1521장의 그레이 영상으로, 각 영상은 23명의 정면 얼굴로 구성되어 있다. 각각의 영상의 크기는 100×100 픽셀의 크기로 이루어져 있으며, 각 영상의 사람 얼굴은 두 눈의 중심을 기점으로 고정되어 있다. 이 데이터는 현실 조건에 맞춰 촬영된 것으로 각 영상마다 매우 큰 변화를 가지는 조명 환경에서 획득되었다.The face images used in this experiment were 1521 gray images with BioID data, and each image consisted of 23 frontal faces. Each image has a size of 100 × 100 pixels, and the human face of each image is fixed at the center of both eyes. This data was taken in real-world conditions and was obtained in a lighting environment with very large changes in each image.

종래 주성분 분석법을 이용한 실험에서는 학습 영상으로 1521장 중 임의로 1000장을 선택하여 사용하였고, 나머지 521장을 테스트 영상으로 사용하였다. 본 발명의 상관관계를 이용한 실험에서는 1521장 모두에 대해 상관계수를 구한 다음, 주성분 분석법에서 사용한 것과 똑같은 테스트 영상을 이용하여 실험하였다. BioID 데이터는 영상의 얼굴 일부분이 가려져 있지 않으므로 실험을 위해, 도 6의 테스트 영상과 같이 임의의 너비와 높이를 가진 직사각형을 얼굴의 임의의 위치에 배열하였다. In the experiment using the conventional principal component analysis method, randomly selected 1000 pieces of 1521 pieces were used as learning images, and the remaining 521 pieces were used as test images. In the experiment using the correlation of the present invention, the correlation coefficients were obtained for all 1521 chapters, and then the same test images used in the principal component analysis were used. Since the bioID data does not cover a part of the face of the image, for experiments, as shown in the test image of FIG. 6, a rectangle having an arbitrary width and height is arranged at an arbitrary position of the face.

종래 주분석 분석법을 이용한 실험에서는, 학습 단계에서 10000차원인 1000장의 학습 얼굴 영상 데이터를 주성분 분석법을 이용하여 50차원으로 축소시키고,

Figure pat00074
인 변환 행렬을 구했다. 테스트 영상으로 들어온 얼굴 부분이 가려진 데이터를 위의 배경기술에서 설명한 수학식 6을 이용하여 재구성한다. 그 다음, 재구성된 얼굴 영상과 테스트 영상인 가려진 얼굴 영상과의 차이를 구한다. 차 영상에서 각각의 픽셀 값이 일정 경계값을 넘으면 영상에서 가려진 부분이라고 간주하고, 일정 경계값을 넘지 않으면 가려지지 않은 부분이라 여긴다. 이를 그림으로 나타내기 위해서 경계값을 넘는 부분의 값은 1로 정하고, 넘지 않는 부분은 0으로 정하여 이를 도시화하였다. 도 6의 주성분 분석법 검출 영상에서와 같이, 가려진 부분을 어느 정도 찾지만 가려지지 않은 영역을 가려진 영역이라 판단하거나 가려진 영역에서도 0의 값을 가지는 픽셀들이 존재하는 등 여러 잡음이 발생하는 것을 볼 수 있다. 이제 앞의 수학식 8에서 언급했듯이, 새로운
Figure pat00075
에 영상의 가려진 부분이라 간주된 각 픽셀에는 위에서 재구성된 영상의 각 픽셀 값으로 채우고, 나머지 가려지지 않은 부분에는 테스트 얼굴 영상의 가려지지 않은 부분으로 채운다. 새롭게 생성된 영상
Figure pat00076
를 테스트 영상과 같이 취급하여 위의 과정을 실험에서 정한 기준치가 수렴할 때까지 반복한다. 이렇게 해서 최종적으로 복원된 영상은 도 6의 주성분 분석법 복원 영상에서 확인할 수 있다. In the experiment using the conventional principal analysis method, 1000 learning face image data, which is 10000 dimensions in the learning stage, is reduced to 50 dimensions using the principal component analysis method.
Figure pat00074
The phosphorus transformation matrix was obtained. The data masked from the face part of the test image is reconstructed using Equation 6 described in the background art above. Then, the difference between the reconstructed face image and the masked face image, which is a test image, is obtained. If each pixel value in the difference image exceeds a certain boundary value, it is regarded as a part that is hidden in the image. In order to show this as a figure, the value of the part exceeding the boundary value is set to 1, and the part not exceeding is set to 0 and illustrated. As shown in the principal component analysis detection image of FIG. 6, it can be seen that various noises are generated, such as searching for a part of the hidden part but determining the unobscured area as the hidden area, or having pixels having a value of 0 even in the hidden area. . Now, as mentioned in Equation 8,
Figure pat00075
Each pixel considered to be a hidden part of the image is filled with the value of each pixel of the reconstructed image above, and the remaining unhidden part is filled with an unhidden portion of the test face image. Newly created video
Figure pat00076
Repeat the above procedure until the reference values established in the experiment converge, treating them as test images. The finally reconstructed image can be confirmed in the reconstructed image of the principal component analysis method of FIG. 6.

한편, 본 발명에 따른 상관관계를 이용한 실험에서는, BioID 데이터 1521장을 상기 수학식 10을 이용하여 각 픽셀에 대한 상관계수를 구한다. 그 중 상관계수 값들이 큰 1000개만을 추려 따로 저장해 둔다. 먼저 따로 저장해 둔 상관계수 값들을 이용하여 영상의 가려진 부분을 찾아낸다. 본 실험에서 1000개 중 큰 값부터 20개의 상관계수 값을 뽑아내어 그 상관계수 값이 0.9 이상일 때만 jointly Gaussian을 이용하였다. 만일 특정 한 픽셀 값을 모르고 20개의 상관계수 값이 다 0.9 이상일 때, 각 20개의 상관계수 값에 해당하는 영상 픽셀 값에 가중치(weight)를 주어 모르는 픽셀 값을 추정하게 된다. 이때, 추정된 픽셀 값과 테스트 영상의 픽셀 값의 차가 일정 경계값보다 크면 가려진 영역이라 간주하고, 경계값보다 작으면 가려지지 않은 영역이라 간주한다. 여기서도 위의 주성분 분석법의 실험에서와 같이 가려진 영역은 1의 값으로, 가려지지 않은 영역은 0의 값으로 정하여 도식화하였는데, 이는 도 6의 상관계수 검출 영상에서 확인할 수 있다. 도 6의 상관계수 검출 영상을 참조하면, 실제 가려진 영역보다 좀 더 튀어 나오는 잡음이 발생하지만, 주성분 분석법을 이용한 방법보다 가려진 영역과 거리가 먼 영역에서 발생하는 잡음이 존재하지 않으며 가려진 영역 내에서의 잡음이 발생하지 않는 것을 확인할 수 있다. 또한, 복원 영상에서도, 도 6의 상관계수 복원 영상을 육안으로 확인하는 것에 의하여도 주성분 분석법의 복원 영상보다 좀 더 깔끔한 결과를 도출하게 된다.On the other hand, in the experiment using the correlation according to the present invention, 1521 bioID data are obtained using the equation (10) to obtain a correlation coefficient for each pixel. Among them, only 1000 large correlation coefficients are stored separately. First, the hidden part of the image is found by using the correlation coefficient values stored separately. In this experiment, 20 correlation coefficients were extracted from the larger of 1000 and jointly Gaussian was used only when the correlation coefficient was above 0.9. If 20 correlation coefficient values are not more than 0.9 without knowing a specific pixel value, an unknown pixel value is estimated by weighting an image pixel value corresponding to each of the 20 correlation coefficient values. In this case, when the difference between the estimated pixel value and the pixel value of the test image is larger than a predetermined boundary value, it is regarded as a hidden area, and when smaller than the boundary value, it is regarded as an unobstructed area. Here, as in the experiment of the principal component analysis method, the hidden region is plotted as a value of 1 and the uncovered region is set to a value of 0, which can be confirmed in the correlation coefficient detection image of FIG. 6. Referring to the correlation coefficient detection image of FIG. 6, although the noise that pops up more than the actual hidden region occurs, the noise generated in the region farther from the hidden region than the method using the principal component analysis method does not exist and is within the hidden region. You can see that noise does not occur. In addition, in the reconstructed image, the visual confirmation of the correlation coefficient reconstructed image of FIG. 6 also leads to a cleaner result than the reconstructed image of the principal component analysis method.

도 6에 도시된 바와 같이, 테스트 얼굴 영상 데이터들을 직접 눈으로 비교해 보아도 주성분 분석법을 이용하여 복원된 영상이 상관관계를 이용하여 복원된 영상들보다 뭉개지는 효과(blurring)가 더 심하고, 가려진 영역과 가려지지 않은 영역과의 경계가 부드럽게 연결되지 않는 것(discontinuity)을 확인할 수 있다. 또한, 주성분 분석법을 이용한 방법은 모든 픽셀들을 다 이용하는 반면에 본 발명에서 제안된 상관계수를 이용한 방법은 몇 개의 픽셀들만을 이용하는 장점이 있다.
As shown in FIG. 6, even when the test face image data are directly compared with the eye, blurring of the image reconstructed using the principal component analysis method is more severe than the images reconstructed using the correlation. You can see that the boundary with the unobscured area is not smoothly connected (discontinuity). In addition, while the method using the principal component analysis method uses all the pixels, the method using the correlation coefficient proposed in the present invention has the advantage of using only a few pixels.

상기에서 BioID 데이터의 테스트 얼굴 영상들을 주성분 분석법을 이용하여 영상의 가려진 부분을 복원하였고, 또 상관관계를 이용하여 영상의 가려진 부분을 복원하였다. 이렇게 두 가지 방법에 의해 복원된 영상들은 가려지기 전의 영상, 즉 실제 기준(ground truth) 영상과의 오차를 계산함으로써 복원 성능을 비교할 수 있다. The test face images of the BioID data were reconstructed with the principal component analysis method, and the reconstructed portions of the image were reconstructed using the correlation. The images reconstructed by the two methods can be compared with the reconstruction performance by calculating an error with the image before the image, that is, the ground truth image.

주성분 분석법을 이용하여 최종적으로 복원된 영상을

Figure pat00077
라고 하고, 상관관계를 이용하여 복원된 영상을
Figure pat00078
라고 하자. 또한, 테스트 얼굴 영상 데이터가 임의의 너비와 높이를 가진 사각형으로 가려지기 전의 실제 기준(ground truth) 영상 데이터를
Figure pat00079
라고 하자. 복원된 영상
Figure pat00080
또는
Figure pat00081
가 얼마나 실제 영상
Figure pat00082
와 비슷하게 복원되었는지를 알기 위해 L1-norm 오차와 L2-norm 오차를 구해 비교해 본다. 오차를 구하기 위한 식들은 아래의 수학식 21과 수학식 22와 같다. Finally reconstructed image using principal component analysis
Figure pat00077
And reconstructed image using correlation
Figure pat00078
Let's say In addition, the ground truth image data before the test face image data is obscured by a rectangle of arbitrary width and height can be obtained.
Figure pat00079
Let's say Reconstructed image
Figure pat00080
or
Figure pat00081
How much real footage
Figure pat00082
To find out whether the reconstruction is similar to, calculate L1-norm error and L2-norm error. Equations for calculating the error are as shown in Equations 21 and 22 below.

Figure pat00083
Figure pat00083

Figure pat00084
Figure pat00084

다음의 표 1은 상기 수학식 21과 수학식 22를 통하여 계산된 주성분 분석법과 상관관계를 이용한 복원 영상의 L1-norm 오차와 L2-norm 오차를 비교한 도표이다.Table 1 below is a chart comparing L1-norm error and L2-norm error of the reconstructed image using the principal component analysis method and the correlation calculated through Equation 21 and Equation 22.

Figure pat00085
Figure pat00085

상기 표 1에서 보여지는 바와 같이, L1-norm 평균 오차는 주성분 분석법이 17052.45, 상관관계를 이용한 방법이 9997.02로 상관관계를 이용한 방법이 주성분 분석법보다 7055.43 정도 오차가 작은 것을 볼 수 있다. L2-norm 평균 오차는 주성분 분석법이 788.06, 상관관계를 이용한 방법이 499.21로 상관관계를 이용한 방법이 주성분 분석법보다 288.85정도 오차가 작은 것을 확인할 수 있다. 이와 같이, 복원된 그림을 육안으로 비교해 보아도 상관관계를 이용한 방법이 오차가 작다는 것을 확인할 수 있었는데, 실제 계산한 L1-norm 오차와 L2-norm 오차를 비교해 보아도 상관관계를 이용한 방법이 오차가 작다는 것을 다시 한 번 확인할 수 있다.
As shown in Table 1, L1-norm average error is 17052.45 principal component analysis method, 9997.02 method using the correlation, the method using the correlation is 7070.43 error smaller than the principal component analysis method. The L2-norm mean error is 788.06 in principal component analysis method and 499.21 in correlation method, and the correlation method is smaller by 288.85 error than principal component method. As a result, even when the reconstructed picture was compared with the naked eye, the method using the correlation was found to have a small error. Even when comparing the calculated L1-norm error with the L2-norm error, the method using the correlation was small. You can check once again.

이와 같이, 본 발명에 따른 상관관계를 이용하여 영상의 가려진 부분을 검출하고 복원하는 방법이 종래의 주성분 분석법을 이용한 방법보다 뭉개지는 현상(blurring)이 적고 더 적은 픽셀들의 정보를 이용하여 실제 기준(ground truth) 영상과의 오차가 작은 좋은 결과를 얻을 수 있는 것을 알 수 있다. As described above, the method of detecting and restoring the hidden part of the image using the correlation according to the present invention has less blurring and less information than the conventional method using the principal component analysis method. ground truth) It can be seen that a good result can be obtained with a small error from the image.

이러한 본 발명은 상술한 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 갖는 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구 범위의 균등범위 내에서 다양한 수정 및 변형이 이루어질 수 있음은 물론이다.The present invention is not limited to the above-described embodiments, and various modifications within the equivalent scope of the technical idea of the present invention and the claims to be described below by those skilled in the art to which the present invention pertains. Of course, modifications can be made.

Claims (8)

입력되는 얼굴 영상의 가려진 부분을 검출하여 복원하는 얼굴 영상 검출 및 복원 방법에 있어서,
(a) 학습 얼굴 영상을 입력받아, 학습 얼굴 영상에 포함된 각 픽셀 값들의 상관계수를 계산하는 학습 단계와;
(b) 얼굴 영상 일부가 가려진 테스트 얼굴 영상을 입력받아, 상기 테스트 얼굴 영상의 각 픽셀 값과 상기 학습 단계를 통하여 계산된 상관계수에 따라 상관도가 높은 다수 개의 픽셀 값들에 의해 예측된 픽셀 값을 비교하여 차이를 계산함으로써 테스트 얼굴 영상에 포함된 가려진 영역을 검출하는 검출 단계와;
(c) 상기 검출 단계에서 검출된 가려진 영역의 픽셀 값을 상기 학습 단계에서 계산된 상관계수에 따라 상관도가 높은 다수 개의 가려지지 않은 부분의 픽셀 값들로 예측하고, 예측된 픽셀 값으로 가려진 영역의 픽셀 값을 대체하여 얼굴 영상을 복원하는 복원 단계;를 포함하여 이루어지는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
In the face image detection and restoration method for detecting and restoring the hidden portion of the input face image,
(a) a learning step of receiving a learning face image and calculating a correlation coefficient of each pixel value included in the learning face image;
(b) receiving a test face image in which a part of the face image is hidden, and predicting pixel values predicted by a plurality of pixel values having a high correlation according to each pixel value of the test face image and a correlation coefficient calculated through the learning step. A detecting step of detecting a hidden area included in the test face image by comparing and calculating a difference;
(c) predicting pixel values of the masked region detected in the detecting step with pixel values of a plurality of unobscured parts having a high correlation according to the correlation coefficient calculated in the learning step, and And restoring a face image by substituting pixel values.
제 1항에 있어서,
상기 학습 단계(a)는 입력되는 학습 얼굴 영상에 포함된 각 픽셀 값의 평균 및 표준편차를 계산하고, 평균 및 표준편차를 이용하여 각 픽셀 간의 상관계수를 계산하는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
The method of claim 1,
In the learning step (a), the average and standard deviation of each pixel value included in the input learning face image are calculated, and the correlation coefficient between each pixel is calculated using the average and standard deviation. A method of detecting and restoring a masked face image.
제 2항에 있어서,
상기 학습 단계(a)에서 계산되는 각 픽셀 간의 상관계수는 기준 값을 초과하는 일부 큰 값들이 선택되어, 검출 단계 및 복원 단계에서 이용되는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
The method of claim 2,
The correlation coefficient between each pixel calculated in the learning step (a) is selected by some large values exceeding the reference value, and used in the detection step and the reconstruction step. .
제 1항에 있어서,
상기 검출 단계(b)는
(b-1) 상기 테스트 얼굴 영상의 각 픽셀과 상관도가 높은 다수 개의 픽셀 값을 예측하여 예측된 영상으로 각 픽셀 값을 재구성하는 단계와,
(b-2) 상기 계산된 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 픽셀 값으로 재구성된 픽셀 값을 비교하여 각 픽셀 값의 차이가 기준 값을 초과하는 픽셀을 선택하여 가려진 영역으로 판단하는 단계를 포함하여 이루어지는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
The method of claim 1,
The detecting step (b)
(b-1) reconstructing each pixel value into a predicted image by predicting a plurality of pixel values highly correlated with each pixel of the test face image;
(b-2) comparing the pixel values reconstructed with the pixel values having a high correlation with each pixel value of the calculated test face image, and selecting a pixel whose difference between each pixel value exceeds a reference value and determining the area as a masked area; A method for detecting and restoring a masked face image using correlations comprising the steps of: a.
제 4항에 있어서,
상기 테스트 얼굴 영상의 각 픽셀 값을 재구성하는 단계(b-1)에서 예측되는 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은, 상기 학습 단계에서 계산된 상관계수 중 기준 값을 초과하는 값이 큰 일부의 상관계수 값을 갖는 픽셀 값으로 예측되는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
The method of claim 4, wherein
A plurality of pixel values having a high correlation with each pixel value of the test face image predicted in the step (b-1) of reconstructing each pixel value of the test face image is based on a reference value among the correlation coefficients calculated in the learning step. A method for detecting and restoring a masked face image using correlations, wherein the exceeding value is predicted as a pixel value having a part of a large correlation coefficient value.
제 4항에 있어서,
상기 테스트 얼굴 영상의 각 픽셀 값을 재구성하는 단계(b-1)에서 예측되는 테스트 얼굴 영상의 각 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은 다음의 수학식에 의해 계산되는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
[수학식]
Figure pat00086

Figure pat00087

여기에서, N은 얼굴 영상의 개수이고,
Figure pat00088
은 n번째 얼굴 영상에서의 i번째 픽셀 값이고,
Figure pat00089
는 i번 째, j번 째 샘플 평균을 나타낸다.
The method of claim 4, wherein
A plurality of pixel values having a high correlation with each pixel value of the test face image predicted in step (b-1) of reconstructing each pixel value of the test face image may be calculated by the following equation. A method for detecting and restoring hidden face images using relations.
[Mathematical Expression]
Figure pat00086

Figure pat00087

Where N is the number of face images,
Figure pat00088
Is the i th pixel value in the n th face image,
Figure pat00089
Denotes the i th and j th sample averages.
제 1항에 있어서,
상기 복원 단계(c)에서 예측되는 가려진 영역의 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은, 상기 검출 단계에서 가려진 영역으로 판단되지 않은 테스트 얼굴 영역의 픽셀 값인 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
The method of claim 1,
The plurality of pixel values having a high correlation with the pixel values of the masked area predicted in the restoring step (c) are the pixel values of the test face area that are not determined to be the masked area in the detecting step. Facial image detection and restoration method.
제 1항에 있어서,
상기 복원 단계(c)에서 예측되는 가려진 영역의 픽셀 값과 상관도가 높은 다수 개의 픽셀 값은, 상기 학습 단계에서 계산된 상관계수 중 기준 값을 초과하는 값이 큰 일부의 상관계수 값을 갖는 픽셀 값으로 예측되는 것을 특징으로 하는 상관관계를 이용한 가려진 얼굴 영상 검출 및 복원 방법.
The method of claim 1,
The plurality of pixel values having a high correlation with the pixel values of the masked region predicted in the reconstruction step (c) may include pixels having some correlation coefficient values larger than a reference value among the correlation coefficients calculated in the learning step. A method for detecting and restoring a masked face image using a correlation characterized in that it is predicted by a value.
KR1020110031596A 2011-04-06 2011-04-06 The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method KR101308347B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110031596A KR101308347B1 (en) 2011-04-06 2011-04-06 The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110031596A KR101308347B1 (en) 2011-04-06 2011-04-06 The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method

Publications (2)

Publication Number Publication Date
KR20120113912A true KR20120113912A (en) 2012-10-16
KR101308347B1 KR101308347B1 (en) 2013-09-17

Family

ID=47283296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110031596A KR101308347B1 (en) 2011-04-06 2011-04-06 The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method

Country Status (1)

Country Link
KR (1) KR101308347B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160015583A (en) * 2014-07-31 2016-02-15 한국과학기술연구원 Image processing apparatus and method
KR20200061294A (en) * 2018-11-23 2020-06-02 주식회사 스칼라웍스 Method and apparatus for inferring invisible image using machine learning
CN112069993A (en) * 2020-09-04 2020-12-11 西安西图之光智能科技有限公司 Dense face detection method and system based on facial features mask constraint and storage medium
CN112926424A (en) * 2021-02-10 2021-06-08 北京爱笔科技有限公司 Face occlusion recognition method and device, readable medium and equipment
CN113099067A (en) * 2021-03-18 2021-07-09 西安交通大学 Reversible information hiding method and system based on pixel value sequencing prediction and diamond prediction
CN113705466A (en) * 2021-08-30 2021-11-26 浙江中正智能科技有限公司 Human face facial feature occlusion detection method used for occlusion scene, especially under high-imitation occlusion
US11200405B2 (en) 2018-05-30 2021-12-14 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image
CN117290296A (en) * 2023-11-27 2023-12-26 北京网智易通科技有限公司 Electronic file format conversion detection method, device and equipment
CN112926424B (en) * 2021-02-10 2024-05-31 北京爱笔科技有限公司 Face shielding recognition method, device, readable medium and equipment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101956071B1 (en) * 2015-01-13 2019-03-08 삼성전자주식회사 Method and apparatus for verifying a user
US11010595B2 (en) 2017-03-23 2021-05-18 Samsung Electronics Co., Ltd. Facial verification method and apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970012217A (en) * 1995-08-08 1997-03-29 구자홍 Automatic Feature Point Extraction Method Using Face Mask
KR100445800B1 (en) * 2001-01-05 2004-08-25 학교법인 인하학원 Face-image recognition method of similarity measure using correlation
KR100473598B1 (en) * 2002-11-04 2005-03-11 삼성전자주식회사 System and method for detecting veilde face image

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160015583A (en) * 2014-07-31 2016-02-15 한국과학기술연구원 Image processing apparatus and method
US11200405B2 (en) 2018-05-30 2021-12-14 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image
US11790494B2 (en) 2018-05-30 2023-10-17 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image
KR20200061294A (en) * 2018-11-23 2020-06-02 주식회사 스칼라웍스 Method and apparatus for inferring invisible image using machine learning
CN112069993A (en) * 2020-09-04 2020-12-11 西安西图之光智能科技有限公司 Dense face detection method and system based on facial features mask constraint and storage medium
CN112069993B (en) * 2020-09-04 2024-02-13 西安西图之光智能科技有限公司 Dense face detection method and system based on five-sense organ mask constraint and storage medium
CN112926424A (en) * 2021-02-10 2021-06-08 北京爱笔科技有限公司 Face occlusion recognition method and device, readable medium and equipment
CN112926424B (en) * 2021-02-10 2024-05-31 北京爱笔科技有限公司 Face shielding recognition method, device, readable medium and equipment
CN113099067A (en) * 2021-03-18 2021-07-09 西安交通大学 Reversible information hiding method and system based on pixel value sequencing prediction and diamond prediction
CN113705466A (en) * 2021-08-30 2021-11-26 浙江中正智能科技有限公司 Human face facial feature occlusion detection method used for occlusion scene, especially under high-imitation occlusion
CN113705466B (en) * 2021-08-30 2024-02-09 浙江中正智能科技有限公司 Face five sense organ shielding detection method for shielding scene, especially under high imitation shielding
CN117290296A (en) * 2023-11-27 2023-12-26 北京网智易通科技有限公司 Electronic file format conversion detection method, device and equipment
CN117290296B (en) * 2023-11-27 2024-02-09 北京网智易通科技有限公司 Electronic file format conversion detection method, device and equipment

Also Published As

Publication number Publication date
KR101308347B1 (en) 2013-09-17

Similar Documents

Publication Publication Date Title
KR101308347B1 (en) The Detection and Recovery Method of Occlusion of a Face Image using a Correlation Based Method
WO2018121567A1 (en) Method and device for use in detecting object key point, and electronic device
US20170069059A1 (en) Non-Local Image Denoising
CN109284673B (en) Object tracking method and device, electronic equipment and storage medium
KR20180065889A (en) Method and apparatus for detecting target
CN108230354B (en) Target tracking method, network training method, device, electronic equipment and storage medium
JP2005190477A (en) Object detection
CN111611873A (en) Face replacement detection method and device, electronic equipment and computer storage medium
WO2017053037A1 (en) Classifying images and videos
EP2927864A1 (en) Image processing device and image processing method
CN111985427A (en) Living body detection method, living body detection apparatus, and readable storage medium
CN112001983B (en) Method and device for generating occlusion image, computer equipment and storage medium
CN113487521A (en) Self-encoder training method and component, abnormal image detection method and component
CN113808031A (en) Image restoration method based on LSK-FNet model
CN114241370A (en) Intrusion identification method and device based on digital twin transformer substation and computer equipment
CN111931754B (en) Method and system for identifying target object in sample and readable storage medium
CN106778822B (en) Image straight line detection method based on funnel transformation
CN112991159A (en) Face illumination quality evaluation method, system, server and computer readable medium
Bedagkar-Gala et al. Joint modeling of algorithm behavior and image quality for algorithm performance prediction
KR101288248B1 (en) Human tracking system and method for privacy masking
Ortiz-Jaramillo et al. Computing contrast ratio in images using local content information
Genin et al. Point object detection using a NL-means type filter
WO2022120532A1 (en) Presentation attack detection
Eldarova et al. Comparative analysis of universal methods no reference quality assessment of digital images
Robinson et al. Foreground segmentation in atmospheric turbulence degraded video sequences to aid in background stabilization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160719

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170717

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 7