KR102633279B1 - Apparatus and method for selective deidentification - Google Patents

Apparatus and method for selective deidentification Download PDF

Info

Publication number
KR102633279B1
KR102633279B1 KR1020220104566A KR20220104566A KR102633279B1 KR 102633279 B1 KR102633279 B1 KR 102633279B1 KR 1020220104566 A KR1020220104566 A KR 1020220104566A KR 20220104566 A KR20220104566 A KR 20220104566A KR 102633279 B1 KR102633279 B1 KR 102633279B1
Authority
KR
South Korea
Prior art keywords
face
identification
faces
exposed
image frame
Prior art date
Application number
KR1020220104566A
Other languages
Korean (ko)
Inventor
이동호
박지성
배상민
주찬양
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020220104566A priority Critical patent/KR102633279B1/en
Application granted granted Critical
Publication of KR102633279B1 publication Critical patent/KR102633279B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

선택적 비식별화 장치와 선택적 비식별화 방법에 관한 것으로, 일 실시예에 따른 선택적 비식별화 장치는 비교 대상 얼굴을 저장하는 저장부와, 제1 영상 프레임에서 적어도 하나의 얼굴을 추출하고, 추출된 모든 얼굴에 대해 비식별화 처리를 수행하고, 추출된 모든 얼굴 중 일부에 대응하는 제1 집합을 생성하고, 상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하여, 상기 제1 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 프로세서를 포함할 수 있다.Pertaining to a selective de-identification device and a selective de-identification method, the selective de-identification device according to one embodiment includes a storage unit that stores a face to be compared, extracts at least one face from a first image frame, and extracts Perform de-identification processing on all the extracted faces, create a first set corresponding to some of the extracted faces, compare the faces corresponding to the first set with the comparison target face, and create the first set. It may include a processor that determines exposed faces and non-exposed faces among the faces corresponding to .

Description

선택적 비식별화 장치 및 방법{APPARATUS AND METHOD FOR SELECTIVE DEIDENTIFICATION}APPARATUS AND METHOD FOR SELECTIVE DEIDENTIFICATION}

선택적 비식별화 장치 및 방법에 관한 것이다.It relates to a selective de-identification device and method.

인터넷 서비스의 개선, 인터넷 망의 확대, 스마트 폰의 대중적 보급, 고속 데이터 전송 기술의 발전, 고화질 영상 기술의 개발, 소셜 네트워크 서비스나 소셜 미디어 플랫폼의 급성장에 따라, 개개인은 종래보다 더욱 용이하고 신속하게 미디어를 생산하고, 생산한 미디어를 광범위에 걸쳐 스트리밍하거나 공유할 수 있게 되었고, 불특정 다수인이 쉽게 미디어에 접근하고 열람할 수 있었다. 그런데, 이러한 미디어의 대량 생산 및 무분별한 공개에 따라 미디어 내에 나타난 얼굴이나 개인 신상 등의 경솔한 노출도 급증하고 있으며, 이는 개개인의 사생활 침해나 얼굴 도용 등과 같은 중대한 문제점을 유발하고 있다. 특히 미디어에 의해 개인 사생활이 광범위하게 공개 및 배포된 경우에는, 피해의 원상 복구 및 재배포 방지가 매우 어려운 것이 현실이다.With the improvement of Internet services, expansion of Internet networks, popular distribution of smart phones, development of high-speed data transmission technology, development of high-definition video technology, and rapid growth of social network services and social media platforms, individuals can use them more easily and quickly than before. It became possible to produce media, stream or share the produced media widely, and an unspecified number of people could easily access and view media. However, with the mass production and indiscriminate disclosure of such media, inconsiderate exposure of faces or personal information in the media is also rapidly increasing, causing serious problems such as invasion of individual privacy and face theft. In particular, in cases where personal information has been widely disclosed and distributed by the media, the reality is that it is very difficult to restore the original damage and prevent redistribution.

따라서, 이러한 개개인의 민감한 정보의 노출 및 사생활 침해의 방지를 위해서, 사전에 미디어 내에서 얼굴 등과 같은 개인적 정보를 제거하거나 차폐하여 식별 불가능하게 할 필요가 있다. 과거에는 이를 위해 영상 내에서 얼굴을 검색하고, 검색된 얼굴에 모자이크와 같은 비식별화 처리 방법을 적용하여 해당 얼굴을 식별할 수 없게 하는 것과 방법을 이용하였었다. 그러나, 영상이 동영상인 경우에는 다수의 프레임 각각에 대한 얼굴 검색 및 비식별화 과정이 많은 노동력, 대량의 컴퓨팅 자원 및/또는 장시간의 영상 처리를 요구하므로, 이러한 방법은 편의성, 접근성, 신속성, 효율성 및 경제성 등 다양한 측면에서 많은 문제점을 가지고 있었다. 게다가 많은 방법들은 개개인을 식별할 수 있는 특징을 제외한 나머지 얼굴을 특징들을 데이터로 활용하기 위해 얼굴 특징의 손실을 최소화하는데 초점을 맞추고 있었다. 한편으로는 동영상 내에는 창작자나 배우 등과 같이 의도적 노출이 필요한 개인의 얼굴도 존재할 수 있는데, 이들의 얼굴은 미디어 노출이 당연하거나 또는 예정되어 있기 때문에 상술한 비식별화 처리의 적용이 배제되어야 한다. 그러나, 종래의 방법들은 이와 같이 의도적 노출이 필요한 개개인의 얼굴을 제외한 나머지 얼굴에 대해서만 비식별화 처리를 수행할 수는 없었다.Therefore, in order to prevent exposure of such individuals' sensitive information and invasion of privacy, it is necessary to remove or shield personal information such as faces from media in advance to make them unidentifiable. In the past, for this purpose, a method was used to search for faces in the video and apply de-identification processing methods such as mosaics to the searched faces to make the faces unidentifiable. However, when the image is a video, the face search and de-identification process for each of multiple frames requires a lot of labor, a large amount of computing resources, and/or a long time of image processing, so this method has convenience, accessibility, speed, and efficiency. It had many problems in various aspects such as economic feasibility and efficiency. In addition, many methods focused on minimizing the loss of facial features in order to use facial features as data, excluding features that could identify individuals. On the other hand, there may also be faces of individuals in the video that require intentional exposure, such as creators or actors. Since these faces are natural or scheduled to be exposed to the media, the application of the de-identification process described above should be excluded. However, conventional methods were unable to perform de-identification processing only on faces other than those of individuals that required intentional exposure.

보다 적은 자원을 소모하면서 신속하게 영상 내 특정 대상은 식별 가능하게 하고 특정 대상 이외의 다른 대상은 식별 불가능하게 하도록 영상을 처리할 수 있는 선택적 비식별화 장치 및 방법을 제공하는 것을 해결하고자 하는 과제로 한다.The problem sought to be solved is to provide a selective de-identification device and method that can quickly process images to enable identification of specific objects in the image while consuming less resources and to make other objects other than the specific object unidentifiable. do.

상술한 과제를 해결하기 위하여, 선택적 비식별화 장치 및 선택적 비식별화 방법이 제공된다.In order to solve the above-mentioned problems, a selective de-identification device and a selective de-identification method are provided.

선택적 비식별화 장치는 비교 대상 얼굴을 저장하는 저장부와, 제1 영상 프레임에서 적어도 하나의 얼굴을 추출하고, 추출된 모든 얼굴에 대해 비식별화 처리를 수행하고, 추출된 모든 얼굴 중 일부에 대응하는 제1 집합을 생성하고, 상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하여, 상기 제1 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 프로세서를 포함할 수 있다.The selective de-identification device includes a storage unit that stores faces to be compared, extracts at least one face from a first image frame, performs de-identification processing on all extracted faces, and selects some of all extracted faces. It may include a processor that generates a corresponding first set, compares the face corresponding to the first set with the face to be compared, and determines an exposed face and an unexposed face among the faces corresponding to the first set.

상기 프로세서는, 상기 제1 영상 프레임에서 추출된 모든 얼굴에 식별 번호를 할당하고, 미리 정의된 기준에 따라 상기 식별 번호를 배열하여 제1 배열된 식별 번호를 획득하고, 상기 제1 배열된 식별 번호에서 기준 개수의 식별 번호를 검출하여 상기 제1 집합을 생성할 수 있다.The processor assigns identification numbers to all faces extracted from the first image frame, arranges the identification numbers according to a predefined standard to obtain a first arranged identification number, and obtains a first arranged identification number. The first set can be generated by detecting a standard number of identification numbers.

상기 미리 정의된 기준은 상기 제1 영상 프레임 내에서 얼굴의 크기 및 위치 중 적어도 하나를 포함할 수도 있다.The predefined criteria may include at least one of the size and position of the face within the first image frame.

상기 기준 개수는, 비교 대상의 얼굴의 개수 또는 상기 비교 대상의 얼굴의 개수와 여분의 값을 더한 값을 포함할 수도 있다.The reference number may include the number of faces to be compared or the number of faces to be compared plus an extra value.

상기 프로세서는, 상기 배열된 식별 번호에서 나머지 식별 번호를 조합하여 제2 집합을 생성하고, 제2 영상 프레임에서 적어도 하나의 얼굴을 추출하고, 추출된 모든 얼굴에 대해 비식별화 처리를 수행하고, 상기 미리 정의된 기준에 따라 상기 제2 영상 프레임에서 추출된 모든 얼굴 각각의 식별 번호를 배열하여 제2 배열된 식별 번호를 획득하고, 상기 제2 집합과 상기 제2 배열된 식별 번호를 비교하고, 상기 제2 배열된 식별 번호 중에서 상기 제2 집합에 포함 여부에 따라 상기 제2 배열된 식별 번호를 재배열함으로써 제1 재배열된 식별 번호를 획득하는 것도 가능하다.The processor generates a second set by combining the remaining identification numbers from the arranged identification numbers, extracts at least one face from the second image frame, and performs de-identification processing on all extracted faces, Obtain a second arranged identification number by arranging the identification numbers of all faces extracted from the second image frame according to the predefined standard, compare the second set with the second arranged identification number, and It is also possible to obtain a first rearranged identification number by rearranging the second arranged identification numbers according to whether they are included in the second set.

상기 프로세서는, 상기 노출 얼굴에 대응하는 식별 번호가 상기 제1 재배열된 식별 번호에 존재하면, 상기 제1 재배열된 식별 번호를 재배열하여 제2 재배열된 식별 번호를 획득할 수도 있다.If the identification number corresponding to the exposed face is present in the first rearranged identification number, the processor may rearrange the first rearranged identification number to obtain a second rearranged identification number.

상기 프로세서는, 상기 제1 재배열된 식별 번호 또는 상기 제2 재배열된 식별 번호로부터 상기 기준 개수의 식별 번호를 검출하여 제3 집합을 생성하고, 상기 제3 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하여, 상기 제3 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정할 수도 있다.The processor generates a third set by detecting the reference number of identification numbers from the first rearranged identification number or the second rearranged identification number, and compares the face corresponding to the third set with the target. By comparing faces, an exposed face and an unexposed face may be determined among the faces corresponding to the third set.

상기 프로세서는, 상기 제1 집합에 해당하는 얼굴을 복원하고, 복원된 얼굴을 상기 비교 대상 얼굴과 비교하거나, 상기 비교 대상 얼굴에 대한 비식별화 처리를 수행하고, 상기 제1 집합의 얼굴을 비식별화 처리된 비교 대상 얼굴과 비교함으로써, 상기 제1 집합의 얼굴 중에서 노출 얼굴을 결정할 수도 있다.The processor restores the face corresponding to the first set, compares the restored face with the comparison target face, or performs de-identification processing on the comparison target face, and compares the face of the first set. An exposed face may be determined from among the faces in the first set by comparing it with the identified comparison target face.

상기 프로세서는, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 결과 영상을 생성하는 것도 가능하다.The processor may generate a result image so that the exposed face can be identified and the non-exposed face cannot be identified.

상기 프로세서는, 상기 제1 집합의 얼굴이 복원된 경우에는, 상기 제1 집합의 얼굴 중 비노출 얼굴에 대해서 비식별화를 더 수행하거나, 또는 상기 제1 집합의 얼굴 모두에 대해 비식별화를 수행하고 상기 노출 얼굴에 대해 식별화를 더 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하거나, 또는 상기 비교 대상 얼굴에 대한 비식별화 처리가 수행된 경우에는 상기 제1 집합의 얼굴 중 노출 얼굴에 대해서 복원을 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성할 수도 있다.When the faces of the first set are restored, the processor further performs de-identification on unexposed faces among the faces of the first set, or performs de-identification on all faces of the first set. And by further performing identification on the exposed face, an image frame is generated so that the exposed face can be identified and the non-exposed face cannot be identified, or when de-identification processing is performed on the face to be compared, the By performing restoration on an exposed face among the faces of the first set, an image frame may be generated so that the exposed face can be identified and the non-exposed face cannot be identified.

선택적 비식별화 방법은, 비교 대상 얼굴을 획득하는 단계, 제1 영상 프레임에서 적어도 하나의 얼굴을 추출하는 단계, 추출된 모든 얼굴에 대해 비식별화 처리를 수행하는 단계, 추출된 모든 얼굴 중 일부에 대응하는 제1 집합을 생성하는 단계, 상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하는 단계 및 상기 제1 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 단계를 포함할 수 있다.The selective de-identification method includes obtaining a face to be compared, extracting at least one face from a first image frame, performing de-identification processing on all extracted faces, and some of all extracted faces. Generating a first set corresponding to the first set, comparing the face corresponding to the first set with the face to be compared, and determining an exposed face and an unexposed face among the faces corresponding to the first set. You can.

상기 추출된 모든 얼굴 중 일부에 대응하는 제1 집합을 생성하는 단계는, 상기 제1 영상 프레임에서 추출된 모든 얼굴에 식별 번호를 할당하는 단계, 미리 정의된 기준에 따라 상기 식별 번호를 배열하여 제1 배열된 식별 번호를 획득하는 단계 및 상기 제1 배열된 식별 번호에서 기준 개수의 식별 번호를 검출하여 상기 제1 집합을 생성하는 단계를 포함할 수 있다.The step of generating a first set corresponding to some of all the extracted faces includes assigning identification numbers to all the faces extracted from the first image frame, and arranging the identification numbers according to a predefined standard to create a first set. 1. It may include obtaining an array of identification numbers and generating the first set by detecting a standard number of identification numbers from the first array of identification numbers.

상기 미리 정의된 기준은 상기 제1 영상 프레임 내에서 얼굴의 크기 및 위치 중 적어도 하나를 포함할 수 있고, 상기 기준 개수는, 비교 대상의 얼굴의 개수 또는 상기 비교 대상의 얼굴의 개수와 여분의 값을 더한 값을 포함할 수 있다.The predefined criteria may include at least one of the size and position of a face within the first image frame, and the number of criteria may be the number of faces to be compared or the number of faces to be compared and an extra value. It can include the added value.

선택적 비식별화 방법은, 상기 배열된 식별 번호에서 나머지 식별 번호를 조합하여 제2 집합을 생성하는 단계, 제2 영상 프레임에서 적어도 하나의 얼굴을 추출하고, 추출된 모든 얼굴에 대해 비식별화 처리를 수행하는 단계, 상기 미리 정의된 기준에 따라 상기 제2 영상 프레임에서 추출된 모든 얼굴 각각의 식별 번호를 배열하여 제2 배열된 식별 번호를 획득하는 단계, 상기 제2 집합과 상기 제2 배열된 식별 번호를 비교하는 단계 및 상기 제2 배열된 식별 번호 중에서 상기 제2 집합에 포함 여부에 따라 상기 제2 배열된 식별 번호를 재배열함으로써 제1 재배열된 식별 번호를 획득하는 단계를 더 포함할 수 있다.The selective de-identification method includes generating a second set by combining the remaining identification numbers from the arranged identification numbers, extracting at least one face from the second image frame, and de-identifying all extracted faces. performing, arranging the identification numbers of each face extracted from the second image frame according to the predefined criteria to obtain a second arranged identification number, identifying the second set and the second arranged identification number. It may further include comparing numbers and obtaining a first rearranged identification number by rearranging the second arranged identification numbers according to whether they are included in the second set among the second arranged identification numbers. there is.

선택적 비식별화 방법은, 상기 노출 얼굴에 대응하는 식별 번호가 상기 제1 재배열된 식별 번호에 존재하면, 상기 제1 재배열된 식별 번호를 재배열하여 제2 재배열된 식별 번호를 획득하는 단계를 더 포함하는 것도 가능하다.The selective de-identification method is, if an identification number corresponding to the exposed face is present in the first rearranged identification number, rearrange the first rearranged identification number to obtain a second rearranged identification number. It is also possible to include more steps.

선택적 비식별화 방법은, 상기 제1 재배열된 식별 번호 또는 상기 제2 재배열된 식별 번호로부터 상기 기준 개수의 식별 번호를 검출하여 제3 집합을 생성하는 단계, 상기 제3 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하는 단계 및 상기 제3 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 단계를 더 포함할 수 있다.The selective de-identification method includes generating a third set by detecting the reference number of identification numbers from the first rearranged identification number or the second rearranged identification number, and the face corresponding to the third set. It may further include comparing the face to be compared and determining an exposed face and an unexposed face among the faces corresponding to the third set.

상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하는 단계는, 상기 제1 집합에 해당하는 얼굴을 복원하고, 복원된 얼굴을 상기 비교 대상 얼굴과 비교하는 단계 및 상기 비교 대상 얼굴에 대한 비식별화 처리를 수행하고, 상기 제1 집합의 얼굴을 비식별화 처리된 비교 대상 얼굴과 비교하는 단계 중 적어도 하나를 포함할 수도 있다.Comparing the face corresponding to the first set and the face to be compared includes restoring the face corresponding to the first set, comparing the restored face to the face to be compared, and comparing the face to be compared to the face to be compared. It may also include at least one of performing de-identification processing and comparing the first set of faces with de-identified comparison target faces.

선택적 비식별화 방법은, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 결과 영상을 생성하는 단계를 더 포함할 수도 있다.The selective de-identification method may further include generating a result image so that the exposed face can be identified and the non-exposed face cannot be identified.

상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 결과 영상을 생성하는 단계는, 상기 제1 집합의 얼굴이 복원된 경우에는, 상기 제1 집합의 얼굴 중 비노출 얼굴에 대해서 비식별화를 더 수행하는 단계, 상기 제1 집합의 얼굴이 복원된 경우에는, 상기 제1 집합의 얼굴 모두에 대해 비식별화를 수행하고 상기 노출 얼굴에 대해 식별화를 더 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하는 단계 및 상기 비교 대상 얼굴에 대한 비식별화 처리가 수행된 경우에는 상기 제1 집합의 얼굴 중 노출 얼굴에 대해서 복원을 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하는 단계 중 적어도 하나를 포함할 수도 있다.The step of generating a result image so that the exposed face can be identified and the non-exposed face cannot be identified includes further de-identifying the non-exposed face among the faces in the first set when the first set of faces is restored. When the faces of the first set are restored, de-identification is performed on all faces of the first set and further identification is performed on the exposed faces, so that the exposed faces can be identified. generating an image frame so that the non-exposed face cannot be identified; and when de-identification processing is performed on the face to be compared, performing restoration on the exposed face among the faces of the first set, thereby identifying the exposed face. It may also include at least one of generating an image frame so that the unexposed face cannot be identified.

상술한 선택적 비식별화 장치 및 방법에 의하면, 영상 내의 다수의 대상 중 특정 대상(들)은 영상 내에서 식별 가능하게 하되, 특정 대상 이외의 다른 대상은 식별 불가능하게 할 수 있게 된다.According to the above-described selective de-identification device and method, a specific object(s) among a plurality of objects in an image can be identified within the image, while objects other than the specific object can be made unidentifiable.

상술한 선택적 비식별화 장치 및 방법에 의하면, 보다 적은 자원을 소모하여 선택적으로 식별화 및 비식별화를 수행할 수 있게 될 뿐만 아니라, 이의 처리 시간을 단축시켜 보다 신속한 선택적으로 식별화 및 비식별화 수행이 가능하게 되는 효과도 얻을 수 있다.According to the above-described selective de-identification device and method, not only can selective identification and de-identification be performed by consuming less resources, but also the processing time is shortened to enable more rapid selective identification and de-identification. You can also get the effect of making it possible to practice fire.

상술한 선택적 비식별화 장치 및 방법에 의하면, 특정인 이외의 타인이 영상 내에 노출되는 것을 방지함으로써 타인의 개인 정보 및 사생활을 보다 적절하게 보호할 수 있게 되는 효과도 얻을 수 있다.According to the above-described selective de-identification device and method, it is possible to achieve the effect of more appropriately protecting the personal information and privacy of others by preventing others other than specific people from being exposed in the video.

도 1은 선택적 비식별화 장치의 일 실시예에 대한 블록도이다.
도 2는 대상 영상의 일례에 대한 도면이다.
도 3은 비식별처리부의 일 실시예에 대한 블록도이다.
도 4는 전체적으로 비식별 처리가 수행된 영상의 일 실시예에 대한 도면이다.
도 5는 비식별처리부의 동작의 일례를 설명하기 위한 도면이다.
도 6은 식별화 처리가 수행된 영상의 일 실시예에 대한 도면이다.
도 7은 추가 식별화 처리가 수행된 영상의 일 실시예에 대한 도면이다.
도 8은 선택적 비식별화 방법의 일 실시예에 대한 제1 흐름도이다.
도 9는 선택적 비식별화 방법의 일 실시예에 대한 제2 흐름도이다.
도 10은 선택적 비식별화 방법의 일 실시예에 대한 제3흐름도이다.
1 is a block diagram of one embodiment of a selective de-identification device.
Figure 2 is a diagram of an example of a target image.
Figure 3 is a block diagram of an embodiment of the de-identification processing unit.
Figure 4 is a diagram of an example of an image on which de-identification processing has been performed as a whole.
Figure 5 is a diagram for explaining an example of the operation of the de-identification processing unit.
Figure 6 is a diagram of an example of an image on which identification processing has been performed.
Figure 7 is a diagram of an example of an image on which additional identification processing has been performed.
Figure 8 is a first flow diagram of one embodiment of a selective de-identification method.
Figure 9 is a second flow diagram of one embodiment of a selective de-identification method.
Figure 10 is a third flowchart of an embodiment of a selective de-identification method.

이하 명세서 전체에서 동일 참조 부호는 특별한 사정이 없는 한 동일 구성요소를 지칭한다. 이하에서 사용되는 '부'가 부가된 용어는, 소프트웨어 및/또는 하드웨어로 구현될 수 있으며, 실시예에 따라 하나의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 복수의 '부'가 하나의 물리적 또는 논리적 부품으로 구현되거나, 하나의 '부'가 복수의 물리적 또는 논리적 부품들로 구현되는 것도 가능하다. 명세서 전체에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 어떤 부분과 다른 부분이 상호 간에 물리적으로 연결되었음을 의미할 수도 있고, 및/또는 전기적으로 연결되었음을 의미할 수도 있다. 또한, 어떤 부분이 다른 부분을 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 부분 이외의 또 다른 부분을 제외하는 것이 아니며, 설계자의 선택에 따라서 또 다른 부분을 더 포함할 수 있음을 의미한다. 제1 내지 제N(N은 1 이상의 자연수) 등의 표현은, 적어도 하나의 부분(들)을 다른 부분(들)으로부터 구분하기 위한 것으로, 특별한 기재가 없는 이상 이들이 순차적임을 반드시 의미하지는 않는다. 또한 단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함할 수 있다.Throughout the specification below, the same reference signs refer to the same components unless there are special circumstances. Terms with the addition of 'unit' used below may be implemented as software and/or hardware, and depending on the embodiment, one 'unit' may be implemented as one physical or logical part, or a plurality of 'units' may be implemented. It is also possible to be implemented with one physical or logical part, or one 'part' to be implemented with a plurality of physical or logical parts. When a part is said to be connected to another part throughout the specification, this may mean that the part and the other part are physically connected to each other and/or electrically connected. In addition, when a part includes another part, this does not mean excluding another part other than the other part unless specifically stated to the contrary, and means that another part may be included depending on the designer's choice. do. Expressions such as the first to Nth (N is a natural number greater than or equal to 1) are intended to distinguish at least one part(s) from other part(s), and do not necessarily mean that they are sequential unless otherwise specified. Additionally, singular expressions may include plural expressions, unless the context clearly makes an exception.

이하 도 1 내지 도 7을 참조하여 일 실시예에 따른 선택적 비식별화 장치에 대해 설명하도록 한다.Hereinafter, a selective de-identification device according to an embodiment will be described with reference to FIGS. 1 to 7.

도 1은 선택적 비식별화 장치의 일 실시예에 대한 블록도이고, 도 2는 대상 영상의 일례에 대한 도면이다.FIG. 1 is a block diagram of an embodiment of a selective de-identification device, and FIG. 2 is a diagram of an example of a target image.

도 1에 도시된 바에 의하면, 일 실시예에 따른 선택적 비식별화 장치(100)는 입력부(101), 출력부(103), 저장부(105) 및 프로세서(110)를 포함할 수 있다. 입력부(101), 출력부(103), 저장부(105) 및 프로세서(110) 중 적어도 둘은, 케이블, 회로 라인 또는 무선 통신 네트워크를 통해 일방으로 또는 쌍방으로 데이터나 명령 등을 전송할 수 있게 마련된다. 필요에 따라서, 입력부(101), 출력부(103) 및 저장부(105) 중 적어도 하나는 생략될 수도 있다.As shown in FIG. 1, the selective de-identification device 100 according to an embodiment may include an input unit 101, an output unit 103, a storage unit 105, and a processor 110. At least two of the input unit 101, output unit 103, storage unit 105, and processor 110 are provided to transmit data or commands one-way or two-way through a cable, circuit line, or wireless communication network. do. If necessary, at least one of the input unit 101, output unit 103, and storage unit 105 may be omitted.

입력부(101)는, 선택적 비식별화의 대상이 되는 영상(60, 이하 대상 영상)을 획득하고, 획득한 대상 영상(60)을 저장부(105) 또는 프로세서(110)로 전달할 수 있다. 여기서 대상 영상(60)은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있으며, 대상 영상(60)이 동영상인 경우, 대상 영상(60)은 둘 이상의 영상 프레임(도 3의 60-(t-1) 내지 60-(t+1) 등. 여기서 t는 1 이상의 자연수)을 포함할 수 있다. 상황에 따라서, 대상 영상(60)에는, 도 2에 도시된 것처럼, 적어도 하나의 인물의 얼굴(70)이 나타날 수 있다. 적어도 하나의 인물의 얼굴(70)은, 식별 가능하게 처리될 얼굴(71: 71a, 71b, 이하 노출 얼굴)과, 식별 불가능하게 처리될 얼굴(72: 72a, 72b, 72c, 이하 비노출 얼굴)을 포함할 수 있다. 여기서, 노출 얼굴(71: 71a, 71b)은 창작자, 배우 또는 진행자 등과 같이 의도적으로 외부에 노출될 필요가 있거나 노출될 수 있는 자(이하 노출자)의 얼굴을 의미하고, 비노출 얼굴(72: 72a, 72b, 72c)은 개인 정보의 보호를 위해 외부에 노출되지 않을 자(이하 비노출자)의 얼굴을 의미할 수 있으나, 이에 한정되는 것은 아니다. 설계자나 사용자의 선택에 따라, 노출 얼굴(71: 71a, 71b) 및 비노출 얼굴(72: 72a, 72b, 72c)은 이와 상이하게 정의될 수도 있다. 여기서, 사용자는 선택적 비식별화 처리를 요청한 자를 포함할 수 있으며, 예를 들어, 영상 제작자, 영상 중개자 또는 영상 스트리밍 서비스 제공자 등을 포함 가능할 수 있다.The input unit 101 may acquire an image 60 (hereinafter referred to as a target image) that is the subject of selective de-identification and transmit the acquired target image 60 to the storage unit 105 or the processor 110. Here, the target image 60 may include at least one of a still image and a moving image. If the target image 60 is a moving image, the target image 60 may include two or more image frames (60-(t-1 in FIG. 3). ) to 60-(t+1), etc. Here, t may include a natural number of 1 or more. Depending on the situation, at least one person's face 70 may appear in the target image 60, as shown in FIG. 2. The face 70 of at least one person includes a face to be processed to be identifiable (71: 71a, 71b, hereinafter exposed face) and a face to be processed to be unidentifiable (72: 72a, 72b, 72c, hereinafter unexposed face). It can be included. Here, the exposed face (71: 71a, 71b) refers to the face of a person (hereinafter referred to as the exposed person) who needs or can be intentionally exposed to the outside, such as a creator, actor, or host, and the non-exposed face (72: 72a) , 72b, 72c) may refer to the face of a person who will not be exposed to the outside for the protection of personal information (hereinafter referred to as a non-exposed person), but is not limited to this. Depending on the choice of the designer or user, the exposed face (71: 71a, 71b) and the non-exposed face (72: 72a, 72b, 72c) may be defined differently. Here, the user may include a person who has requested selective de-identification processing, and may include, for example, a video producer, video intermediary, or video streaming service provider.

또한, 입력부(101)는, 비교 대상 얼굴이 존재하는 영상(50, 이하 얼굴 영상)을 입력 받을 수도 있다. 비교 대상 얼굴은 대상 영상(60) 내의 하나 이상의 얼굴(70)이 노출 얼굴(71: 71a, 71b)인지 또는 비노출 얼굴(72: 72a, 72b, 72c)인지 여부를 판별하기 위해 비교 대상으로 이용되는 얼굴을 의미한다. 실시예에 따라서, 비교 대상 얼굴은, 노출자의 얼굴(71: 71a, 71b)을 포함할 수 있다. 얼굴 영상(50)에는 하나의 비교 대상 얼굴이 존재할 수도 있고 다수의 비교 대상 얼굴이 존재할 수도 있다. 만약 하나의 비교 대상 얼굴만이 얼굴 영상(50)에 존재한다면, 얼굴 영상(50)은 비교 대상 얼굴마다 입력될 수도 있다. 이 경우, 비교 대상 얼굴이 다수인 경우에는 이에 응하여 다수의 얼굴 영상(50)이 입력될 수 있다. 필요에 따라, 하나의 비교 대상 얼굴에 대해서 복수의 얼굴 영상(50)이 입력되는 것도 가능하다. 비교 대상 얼굴은 노출 얼굴(71: 71a, 71b)의 보다 정확한 판단을 위해 얼굴 영상(50) 내에서 충분히 전체적으로 드러나 있을 수 있으며, 상황에 따라 대략 정면에서 촬영된 것일 수 있다. 얼굴 영상(50)의 입력은 선택적 비식별화 처리 이전에 또는 동시에 수행될 수 있다. 입력된 얼굴 영상(50)은 프로세서(110)로 전달될 수 있으며, 필요에 따라 저장부(105)에 전달되어 저장되고, 프로세서(110)의 호출에 따라 프로세서(110)에 제공될 수도 있다.Additionally, the input unit 101 may receive an image 50 (hereinafter referred to as a face image) containing a face to be compared. The comparison target face is used as a comparison object to determine whether one or more faces 70 in the target image 60 are exposed faces 71: 71a, 71b or non-exposed faces 72: 72a, 72b, 72c. It means face. Depending on the embodiment, the face to be compared may include the exposed person's face (71: 71a, 71b). In the face image 50, there may be one face to be compared or multiple faces to be compared. If only one face to be compared exists in the face image 50, the face image 50 may be input for each face to be compared. In this case, when there are multiple faces to be compared, multiple face images 50 may be input accordingly. If necessary, it is possible for multiple face images 50 to be input for one face to be compared. The face to be compared may be fully exposed within the face image 50 for more accurate determination of the exposed face 71 (71a, 71b), and may be photographed approximately from the front depending on the situation. Input of the face image 50 may be performed before or simultaneously with selective de-identification processing. The input face image 50 may be transmitted to the processor 110, and, if necessary, may be transmitted and stored in the storage unit 105 and provided to the processor 110 according to a call from the processor 110.

또한, 입력부(101)는 선택적 비식별화 장치(100)의 동작에 관한 지시를 사용자 등으로부터 입력 받을 수도 있고, 선택적 비식별화 장치(100)의 동작과 관련된 프로그램(앱, 애플리케이션 또는 소프트웨어로 지칭 가능함)을 입력 받을 수도 있다.In addition, the input unit 101 may receive instructions regarding the operation of the selective de-identification device 100 from a user, etc., and a program (referred to as an app, application, or software) related to the operation of the selective de-identification device 100. (possible) can also be entered.

입력부(101)는, 선택적 비식별화 장치(100)와 일체형으로 마련된 것일 수도 있고, 또는 물리적으로 분리 가능하게 마련된 것일 수도 있다. 입력부(101)는, 예를 들어, 키보드, 마우스, 태블릿, 터치 스크린, 터치 패드, 트랙 볼, 트랙패드, 스캐너 장치, 영상 촬영 모듈, 초음파 스캐너, 동작 감지 센서, 진동 센서, 수광 센서, 감압 센서, 근접 센서, 마이크로 폰 데이터 입출력 단자 또는 통신 모듈(일례로 랜 카드, 근거리 통신 모듈 또는 이동통신 모듈 등) 등을 포함할 수도 있다.The input unit 101 may be provided integrally with the selective de-identification device 100, or may be provided to be physically separable. The input unit 101 includes, for example, a keyboard, mouse, tablet, touch screen, touch pad, track ball, track pad, scanner device, image capture module, ultrasonic scanner, motion detection sensor, vibration sensor, light receiving sensor, and pressure sensor. , it may include a proximity sensor, a microphone data input/output terminal, or a communication module (for example, a LAN card, a short-range communication module, or a mobile communication module, etc.).

출력부(103)는 프로세서(110)의 동작에 따라 획득된 결과 영상(도 3 및 도 7의 63 등)를 외부로 출력할 수 있다. 여기서, 결과 영상(63)는 대상 영상(60)에 대응하여 생성된 영상으로, 정지 영상 또는 동영상일 수 있다. 결과 영상(63) 내에서는 노출자의 얼굴(71: 71a, 71b)은 식별 가능하게 드러나고 다른 비노출자의 얼굴(72: 72a, 72b, 72C)은 식별 불가능하게 차단된다. 출력부(103)는, 예를 들어, 디스플레이, 프린터 장치, 스피커 장치, 영상 출력 단자, 데이터 입출력 단자 또는 통신 모듈 등을 포함할 수 있다.The output unit 103 may output the resultant image (eg, 63 in FIGS. 3 and 7 ) obtained according to the operation of the processor 110 to the outside. Here, the result image 63 is an image generated corresponding to the target image 60 and may be a still image or a moving image. In the resulting image 63, the exposed person's face (71: 71a, 71b) is revealed to be identifiable, and the other non-exposed person's face (72: 72a, 72b, 72C) is blocked so as not to be identified. The output unit 103 may include, for example, a display, a printer device, a speaker device, an image output terminal, a data input/output terminal, or a communication module.

저장부(105)는 선택적 비식별화 장치(100)의 동작과 관련된 적어도 하나의 데이터나, 프로그램 등을 일시적 또는 비일시적으로 저장할 수 있다. 여기서, 적어도 하나의 데이터는 입력부(101)를 통해 입력된 얼굴 영상(50)이나 대상 영상(60) 등을 포함할 수 있고, 프로세서(110)의 처리 과정에서 일시적으로 생성된 데이터 또는 프로세서(110) 처리 결과에 따른 영상(63)을 포함할 수도 있다. 또한, 저장부(105)는 얼굴 영상(50)으로부터 추출된 노출자의 얼굴(71: 71a, 71b)을 기반으로 구축된 얼굴 데이터베이스(90)를 저장할 수도 있다. 프로그램은 프로세서(110)의 동작을 위한 알고리즘 등을 포함할 수 있으며, 프로그래머 등의 설계자에 의해 직접 작성 또는 수정된 후 저장부(105)에 저장된 것일 수도 있고, 외부의 다른 물리적 기록 매체(외장 메모리 장치나 콤팩트 디스크(CD) 등)으로부터 전달받아 저장된 것일 수도 있으며, 유무선 통신 네트워크를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득 또는 갱신된 것일 수도 있다. 저장부(105)는, 예를 들어, 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 이들은 반도체나 자기디스크 등을 이용하여 구현 가능하다.The storage unit 105 may temporarily or non-temporarily store at least one data or program related to the operation of the selective de-identification device 100. Here, the at least one data may include a face image 50 or a target image 60 input through the input unit 101, and may be data temporarily generated during the processing of the processor 110 or the processor 110. ) It may also include an image 63 according to the processing results. Additionally, the storage unit 105 may store a face database 90 built based on the exposed person's face (71: 71a, 71b) extracted from the face image 50. The program may include an algorithm for the operation of the processor 110, and may be written or modified directly by a designer such as a programmer and then stored in the storage unit 105, or may be stored in the storage unit 105, or may be stored in another physical recording medium (external memory). It may be received and stored from a device (compact disk (CD), etc.), or it may be acquired or updated through an electronic software distribution network accessible through a wired or wireless communication network. The storage unit 105 may include, for example, at least one of a main memory and an auxiliary memory. These can be implemented using semiconductors or magnetic disks.

프로세서(110)는, 대상 영상(60)에 대한 선택적 비식별화 처리를 수행하고, 선택적 비식별화에 따른 결과 영상(63)를 저장부(105) 또는 출력부(103)로 전달할 수 있다. 대상 영상(60)에 대한 선택적 비식별화 처리는, 저장부(105)에 저장된 프로그램을 실행시켜 수행될 수도 있다. 프로세서(110)는, 예를 들어, 중앙 처리 장치(CPU: Central Processing Unit), 그래픽 처리 장치(GPU: Graphic Processing Unit), 애플리케이션 프로세서(AP: Application Processor), 마이크로 컨트롤러 유닛(MCU: Micro Controller Unit), 전자 제어 유닛(ECU: Electronic Controlling Unit) 및/또는 이외 각종 연산 및 제어 처리를 수행할 수 있는 적어도 하나의 전자 장치 등을 포함할 수 있다. 이들 처리 또는 제어 장치는, 예를 들어, 하나 또는 둘 이상의 반도체 칩, 회로 또는 관련 부품 등을 단독으로 이용하거나 조합하여 구현된 것일 수도 있다. 프로세서(110)는 실시예에 따라 서로 상이한 처리 장치, 일례로 중앙 처리 장치 및 그래픽 처리 장치를 조합하여 구현될 수도 있다.The processor 110 may perform selective de-identification processing on the target image 60 and transmit the resulting image 63 resulting from the selective de-identification to the storage unit 105 or the output unit 103. Selective de-identification processing for the target image 60 may be performed by executing a program stored in the storage unit 105. The processor 110 may include, for example, a central processing unit (CPU), a graphics processing unit (GPU), an application processor (AP), and a microcontroller unit (MCU). ), an electronic control unit (ECU), and/or at least one electronic device capable of performing various calculations and control processes. These processing or control devices may be implemented, for example, by using one or more semiconductor chips, circuits, or related components alone or in combination. Depending on the embodiment, the processor 110 may be implemented by combining different processing units, for example, a central processing unit and a graphics processing unit.

일 실시예에 의하면, 프로세서(110)는 얼굴 획득부(111), 얼굴 처리부(120) 및 비식별화 처리부(130)를 포함할 수 있다. 얼굴 획득부(111), 얼굴 처리부(120) 및 비식별화 처리부(130) 중 적어도 둘은 상호 논리적으로 구분되는 것일 수도 있고 또는 물리적으로 구분되는 것일 수도 있다. 논리적으로 구분된 경우, 이들 중 적어도 둘은 하나의 프로세싱 장치를 이용하여 구현될 수 있고, 물리적으로 구분된 경우, 이들 중 적어도 둘은 서로 상이한 프로세싱 장치(예를 들어, 중앙 처리 장치 및 그래픽 처리 장치)를 이용하여 구현될 수도 있다. 이하 설명의 편의를 위해 대상 영상(60)은 동영상이고, 얼굴 처리부(120) 및 비식별화 처리부(130)는 대상 영상(60)으로부터 추출된 영상 프레임(60-k, k는 0 또는 1 이상의 자연수로, t를 포함할 수도 있음)에 대한 처리를 수행하는 일 실시예를 들어 설명하도록 하나, 이는 예시적인 것으로 대상 영상(60)은 상술한 것처럼 정지 영상일 수도 있다.According to one embodiment, the processor 110 may include a face acquisition unit 111, a face processing unit 120, and a de-identification processing unit 130. At least two of the face acquisition unit 111, the face processing unit 120, and the de-identification processing unit 130 may be logically or physically distinct from each other. When logically separated, at least two of them can be implemented using one processing unit, and when physically separated, at least two of them can be implemented using different processing units (e.g., a central processing unit and a graphics processing unit). ) can also be implemented using. For the convenience of explanation below, the target image 60 is a video, and the face processing unit 120 and the de-identification processing unit 130 extract an image frame 60-k from the target image 60, where k is 0 or 1 or more. A natural number (which may include t) will be described by way of an example, but this is an example and the target image 60 may be a still image as described above.

얼굴 획득부(111)은, 얼굴 영상(50)이 입력되면, 얼굴 영상(50)로부터 비교 대상 얼굴을 획득할 수 있다. 예를 들어, 얼굴 획득부(111)는 얼굴 영상(50)으로부터 적어도 하나의 노출자에 대한 비교 대상 얼굴을 하나 이상 검출한 후, 검출한 적어도 하나의 비교 대상 얼굴을 이용하여 얼굴 데이터베이스(90)를 새롭게 생성하거나 또는 검출한 비교 대상 얼굴을 추가하여 기존 얼굴 데이터베이스(90)를 갱신할 수도 있다. 또한, 얼굴 획득부(111)는 비교 대상 얼굴을 검출한 후, 검출된 적어도 하나의 비교 대상 얼굴을 비식별화 처리부(130)로 실시간으로 또는 처리 전에 전달하여 비식별화 처리부(130)가 노출자의 얼굴(71: 71a, 71b)을 식별하도록 할 수도 있다. 이 경우, 비교 대상 얼굴은 비식별화 처리부(130)에 전달되기 전에 일시적 또는 비일시적으로 저장부(105)에 저장될 수도 있다.When the face image 50 is input, the face acquisition unit 111 may obtain a face to be compared from the face image 50. For example, the face acquisition unit 111 detects one or more faces to be compared for at least one exposed person from the face image 50, and then uses the detected at least one face to be compared to the face database 90. The existing face database 90 may be updated by creating a new face or adding a detected face to be compared. In addition, after detecting a face to be compared, the face acquisition unit 111 transmits at least one detected face to be compared to the de-identification processing unit 130 in real time or before processing, so that the de-identification processing unit 130 exposes the face to the target. It is also possible to identify the person's face (71: 71a, 71b). In this case, the face to be compared may be temporarily or non-temporarily stored in the storage unit 105 before being delivered to the de-identification processing unit 130.

일 실시예에 의하면, 얼굴 획득부(111)는 얼굴 영상(50)으로부터 비교 대상 얼굴을 검출하기 위해 소정의 학습 알고리즘을 이용할 수도 있다. 소정의 학습 알고리즘은, 얼굴 인식 및 검출을 위해 기 학습된 알고리즘을 포함하며, 예를 들어, 심층 신경망(DNN: Deep Neural Network), 콘볼루션 신경망(CNN: Convolutional Neural Network), 순환 신경망(RNN: Recurrent Neural Network), 콘볼루션 순환 신경망(CRNN: Convolutional Recurrent Neural Network), 심층 신뢰 신경망(DBN: Deep Belief Network), 장단기 메모리(LSTM: Long short term memory) 또는 다층 퍼셉트론(Multi-layer Perceptron) 등과 같은 적어도 하나의 학습 모델을 기반으로 구축 가능하다.According to one embodiment, the face acquisition unit 111 may use a predetermined learning algorithm to detect a face to be compared from the face image 50. Predetermined learning algorithms include previously learned algorithms for face recognition and detection, for example, deep neural network (DNN), convolutional neural network (CNN), and recurrent neural network (RNN). Such as Recurrent Neural Network (CRNN), Convolutional Recurrent Neural Network (CRNN), Deep Belief Network (DBN), Long Short Term Memory (LSTM), or Multi-layer Perceptron. It can be built based on at least one learning model.

얼굴 처리부(120)는, 비노출자(72: 72a, 72b, 72c)에 대한 비식별 처리를 수행할 대상 영상(60)이 입력되면, 대상 영상(60)으로부터 적어도 하나의 얼굴(70), 즉 노출자의 얼굴(71: 71a, 71b) 및 비노출자의 얼굴(72: 72a, 72b, 72c) 중 적어도 하나를 획득할 수 있다. 일 실시예에 있어서, 얼굴 처리부(120)는 전처리부(121), 얼굴 추출부(123) 및 얼굴 추적부(125)를 포함할 수 있다. When a target image 60 to perform de-identification processing on an unexposed person 72 (72a, 72b, 72c) is input, the face processing unit 120 selects at least one face 70 from the target image 60, that is, At least one of the exposed person's face (71: 71a, 71b) and the non-exposed person's face (72: 72a, 72b, 72c) can be obtained. In one embodiment, the face processing unit 120 may include a pre-processing unit 121, a face extracting unit 123, and a face tracking unit 125.

전처리부(121)는, 얼굴 추출부(123), 얼굴 추적부(125) 및/또는 비식별화 처리부(130)의 동작이 효과적으로 수행될 수 있도록 대상 영상(60)에 대한 전처리를 수행할 수 있다. 예를 들어, 전처리부(121)는 동영상인 대상 영상(60)으로부터 모든 또는 일부의 영상 프레임(60-k)을 추출할 수 있다. 또한, 전처리부(121)는 대상 영상(60) 또는 이로부터 획득된 적어도 하나의 영상 프레임(60-k)에 대한 보정을 수행할 수 있다. 구체적으로 예를 들어, 전처리부(121)는 적어도 하나의 영상 프레임(60-k)의 주변을 크롭(crop)하여 해당 영상 프레임(60-k)의 크기를 축소하거나, 영상 프레임(60-k)의 해상도를 변경하거나, 영상 프레임(60-k)을 전체적으로 확대하거나, 영상 프레임(60-k)에 대한 압축 변환을 수행하여 해당 영상 프레임(60-k)의 데이터 용량을 감축하거나, 및/또는 적어도 하나의 영상 프레임(60-k)의 밝기나 콘트라스트 등을 조절할 수도 있다. 전처리부(121)에 의해 전처리된 대상 영상(60)은 얼굴 추출부(123) 및 얼굴 추적부(125) 중 적어도 하나로 전달될 수 있다. 전처리부(121)는 실시예에 따라 생략 가능하다.The preprocessor 121 may perform preprocessing on the target image 60 so that the operations of the face extraction unit 123, face tracking unit 125, and/or de-identification processing unit 130 can be performed effectively. there is. For example, the preprocessor 121 may extract all or part of the image frames 60-k from the target image 60, which is a video. Additionally, the preprocessor 121 may perform correction on the target image 60 or at least one image frame 60-k obtained therefrom. Specifically, for example, the preprocessor 121 crops the surroundings of at least one image frame 60-k to reduce the size of the image frame 60-k, or reduces the size of the image frame 60-k. ), enlarge the entire video frame (60-k), or perform compression conversion on the video frame (60-k) to reduce the data capacity of the video frame (60-k), and/ Alternatively, the brightness or contrast of at least one image frame 60-k may be adjusted. The target image 60 pre-processed by the pre-processing unit 121 may be transmitted to at least one of the face extraction unit 123 and the face tracking unit 125. The pre-processing unit 121 may be omitted depending on the embodiment.

얼굴 추출부(123)는, 각각의 영상 프레임(60-k)로부터 인간의 얼굴(71, 72)을 추출하여 획득할 수 있다. 얼굴 추출부(123)는 얼굴 추출을 위해 기 훈련된 학습 알고리즘을 이용할 수 있다. 여기서, 학습 알고리즘은, 예를 들어, YOLOv5 등과 같은 딥러닝 기반의 대상 검출 모델을 훈련시켜 획득된 것일 수도 있다. 또한, 얼굴 추출부(123)는 얼굴(71, 72)이 추출되면, 해당 얼굴(71, 72)에 대응하는 적어도 하나의 블록(박스)을 생성할 수도 있다. 여기서, 해당 얼굴(71, 72)에 대응하는 적어도 하나의 블록은 사각형이나 원 등과 같이 소정 도형의 형상을 가질 수 있으며, 소정 도형의 내측에 해당 얼굴(71, 72)이 배치되어 마련된 것일 수 있다.The face extractor 123 may obtain human faces 71 and 72 by extracting them from each image frame 60-k. The face extraction unit 123 may use a previously trained learning algorithm to extract faces. Here, the learning algorithm may be obtained by training a deep learning-based target detection model, such as YOLOv5. Additionally, when the faces 71 and 72 are extracted, the face extraction unit 123 may generate at least one block (box) corresponding to the faces 71 and 72. Here, at least one block corresponding to the corresponding faces 71 and 72 may have the shape of a predetermined shape, such as a square or circle, and the corresponding faces 71 and 72 may be arranged inside the predetermined shape. .

얼굴 추적부(125)는 얼굴 추출부(123)가 획득한 인간의 얼굴(71, 72) 또는 이에 대응하는 블록에 대해 식별 번호(ID: Identification number, 일례로 도 5의 70-1 내지 70-3)를 할당하여 해당 얼굴(71, 72)의 추적이 가능하게 할 수 있다. 여기서, 식별 번호(70-1 내지 70-3)는 사용자나 설계자에 따라 다양하게 정의 가능하다. 예를 들어, 얼굴 추적부(125)는 서로 상이한 1 이상의 자연수를 식별 번호(70-1 내지 70-3)로 하여 적어도 하나의 얼굴(71, 72) 각각에 할당할 수도 있다. 이 경우, 모든 또는 일부의 프레임(60-k, 60-(k+1), 60-(k+2) 등)마다 각각의 프레임(60-k, 60-(k+1), 60-(k+2) 등)에서 나타나는 모든 또는 일부의 얼굴(70: 71, 72)에 대해 식별 번호(70-1 내지 70-3)가 할당되되, 서로 상이한 프레임(60-t, 60-(t+1), 60-(t+2) 등) 내의 동일한 얼굴(71a 등) 또는 동일한 얼굴(71, 72)에 대응하는 블록에 대해서는 동일한 식별 번호(일례로 [9] 등)가 할당되고, 서로 상이한 얼굴 또는 이에 대응하는 블록에 대해서는 상이한 식별 번호가 할당된다. 보다 구체적으로 예를 들어, 얼굴 추적부(125)는, 특정 영상 프레임(60-k) 내의 특정 얼굴(71a)에 [9]의 값을 해당 얼굴(71a)에 대한 식별 번호로 지정하였다면, 다른 영상 프레임(60-(k+1) 등) 내의 동일한 얼굴(71a)에 대해서도 [9]의 값을 식별 번호로 지정할 수 있다. 적어도 하나의 얼굴(71, 72)은 영상 프레임(60-k)마다 그 위치 및/또는 크기 등이 변경될 수도 있고 사라질 수도 있는데, 이와 같이 각각의 영상 프레임(60-k) 내의 동일한 얼굴(71, 72) 또는 이에 대응하는 블록에 대해 동일한 식별 번호(70-1 내지 70-3)가 부여되면, 상이한 영상 프레임(60-k)에서도 노출자의 얼굴(71) 또는 비노출자의 얼굴(72)이 추적 가능하게 된다. 얼굴 추적부(125)는 각각의 영상 프레임(60-t) 내에서 동일한 식별 번호를 갖는 얼굴(71, 72)을 연결 및 조합하여 동일한 얼굴(71, 72)에 대한 추적 결과를 획득할 수 있다. 얼굴(71, 72)의 추적 결과는 해당 얼굴(71, 72)에 대한 궤적의 형태로 마련될 수도 있다. 일 실시예에 의하면, 얼굴 추적부(125)는 딥소트(DeepSort) 등과 같은 알고리즘을 이용하여 구현될 수도 있다. 딥소트는 딥 러닝 기반의 실시간 다중 대상 추적 영상 프레임워크로, 대상의 엄폐나 소실에 의해 하나의 대상에 대해 다수의 궤적이 생성되는 것을 방지할 수 있다.The face tracking unit 125 generates an identification number (ID: Identification number, for example, 70-1 to 70- in FIG. 5) for the human face 71 or 72 acquired by the face extraction unit 123 or a block corresponding thereto. 3) can be assigned to enable tracking of the corresponding faces 71 and 72. Here, the identification numbers (70-1 to 70-3) can be defined in various ways depending on the user or designer. For example, the face tracker 125 may assign one or more different natural numbers as identification numbers 70-1 to 70-3 to each of at least one face 71 or 72. In this case, for each frame (60-k, 60-(k+1), 60-( Identification numbers (70-1 to 70-3) are assigned to all or some of the faces (70: 71, 72) that appear in (k+2), etc.), but different frames (60-t, 60-(t+) 1), 60-(t+2), etc.), the same identification number (e.g., [9], etc.) is assigned to blocks corresponding to the same face (71a, etc.) or the same face (71, 72), and different Different identification numbers are assigned to faces or blocks corresponding thereto. More specifically, for example, if the face tracker 125 designates the value of [9] as the identification number for the specific face 71a within the specific image frame 60-k, the other The value of [9] can also be designated as an identification number for the same face 71a within the video frame (60-(k+1), etc.). At least one face (71, 72) may change its position and/or size or disappear for each image frame (60-k), and in this way, the same face (71) in each image frame (60-k) , 72) or the corresponding block is given the same identification number (70-1 to 70-3), the exposed person's face 71 or the non-exposed person's face 72 is tracked even in different image frames (60-k). It becomes possible. The face tracking unit 125 can obtain tracking results for the same faces 71 and 72 by connecting and combining the faces 71 and 72 with the same identification number within each image frame 60-t. . The tracking results of the faces 71 and 72 may be prepared in the form of trajectories for the corresponding faces 71 and 72. According to one embodiment, the face tracking unit 125 may be implemented using an algorithm such as DeepSort. Deepsort is a deep learning-based real-time multi-target tracking video framework that can prevent multiple trajectories from being created for one target due to occlusion or disappearance of the target.

비식별화 처리부(130)는 얼굴 처리부(120)의 처리 결과(예를 들어, 대상 영상(60)으로부터 추출된 얼굴 및 이에 대한 추적 결과 등)를 수신하고, 이를 기반으로 대상 영상(60) 내에서 노출 얼굴(71: 71a, 71b)과 비노출 얼굴(72: 72a, 72b, 72c)을 결정하고, 노출 얼굴(71: 71a, 71b)은 식별 가능하게 하고, 비노출 얼굴(72: 72a, 72b, 72c)은 식별 불가능하게 하여 대상 영상(60)에 대응하는 결과 영상(63)를 획득할 수 있다.The de-identification processing unit 130 receives the processing results of the face processing unit 120 (e.g., a face extracted from the target image 60 and a tracking result thereof, etc.), and based on this, the The exposed face (71: 71a, 71b) and the non-exposed face (72: 72a, 72b, 72c) are determined, the exposed face (71: 71a, 71b) is made identifiable, and the non-exposed face (72: 72a, 72b, In 72c), the resulting image 63 corresponding to the target image 60 can be obtained by making it unidentifiable.

도 3은 비식별처리부의 일 실시예에 대한 블록도이고, 도 4는 전체적으로 비식별 처리가 수행된 영상의 일 실시예에 대한 도면이다. 도 5는 비식별처리부의 동작의 일례를 설명하기 위한 도면이다.FIG. 3 is a block diagram of an embodiment of a de-identification processing unit, and FIG. 4 is a diagram of an embodiment of an image on which de-identification processing has been performed as a whole. Figure 5 is a diagram for explaining an example of the operation of the de-identification processing unit.

일 실시예에 따르면, 비식별화 처리부(130)는 도 3에 도시된 바와 같이 전체 비식별화 처리부(131)와, 배열부(132)와, 집합 분류부(133)와, 식별부(134)와, 부분적 비식별화 처리부(135)와, 재배열부(136)를 포함할 수 있다. 실시예에 따라서, 이들(131 내지 136) 중 적어도 하나는 생략될 수도 있다.According to one embodiment, the de-identification processing unit 130 includes a full de-identification processing unit 131, an arrangement unit 132, a set classification unit 133, and an identification unit 134, as shown in FIG. 3. ), a partial de-identification processing unit 135, and a rearrangement unit 136. Depending on the embodiment, at least one of these (131 to 136) may be omitted.

전체 비식별화 처리부(131)는, 얼굴 처리부(120)로부터 하나 이상의 영상 프레임(일례로 제t 영상 프레임(60-t) 내지 제(t+2) 영상 프레임(60-(t+2)))을 동시에 또는 순차적으로 수신하고, 얼굴 추출부(131) 또는 얼굴 추적부(125)로부터 얼굴(71, 72)에 대한 정보를 수신한 후, 해당 영상 프레임, 일례로 제t 영상 프레임(60-t) 내의 모든 얼굴(71, 72)에 대해서 비식별화 처리를 수행한다. 즉, 노출 얼굴(71) 및 비노출 얼굴(72) 양자 모두 식별 불가능하게 처리된다. 여기서, 비식별화 처리는, 예를 들어, 블러링(blurring) 처리, 모자이크 적용, 픽셀레이트 필터링 및 인페인팅 처리(얼굴(71, 72)의 제거 및 변형 등) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니며, 사용자나 설계자는 선택에 따라 다양한 비식별화 처리 방법을 채용할 수 있다. 상술한 비식별화 처리에 의해, 도 4에 도시된 바와 같이 비식별화 처리된 얼굴(74, 75)를 포함하는 새로운 영상 프레임(61-t, 이하 전체 비식별화 영상 프레임)이 획득될 수 있다. 전체 비식별화 영상 프레임(61-t) 내에서는, 기존 제t 영상 프레임(60-t)의 노출 얼굴(71)에 대응하는 얼굴(74: 74a, 74b)과 비노출 얼굴(72)에 대응하는 얼굴(75: 75a, 75b, 75c) 모두 식별 불가능하게 표현된다. 실시예에 따라서, 하나 이상의 영상 프레임(60-t 내지 60-(t+2))은 전처리부(121)로부터 전달된 것일 수 있다.The entire de-identification processing unit 131 receives one or more image frames (for example, the tth image frame (60-t) to the (t+2)th image frame (60-(t+2)) from the face processing unit 120. ) simultaneously or sequentially, and after receiving information about the faces 71 and 72 from the face extraction unit 131 or the face tracking unit 125, the corresponding image frame, for example, the t image frame 60- De-identification processing is performed on all faces (71, 72) in t). That is, both the exposed face 71 and the non-exposed face 72 are processed to be unidentifiable. Here, the de-identification processing may include, for example, at least one of blurring processing, mosaic application, pixel rate filtering, and inpainting processing (removal and transformation of the faces 71 and 72, etc.). , but is not limited to this, and the user or designer may adopt various de-identification processing methods depending on their choice. By the above-described de-identification process, a new image frame 61-t (hereinafter referred to as the entire de-identification image frame) including the de-identified faces 74 and 75, as shown in FIG. 4, can be obtained. there is. Within the entire de-identified image frame (61-t), there are faces (74: 74a, 74b) corresponding to the exposed face (71) of the existing t image frame (60-t) and a face (74: 74b) corresponding to the non-exposed face (72). The faces (75: 75a, 75b, 75c) are all expressed indistinguishable. Depending on the embodiment, one or more image frames (60-t to 60-(t+2)) may be transmitted from the preprocessor 121.

특정 영상 프레임, 일례로 제t 영상 프레임(60-t)의 모든 얼굴(71, 72)에 대해 비식별화 처리가 수행된 이후, 이전 또는 이와 동시에, 배열부(132)는, 도 5에 도시된 바와 같이 제t 영상 프레임(60-t)의 모든 얼굴(71, 72) 각각에 대한 식별 번호(70-1)를 소정의 기준에 따라 배열할 수 있다. 구체적으로 배열부(132)는, 제t 영상 프레임(60-t) 내의 얼굴(71, 72) 각각에 대응하는 식별 번호(70-1, 일례로 [1, 2, 3, 4, 5, 6, 7, 8, 9, 10])를 얼굴 처리부(120)로부터 수신하고, 각각의 식별 번호(70-1)에 대응하는 얼굴(71, 72)의 크기나 영상 프레임(60-t) 내에서의 위치에 따라서 식별 번호(70-1)를 배열하여, 새롭게 배열된 식별 번호(70-1r, 일례로 [3, 9, 2, 1, 6, 8, 4, 7, 10, 5], 이하 제1 배열된 식별 번호)를 획득할 수 있다. 예를 들어, 제1 배열된 식별 번호(70-1r)에서 얼굴(71a, 72b)이 상대적으로 크거나 영상 프레임(60-t)의 중심 또는 그 주변에 위치할수록 해당 얼굴(71a, 72b)에 대한 식별 번호는 앞에 배열되고, 얼굴(71b, 72a, 72c)이 작거나 영상 프레임(60-t)의 경계 또는 그 주변에 위치할수록 해당 얼굴(71b, 72a, 72c)에 대한 식별 번호는 뒤에 배열된다.After de-identification processing is performed on all faces 71 and 72 of a specific image frame, for example, the t image frame 60-t, before or at the same time, the array unit 132 is shown in FIG. 5. As described above, the identification numbers 70-1 for all the faces 71 and 72 of the t image frame 60-t can be arranged according to a predetermined standard. Specifically, the array unit 132 has an identification number (70-1) corresponding to each of the faces (71, 72) in the t image frame (60-t), for example [1, 2, 3, 4, 5, 6. , 7, 8, 9, 10]) from the face processing unit 120, and within the size or image frame 60-t of the faces 71 and 72 corresponding to each identification number 70-1. By arranging the identification number (70-1) according to the position, the newly arranged identification number (70-1r, for example [3, 9, 2, 1, 6, 8, 4, 7, 10, 5], below A first arranged identification number) can be obtained. For example, in the first arranged identification numbers 70-1r, the faces 71a and 72b are relatively large or are located at or around the center of the image frame 60-t, the more the faces 71a and 72b are identified. The identification numbers for the faces (71b, 72a, 72c) are arranged at the front, and the smaller the face (71b, 72a, 72c) is or located at or near the border of the image frame (60-t), the identification numbers for the corresponding faces (71b, 72a, 72c) are arranged at the back. do.

집합 분류부(133)는 제1 배열된 식별 번호(70-1r)을 이용하여 식별 번호(70-1r)를 적어도 두 집합으로 분류할 수 있다. 예를 들어, 집합 분류부(133)는, 제1 배열된 식별 번호(70-1r)에서 가장 앞에 위치한 식별 번호(일례로 [3])부터 기준 개수(일례로 3)까지의 식별 번호(일례로 [2])를 획득하고, 획득한 식별 번호([3, 9, 2])를 조합하여 제1 집합(81-1)을 생성하고, 그 뒤의 나머지 식별 번호(일례로 [1, 6, 8, 4, 7, 10, 5])를 조합하여 제2 집합(82-1)을 생성할 수 있다. 즉, 제1 집합(81-1)은 영상 프레임(60-t)에서 추출된 모든 얼굴 중 일부의 얼굴(일례로 식별 번호([3, 9, 2])에 대응하는 얼굴)에 상응하고, 제2 집합(82-1)은 다른 나머지의 얼굴(일례로 나머지 식별 번호(일례로 [1, 6, 8, 4, 7, 10, 5])에 대응하는 얼굴)에 상응한다. 여기서 기준 개수는 노출 얼굴 획득부(111)가 획득하거나 및/또는 얼굴 데이터베이스(90)에 저장된 비교 대상 얼굴의 전체 개수(일례로 3)일 수도 있고, 또는 노출 얼굴이 오식별되는 경우를 대비하여 획득 또는 저장된 비교 대상 얼굴 개수에 미리 정의된 여분 값(일례로 1 등)을 합한 값(일례로 4=3+1)일 수도 있다. 기준 개수는 선택적 비식별화 이전에 또는 수행 과정에서 사용자 등이 입력부(101)를 통해 입력될 수도 있다. 생성된 제1 집합(81-1)에 대한 정보는 식별부(134)로 전달되고, 제2 집합(82-1)에 대한 정보는 재배열부(136)로 전달된다.The set classification unit 133 may classify the identification number 70-1r into at least two sets using the first arranged identification number 70-1r. For example, the set classification unit 133 includes an identification number (e.g., [3]) from the frontmost identification number (e.g., [3]) in the first arranged identification number (70-1r) to the reference number (e.g., 3). [2]) is obtained, the obtained identification numbers ([3, 9, 2]) are combined to generate the first set (81-1), and the remaining identification numbers (for example, [1, 6]) are obtained. , 8, 4, 7, 10, 5]) can be combined to create the second set (82-1). That is, the first set 81-1 corresponds to some faces (for example, faces corresponding to identification numbers ([3, 9, 2]) among all the faces extracted from the image frame 60-t, The second set 82-1 corresponds to other remaining faces (e.g., faces corresponding to remaining identification numbers (e.g., [1, 6, 8, 4, 7, 10, 5]). Here, the reference number may be the total number of comparison target faces acquired by the exposed face acquisition unit 111 and/or stored in the face database 90 (for example, 3), or in case the exposed face is misidentified. It may be a value (e.g., 4=3+1) that is the sum of the acquired or stored number of faces to be compared plus a predefined extra value (e.g., 1, etc.). The reference number may be input by a user or the like through the input unit 101 before or during the selective de-identification process. Information about the generated first set (81-1) is transmitted to the identification unit 134, and information about the second set (82-1) is transmitted to the rearrangement unit 136.

식별부(134)는, 제1 집합(81-1)에 속하는 식별 번호(일례로 [3, 9, 2])를 획득하고, 수신한 식별 번호([3, 9, 2])에 대응하는 얼굴(70)을 식별할 수 있다.The identification unit 134 obtains an identification number (for example, [3, 9, 2]) belonging to the first set 81-1, and identifies the number corresponding to the received identification number ([3, 9, 2]). The face 70 can be identified.

구체적으로 예를 들어, 식별부(134)는, 먼저 제1 집합(81-1)에 속하는 식별 번호([3, 9, 2])에 대응하는 얼굴(들)(일례로 74a, 75a, 75b 등) 각각과, 얼굴 데이터베이스(90)에 저장된 비교 대상 얼굴(들)을 상호 비교한다. 제1 집합(81-1)에 속하는 식별 번호([3, 9, 2])에 대응하는 얼굴(들)(74a, 75a, 75b)은 전체 비식별화 처리부(131)에 의해 비식별화 처리가 수행되어 있다. 따라서, 식별부(134)는, 일 실시예에 있어서, 제1 집합(81-1)에 속하는 식별 번호([3, 9, 2])에 대응하는 얼굴(들)(74a, 75a, 75b)을 먼저 복원하여 식별 가능하게 하고, 식별 가능하게 된 얼굴(들)(일례로 71a, 72a, 72b)과 비교 대상 얼굴(들)을 상호 비교할 수 있다. 다른 실시예에 의하면, 식별부(134)는 먼저 전체 비식별화 처리부(131)와 동일한 방법으로 비교 대상 얼굴(들)에 대한 비식별화 처리를 수행하고, 비식별화된 비교 대상 얼굴(들) 및 제1 집합(81-1)에 속하는 식별 번호([3, 9, 2])에 대응하는 얼굴(들)(74a, 75a, 75b)을 상호 비교할 수도 있다.Specifically, for example, the identification unit 134 first identifies face(s) (for example, 74a, 75a, 75b) corresponding to the identification numbers ([3, 9, 2]) belonging to the first set (81-1). etc.) are compared with each other and the comparison target face(s) stored in the face database 90. The face(s) (74a, 75a, 75b) corresponding to the identification numbers ([3, 9, 2]) belonging to the first set (81-1) are de-identified by the entire de-identification processing unit 131. is being carried out. Accordingly, the identification unit 134, in one embodiment, includes face(s) 74a, 75a, 75b corresponding to identification numbers ([3, 9, 2]) belonging to the first set 81-1. is first restored to enable identification, and the face(s) that have become identifiable (for example, 71a, 72a, 72b) and the face(s) to be compared can be compared. According to another embodiment, the identification unit 134 first performs de-identification processing on the face(s) to be compared in the same manner as the entire de-identification processing unit 131, and then performs de-identification processing on the face(s) to be compared. ) and the face(s) (74a, 75a, 75b) corresponding to the identification numbers ([3, 9, 2]) belonging to the first set (81-1) may be compared.

만약 적어도 하나의 식별 번호(71-1, 일례로 [9])에 대응하는 얼굴(일례로 74a)이 얼굴 데이터베이스(90)에 저장된 비교 대상 얼굴과 동일 또는 유사하여 상호 대응된다면, 식별부(134)는 해당 식별 번호(71-1)에 대응하는 얼굴(74a)을 식별화 대상이 되는 얼굴(즉, 노출 얼굴)로 결정한다. 반대로 적어도 하나의 식별 번호(72-1, 일례로 [3, 2])에 대한 얼굴(일례로 75b)이 얼굴 데이터베이스(90)에 저장된 비교 대상 얼굴과 상이하여 서로 대응되지 않는다면, 식별부(134)는 해당 식별 번호(72-1)에 대한 얼굴(75b)은 비식별화 대상이 되는 얼굴(즉, 비노출 얼굴)로 결정한다. 실시예에 따라서, 식별부(134)는, 얼굴 데이터베이스(90)에 저장된 비교 대상 얼굴 대신에, 상술한 노출 얼굴 획득부(111)가 획득하여 사전에 또는 실시간으로 전달한 비교 대상 얼굴을 이용할 수도 있다. 식별부(134)에 의해 노출 얼굴로 결정된 식별 번호(71-1, 일례로 [9])는 저장부(105)에 저장되되, 예를 들어, 주 얼굴 집합(95)의 형태로 기록 및 저장될 수 있다. 주 얼굴 집합(95)은 재배열부(136)로 전달될 수도 있다.If the face (e.g., 74a) corresponding to at least one identification number (71-1, e.g., [9]) is the same or similar to the comparison target face stored in the face database 90 and corresponds to each other, the identification unit 134 ) determines the face 74a corresponding to the corresponding identification number 71-1 as the face to be identified (i.e., exposed face). Conversely, if the face (e.g., 75b) for at least one identification number (72-1, e.g., [3, 2]) is different from the comparison target face stored in the face database 90 and does not correspond to each other, the identification unit 134 ) determines that the face 75b for the corresponding identification number 72-1 is a face subject to de-identification (i.e., an unexposed face). Depending on the embodiment, the identification unit 134 may use the comparison target face acquired by the above-described exposure face acquisition unit 111 and delivered in advance or in real time, instead of the comparison target face stored in the face database 90. . The identification number (71-1, for example [9]) determined as an exposed face by the identification unit 134 is stored in the storage unit 105, for example, in the form of a main face set 95. It can be. The main face set 95 may be transmitted to the rearrangement unit 136.

도 6은 식별화 처리가 수행된 영상의 일 실시예에 대한 도면이다.Figure 6 is a diagram of an example of an image on which identification processing has been performed.

부분적 비식별화 처리부(135)는, 전체 비식별화 처리된 영상 프레임(61-t)에서 식별부(134)에 의해 노출 얼굴로 결정된 얼굴(일례로 74a)이 노출되고, 노출 얼굴이 아닌 비노출 얼굴로 결정된 얼굴(일례로 74b, 75a, 75b, 75c)은 그 노출이 차단되도록 관련 처리를 수행한다.The partial de-identification processing unit 135 exposes the face (for example, 74a) determined to be an exposed face by the identification unit 134 in the entire de-identified image frame 61-t, and displays a non-exposed face that is not an exposed face. Faces determined to be faces (e.g., 74b, 75a, 75b, 75c) are processed to block their exposure.

일 실시예에 의하면, 부분적 비식별화 처리부(135)는 복원 대상이 되는 얼굴(74a)을 식별 번호(71-1, [9])를 이용하여 결정하고, 이를 기반으로 노출 얼굴(71)에 대한 식별화 및/또는 비노출 얼굴(72)에 대한 비식별화를 수행할 수 있다. 만약 식별부(143)가 제1 집합(81-1)에 속하는 식별 번호([3, 9, 2])에 대응하는 얼굴(들)(74a, 75a, 75b)에 대한 복원을 먼저 수행한 후 얼굴 간의 비교를 수행하였다면, 부분적 비식별화 처리부(135)는 비노출 얼굴로 판단된 얼굴(75a, 75b)에 대해 비식별화 처리를 수행하고 노출 얼굴로 판단된 얼굴(74a)은 그대로 유지하여 노출 얼굴로 판단된 얼굴(74a) 외의 다른 얼굴(75a, 75b)은 식별 불가능하도록 할 수 있다. 이 경우, 부분적 비식별화 처리부(135)는 필요에 따라서, 제1 집합(81-1)에 속하는 식별 번호([3, 9, 2])에 대응하는 얼굴(들) 모두에 대해서 다시 비식별화 처리를 수행하고, 노출 얼굴로 판단된 얼굴(74a)에 한하여 다시 복원 처리를 수행하여 식별 가능하게 하는 것도 가능하다. 반대로 식별부(134)가 비교 대상 얼굴(들)의 비식별화 처리를 수행한 후 얼굴 간의 비교를 수행하였다면, 노출 얼굴로 판단된 얼굴(74a)을 원래의 영상으로 복원하여 해당 얼굴(74a)에 대한 식별화 처리를 수행하고, 나머지 얼굴(75a, 75b)는 그대로 유지하여 식별이 불가능하게 할 수도 있다.According to one embodiment, the partial de-identification processing unit 135 determines the face 74a to be restored using the identification number 71-1, [9], and based on this, determines the face 74a to be restored. Identification and/or de-identification of the non-exposed face 72 may be performed. If the identification unit 143 first performs restoration on the face(s) (74a, 75a, 75b) corresponding to the identification numbers ([3, 9, 2]) belonging to the first set (81-1), If comparison between faces is performed, the partial de-identification processing unit 135 performs de-identification processing on the faces 75a and 75b determined to be non-exposed faces, and the face 74a determined to be exposed is maintained and exposed. Faces 75a and 75b other than the face 74a determined to be a face can be made indistinguishable. In this case, the partial de-identification processing unit 135 de-identifies all of the face(s) corresponding to the identification numbers ([3, 9, 2]) belonging to the first set 81-1 again, as necessary. It is also possible to perform image processing and perform restoration processing again only on the face 74a determined to be an exposed face to enable identification. On the other hand, if the identification unit 134 performs a comparison between faces after de-identifying the face(s) to be compared, the face 74a determined to be an exposed face is restored to the original image and the face 74a is replaced with the corresponding face 74a. Identification processing may be performed on the faces 75a and 75b, and the remaining faces 75a and 75b may be left as is, making identification impossible.

다른 실시예에 의하면, 부분적 비식별화 처리부(135)는 주 얼굴 집합(95)을 이용하여 선택적으로 식별화 또는 비식별화를 수행할 수도 있다. 즉, 후술하는 바와 같은 동작에 의해 주 얼굴 집합(95)이 생성되면, 부분적 비식별화 처리부(135)는 주 얼굴 집합(95)을 참조하여 식별화될 노출 얼굴(71, 74) 및 비식별화될 비노출 얼굴(72, 75) 중 적어도 하나를 결정한 후, 얼굴 추적부(125)의 추적 결과를 기반으로 모든 또는 일부의 프레임(60-k)에 나타난 노출 얼굴(71, 74)의 식별화를 수행할 수도 있다. 이 경우, 전체 비식별화 처리부(131)가 모든 얼굴(71, 72)에 대해 비식별화 처리를 수행하였으므로, 비노출 얼굴(72, 75)은 여전히 비식별화 처리된 상태로 유지된다.According to another embodiment, the partial de-identification processing unit 135 may selectively perform identification or de-identification using the main face set 95. That is, when the main face set 95 is created by an operation as described later, the partial de-identification processing unit 135 refers to the main face set 95 and de-identifies the exposed faces 71 and 74 to be identified. After determining at least one of the non-exposed faces 72 and 75 to be identified, identification of the exposed faces 71 and 74 appearing in all or some of the frames 60-k based on the tracking results of the face tracking unit 125. You can also perform . In this case, since the entire de-identification processing unit 131 has performed de-identification processing on all faces 71 and 72, the unexposed faces 72 and 75 remain de-identified.

부분적 비식별화 처리부(135)의 동작에 따라, 도 6에 도시된 바와 같이, 새로운 영상 프레임(62-t, 이하 제1 부분적 비식별화 영상 프레임) 또는 이들 영상 프레임(62-t)을 조합한 결과 영상(63)이 획득될 수 있다. 이 경우, 제1 부분적 비식별화 영상 프레임(62-t) 또는 결과 영상(63)에서 적어도 하나의 특정한 식별 번호(71-1, [9])에 대응하는 노출 얼굴(71a)은 복원되어 식별 가능하게 되나, 나머지 얼굴은 여전히 비식별화 처리된 상태이므로 식별 불가능하다. 나머지 얼굴은, 예를 들어, 제1 집합(81-1)의 다른 식별 번호(72-1, [3, 2])에 대응하는 얼굴(일례로 75b) 및 제2 집합(82-1)의 식별 번호([1, 6, 8, 4, 7, 10, 5])에 대응하는 얼굴(일례로 74b, 75a, 75c)을 포함할 수 있다.According to the operation of the partially de-identified processing unit 135, as shown in FIG. 6, a new image frame 62-t (hereinafter referred to as a first partially de-identified image frame) or a combination of these image frames 62-t is performed. As a result, the image 63 can be obtained. In this case, the exposed face 71a corresponding to at least one specific identification number 71-1, [9] in the first partially de-identified image frame 62-t or the resulting image 63 is restored and identified. This is possible, but the rest of the face is still de-identified and cannot be identified. The remaining faces are, for example, faces (75b, for example) corresponding to other identification numbers (72-1, [3, 2]) of the first set (81-1) and those of the second set (82-1). It may include a face (for example, 74b, 75a, 75c) corresponding to an identification number ([1, 6, 8, 4, 7, 10, 5]).

제1 부분적 비식별화 영상 프레임(62-t)의 생성 후, 생성 전 또는 생성과 동시에, 도 5에 도시된 것처럼, 제(t+1) 영상 프레임(60-(t+1))이 다시 비식별화 처리부(130)로 전달될 수 있다. 이에 응하여, 전체 비식별화 처리부(131)는 제(t+1) 영상 프레임(60-(t+1)) 내의 모든 얼굴에 대해서 상술한 바와 같이 비식별화 처리를 수행할 수 있다.After the generation of the first partially de-identified video frame 62-t, before or simultaneously with the generation, the (t+1)th video frame 60-(t+1) is again generated, as shown in FIG. It may be transmitted to the de-identification processing unit 130. In response, the entire de-identification processing unit 131 may perform de-identification processing as described above on all faces in the (t+1)th image frame 60-(t+1).

이어서, 재배열부(136)는 제(t+1) 영상 프레임(60-(t+1)) 내의 얼굴(71, 72) 각각에 대응하는 식별 번호(70-2, 일례로 [2, 3, 4, 5, 7, 8, 9, 10, 11, 12])를 얼굴 처리부(120)로부터 수신한다. 이 경우, 적어도 하나의 얼굴(71, 72)에 대응하는 식별 번호(70-2)는, 얼굴 추적부(125)의 추적 결과에 따라서, 제t 영상 프레임(60-t)의 동일한 얼굴(71, 72)의 식별 번호(70-1)와 동일하게 주어진다. 재배열부(136)는 각각의 식별 번호(70-2)에 대응하는 얼굴(71, 72)의 위치나 크기에 따라서 식별 번호(70-2)를 배열하여, 도 5에 도시된 것처럼 배열된 식별 번호(70-2r1, 일례로 [3, 9, 2, 8, 11, 4, 7, 10, 12, 5], 이하 제2 배열된 식별 번호)를 획득할 수 있다. 예를 들어, 배열부(132)는 상술한 것처럼 얼굴(71a, 72b)이 크거나 또는 영상 프레임(60-t)의 중심에 가까울수록 해당 얼굴(71a, 72b)을 더 앞에 배치하여 제2배열된 식별 번호(70-2r1)를 획득할 수도 있다.Subsequently, the rearrangement unit 136 identifies identification numbers 70-2, for example [2, 3, 4, 5, 7, 8, 9, 10, 11, 12]) are received from the face processing unit 120. In this case, the identification number 70-2 corresponding to at least one face 71 or 72 is the same face 71 of the t-th image frame 60-t according to the tracking result of the face tracker 125. , 72) is given the same as the identification number (70-1). The rearrangement unit 136 arranges the identification numbers 70-2 according to the position or size of the faces 71 and 72 corresponding to each identification number 70-2, so that the identification numbers 70-2 are arranged as shown in FIG. 5. A number (70-2r1, for example [3, 9, 2, 8, 11, 4, 7, 10, 12, 5], hereinafter referred to as a second arranged identification number) can be obtained. For example, as described above, the array unit 132 arranges the faces 71a and 72b further forward as the faces 71a and 72b become larger or closer to the center of the image frame 60-t. You can also obtain an identification number (70-2r1).

이어서 재배열부(136)는 집합 분류부(133)로부터 수신한 제2 집합(82-1)을 이용하여 제2 배열된 식별 번호(70-2r1)에 대한 재배열을 수행하여 제1 재배열된 식별 번호(70-2r2, 일례로 [8, 4, 7, 10, 5, 3, 9, 2, 11, 12])를 획득할 수 있다. 구체적으로 예를 들어, 재배열부(136)는 제2 배열된 식별 번호(70-2r1)와 제2 집합(82-1)을 상호 비교하고, 제2 배열된 식별 번호(70-2r1) 중에서 제2 집합(82-1)에도 포함된 식별 번호(일례로 [8, 4, 7, 10, 5])를 획득하고, 이들을 상대적으로 앞에 배치하여 제1 재배열된 식별 번호(70-2r2)를 획득할 수도 있다.Subsequently, the rearrangement unit 136 performs rearrangement on the second arranged identification number 70-2r1 using the second set 82-1 received from the set sorting unit 133 to obtain the first rearranged identification number 70-2r1. An identification number (70-2r2, for example [8, 4, 7, 10, 5, 3, 9, 2, 11, 12]) can be obtained. Specifically, for example, the rearrangement unit 136 compares the second arranged identification number 70-2r1 and the second set 82-1, and selects the second arranged identification number 70-2r1. 2 Obtain the identification numbers (e.g. [8, 4, 7, 10, 5]) also included in the set (82-1), and place them relatively in front to obtain the first rearranged identification number (70-2r2). You can also obtain it.

재배열부(136)는 주 얼굴 집합(95)을 참조하여 노출 얼굴에 대응하는 식별 번호(71-1, 일례로 [9])를 더 획득하고, 제1 재배열된 식별 번호(70-2r2)에 이를 더 반영하여 제2 재배열된 식별 번호(70-2r3)를 획득할 수도 있다. 구체적으로 예를 들어, 재배열부(136)는 노출 얼굴에 대응하는 식별 번호([9])가 제1 재배열된 식별 번호(70-2r2)에 존재하는지 확인하고, 노출 얼굴에 대응하는 식별 번호([9])가 제1 재배열된 식별 번호(70-2r2)에 존재한다면, 노출 얼굴에 대응하는 식별 번호([9])을 다른 식별 번호(일례로 [8, 4, 7, 10, 5, 3, 2, 11, 12])의 앞에 배치하여 노출 얼굴에 대응하는 식별 번호([9])가 가장 앞에 위치하는 제2 재배열된 식별 번호(70-2r3)를 획득할 수도 있다. The rearrangement unit 136 further obtains an identification number (71-1, for example [9]) corresponding to the exposed face by referring to the main face set 95, and uses the first rearranged identification number (70-2r2) By further reflecting this, a second rearranged identification number (70-2r3) may be obtained. Specifically, for example, the rearrangement unit 136 checks whether the identification number ([9]) corresponding to the exposed face is present in the first rearranged identification number (70-2r2), and determines whether the identification number ([9]) corresponding to the exposed face is present in the first rearranged identification number (70-2r2). If ([9]) is present in the first rearranged identification number (70-2r2), the identification number ([9]) corresponding to the exposed face is changed to another identification number (e.g. [8, 4, 7, 10, 5, 3, 2, 11, 12], to obtain a second rearranged identification number (70-2r3) in which the identification number ([9]) corresponding to the exposed face is located at the very front.

상술한 과정에 의하면, 제2 재배열된 식별 번호(70-2r3)는 노출 얼굴에 대응하는 식별 번호([9]), 제2 집합(82-1)에도 포함된 식별 번호(일례로 [8, 4, 7, 10, 5]) 및 그 외 식별 번호(일례로 [3, 2, 11, 12])의 순으로 배치되게 된다. According to the above-described process, the second rearranged identification number (70-2r3) is an identification number ([9]) corresponding to the exposed face, and an identification number also included in the second set (82-1) (for example, [8] , 4, 7, 10, 5]) and other identification numbers (for example, [3, 2, 11, 12]).

제2 재배열된 식별 번호(70-2r3)는 집합 분류부(133)로 전달된다. 실시예에 따라서, 제2 재배열된 식별 번호(70-2r3)는 획득되지 않을 수도 있으며, 이 경우, 제1 재배열된 식별 번호(70-2r2)가 집합 분류부(133)로 전달될 수도 있다.The second rearranged identification number 70-2r3 is transmitted to the set classification unit 133. Depending on the embodiment, the second rearranged identification number (70-2r3) may not be obtained, and in this case, the first rearranged identification number (70-2r2) may be transmitted to the set classification unit 133. there is.

집합 분류부(133)는 상술한 바와 같이 제2 재배열된 식별 번호(70-2r3)를 적어도 두 개의 집합으로 분류할 수 있으며, 예를 들어, 제3 집합(81-2) 및 제4 집합(82-2)으로 분류할 수 있다. 이 경우, 집합 분류부(133)는 제2 재배열된 식별 번호(70-2r3)에서 앞에서부터 식별 번호(일례로 [9, 8, 4])를 기준 개수만큼 검출 및 조합하여 제3 집합(81-2)을 생성하고, 제2 재배열된 식별 번호(70-2r3)의 나머지 식별 번호(일례로 [7, 10, 5, 3, 2, 11, 12])를 조합하여 제4 집합(82-2)를 생성할 수 있다. 제3 집합(81-2)은 식별부(134)로 전달되고, 제4 집합(82-2)은 재배열부(136)로 전달될 수 있다.As described above, the set classification unit 133 may classify the second rearranged identification number 70-2r3 into at least two sets, for example, a third set 81-2 and a fourth set. It can be classified as (82-2). In this case, the set classification unit 133 detects and combines the reference number of identification numbers (for example, [9, 8, 4]) from the front in the second rearranged identification number 70-2r3 to create a third set ( 81-2), and combining the remaining identification numbers (e.g. [7, 10, 5, 3, 2, 11, 12]) of the second rearranged identification number (70-2r3) to create a fourth set ( 82-2) can be generated. The third set (81-2) may be transmitted to the identification unit 134, and the fourth set (82-2) may be transmitted to the rearrangement unit 136.

도 7은 추가 식별화 처리가 수행된 영상의 일 실시예에 대한 도면이다.Figure 7 is a diagram of an example of an image on which additional identification processing has been performed.

식별부(134)는 상술한 바와 동일하게 제(t+1) 영상 프레임을 기반으로 하는 제3 집합(81-2)의 식별 번호(일례로 [9, 8, 4])를 획득하고, 제3 집합(81-2)의 식별 번호([9, 8, 4])에 대응하는 얼굴을 식별할 수 있다. 이 경우, 식별부(134)는, 얼굴 데이터베이스(90)에 기 저장된 비교 대상 얼굴 또는 노출 얼굴 획득부(111)가 획득한 비교 대상 얼굴을, 제3 집합(81-2)의 식별 번호([9, 8, 4])에 대응하는 얼굴과 비교하고, 제3 집합(81-2)의 식별 번호([9, 8, 4])에 대응하는 얼굴 중에서 비교 대상 얼굴과 동일 또는 유사한 얼굴이 검출되면, 해당 얼굴을 노출 얼굴로 결정한다. 이 경우, 실시예에 따라서, 양자 간의 비교는 제3 집합(81-2)의 식별 번호([9, 8, 4])에 대응하는 얼굴의 복원이 수행된 후 수행될 수도 있고, 및/또는 비교 대상 얼굴의 비식별화가 더 수행된 후 수행될 수도 있다. 필요에 따라 식별부(134)는 노출 얼굴에 대한 식별 번호(71-2, [9,8])를 이용하여 주 얼굴 집합(95)을 갱신할 수도 있다. 이 경우, 도 7에 도시된 바와 같이 제t 영상 프레임(60-t)의 분석 과정에서 노출 얼굴로 결정되지 않은 새로운 얼굴(즉, 식별 번호 [8]에 대응하는 얼굴)이 새롭게 노출 얼굴(71b)로 결정될 수도 있다. 반대로 적어도 하나의 식별 번호(72-2, 일례로 [4])에 대응하는 얼굴(일례로 75a, 75c 등)이 기 저장된 비교 대상 얼굴에 대응하지 않는다면, 식별부(134)는 해당 식별 번호(72-2)에 대응하는 얼굴(75a, 75c 등)은 비노출 얼굴로 결정한다.The identification unit 134 acquires the identification number (for example, [9, 8, 4]) of the third set 81-2 based on the (t+1)th image frame as described above, and 3 The face corresponding to the identification number ([9, 8, 4]) of the set (81-2) can be identified. In this case, the identification unit 134 selects the comparison target face pre-stored in the face database 90 or the comparison target face acquired by the exposed face acquisition unit 111 with an identification number ([ 9, 8, 4]), and a face identical or similar to the comparison target face is detected among the faces corresponding to the identification numbers ([9, 8, 4]) of the third set (81-2). If so, the face is determined as the exposed face. In this case, depending on the embodiment, comparison between the two may be performed after restoration of the face corresponding to the identification number ([9, 8, 4]) of the third set 81-2 is performed, and/or De-identification of the face to be compared may be performed after further de-identification. If necessary, the identification unit 134 may update the main face set 95 using the identification numbers 71-2, [9, 8] for the exposed faces. In this case, as shown in FIG. 7, a new face (i.e., a face corresponding to identification number [8]) that was not determined as an exposed face in the analysis process of the t image frame 60-t is newly exposed face 71b. ) may be determined. Conversely, if the face (e.g., 75a, 75c, etc.) corresponding to at least one identification number (72-2, e.g., [4]) does not correspond to the previously stored comparison target face, the identification unit 134 generates the corresponding identification number ( The faces (75a, 75c, etc.) corresponding to 72-2) are determined as non-exposed faces.

부분적 비식별화 처리부(135)는, 제1 부분적 비식별화 영상 프레임(62-t)에서 식별부(134)에 의해 노출 얼굴로 판단된 얼굴(즉, 식별 번호 [8]에 대응하는 얼굴(74b))에 대한 복원을 수행하여 식별화 처리를 수행하거나, 또는 비노출 얼굴로 판단된 얼굴(즉, 식별 번호 [4]에 대응하는 얼굴(74b))에 비식별화 처리를 수행할 수 있다. 기존에 노출 얼굴로 판단되었던 얼굴(즉, 식별 번호 [9]에 대응하는 얼굴(71a))이 이미 복원된 경우라면, 해당 얼굴에 대한 식별화 처리는 수행되지 않는다. 결과적으로 도 7에 도시된 바와 같이, 또 다른 새로운 영상 프레임(62-(t+1), 이하 제2 부분적 비식별화 영상 프레임(63-t))이 획득되게 된다. 제2 부분적 비식별화 영상 프레임(63-t)에서는 적어도 하나의 특정한 식별 번호(71-2, [8])에 대응하는 노출 얼굴(71b)은 복원되어 식별 가능하나, 나머지 얼굴은 식별 불가능하다. 여기서, 나머지 얼굴은, 예를 들어, 제3 집합(81-2)에 속하는 식별 번호(72-2, [4])에 대응하나 기 저장된 얼굴과는 비유사한 얼굴과, 제4 집합(82-2)에 속하는 식별 번호([7, 10, 5, 3, 2, 11, 12])에 대응하는 얼굴을 포함할 수 있다.The partially de-identified processing unit 135 determines the face determined to be an exposed face by the identification unit 134 in the first partially de-identified image frame 62-t (i.e., the face corresponding to the identification number [8] ( Reconstruction may be performed on 74b)) and identification processing may be performed, or de-identification processing may be performed on the face determined to be a non-exposed face (i.e., the face 74b corresponding to identification number [4]). If a face that was previously determined to be an exposed face (i.e., the face 71a corresponding to identification number [9]) has already been restored, identification processing for the face is not performed. As a result, as shown in FIG. 7, another new image frame 62-(t+1), hereinafter referred to as a second partially de-identified image frame 63-t, is obtained. In the second partially de-identified image frame 63-t, the exposed face 71b corresponding to at least one specific identification number 71-2, [8] is restored and identifiable, but the remaining faces are not identifiable. . Here, the remaining faces are, for example, faces that correspond to identification numbers (72-2, [4]) belonging to the third set (81-2) but are dissimilar to the previously stored faces, and faces that are dissimilar to the previously stored faces and the fourth set (82-2). 2) may include a face corresponding to an identification number ([7, 10, 5, 3, 2, 11, 12]).

또한, 제(t+2) 영상 프레임(60-(t+2))이 추가로 획득되면, 상술한 것처럼 전체 비식별화 처리부(131)는 제(t+2) 영상 프레임(60-(t+2)) 내의 모든 얼굴에 대해서 비식별화 처리를 수행하고, 재배열부(136)는 제(t+2) 영상 프레임(60-(t+2))의 얼굴 각각에 대응하는 식별 번호(70-3, 일례로 [2, 3, 5, 7, 8, 9, 10, 12, 13, 14])를 획득하고, 각각의 식별 번호(70-3)에 대응하는 얼굴(71, 72)의 위치나 크기에 따라서 식별 번호(70-3)를 배열하여, 배열된 식별 번호(70-3r1, 일례로 [3, 9, 2, 8, 7 ,10, 13, 12, 5, 14], 이하 제3 배열된 식별 번호)를 획득할 수 있다. 또한, 재배열부(136)는 새로운 제2 집합(82-2)과 공통된 식별 번호(일례로 [7, 10, 5, 3, 2, 12])를 상대적으로 전방에 배치하는 방식으로 제3 배열된 식별 번호(70-3r1)를 재배열하여 제3 재배열된 식별 번호(70-3r2, 일례로 [7, 10, 5, 3, 2, 12, 9, 8, 13, 14])를 획득하고, 필요에 따라 새로 갱신된 주 얼굴 집합(95)을 이용하여 노출 얼굴에 대응하는 식별 번호(71-2, 일례로 [9, 8])를 새로운 제2 집합(82-2)과 공통된 식별 번호(일례로 [7, 10, 5, 3, 2, 12])보다 더 전방에 배치하여 제4 재배열된 식별 번호(70-3r3)를 획득할 수도 있다. In addition, when the (t+2)th image frame 60-(t+2) is additionally acquired, as described above, the entire de-identification processing unit 131 processes the (t+2)th image frame 60-(t +2)), de-identification processing is performed on all faces in the rearrangement unit 136, and the rearrangement unit 136 generates an identification number 70 corresponding to each face in the (t+2)th image frame (60-(t+2)). -3, for example [2, 3, 5, 7, 8, 9, 10, 12, 13, 14]), and obtain the faces (71, 72) corresponding to each identification number (70-3). By arranging the identification number (70-3) according to the position or size, the arranged identification number (70-3r1, for example [3, 9, 2, 8, 7, 10, 13, 12, 5, 14], etc. A third arranged identification number) can be obtained. In addition, the rearrangement unit 136 arranges the new second set 82-2 and a common identification number (for example, [7, 10, 5, 3, 2, 12]) relatively in the front, thereby arranging the third array. Obtain a third rearranged identification number (70-3r2, for example [7, 10, 5, 3, 2, 12, 9, 8, 13, 14]) by rearranging the rearranged identification number (70-3r1). And, if necessary, use the newly updated main face set 95 to identify the identification number (71-2, for example [9, 8]) corresponding to the exposed face with the new second set (82-2). The fourth rearranged identification number (70-3r3) may be obtained by placing it further forward than the number (for example, [7, 10, 5, 3, 2, 12]).

집합 분류부(133)는 제3 배열된 식별 번호(70-3r1) 또는 제4 재배열된 식별 번호(70-3r3)를 적어도 두 개의 집합(81-3, 82-3)으로 분류할 수 있다. 상술한 바와 같이 집합 분류부(133)는 앞에서부터 순서대로 기준 개수만큼의 식별 번호(일례로 [9, 8, 7])를 제4 재배열된 식별 번호(70-3r3)로부터 검출 및 조합하여 제5 집합(81-3)을 생성하고, 아울러 제4 재배열된 식별 번호(70-3r3)의 나머지 식별 번호(일례로 [7, 10, 5, 3, 2, 12, 13, 14])를 이용하여 제6 집합(82-3)를 생성할 수 있다. 제5 집합(81-3)은 식별부(134)로 전달되고, 식별부(134)는 상술한 바와 같이 기 획득한 비교 대상 얼굴을 이용하여, 제5 집합(81-3)의 식별 번호([9, 8, 7]) 중에서 노출 얼굴에 해당하는 식별 번호(71-3, 일례로 [9,8])을 결정하고, 비노출 얼굴에 해당하는 식별 번호(72-3, 일례로 [7])를 결정할 수 있다. The set classification unit 133 may classify the third arranged identification number 70-3r1 or the fourth rearranged identification number 70-3r3 into at least two sets 81-3 and 82-3. . As described above, the set classification unit 133 detects and combines the standard number of identification numbers (for example, [9, 8, 7]) from the fourth rearranged identification number 70-3r3 in order from the front. Generating a fifth set (81-3), as well as the remaining identification numbers (e.g. [7, 10, 5, 3, 2, 12, 13, 14]) of the fourth rearranged identification number (70-3r3) The sixth set (82-3) can be created using . The fifth set (81-3) is transmitted to the identification unit 134, and the identification unit 134 uses the previously obtained comparison target face as described above, and the identification number of the fifth set (81-3) ( Among [9, 8, 7]), the identification number corresponding to the exposed face (71-3, for example [9,8]) is determined, and the identification number corresponding to the non-exposed face (72-3, for example [7]) is determined. ) can be determined.

부분적 비식별화 처리부(135)는, 노출 얼굴에 해당하는 식별 번호(71-3)을 이용하여 노출 얼굴로 판단된 얼굴에 대한 복원 및 식별화를 수행하거나, 비노출 얼굴로 판단된 얼굴에 대한 비식별화를 수행한다. 만약 노출 얼굴로 판단된 얼굴이 모두 식별 가능한 상태라면, 얼굴 복원은 수행되지 않을 수도 있다.The partial de-identification processing unit 135 performs restoration and identification of the face determined to be an exposed face using the identification number 71-3 corresponding to the exposed face, or performs de-identification of the face determined to be an unexposed face. Perform identification. If all faces determined to be exposed are identifiable, face restoration may not be performed.

상술한 과정이 종료되면, 부분적 비식별화 처리부(135)는 선택적으로 식별화 처리가 된 영상 프레임(들)(62-t 내지 62-(t+2))의 전부 또는 일부를 순차 조합하여, 적어도 하나의 결과 영상(63)을 생성할 수 있다. 또한, 상술한 것처럼 부분적 비식별화 처리부(135)는, 실시예에 따라서, 모든 또는 일부의 노출 얼굴(71)을 포함하는 주 얼굴 집합(95)이 생성된 후, 주 얼굴 집합(95) 및 얼굴 추적부(125)의 추적 결과를 이용하여 모든 또는 일부의 영상 프레임(들)(62-t 내지 62-(t+2)) 내의 노출 얼굴(71) 각각에 대한 식별화를 수행하여, 결과 영상(63)을 생성할 수도 있다. 생성된 결과 영상(63)은 출력부(103) 또는 저장부(105)로 전달되고, 사용자나 시청자 등에게 제공될 수 있다.When the above-described process is completed, the partial de-identification processing unit 135 sequentially combines all or part of the image frame(s) (62-t to 62-(t+2)) that have been selectively identified, At least one result image 63 can be generated. In addition, as described above, the partial de-identification processing unit 135, depending on the embodiment, generates the main face set 95 including all or some of the exposed faces 71, and then generates the main face set 95 and Using the tracking results of the face tracking unit 125, identification is performed on each of the exposed faces 71 in all or some of the image frame(s) (62-t to 62-(t+2)), and the result is An image 63 can also be generated. The generated result image 63 may be transmitted to the output unit 103 or the storage unit 105 and provided to users, viewers, etc.

창작자 등에 의해 제작되는 동영상 내에는 창작자나 배우 등과 같이 의도적 노출이 필요한 개인의 얼굴도 존재할 수 있는데, 이들의 얼굴은 노출이 당연하거나 또는 예정되어 있다. 따라서, 상술한 과정과 같이 노출 얼굴 획득부(111)를 통해 창작자나 배우 등을 노출 얼굴로 사전에 등록하면, 이들 얼굴에 대해선 비식별화 처리 외에 식별화 처리가 더 수행되어, 결과적으로 비식별화 처리의 적용이 배제된 것과 동일한 효과를 가지게 된다. 또한, 이들 외의 타인은 비노출 얼굴로 인정되어 비식별화 처리만 수행되어 결과 영상(63) 내에서 나타나지 않게 된다. 즉, 획득된 결 과 영상(63)에서는 특정한 인물만 노출되고 그 외의 인물은 차단된다. 이에 따라 불필요한 사람의 영상 내 노출이 방지되고, 그/그녀의 사생활이 보호될 수 있게 된다.In a video produced by a creator, etc., there may also be faces of individuals such as the creator or an actor that require intentional exposure, and exposure of these faces is natural or scheduled. Therefore, if a creator or actor is registered in advance as an exposed face through the exposed face acquisition unit 111 as described above, identification processing is further performed on these faces in addition to de-identification processing, resulting in de-identification. It has the same effect as if the application of the processing was excluded. Additionally, other people other than these are recognized as non-exposed faces and only de-identification processing is performed so that they do not appear in the resulting image 63. That is, in the obtained result image 63, only specific people are exposed and other people are blocked. Accordingly, unnecessary exposure of people in the video is prevented and his/her privacy is protected.

상술한 선택적 비식별화 장치(100)는, 상술한 노출 얼굴 획득, 전처리, 얼굴 추출, 얼굴 추적, 비식별화 처리, 집합 분류, 노출 얼굴 식별 및 복원 등의 과정을 수행할 수 있도록 특별히 고안된 장치를 이용하여 구현될 수도 있고, 또는 하나 또는 둘 이상의 정보처리장치를 단독으로 이용하거나 조합 이용함으로써 구현될 수도 있다. 여기서, 하나 또는 둘 이상의 정보처리장치는, 예를 들어, 데스크톱 컴퓨터, 랩톱 컴퓨터, 서버용 하드웨어 장치, 스마트 폰, 태블릿 피씨, 휴대용 게임기, 내비게이션 장치, 두부 장착형 디스플레이(HMD: Head Mounted Display) 장치, 디지털 텔레비전, 셋 톱 박스, 디지털 미디어 플레이어 장치, 미디어 스트리밍 장치, 음향 재생 장치(인공 지능 스피커 등), 폐쇄 회로 티비(CCTV), 가전 기기, 유인 또는 무인 이동체(일례로 승용차, 버스나 이륜차와 같은 차량, 이동성 로봇, 무선 모형 차량, 로봇 청소기 등), 유인 또는 무인 비행체(일례로 항공기나, 헬리콥터나, 드론, 모형 비행기, 모형 헬리콥터 등), 의료 기기(엑스선 촬영 장치, 컴퓨터 단층 촬영 장치(CT: Computed Tomography) 또는 자기공명촬영(MRI: Magnetic Resonance Imaging) 장치 등), 산업용 로봇 또는 산업용 기계 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 설계자나 사용자 등은 상황이나 조건에 따라서 상술한 정보처리장치 이외에도 정보의 연산 처리 및 제어가 다양한 장치 중 적어도 하나를 상술한 장치(100)로 고려하여 채용할 수 있다.The above-described selective de-identification device 100 is a specially designed device to perform the above-described processes such as exposed face acquisition, pre-processing, face extraction, face tracking, de-identification processing, set classification, and exposed face identification and restoration. It may be implemented using, or it may be implemented by using one or more information processing devices alone or in combination. Here, one or more information processing devices include, for example, desktop computers, laptop computers, server hardware devices, smart phones, tablet PCs, portable game consoles, navigation devices, head mounted display (HMD) devices, digital devices, etc. Televisions, set-top boxes, digital media player devices, media streaming devices, audio playback devices (artificial intelligence speakers, etc.), closed-circuit television (CCTV), home appliances, manned or unmanned vehicles (e.g. vehicles such as cars, buses, or two-wheelers) , mobile robots, wireless model vehicles, robot vacuum cleaners, etc.), manned or unmanned flying vehicles (e.g. aircraft, helicopters, drones, model airplanes, model helicopters, etc.), medical devices (X-ray imaging devices, computed tomography devices (CT: Computed Tomography or Magnetic Resonance Imaging (MRI) devices, etc.), industrial robots, or industrial machines, but are not limited thereto. Depending on the situation or conditions, designers, users, etc. may consider and employ at least one of various devices for computational processing and control of information as the above-described device 100 in addition to the above-described information processing device.

이하 도 8 내지 도 10을 참조하여 선택적 비식별화 방법의 일 실시예에 대해서 설명하도록 한다.Hereinafter, an embodiment of the selective de-identification method will be described with reference to FIGS. 8 to 10.

도 8은 선택적 비식별화 방법의 일 실시예에 대한 제1 흐름도이다.Figure 8 is a first flow diagram of one embodiment of a selective de-identification method.

도 8에 도시된 바에 의하면, 먼저 비교 대상 얼굴을 갖는 영상(즉, 얼굴 영상)이 획득되고, 획득된 얼굴 영상으로부터 비교 대상 얼굴이 추출될 수 있다(200). 여기서, 비교 대상 얼굴은 대상 영상 내에서 식별 가능하게 처리되어 외부로 노출될 얼굴을 포함한다. 비교 대상 얼굴은 소정의 학습 알고리즘을 이용하여 얼굴 영상으로부터 검출될 수도 있다. 실시예에 따라서, 얼굴 영상으로부터 비교 대상 얼굴이 검출되면, 비교 대상 얼굴을 이용하여 얼굴 데이터베이스가 새로 생성되거나 또는 갱신될 수 있다.As shown in FIG. 8, first, an image (i.e., face image) having a face to be compared is acquired, and then the face to be compared can be extracted from the acquired face image (200). Here, the face to be compared includes a face that will be processed to be identifiable within the target image and exposed to the outside. The face to be compared may be detected from the face image using a predetermined learning algorithm. Depending on the embodiment, when a face to be compared is detected from a face image, a face database may be newly created or updated using the face to be compared.

선택적 비식별화 처리를 수행할 대상 영상이 획득된다(202). 대상 영상의 획득은 얼굴 영상의 획득 이전에, 이후에 또는 이와 동시에 수행될 수도 있다. 대상 영상은 정지 영상 또는 동영상을 포함할 수 있다. 동영상은 순차적으로 연결된 복수의 프레임으로 이루어진다.A target image to perform selective de-identification processing is acquired (202). Acquisition of the target image may be performed before, after, or simultaneously with the acquisition of the face image. The target image may include a still image or a moving image. A video consists of multiple frames connected sequentially.

대상 영상이 동영상인 경우, 대상 영상의 적어도 하나의 영상 프레임으로부터 얼굴이 추출되고, 추출된 얼굴 각각에 대해 소정의 식별 번호가 할당된다(204). 이 경우, 서로 상이한 프레임에서 추출된 얼굴이라고 하더라도, 서로 동일하면 동일한 식별 번호가 부여된다. 실시예에 따라서, 추출된 얼굴에 대응하는 적어도 하나의 블록이 생성될 수도 있다. 또한, 식별 번호가 할당되면, 각각의 영상 프레임에서 동일 식별 번호의 얼굴을 연결하여 적어도 하나의 얼굴에 대한 추적 결과를 획득할 수도 있다. 실시예에 따라서, 얼굴 추출 및 식별 번호 할당 이전에 대상 영상에 대한 소정의 전처리가 더 수행되는 것도 가능하다.When the target image is a video, a face is extracted from at least one video frame of the target image, and a predetermined identification number is assigned to each extracted face (204). In this case, even if the faces are extracted from different frames, if they are identical, the same identification number is given. Depending on the embodiment, at least one block corresponding to the extracted face may be created. Additionally, when an identification number is assigned, a tracking result for at least one face can be obtained by connecting faces with the same identification number in each video frame. Depending on the embodiment, it is possible to further perform preprocessing on the target image before extracting the face and assigning an identification number.

대상 영상을 이루는 적어도 하나의 영상 프레임이 획득되면, 적어도 하나의 영상 프레임 내의 모든 추출된 얼굴에 대해 비식별화 처리가 수행될 수 있다(206). 다시 말해서, 영상 내에서 식별 가능하게 처리될 노출 얼굴과, 영상 내에서 식별 불가능하게 처리될 비노출 얼굴 모두 식별 불가능하게 처리된다. 여기서, 비식별화 처리는, 블러링 처리, 모자이크 적용, 픽셀레이트 필터링 또는 인페인팅 처리 등을 포함 가능하다. 이에 따라, 적어도 하나의 영상에 대응하는 전체 비식별화 영상 프레임이 획득된다.When at least one image frame constituting the target image is acquired, de-identification processing may be performed on all extracted faces within the at least one image frame (206). In other words, both the exposed face that will be processed to be identifiable in the video and the unexposed face that will be processed to be unidentifiable in the video are processed to be unidentifiable. Here, de-identification processing may include blurring processing, mosaic application, pixel rate filtering, or inpainting processing. Accordingly, the entire de-identified image frame corresponding to at least one image is obtained.

이어서 각각의 얼굴에 대응하는 식별 번호 모두가 적어도 두 개의 집합 중 어느 하나로 분류될 수 있다(208). 집합 분류는 소정의 기준을 이용하여 수행될 수 있다. 예를 들어, 상대적으로 큰 얼굴에 대응하는 식별 번호 및/또는 영상 프레임 내에서 상대적으로 중심 또는 그 주변에 위치하는 얼굴에 대응하는 식별 번호가 하나의 집합(일례로 제1 집합)으로 분류되고, 그 외의 식별 번호가 다른 집합(일례로 제2 집합)으로 분류된다.Subsequently, all identification numbers corresponding to each face can be classified into one of at least two sets (208). Set classification can be performed using predetermined criteria. For example, identification numbers corresponding to relatively large faces and/or identification numbers corresponding to faces located relatively at or around the center within an image frame are classified into one set (e.g., a first set), Other identification numbers are classified into another set (for example, a second set).

제1 집합에 속하는 식별 번호에 대응하는 얼굴과, 비교 대상 얼굴이 상호 비교되고, 비교 결과에 따라 노출 얼굴이 결정될 수 있다(210). 구체적으로 제1 집합에 속하는 식별 번호에 대응하는 얼굴 중에서 비교 대상 얼굴과 동일 또는 근사한 얼굴은 노출 얼굴로 결정되고, 그렇지 않은 얼굴은 비노출 얼굴로 결정될 수 있다.The face corresponding to the identification number belonging to the first set and the face to be compared are compared, and the exposed face may be determined according to the comparison result (210). Specifically, among the faces corresponding to the identification number belonging to the first set, a face that is identical or similar to the face to be compared may be determined as an exposed face, and a face that is not may be determined as an unexposed face.

노출 얼굴이 결정되면, 노출 얼굴에 대해선 식별화 처리가 수행되고, 비노출 얼굴은 그대로 유지된다(212). 만약 노출 얼굴 및 비노출 얼굴이 노출 얼굴 결정 과정(210)에서 식별화 처리가 수행된 경우라면, 노출 얼굴은 그대로 유지되고, 비노출 얼굴에 대해선 비식별화 처리가 수행될 수도 있다. 이에 따라서 노출 얼굴은 식별할 수 있으나 비노출 얼굴은 식별할 수 없는 결과 영상이 획득될 수 있게 된다.Once the exposed face is determined, identification processing is performed on the exposed face, and the non-exposed face is maintained as is (212). If identification processing has been performed on the exposed face and the non-exposed face in the exposed face determination process 210, the exposed face may be maintained as is, and de-identification processing may be performed on the non-exposed face. Accordingly, a result image can be obtained in which exposed faces can be identified but non-exposed faces cannot be identified.

이하 도 9 및 도 10을 참조하여, 상술한 전체적인 비식별화 처리 과정 내지 부분적 비식별화 처리 과정(206 내지 212)을 보다 상세히 설명하도록 한다.Hereinafter, with reference to FIGS. 9 and 10, the above-described overall de-identification processing process and partial de-identification processing process (206 to 212) will be described in more detail.

도 9 및 도 10은 선택적 비식별화 방법의 일 실시예에 대한 제2 및 제3 흐름도이다.9 and 10 are second and third flowcharts of an embodiment of a selective de-identification method.

도 9에 도시된 바에 의하면, 대상 영상 내의 하나 이상의 영상 프레임(일례로 제1 내지 제2 영상 프레임 중 적어도 하나) 내의 얼굴에 대한 식별 번호 할당이 수행되고 제1 영상 프레임이 주어지면(300), 제1 영상 프레임 내의 적어도 하나의 얼굴 각각에 대응하는 식별 번호가 미리 정의된 기준에 따라 배열된다(302). 여기서, 미리 정의된 기준은, 상술한 바와 같이 각 식별 번호에 대응하는 얼굴의 크기나 위치 등을 포함할 수 있다. 예를 들어, 식별 번호는 식별 번호에 대응하는 얼굴의 크기가 크면 클수록, 그 얼굴의 위치가 중심이거나 중심에 근접할수록 상대적으로 앞에 배치되고, 그렇지 않은 경우 상대적으로 뒤에 배치되어, 배열될 수 있다.As shown in FIG. 9, when an identification number is assigned to a face in one or more image frames (for example, at least one of the first and second image frames) in the target image and the first image frame is given (300), Identification numbers corresponding to each of at least one face in the first image frame are arranged according to predefined standards (302). Here, the predefined criteria may include the size or location of the face corresponding to each identification number, as described above. For example, the identification number may be arranged relatively in front as the size of the face corresponding to the identification number is larger and the location of the face is at or close to the center. Otherwise, the identification number may be arranged relatively in the back.

소정의 기준에 따라 식별 번호가 배열되면, 제1 집합 및 제2 집합의 생성을 위해 식별 번호가 추출된다(304). 추출되는 식별 번호는 배열된 식별 번호 중에서 가장 앞에서부터 기준 개수까지의 식별 번호를 포함할 수 있다. 예를 들어, 기준 개수가 3이라면, 이에 대응하여 가장 앞에서부터 총 3개의 식별 번호가 추출될 수 있다. 기준 개수는 비교 대상 얼굴의 전체 개수일 수도 있고, 또는 비교 대상 얼굴 개수에 미리 정의된 여분 값의 합산일 수도 있다. 추출된 식별 번호는 제1 집합으로 취급되고, 이외의 나머지 식별 번호는 제2 집합으로 취급된다.Once the identification numbers are arranged according to predetermined criteria, the identification numbers are extracted to create a first set and a second set (304). The extracted identification number may include identification numbers from the front to the standard number among the arrayed identification numbers. For example, if the standard number is 3, a total of 3 identification numbers can be extracted correspondingly, starting from the very front. The reference number may be the total number of faces to be compared, or may be the sum of a predefined extra value to the number of faces to be compared. The extracted identification numbers are treated as the first set, and the remaining identification numbers are treated as the second set.

이어서, 제1 집합에 속하는 식별 번호 각각에 대응하는 얼굴이 노출 얼굴인지 여부가 판단될 수 있다(306). 구체적으로, 제1 집합에 속하는 식별 번호 각각에 대응하는 얼굴과, 기 획득되거나 또는 실시간으로 획득되는 비교 대상 얼굴이 상호 비교되고, 비교 결과 양 얼굴이 동일하거나 또는 미리 정의된 범위 내에서 근사하다면, 해당 얼굴은 노출 얼굴로 판단된다. 반대로 비교 결과 양 얼굴이 상이하다면, 해당 얼굴은 비노출 얼굴로 판단된다. 제1 집합에 속하는 식별 번호에 대응하는 얼굴은 식별 불가능하게 처리되어 있다. 따라서, 양 얼굴의 비교를 위해, 일 실시예에 의하면, 먼저 제1 집합에 속하는 식별 번호에 대응하는 얼굴이 복원되어 식별 가능하게 된다. 이후, 식별 가능하게 된 얼굴과 비교 대상 얼굴의 비교가 수행되고, 노출 얼굴 여부가 판단될 수 있다. 다른 실시예에 의하면, 저장된 비교 대상 얼굴에 대한 비식별화 처리가 수행된 후, 비식별화된 비교 대상 얼굴과 제1 집합에 속하는 식별 번호에 대응하는 얼굴이 상호 비교되고, 노출 얼굴 여부가 판단될 수도 있다.Subsequently, it may be determined whether the face corresponding to each identification number belonging to the first set is an exposed face (306). Specifically, if the face corresponding to each identification number belonging to the first set and the comparison target face that is already acquired or acquired in real time are compared, and as a result of the comparison, both faces are the same or are approximate within a predefined range, The face in question is judged to be an exposed face. Conversely, if the two faces are different as a result of the comparison, the face is judged to be an unexposed face. The face corresponding to the identification number belonging to the first set is processed to be unidentifiable. Therefore, in order to compare both faces, according to one embodiment, the face corresponding to the identification number belonging to the first set is first restored and can be identified. Afterwards, a comparison is performed between the identifiable face and the face to be compared, and it can be determined whether the face is exposed. According to another embodiment, after de-identification processing is performed on the stored comparison target face, the de-identified comparison target face and the face corresponding to the identification number belonging to the first set are compared, and whether or not the face is exposed is determined. It could be.

실시예에 따라서, 노출 얼굴로 판단된 얼굴에 대해선 식별 가능하고 비노출 얼굴로 판단된 얼굴에 대해선 식별 불가능하게 처리되어 제1 영상 프레임에 대응하는 새로운 프레임이 생성될 수 있다. 이 경우, 비교를 위해 모든 얼굴에 대한 식별화 처리가 기 수행된 경우라면, 비노출 얼굴에 대한 비식별화 처리를 수행하고, 모든 얼굴이 여전히 비식별화 처리된 상태라면, 노출 얼굴에 대한 식별화 처리를 수행하여 새로운 프레임이 생성될 수도 있다.Depending on the embodiment, the face determined to be an exposed face may be identified, and the face determined to be an unexposed face may be processed to be non-identifiable, thereby generating a new frame corresponding to the first image frame. In this case, if identification processing has already been performed on all faces for comparison, de-identification processing is performed on the non-exposed faces, and if all faces are still de-identified, identification processing is performed on the exposed faces. Processing may be performed to create a new frame.

노출 얼굴로 판단된 얼굴에 대응하는 식별 번호를 기반으로 주 얼굴 집합이 생성되거나, 또는 주 얼굴 집합이 기 생성된 경우에는 노출 얼굴로 판단된 얼굴에 대응하는 식별 번호가 주 얼굴 집합에 추가되어 주 얼굴 집합이 갱신된다(308).The main face set is created based on the identification number corresponding to the face determined to be an exposed face, or if the main face set has already been created, the identification number corresponding to the face determined to be exposed is added to the main face set. The face set is updated (308).

이어서 제2 영상 프레임이 획득될 수 있다(310).A second image frame may then be acquired (310).

제2 영상 프레임에서 추출된 각 얼굴에 대응하는 식별 번호는 소정의 순서로 배열되어 있을 수 있으며, 이와 같은 제1 배열된 식별 번호는 미리 정의된 기준에 따라 새롭게 배열되어 제2 배열된 식별 번호가 획득될 수 있다(312). 여기서, 미리 정의된 기준은, 상술한 바와 동일하게 각 식별 번호에 대응하는 얼굴의 크기나 위치 등을 포함할 수 있으며, 얼굴이 크면 클수록 또는 얼굴이 중심에 또는 이에 더 근접하여 배치될수록 해당 얼굴에 대응하는 식별 번호가 다른 식별 번호에 대해 상대적으로 전방에 배치될 수 있다.The identification numbers corresponding to each face extracted from the second video frame may be arranged in a predetermined order, and the first arranged identification numbers are newly arranged according to a predefined standard to become the second arranged identification numbers. Can be obtained (312). Here, the predefined criteria may include the size or position of the face corresponding to each identification number, as described above, and the larger the face, or the closer the face is placed to the center, the more likely it is that the face will be identified. The corresponding identification number may be placed relatively forward with respect to other identification numbers.

도 10에 도시된 바를 참조하면, 제1 영상 프레임과 관련하여 생성된 제2 집합을 기용하여 제2 배열된 식별 번호가 재배열될 수 있다(314). 구체적으로 제2 배열된 식별 번호 중에서 제2 집합에 속하는 식별 번호와 공통되는 식별 번호가 존재하면, 해당 식별 번호는 다른 식별 번호에 대해 상대적으로 전방에 배치되고, 이에 따라 식별 번호의 재배열이 수행된다. 이에 따라 제1 재배열된 식별 번호가 획득된다.Referring to FIG. 10, the second arranged identification numbers may be rearranged using the second set generated in relation to the first image frame (314). Specifically, if there is an identification number in common with an identification number belonging to the second set among the second arranged identification numbers, the corresponding identification number is placed relatively forward with respect to the other identification numbers, and rearrangement of the identification numbers is performed accordingly. do. Accordingly, a first rearranged identification number is obtained.

제1 재배열된 식별 번호의 획득 이후에, 이전에 또는 제1 재배열된 식별 번호의 획득과 동시에, 주 얼굴 집합을 이용하여 식별 번호는 재배열되고, 최종적으로 제2 재배열된 식별 번호가 획득될 수 있다(316). 구체적으로 제2 배열된 식별 번호 또는 제1 재배열된 식별 번호 중에서 주 얼굴 집합에 속하는 식별 번호 동일한 식별 번호가 존재하면, 해당 식별 번호는 다른 식별 번호에 대해 상대적으로 전방에 위치하게 되고, 결과적으로 식별 번호가 재배열된다.After the acquisition of the first rearranged identification number, before or simultaneously with the acquisition of the first rearranged identification number, the identification number is rearranged using the main face set, and finally the second rearranged identification number is obtained. Can be obtained (316). Specifically, if there is an identical identification number belonging to the main face set among the second arranged identification number or the first rearranged identification number, the corresponding identification number is located relatively in front with respect to the other identification numbers, and as a result, Identification numbers are rearranged.

식별 번호가 재배열되면, 적어도 하나의 식별 번호는 제3 집합으로 분류되고, 나머지 식별 번호는 제4 집합으로 분류된다(318). 제3 집합으로 분류되는 식별 번호는, 제2 재배열된 식별 번호 중에서 가장 앞에 위치한 식별 번호부터 앞에서부터 미리 정의된 기준 개수까지의 식별 번호일 수 있다. 예를 들어, 만약 기준 개수가 3으로 주어지면, 제3 집합은 가장 앞에서부터 총 3개의 식별 번호를 포함하게 된다. 상술한 바와 동일하게, 기준 개수는 비교 대상 얼굴의 전체 개수일 수도 있고, 또는 비교 대상 얼굴 개수에 미리 정의된 여분 값의 합산일 수도 있다. When the identification numbers are rearranged, at least one identification number is classified into the third set, and the remaining identification numbers are classified into the fourth set (318). The identification numbers classified into the third set may be identification numbers ranging from the first identification number among the second rearranged identification numbers to a predefined standard number. For example, if the reference number is given as 3, the third set will contain a total of 3 identification numbers starting from the very beginning. As described above, the reference number may be the total number of faces to be compared, or may be the sum of the number of faces to be compared plus a predefined extra value.

제3 집합에 속하는 식별 번호 각각에 대응되는 얼굴이 노출 얼굴인지 또는 비노출 얼굴인지 여부가 판단된다(320). 이 경우, 제3 집합에 속하는 식별 번호에 대응되는 얼굴이 비교 대상 얼굴과 비교되고, 비교 결과에 따라서 해당 얼굴은 노출 얼굴 또는 비노출 얼굴로 판단된다. 만약 양 얼굴이 동일하거나 또는 미리 정의된 범위 내에서 근사하다면, 해당 얼굴은 노출 얼굴로 판단되고, 반대로 비교 결과 양 얼굴이 상이하다면, 해당 얼굴은 비노출 얼굴로 판단된다. 양자의 비교를 위해서, 제3 집합에 속하는 식별 번호에 대응하는 얼굴의 식별화 처리나, 비교 대상 얼굴의 비식별화 처리가 먼저 수행될 수도 있다.It is determined whether the face corresponding to each identification number belonging to the third set is an exposed face or an unexposed face (320). In this case, the face corresponding to the identification number belonging to the third set is compared with the comparison target face, and depending on the comparison result, the face is determined to be an exposed face or an unexposed face. If both faces are identical or close within a predefined range, the face is judged to be an exposed face. Conversely, if the two faces are different as a result of the comparison, the face is judged to be an unexposed face. For comparison of the two, identification processing of the face corresponding to the identification number belonging to the third set or de-identification processing of the face to be compared may be performed first.

이 경우, 필요에 따라, 제2 프레임에 대응하는 새로운 프레임이 생성될 수 있다. 여기서, 새로운 프레임은 노출 얼굴로 판단된 얼굴에 대해선 식별 가능하고 비노출 얼굴로 판단된 얼굴에 대해선 식별 불가능하다. 상술한 것처럼, 얼굴 간의 비교를 위해 모든 얼굴에 대한 식별화 처리가 이미 수행되었다면, 비노출 얼굴에 대한 비식별화 처리를 수행하고, 모든 얼굴이 여전히 비식별화 처리된 상태라면, 노출 얼굴에 대한 식별화 처리를 수행하여 새로운 프레임이 생성될 수 있다.In this case, if necessary, a new frame corresponding to the second frame may be created. Here, the new frame can be identified for faces determined to be exposed, but cannot be identified for faces determined to be non-exposed. As described above, if identification processing has already been performed on all faces for comparison between faces, de-identification processing is performed on the non-exposed faces, and if all faces are still de-identified, identification is performed on the exposed faces. A new frame may be created by performing image processing.

특정 얼굴이 노출 얼굴로 판단되면, 노출 얼굴로 판단된 얼굴에 대응하는 식별 번호가 주 얼굴 집합에 추가되고, 이에 따라 주 얼굴 집합이 갱신된다(322).When a specific face is determined to be an exposed face, an identification number corresponding to the face determined to be an exposed face is added to the main face set, and the main face set is updated accordingly (322).

실시예에 따라서, 주 노출 얼굴 여부의 판단(320) 및/또는 주 얼굴 집합의 갱신(322) 이후에 제3 영상 프레임이 더 주어질 수도 있다. 이 경우, 상술한 식별 번호 배열(312), 식별 번호의 재배열(314, 316), 집합의 생성(318), 노출 얼굴의 판단(320) 및 주 얼굴 집합의 생성(322)은 반복 수행될 수도 있다. 여기서, 식별 번호의 재배열은 제4 집합 및 주 얼굴 집합을 기반으로 수행될 수 있다.Depending on the embodiment, a third image frame may be additionally provided after determining whether the main exposed face is present (320) and/or updating the main face set (322). In this case, the above-described identification number arrangement (312), identification number rearrangement (314, 316), generation of the set (318), determination of the exposed face (320), and generation of the main face set (322) are performed repeatedly. It may be possible. Here, rearrangement of identification numbers can be performed based on the fourth set and the main face set.

최종적으로 결과 영상이 생성된다(324). 결과 영상의 생성은 상술한 과정이 수행되는 과정에서 생성된 영상 프레임을 조합하여 수행될 수도 있다. 또한, 결과 영상의 생성은, 상술한 과정을 통해 획득된 주 얼굴 집합의 식별 번호와, 얼굴에 대한 추적 결과를 조합하여 수행될 수도 있다. 즉, 주 얼굴 집합에 속하는 식별 번호를 추적하고, 추적한 식별 번호에 대응하는 얼굴에 식별화 처리를 수행함으로써 결과 영상이 생성될 수도 있다.Finally, the resulting image is generated (324). Generation of the resulting image may be performed by combining image frames generated during the process of performing the above-described process. Additionally, the generation of the resulting image may be performed by combining the identification number of the main face set obtained through the above-described process and the tracking result for the face. That is, the resulting image may be generated by tracking the identification number belonging to the main face set and performing identification processing on the face corresponding to the tracked identification number.

상술한 실시예에 따른 선택적 비식별화 방법은, 컴퓨터 장치에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다. 프로그램은, 명령어, 라이브러리, 데이터 파일 및/또는 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 또한, 여기서, 컴퓨터 장치는, 프로그램의 기능을 실현 가능하게 하는 프로세서나 메모리 등을 포함하여 구현된 것일 수 있으며, 필요에 따라 통신 장치를 더 포함할 수도 있다.The selective de-identification method according to the above-described embodiment may be implemented in the form of a program that can be driven by a computer device. A program may include instructions, libraries, data files, and/or data structures, etc., singly or in combination, and may be designed and produced using machine code or high-level language code. The program may be specially designed to implement the above-described method, or may be implemented using various functions or definitions that are known and available to those skilled in the art in the computer software field. In addition, here, the computer device may be implemented by including a processor or memory that enables the function of the program, and may further include a communication device if necessary.

상술한 선택적 비식별화 방법을 구현하기 위한 프로그램은, 컴퓨터 장치 등에 의해 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 장치 등에 의해 판독 가능한 기록 매체는, 예를 들어, 롬, 램, SD카드 또는 플래시 메모리(일례로 솔리드 스테이트 드라이브(SSD) 등)와 같은 반도체 저장 매체나, 하드 디스크 또는 플로피 디스크 등과 같은 자기 디스크 저장 매체나, 콤팩트 디스크 또는 디브이디 등과 같은 광 기록 매체나, 또는 플롭티컬 디스크 등과 같은 자기-광 기록 매체 등과 같이 컴퓨터 등의 장치의 호출에 따라 실행되는 하나 이상의 프로그램을 일시적 또는 비일시적으로 저장 가능한 적어도 한 종류의 물리적 저장 매체를 포함할 수 있다.A program for implementing the above-described selective de-identification method may be recorded on a recording medium readable by a computer device or the like. Recording media that can be read by a computer device, etc. include, for example, semiconductor storage media such as ROM, RAM, SD cards, or flash memory (eg, solid state drive (SSD), etc.), or magnetic disks such as hard disks or floppy disks. At least a storage medium, an optical recording medium such as a compact disk or DVD, or a magneto-optical recording medium such as a floptical disk, capable of temporarily or non-temporarily storing one or more programs that are executed in response to a call from a device such as a computer. May contain one type of physical storage medium.

이상 선택적 비식별화 장치 및 선택적 비식별화 방법의 여러 실시예에 대해 설명하였으나, 선택적 비식별화 장치 또는 선택적 비식별화 방법은 오직 상술한 실시예에 한정되는 것은 아니다. 해당 기술 분야에서 통상의 지식을 가진 자가 상술한 실시예를 기초로 수정 및 변형하여 구현할 수 있는 다른 다양한 장치나 방법 역시 상술한 선택적 비식별화 장치 또는 선택적 비식별화 방법의 일 실시예가 될 수 있다. 예를 들어, 설명된 방법(들)이 설명된 바와 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성 요소(들)가 설명된 바와 다른 형태로 결합, 연결 또는 조합되거나, 또는 다른 구성 요소나 균등물 등에 의하여 대치 또는 치환되더라도, 상술한 선택적 비식별화 장치 및/또는 선택적 비식별화 방법의 일 실시예가 될 수 있다.Although several embodiments of the selective de-identification device and the selective de-identification method have been described above, the selective de-identification device or the selective de-identification method is not limited to the above-described embodiments. Various other devices or methods that can be implemented by those skilled in the art by modifying and modifying the above-described embodiments can also be an embodiment of the above-described selective de-identification device or selective de-identification method. . For example, the described method(s) may be performed in an order other than as described, and/or component(s) of the described system, structure, device, circuit, etc. may be combined, connected, or otherwise in a form other than as described. Even if it is combined, or replaced or replaced by other components or equivalents, it can be an embodiment of the above-described selective de-identification device and/or selective de-identification method.

50: 얼굴 영상 60: 대상 영상
90: 얼굴 데이터베이스 95: 주 얼굴 집합
100: 선택적 비식별화 장치 101: 입력부
103: 출력부 105: 저장부
110: 프로세서 111: 노출 얼굴 획득부
120: 얼굴 처리부 121: 전처리부
123: 얼굴 추출부 125: 얼굴 추적부
130: 비식별화 처리부 131: 전체 비식별화 처리부
132: 배열부 133: 집합 분류부
134: 식별부 135: 부분적 비식별화 처리부
136: 재배열부
50: Face image 60: Target image
90: Face database 95: Main face set
100: Selective de-identification device 101: Input unit
103: output unit 105: storage unit
110: Processor 111: Exposure face acquisition unit
120: face processing unit 121: pre-processing unit
123: face extraction unit 125: face tracking unit
130: De-identification processing unit 131: Full de-identification processing unit
132: Arrangement unit 133: Set classification unit
134: identification unit 135: partial de-identification processing unit
136: Rearrangement unit

Claims (20)

비교 대상 얼굴을 저장하는 저장부;
제1 영상 프레임에서 적어도 하나의 얼굴을 추출하고, 추출된 모든 얼굴에 대해 비식별화 처리를 수행하고, 추출된 모든 얼굴 중 일부에 대응하는 제1 집합 및 나머지 일부에 대응하는 제2 집합을 생성하고, 상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하여, 상기 제1 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 프로세서;를 포함하고,
상기 프로세서는,
제2 영상 프레임에서 적어도 하나의 얼굴을 추출하고,
상기 제2 영상 프레임에서 추출된 모든 얼굴에 식별 번호를 할당하고, 상기 제2 영상 프레임에서 추출된 얼굴 각각의 식별 번호를 배열하여 제2 배열된 식별 번호를 획득하고,
상기 제2 집합과 상기 제2 배열된 식별 번호를 비교하고, 상기 제2 집합에의 포함 여부에 따라 상기 제2 배열된 식별 번호를 재배열함으로써 제1 재배열된 식별 번호를 획득하고,
상기 노출 얼굴에 대응하는 식별 번호가 상기 제1 재배열된 식별 번호에 존재하면, 상기 노출 얼굴에 대응하는 식별 번호를 이용하여 상기 제1 재배열된 식별 번호를 재배열하여 제2 재배열된 식별 번호를 획득하는 선택적 비식별화 장치.
a storage unit that stores faces to be compared;
Extract at least one face from the first image frame, perform de-identification processing on all extracted faces, and generate a first set corresponding to some of all extracted faces and a second set corresponding to the remaining portion. And a processor that compares the face corresponding to the first set and the face to be compared, and determines an exposed face and an unexposed face among the faces corresponding to the first set,
The processor,
Extract at least one face from the second image frame,
Assigning identification numbers to all faces extracted from the second image frame, and arranging the identification numbers of each face extracted from the second image frame to obtain a second arranged identification number,
Obtaining a first rearranged identification number by comparing the second set and the second arranged identification number, and rearranging the second arranged identification number according to whether or not it is included in the second set,
If an identification number corresponding to the exposed face is present in the first rearranged identification number, the first rearranged identification number is rearranged using the identification number corresponding to the exposed face to create a second rearranged identification. Optional de-identification device for obtaining numbers.
제1항에 있어서,
상기 프로세서는, 상기 제1 영상 프레임에서 추출된 모든 얼굴에 식별 번호를 할당하고, 미리 정의된 기준에 따라 상기 제1 영상 프레임에서 추출된 모든 얼굴의 식별 번호를 배열하여 제1 배열된 식별 번호를 획득하고, 상기 제1 배열된 식별 번호에서 기준 개수의 식별 번호를 검출하여 상기 제1 집합을 생성하는 선택적 비식별화 장치.
According to paragraph 1,
The processor assigns identification numbers to all faces extracted from the first image frame, arranges the identification numbers of all faces extracted from the first image frame according to a predefined standard, and generates a first arranged identification number. A selective de-identification device for generating the first set by obtaining and detecting a reference number of identification numbers from the first arranged identification numbers.
제2항에 있어서,
상기 미리 정의된 기준은 상기 제1 영상 프레임 내에서 얼굴의 크기 및 위치 중 적어도 하나를 포함하는 선택적 비식별화 장치.
According to paragraph 2,
The predefined criterion includes at least one of the size and position of the face within the first image frame.
제2항에 있어서,
상기 기준 개수는, 비교 대상의 얼굴의 개수 또는 상기 비교 대상의 얼굴의 개수와 여분의 값을 더한 값을 포함하는 선택적 비식별화 장치.
According to paragraph 2,
The reference number is a selective de-identification device including the number of faces to be compared or the number of faces to be compared plus an extra value.
제2항에 있어서,
상기 프로세서는, 상기 제1 배열된 식별 번호에서 나머지 식별 번호를 조합하여 상기 제2 집합을 생성하는 선택적 비식별화 장치.
According to paragraph 2,
The processor is a selective de-identification device for generating the second set by combining the remaining identification numbers from the first arranged identification numbers.
삭제delete 제1항에 있어서,
상기 프로세서는, 상기 제1 재배열된 식별 번호 또는 상기 제2 재배열된 식별 번호로부터 기준 개수의 식별 번호를 검출하여 제3 집합을 생성하고, 상기 제3 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하여, 상기 제3 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 선택적 비식별화 장치.
According to paragraph 1,
The processor generates a third set by detecting a reference number of identification numbers from the first rearranged identification number or the second rearranged identification number, and compares the face corresponding to the third set with the target face. A selective de-identification device that compares and determines exposed faces and non-exposed faces among the faces corresponding to the third set.
제1항에 있어서,
상기 프로세서는,
상기 제1 집합에 해당하는 얼굴을 복원하고, 복원된 얼굴을 상기 비교 대상 얼굴과 비교하거나,
상기 비교 대상 얼굴에 대한 비식별화 처리를 수행하고, 상기 제1 집합의 얼굴을 비식별화 처리된 비교 대상 얼굴과 비교함으로써,
상기 제1 집합의 얼굴 중에서 노출 얼굴을 결정하는 선택적 비식별화 장치.
According to paragraph 1,
The processor,
Restore the face corresponding to the first set and compare the restored face with the comparison target face, or
By performing de-identification processing on the comparison target face and comparing the first set of faces with the de-identified comparison target face,
A selective de-identification device for determining an exposed face among the first set of faces.
제1항에 있어서,
상기 프로세서는, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 결과 영상을 생성하는 선택적 비식별화 장치.
According to paragraph 1,
The processor is a selective de-identification device for generating a result image so that the exposed face can be identified and the non-exposed face cannot be identified.
제9항에 있어서,
상기 프로세서는,
상기 제1 집합의 얼굴이 복원된 경우에는, 상기 제1 집합의 얼굴 중 비노출 얼굴에 대해서 비식별화를 더 수행하거나, 또는 상기 제1 집합의 얼굴 모두에 대해 비식별화를 수행하고 상기 노출 얼굴에 대해 식별화를 더 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하거나, 또는
상기 비교 대상 얼굴에 대한 비식별화 처리가 수행된 경우에는 상기 제1 집합의 얼굴 중 노출 얼굴에 대해서 복원을 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하는 선택적 비식별화 장치.
According to clause 9,
The processor,
When the faces of the first set are restored, de-identification is further performed on non-exposed faces among the faces of the first set, or de-identification is performed on all faces of the first set and the exposed faces By further performing identification, an image frame is generated such that the exposed face is identifiable and the non-exposed face is not identifiable, or
When de-identification processing is performed on the face to be compared, restoration is performed on the exposed face among the faces of the first set, thereby generating an image frame so that the exposed face can be identified and the non-exposed face cannot be identified. Selective de-identification device.
비교 대상 얼굴을 획득하는 단계;
제1 영상 프레임에서 적어도 하나의 얼굴을 추출하는 단계;
추출된 모든 얼굴에 대해 비식별화 처리를 수행하는 단계;
추출된 모든 얼굴 중 일부에 대응하는 제1 집합 및 나머지 일부에 대응하는 제2 집합을 생성하는 단계;
상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하는 단계;
상기 제1 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 단계;
제2 영상 프레임에서 적어도 하나의 얼굴을 추출하고, 상기 제2 영상 프레임에서 추출된 얼굴 각각의 식별 번호를 배열하여 제2 배열된 식별 번호를 획득하는 단계;
상기 제2 집합과 상기 제2 배열된 식별 번호를 비교하고, 상기 제2 집합에 포함 여부에 따라 상기 제2 배열된 식별 번호를 재배열함으로써 제1 재배열된 식별 번호를 획득하는 단계; 및
상기 노출 얼굴에 대응하는 식별 번호가 상기 제1 재배열된 식별 번호에 존재하면, 상기 노출 얼굴에 대응하는 식별 번호를 이용하여 상기 제1 재배열된 식별 번호를 재배열하여 제2 재배열된 식별 번호를 획득하는 단계;를 포함하는 선택적 비식별화 방법.
Obtaining a face to be compared;
extracting at least one face from a first image frame;
performing de-identification processing on all extracted faces;
generating a first set corresponding to a portion of all extracted faces and a second set corresponding to the remaining portion;
Comparing the face corresponding to the first set with the comparison target face;
determining exposed faces and non-exposed faces among faces corresponding to the first set;
Extracting at least one face from a second image frame, arranging identification numbers of each face extracted from the second image frame, and obtaining a second arranged identification number;
Comparing the second set and the second arranged identification numbers, and rearranging the second arranged identification numbers according to whether they are included in the second set, thereby obtaining a first rearranged identification number; and
If an identification number corresponding to the exposed face is present in the first rearranged identification number, the first rearranged identification number is rearranged using the identification number corresponding to the exposed face to create a second rearranged identification. A selective de-identification method comprising: obtaining a number.
제11항에 있어서,
상기 추출된 모든 얼굴 중 일부에 대응하는 제1 집합을 생성하는 단계는,
상기 제1 영상 프레임에서 추출된 모든 얼굴에 식별 번호를 할당하는 단계;
미리 정의된 기준에 따라 상기 제1 영상 프레임에서 추출된 모든 얼굴의 식별 번호를 배열하여 제1 배열된 식별 번호를 획득하는 단계; 및
상기 제1 배열된 식별 번호에서 기준 개수의 식별 번호를 검출하여 상기 제1 집합을 생성하는 단계;를 포함하는 선택적 비식별화 방법.
According to clause 11,
The step of generating a first set corresponding to some of all the extracted faces includes:
assigning identification numbers to all faces extracted from the first video frame;
Arranging the identification numbers of all faces extracted from the first image frame according to a predefined standard to obtain a first arranged identification number; and
A selective de-identification method comprising: generating the first set by detecting a reference number of identification numbers from the first arranged identification numbers.
제12항에 있어서,
상기 미리 정의된 기준은 상기 제1 영상 프레임 내에서 얼굴의 크기 및 위치 중 적어도 하나를 포함하는 선택적 비식별화 방법.
According to clause 12,
A selective de-identification method wherein the predefined criterion includes at least one of the size and position of a face within the first image frame.
제12항에 있어서,
상기 기준 개수는, 비교 대상의 얼굴의 개수 또는 상기 비교 대상의 얼굴의 개수와 여분의 값을 더한 값을 포함하는 선택적 비식별화 방법.
According to clause 12,
The reference number is a selective de-identification method including the number of faces of the comparison target or the number of faces of the comparison target plus an extra value.
제12항에 있어서,
상기 제2 영상 프레임에서 추출된 모든 얼굴에 대해 비식별화 처리를 수행하는 단계;를 더 포함하고,
상기 제2 집합은 상기 제1 배열된 식별 번호에서 나머지 식별 번호를 조합하여 생성된 것인 선택적 비식별화 방법.
According to clause 12,
Further comprising: performing de-identification processing on all faces extracted from the second image frame,
The second set is generated by combining the remaining identification numbers from the first arranged identification numbers.
삭제delete 제11항에 있어서,
상기 제1 재배열된 식별 번호 또는 상기 제2 재배열된 식별 번호로부터 기준 개수의 식별 번호를 검출하여 제3 집합을 생성하는 단계;
상기 제3 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하는 단계;
상기 제3 집합에 해당하는 얼굴 중에서 노출 얼굴 및 비노출 얼굴을 결정하는 단계;를 더 포함하는 선택적 비식별화 방법.
According to clause 11,
generating a third set by detecting a standard number of identification numbers from the first rearranged identification numbers or the second rearranged identification numbers;
Comparing the face corresponding to the third set with the comparison target face;
A selective de-identification method further comprising: determining exposed faces and non-exposed faces among faces corresponding to the third set.
제11항에 있어서,
상기 제1 집합에 해당하는 얼굴과 상기 비교 대상 얼굴을 비교하는 단계는,
상기 제1 집합에 해당하는 얼굴을 복원하고, 복원된 얼굴을 상기 비교 대상 얼굴과 비교하는 단계; 및
상기 비교 대상 얼굴에 대한 비식별화 처리를 수행하고, 상기 제1 집합의 얼굴을 비식별화 처리된 비교 대상 얼굴과 비교하는 단계; 중 적어도 하나를 포함하는 선택적 비식별화 방법.
According to clause 11,
The step of comparing the face corresponding to the first set and the comparison target face is,
Reconstructing a face corresponding to the first set and comparing the restored face with the comparison target face; and
performing de-identification processing on the comparison target face and comparing the first set of faces with the de-identified comparison target face; A selective de-identification method comprising at least one of:
제11항에 있어서,
상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 결과 영상을 생성하는 단계;를 더 포함하는 선택적 비식별화 방법.
According to clause 11,
Generating a result image so that the exposed face can be identified and the non-exposed face cannot be identified.
제19항에 있어서,
상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 결과 영상을 생성하는 단계는,
상기 제1 집합의 얼굴이 복원된 경우에는, 상기 제1 집합의 얼굴 중 비노출 얼굴에 대해서 비식별화를 더 수행하는 단계;
상기 제1 집합의 얼굴이 복원된 경우에는, 상기 제1 집합의 얼굴 모두에 대해 비식별화를 수행하고 상기 노출 얼굴에 대해 식별화를 더 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하는 단계; 및
상기 비교 대상 얼굴에 대한 비식별화 처리가 수행된 경우에는 상기 제1 집합의 얼굴 중 노출 얼굴에 대해서 복원을 수행함으로써, 상기 노출 얼굴은 식별 가능하고 상기 비노출 얼굴은 식별 불가능하도록 영상 프레임을 생성하는 단계; 중 적어도 하나를 포함하는 선택적 비식별화 방법.
According to clause 19,
The step of generating a result image so that the exposed face is identifiable and the non-exposed face is not identifiable,
When the faces of the first set are restored, further performing de-identification on unexposed faces among the faces of the first set;
When the first set of faces is restored, de-identification is performed on all faces of the first set and further identification is performed on the exposed faces, so that the exposed faces can be identified and the unexposed faces generating an image frame so that it cannot be identified; and
When de-identification processing is performed on the face to be compared, restoration is performed on the exposed face among the faces of the first set, thereby generating an image frame so that the exposed face can be identified and the non-exposed face cannot be identified. step; A selective de-identification method comprising at least one of:
KR1020220104566A 2022-08-22 2022-08-22 Apparatus and method for selective deidentification KR102633279B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220104566A KR102633279B1 (en) 2022-08-22 2022-08-22 Apparatus and method for selective deidentification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220104566A KR102633279B1 (en) 2022-08-22 2022-08-22 Apparatus and method for selective deidentification

Publications (1)

Publication Number Publication Date
KR102633279B1 true KR102633279B1 (en) 2024-02-05

Family

ID=89903811

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220104566A KR102633279B1 (en) 2022-08-22 2022-08-22 Apparatus and method for selective deidentification

Country Status (1)

Country Link
KR (1) KR102633279B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859433B1 (en) * 2017-02-14 2018-05-21 에스케이텔레콤 주식회사 Method for processing of mosaic image and apparatus thereof
KR20210036609A (en) * 2019-09-26 2021-04-05 주식회사 엘지유플러스 Apparatus and method for processing image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859433B1 (en) * 2017-02-14 2018-05-21 에스케이텔레콤 주식회사 Method for processing of mosaic image and apparatus thereof
KR20210036609A (en) * 2019-09-26 2021-04-05 주식회사 엘지유플러스 Apparatus and method for processing image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Nicolai Wojke ET AL, Simple online and realtime tracking with a deep association metric, 2017 IEEE ICIP, 17-20 Sept. 2017(2017.09.17.) 1부.* *
Shuo Yang ET AL, WIDER FACE: A Face Detection Benchmark, CVPR, 20 Nov. 2015(2015.11.20.) 1부.* *

Similar Documents

Publication Publication Date Title
US11645506B2 (en) Neural network for skeletons from input images
US20210365707A1 (en) Maintaining fixed sizes for target objects in frames
Laraba et al. 3D skeleton‐based action recognition by representing motion capture sequences as 2D‐RGB images
US9946933B2 (en) System and method for video classification using a hybrid unsupervised and supervised multi-layer architecture
JP2022023887A (en) Appearance search system and method
KR102167730B1 (en) Apparatus and method for masking a video
US20220148291A1 (en) Image classification method and apparatus, and image classification model training method and apparatus
KR20190054702A (en) Method and apparatus for detecting action of object in viedio stream
US20200285859A1 (en) Video summary generation method and apparatus, electronic device, and computer storage medium
US20220198836A1 (en) Gesture recognition method, electronic device, computer-readable storage medium, and chip
TW202141340A (en) Image processing method, electronic device and computer readable storage medium
CN114339054B (en) Method and device for generating photographing mode and computer readable storage medium
KR102160955B1 (en) Method and apparatus of generating 3d data based on deep learning
KR102633279B1 (en) Apparatus and method for selective deidentification
WO2023060918A1 (en) Image anonymization method based on guidance of semantic and pose graphs
CN113887373B (en) Attitude identification method and system based on urban intelligent sports parallel fusion network
JP7202995B2 (en) Spatio-temporal event prediction device, spatio-temporal event prediction method, and spatio-temporal event prediction system
US20230148112A1 (en) Sports Neural Network Codec
Haq et al. Automatic Player Face Detection and Recognition for Players in Cricket Games
Patel et al. OBJECT DETECTION IN HOCKEY SPORT VIDEO VIA PRETRAINED YOLOV3 BASED DEEP LEARNING MODEL.
US20230067442A1 (en) Method of human pose estimation
US20230086009A1 (en) System and techniques to normalize objects in spatial imaging of spaces
US12033082B2 (en) Maintaining fixed sizes for target objects in frames
US20230073940A1 (en) Body Pose Tracking of Players from Sports Broadcast Video Feed
KR20220090940A (en) System and method for analyzing speaker-listener recognition and gaze interaction through tracking the eyes of the characters in story-based visual media

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant