KR20230030251A - Privacy preserved monitoring system based on re-identification of anonymized individual face - Google Patents
Privacy preserved monitoring system based on re-identification of anonymized individual face Download PDFInfo
- Publication number
- KR20230030251A KR20230030251A KR1020210112251A KR20210112251A KR20230030251A KR 20230030251 A KR20230030251 A KR 20230030251A KR 1020210112251 A KR1020210112251 A KR 1020210112251A KR 20210112251 A KR20210112251 A KR 20210112251A KR 20230030251 A KR20230030251 A KR 20230030251A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- anonymized
- image
- identifier
- characteristic information
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims description 31
- 238000004891 communication Methods 0.000 claims abstract description 28
- 238000012806 monitoring device Methods 0.000 claims abstract description 24
- 239000000284 extract Substances 0.000 claims abstract description 18
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 9
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 5
- 238000003860 storage Methods 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000008921 facial expression Effects 0.000 claims description 3
- 230000000737 periodic effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 13
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000032443 Masked facies Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioethics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명이 속하는 기술 분야는 안면 정보 익명화와 재인식 기술을 적용하여 개인 정보 보호 및 개인 식별 기능을 제공하는 감시 또는 관찰 시스템에 관한 것이다.The technical field to which the present invention belongs relates to a surveillance or observation system that provides personal information protection and personal identification functions by applying face information anonymization and re-recognition technologies.
기존의 카메라 기반의 감시 또는 관찰 시스템(monitoring system)은 개인의 얼굴을 카메라로 연속 촬영하여 그 영상을 그대로 저장 또는 전송하기 때문에 피사체의 개인 얼굴 정보가 노출되는 있는 문제가 있다. 기계학습에서 사용할 데이터 베이스 수집시에 얼굴 부분을 블러링 처리 또는 모자이크 처리하여 개인 안면 정보를 비식별화하는 여러가지 방법들이 개발되었으나, 이러한 방식들은 개인의 얼굴에 표현되는 표정 정보 등 많은 정보를 유실하게 된다. 인공지능 기술의 발전으로 서로 다른 사람의 얼굴을 합성하여 새로운 얼굴을 생성하는 적대적 생성 네트워크(Generative Adversarial Network, GAN)기술이 발달하여 한 개인의 얼굴 영상을 다른 얼굴로 바꾸는 안면 교환(face swap) 기술이 개발되어 딥 페이크 (deep Fake) 기술이 가능해졌다.Existing camera-based surveillance or monitoring systems continuously photograph an individual's face with a camera and store or transmit the image as it is, so there is a problem in that information on the individual's face of the subject is exposed. Various methods have been developed to de-identify individual facial information by blurring or mosaicking facial parts when collecting a database to be used in machine learning, but these methods lose a lot of information such as expression information expressed on an individual's face. do. With the development of artificial intelligence technology, the adversarial generative network (GAN) technology that creates a new face by synthesizing the faces of different people has developed, and face swap technology that changes one person's face image to another face This has allowed the development of deep fake technology.
본 발명의 실시 예들은 감시 또는 관찰 카메라(monitoring or surveillance camera)가 획득하는 영상에서 안면 교환(face swap) 또는 딥 페이크(deep Fake) 인공지능 기술을 통해 모니터링 대상자의 표정 정보는 보존하면서 얼굴을 존재하지 않는 제3의 가상의 얼굴과 합성하거나 제3의 얼굴로 변환하여 모니터링 대상자의 얼굴 정보를 익명화된 영상(anonymized face)으로 저장하고, 상기 관찰대상자의 원본 영상으로부터 상기 관찰대상자 얼굴의 특징을 내포하는 특징 정보를 추출하여 별도로 저장하며, 만일 익명화된 상기 관찰대상자의 신원을 식별하고자 할 때는 상기 특징 정보와 익명화된 얼굴의 영상 정보로부터 관찰 대상자를 재식별(re-identification) 하는데 주된 목적이 있다.Embodiments of the present invention exist while preserving the facial expression information of the monitoring subject through face swap or deep fake artificial intelligence technology in the image acquired by the monitoring or surveillance camera. The face information of the subject to be monitored is stored as an anonymized image by synthesizing or converting to a third virtual face that does not exist, and the characteristics of the subject's face are embedded from the original image of the subject to be observed. The feature information to be extracted and stored separately, and if the identity of the anonymized object of observation is to be identified, the main purpose is to re-identify the object of observation from the feature information and anonymized image information of the face.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other non-specified objects of the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.
본 실시 예의 일 측면에 의하면 개인 정보 보호 및 개인 식별 기능을 포함하는 영상 기반 모니터링 장치에 있어서, 원본 얼굴과 선별된 소스 얼굴을 합성하여 제1 익명화 얼굴을 생성하고, 상기 원본 얼굴의 식별자 특징 정보 및 제1 익명화 얼굴의 식별자 특징 정보를 매칭하여 식별자 특징 정보 쌍을 생성하는 프로세서; 및 상기 식별자 특징 정보 쌍을 개인 정보 보호 및 개인 식별 서버로 전송하는 통신 인터페이스를 포함하는 영상 기반 모니터링 장치를 제공한다.According to an aspect of the present embodiment, in the image-based monitoring device including personal information protection and personal identification functions, a first anonymized face is generated by synthesizing an original face and a selected source face, and identifier characteristic information of the original face and a processor generating an identifier feature information pair by matching the identifier feature information of the first anonymized face; and a communication interface for transmitting the identifier characteristic information pair to a personal information protection and personal identification server.
상기 프로세서는 영상 장치를 통해 관찰 대상자를 촬영한 관찰 영상을 획득하고, 상기 관찰 영상에서 상기 원본 얼굴을 검출하고 상기 검출된 원본 얼굴로부터 상기 식별자 특징 정보를 추출할 수 있다.The processor may obtain an observation image of a subject to be observed through an imaging device, detect the original face from the observation image, and extract the identifier feature information from the detected original face.
상기 영상 장치는 자율주행 자동차 또는 일반 자동차, 감시가 필요한 장소에 설치될 수 있다.The imaging device may be installed in a self-driving vehicle or a general vehicle, or in a place where monitoring is required.
상기 프로세서는 (i) 프레임별 주기적인 시점에, (ii) 탑승 후 일회적인 시점에, (iii) 특정 행동이나 특정 상황이 발생한 시점에, (iv) 특정 표정이 검출되거나 얼굴 영역의 기준 크기를 만족하는 시점에, 또는 이들이 조합된 시점에, 상기 원본 얼굴을 검출하고 상기 검출된 원본 얼굴로부터 식별자 특징 정보를 추출할 수 있다.The processor determines (i) periodic time per frame, (ii) one-time time after boarding, (iii) when a specific action or a specific situation occurs, (iv) when a specific facial expression is detected or the reference size of the face area is determined. At a satisfied time point or a combination time point, the original face may be detected and identifier feature information may be extracted from the detected original face.
상기 프로세서는 성별, 나이, 인종, 또는 이들이 조합된 속성들에 따른 복수의 얼굴 소스들로부터 추출된 복수의 식별자 특징 정보와 상기 원본 얼굴의 식별자 특징 정보를 비교하고 유사도에 따라 적합한 소스 얼굴을 선별할 수 있다.The processor compares a plurality of identifier feature information extracted from a plurality of face sources according to gender, age, race, or combined attributes of the original face with identifier feature information of the original face, and selects a suitable source face according to similarity. can
상기 소스 얼굴은 인공지능을 통해 실존하지 않는 가상으로 생성된 인물의 얼굴을 포함할 수 있다.The source face may include a face of a non-existent person virtually created through artificial intelligence.
상기 프로세서는 생성자(Generator)와 판별자(Discriminator)를 갖는 적대적 생성 네트워크(Generative Adversarial Network, GAN) 모델을 이용하여 상기 제1 익명화 얼굴을 생성할 수 있다.The processor may generate the first anonymized face using a Generative Adversarial Network (GAN) model having a generator and discriminator.
상기 프로세서는 상기 관찰 영상에서 해당하는 위치에 상기 제1 익명화 얼굴을 출력하여 익명화 영상을 생성할 수 있다.The processor may generate an anonymized image by outputting the first anonymized face at a corresponding position in the observation image.
상기 통신 인터페이스는 상기 익명화 영상을 상기 개인 정보 보호 및 개인 식별 서버로 전송할 수 있다.The communication interface may transmit the anonymized image to the personal information protection and personal identification server.
본 실시 예의 다른 측면에 의하면 개인 정보 보호 및 개인 식별 서버에 있어서, 제1 익명화 얼굴이 포함된 제1 익명화 영상을 수신하고, 원본 얼굴의 식별자 특징 정보 및 상기 제1 익명화 얼굴의 식별자 특징 정보가 매칭된 식별자 특징 정보 쌍을 수신하는 통신 인터페이스; 상기 제1 익명화 영상 및 상기 식별자 특징 정보 쌍을 저장하는 저장 매체; 및 상기 통신 인터페이스와 상기 저장 매체에 신호를 송신하는 프로세서를 포함하는 개인 정보 보호 및 개인 식별 서버를 제공한다.According to another aspect of this embodiment, in the personal information protection and personal identification server, a first anonymized image including a first anonymized face is received, and the identifier characteristic information of the original face and the identifier characteristic information of the first anonymized face are matched. a communication interface for receiving the identified identifier characteristic information pair; a storage medium for storing the first anonymized image and the identifier characteristic information pair; and a processor for transmitting a signal to the communication interface and the storage medium.
상기 통신 인터페이스는 피관찰자의 신원 확인이 필요한 상황에서 제2 익명화 얼굴이 포함된 제2 익명화 영상을 수신할 수 있다.The communication interface may receive a second anonymized image including a second anonymized face in a situation where identification of an observer is required.
상기 프로세서는 상기 제2 익명화 영상으로부터 제2 익명화 얼굴을 추출하고, 상기 제2 익명화 얼굴로부터 상기 제1 익명화 얼굴의 식별자 특징 정보를 추출하고, 상기 제2 익명화 얼굴의 식별자 특징 정보 및 상기 제1 익명화 얼굴의 식별자 특징 정보를 비교하고 유사도에 따라 유력한 제2 익명화 얼굴의 식별자 특징 정보를 출력할 수 있다.The processor extracts a second anonymized face from the second anonymized image, extracts identifier characteristic information of the first anonymized face from the second anonymized face, and identifies characteristic information of the second anonymized face and the first anonymized face. The identifier characteristic information of the face may be compared, and the identifier characteristic information of the second likely anonymized face may be output according to the degree of similarity.
상기 프로세서는 상기 유력한 제1 익명화 얼굴의 식별자 특징 정보에 매칭하는 원본 얼굴의 식별자 특징 정보를 검출할 수 있다.The processor may detect the identifier characteristic information of the original face that matches the identifier characteristic information of the likely first anonymized face.
상기 통신 인터페이스는 용의자의 사진이나 영상을 수신할 수 있다.The communication interface may receive a picture or video of the suspect.
상기 프로세서는 상기 용의자의 사진이나 영상으로부터 후보 얼굴의 식별자 특징 정보를 추출하고, 상기 후보 얼굴의 식별자 특징 정보 및 상기 검출한 원본 얼굴의 식별자 특징 정보를 비교하고 유사도를 출력할 수 있다.The processor may extract identifier characteristic information of a candidate face from a photo or video of the suspect, compare the identifier characteristic information of the candidate face with the detected identifier characteristic information of the original face, and output a similarity.
이상에서 설명한 바와 같이 본 발명의 실시 예들에 의하면, 관찰 카메라 영상을 획득하는 과정에서 영상 원본을 저장하는 것이 아닌 인공지능 기술을 통해 피관찰자(또는 관찰 대상자)의 얼굴을 현존하지 않는 제3의 얼굴로 합성 또는 변환하여 익명화된 영상을 저장하고, 피관찰자의 익명화 전 원본 영상으로부터 피관찰자 얼굴의 특징을 내포하며 원래 얼굴로는 복원 불가능한 식별자 정보를 추출하여 익명화된 영상과 동시에 저장하는 방식을 통해 필요 상황에서 익명화된 피관찰자 신원을 식별할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, in the process of acquiring the observation camera image, the face of the observer (or the subject of observation) is changed to a third face that does not exist through artificial intelligence technology rather than storing the original image. Anonymized images are stored by synthesis or conversion, and anonymized in necessary situations by extracting identifier information that contains the characteristics of the observer's face from the original image before anonymization of the observer and extracts identifier information that cannot be restored to the original face and stores it together with the anonymized image. It has the effect of identifying the identity of the observed observer.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if the effects are not explicitly mentioned here, the effects described in the following specification expected by the technical features of the present invention and their provisional effects are treated as described in the specification of the present invention.
본 발명의 실시 예는 자동차의 내부 카메라를 제시하였으나, 본 발명은 자동차의 차량 내부 탑승자 관찰 카메라(in-cabin monitoring camera)로 한정되지 않으며, 일반적인 관찰 또는 감시 카메라의 피관찰자 얼굴영상 익명화와 재식별에도 적용가능하다.Although the embodiment of the present invention suggests an internal camera of a vehicle, the present invention is not limited to an in-cabin monitoring camera of a vehicle, and can also be used for anonymization and re-identification of an observer's facial image of a general observation or surveillance camera. Applicable.
도 1은 자동차 내부에서 발생한 비정상 내지는 돌발 상황을 예시한 도면이다.
도 2는 개인 정보 보호와 개인 식별 간의 딜레마를 예시한 도면이다.
도 3은 본 발명의 실시 예들에 따른 피관찰자 모니터링 시스템을 예시한 블록도이다.
도 4는 본 발명의 실시 예들에 따른 영상 기반 모니터링 장치, 개인 정보 보호 및 개인 식별 서버를 구현하는 장치를 예시한 도면이다.
도 5는 본 발명의 실시 예들에 따른 영상 기반 모니터링 장치의 동작을 예시한 흐름도이다.
도 6은 본 발명의 실시 예들에 따른 개인 정보 보호 및 개인 식별 서버의 동작을 예시한 흐름도이다.
도 7은 본 발명의 실시 예들에 따른 피관찰자 모니터링 시스템의 식별자 특징 정보 매칭 동작을 예시한 도면이다.
도 8은 본 발명의 실시 예들에 따른 피관찰자 모니터링 시스템의 동작을 예시한 도면이다.1 is a diagram illustrating an abnormal or unexpected situation occurring inside a vehicle.
2 is a diagram illustrating the dilemma between privacy and personal identification.
3 is a block diagram illustrating an observer monitoring system according to embodiments of the present invention.
4 is a diagram illustrating a device implementing a video-based monitoring device and a personal information protection and personal identification server according to embodiments of the present invention.
5 is a flowchart illustrating an operation of an image-based monitoring device according to embodiments of the present invention.
6 is a flowchart illustrating the operation of a personal information protection and personal identification server according to embodiments of the present invention.
7 is a diagram illustrating an identifier characteristic information matching operation of an observer monitoring system according to embodiments of the present invention.
8 is a diagram illustrating an operation of an observer monitoring system according to embodiments of the present invention.
이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. Hereinafter, in the description of the present invention, if it is determined that the subject matter of the present invention may be unnecessarily obscured as it is obvious to those skilled in the art for related known functions, the detailed description thereof will be omitted, and some embodiments of the present invention will be described. It will be described in detail through exemplary drawings.
도 1은 자동차 내부에서 발생한 비정상 내지는 돌발 상황을 예시한 도면이다.1 is a diagram illustrating an abnormal or unexpected situation occurring inside a vehicle.
자율주행 자동차의 피관찰자는 운전자가 아닌 승객으로 구성된다. 자율주행차 피관찰자는 승객으로써 운행되는 교통 상황에 책임을 지지 않으므로, 운행중 뿐만 아니라 운행 전후에도 보안과 안전을 확보하는게 중요하다. 자동차 내부에서 일부 피관찰자에 의하여 악의적인 행동이나 위협이 발생할 수 있다. 비정상적인 상황에서 역시 피관찰자의 보호가 필요하다.Observers of self-driving cars consist of passengers, not drivers. Observers of self-driving cars do not take responsibility for the traffic situation as passengers, so it is important to ensure security and safety not only during operation but also before and after operation. Malicious behaviors or threats may be generated by some observers inside the vehicle. Abnormal situations also require the protection of the observer.
자동차 내부를 모니터링하는 방식을 통해 피관찰자를 보호할 수 있다. 피관찰자들을 모니터링할 때 프라이버시 측면과 보안 측면에서 고려할 사항이 있다. Observers can be protected by monitoring the inside of the car. When monitoring observers, there are things to consider in terms of privacy and security.
도 2는 개인 정보 보호와 개인 식별 간의 딜레마를 예시한 도면이다.2 is a diagram illustrating the dilemma between privacy and personal identification.
먼저 Case1에서 마스크 처리한 얼굴을 이용한 모니터링 방식은 중요한 얼굴 정보가 손실되는 문제가 있다. 다음으로 Case2에서 실제 얼굴을 이용한 모니터링 방식은 개인 안면 정보가 그대로 노출되는 문제가 있다. 마지막으로 Case3에서 종래의 익명화된 얼굴을 이용한 모니터링 방식은 사후에 피관찰자의 개인 식별이 곤란한 문제가 있다.First, the monitoring method using the masked face in
본 발명 기술인 "안면 정보 익명화 및 재식별 기능 기반 개인 정보 보호 기능을 제공하는 감시 또는 관찰 시스템"의 실시 예에 따른 피관찰자 모니터링 시스템은 개인 정보 보호를 위한 익명화 작업과 개인 식별을 위한 특징 매칭을 통해 개인 정보 보호 측면의 요구와 개인 식별 측면의 요구를 모두 만족시킨다.An observer monitoring system according to an embodiment of the technology of the present invention, "surveillance or observation system providing personal information protection function based on face information anonymization and re-identification function", performs anonymization operation for personal information protection and feature matching for individual identification. It satisfies both information protection and personal identification requirements.
도 3은 본 발명의 실시 예들에 따른 피관찰자 모니터링 시스템을 예시한 블록도이다.3 is a block diagram illustrating an observer monitoring system according to embodiments of the present invention.
피관찰자 모니터링 시스템은 관찰 영상을 획득하는 과정에서 영상 원본을 저장하는 것이 아닌, 인공지능 기술을 통해 피관찰자의 얼굴을 제3의 얼굴로 합성하거나 변환하여 익명화한 영상을 저장하고, 필요 상황에서의 익명화된 피관찰자 신원 식별의 문제를 해소하기 위해 피관찰자 익명화 전 원본 영상으로부터 피관찰자 얼굴의 특징을 내포하며, 원래 얼굴로는 복원 불가능한 식별자 특징 정보를 추출하여 익명화된 영상과 동시에 저장한다.The observer monitoring system does not store the original image in the process of acquiring the observation image, but synthesizes or converts the face of the observer into a third face through artificial intelligence technology to store anonymized images, and anonymized images in necessary situations. In order to solve the problem of identification of the subject, the feature of the face of the subject is included from the original image before anonymization of the subject, and the identifier feature information that cannot be restored with the original face is extracted and stored together with the anonymized image.
피관찰자 모니터링 시스템은 영상 기반 모니터링 장치(10), 개인 정보 보호 및 개인 식별 서버(20)를 포함한다.The observer monitoring system includes an image-based monitoring device 10 and a personal information protection and
도 4는 본 발명의 실시 예들에 따른 영상 기반 모니터링 장치, 개인 정보 보호 및 개인 식별 서버를 구현하는 장치를 예시한 도면이다.4 is a diagram illustrating a device for implementing a video-based monitoring device and a personal information protection and personal identification server according to embodiments of the present invention.
장치(110)는 적어도 하나의 프로세서(120), 컴퓨터 판독 가능한 저장매체(130) 및 통신 버스(170)를 포함한다. The device 110 includes at least one processor 120 , a computer readable storage medium 130 and a
프로세서(120)는 최적화 장치(110)로 동작하도록 제어할 수 있다. 예컨대, 프로세서(120)는 컴퓨터 판독 가능한 저장 매체(130)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 컴퓨터 실행 가능 명령어는 프로세서(120)에 의해 실행되는 경우 장치(110)로 하여금 예시적인 실시 예에 따른 동작들을 수행하도록 구성될 수 있다.The processor 120 may control the optimization device 110 to operate. For example, the processor 120 may execute one or more programs stored in the computer readable storage medium 130 . The one or more programs may include one or more computer executable instructions, which when executed by processor 120 may cause device 110 to perform operations in accordance with an example embodiment. .
컴퓨터 판독 가능한 저장 매체(130)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보는 입출력 인터페이스(150)나 통신 인터페이스(160)를 통해서도 주어질 수 있다. 컴퓨터 판독 가능한 저장 매체(130)에 저장된 프로그램(140)은 프로세서(120)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시 예에서, 컴퓨터 판독 가능한 저장 매체(130)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 최적화 장치(110)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 130 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. Computer executable instructions or program codes, program data and/or other suitable forms of information may also be provided via input/output interface 150 or communication interface 160. The program 140 stored in the computer readable storage medium 130 includes a set of instructions executable by the processor 120 . In one embodiment, computer readable storage medium 130 may include memory (volatile memory such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other types of storage media that can be accessed by the optimization device 110 and store desired information, or a suitable combination thereof.
통신 버스(170)는 프로세서(120), 컴퓨터 판독 가능한 저장 매체(130)를 포함하여 최적화 장치(110)의 다른 다양한 컴포넌트들을 상호 연결한다.The
장치(110)는 또한 하나 이상의 입출력 장치를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(150) 및 하나 이상의 통신 인터페이스(160)를 포함할 수 있다. 입출력 인터페이스(150) 및 통신 인터페이스(160)는 통신 버스(170)에 연결된다. 입출력 장치(미도시)는 입출력 인터페이스(150)를 통해 최적화 장치(110)의 다른 컴포넌트들에 연결될 수 있다.Device 110 may also include one or more input/output interfaces 150 and one or more communication interfaces 160 that provide interfaces for one or more input/output devices. The input/output interface 150 and the communication interface 160 are connected to the
도 5는 본 발명의 실시 예들에 따른 영상 기반 모니터링 장치의 동작을 예시한 흐름도이다.5 is a flowchart illustrating an operation of an image-based monitoring device according to embodiments of the present invention.
단계 S210에서 영상 기반 모니터링 장치의 프로세서는 영상 장치를 통해 관찰 또는 감시카메라로 한 명 이상의 피관찰자의 원본 얼굴을 검출한다. 피관찰자를 촬영한 관찰 영상을 획득하고, 관찰 상에서 원본 얼굴을 검출하고 검출된 원본 얼굴로부터 식별자 특징 정보를 추출한다. 영상 장치는 자율주행 자동차 또는 일반 자동차, 감시가 필요한 장소에 설치될 수 있다.In step S210, the processor of the video-based monitoring device observes through the imaging device or detects the original face of one or more observers using a surveillance camera. An observation image of an observer is acquired, an original face is detected on the observation, and identifier feature information is extracted from the detected original face. The imaging device can be installed in an autonomous vehicle or a general vehicle, or in a place where monitoring is required.
프로세서는 (i) 프레임별 주기적인 시점에, (ii) 탑승 후 일회적인 시점에, (iii) 특정 행동이나 특정 상황이 발생한 시점에, (iv) 특정 표정이 검출되거나 얼굴 영역의 기준 크기를 만족하는 시점에, 또는 이들이 조합된 시점에, 원본 얼굴을 검출하고 검출된 원본 얼굴로부터 식별자 특징 정보를 추출할 수 있다.(i) at periodic times per frame, (ii) at one time after boarding, (iii) when a specific action or situation occurs, (iv) when a specific expression is detected or the standard size of the face area is satisfied At the time of doing this, or when they are combined, an original face may be detected and identifier feature information may be extracted from the detected original face.
단계 S220에서 영상 기반 모니터링 장치의 프로세서는 성별, 나이, 인종, 또는 이들이 조합된 속성에 따른 복수의 소스 얼굴로부터 추출된 복수의 식별자 특징 정보와 상기 원본 얼굴의 식별자 특징 정보를 비교하고 유사도에 따라 적합한 소스 얼굴을 선별한다. 소스 얼굴은 인공지능을 통해 실존하지 않는 가상으로 생성된 인물의 얼굴을 포함할 수 있다.In step S220, the processor of the image-based monitoring device compares a plurality of identifier characteristic information extracted from a plurality of source faces according to gender, age, race, or a combination of these attributes with the identifier characteristic information of the original face, and selects an appropriate one according to the degree of similarity. Select the source face. The source face may include a face of a non-existent, virtually created person through artificial intelligence.
단계 S230에서 영상 기반 모니터링 장치의 프로세서는 원본 얼굴과 선별된 소스 얼굴을 합성하여 제1 익명화 얼굴을 생성하고, 원본 얼굴의 식별자 특징 정보 및 제1 익명화 얼굴의 식별자 특징 정보를 매칭하여 식별자 특징 정보 쌍을 생성한다. 영상 기반 모니터링 장치의 통신 인터페이스는 식별자 특징 정보 쌍을 개인 정보 보호 및 개인 식별 서버로 전송한다.In step S230, the processor of the video-based monitoring device synthesizes the original face and the selected source face to generate a first anonymized face, matches the identifier feature information of the original face and the identifier feature information of the first anonymized face, and matches the identifier feature information pair. generate The communication interface of the video-based monitoring device transmits the identifier characteristic information pair to the personal information protection and personal identification server.
프로세서는 생성자(Generator)와 판별자(Discriminator)를 갖는 적대적 생성 네트워크(Generative Adversarial Network, GAN) 모델을 이용하여 상기 제1 익명화 얼굴을 생성할 수 있다.The processor may generate the first anonymized face using a Generative Adversarial Network (GAN) model having a generator and a discriminator.
단계 S240에서 영상 기반 모니터링 장치의 프로세서는 관찰 영상에서 해당하는 위치에 제1 익명화 얼굴을 출력하여 익명화 영상을 생성한다. 영상 기반 모니터링 장치의 통신 인터페이스는 익명화 영상을 개인 정보 보호 및 개인 식별 서버로 전송할 수 있다.In step S240, the processor of the image-based monitoring device generates an anonymized image by outputting a first anonymized face at a corresponding position in the observation image. The communication interface of the video-based monitoring device may transmit anonymized video to a personal information protection and personal identification server.
도 6은 본 발명의 실시 예들에 따른 개인 정보 보호 및 개인 식별 서버의 동작을 예시한 흐름도이다.6 is a flowchart illustrating the operation of a personal information protection and personal identification server according to embodiments of the present invention.
단계 S310에서 개인 정보 보호 및 개인 식별 서버의 통신 인터페이스는 제1 익명화 얼굴이 포함된 익명화 영상을 수신하고, 원본 얼굴의 식별자 특징 정보 및 제1 익명화 얼굴의 식별자 특징 정보가 매칭된 식별자 특징 정보 쌍을 수신한다. 개인 정보 보호 및 개인 식별 서버의 저장 매체는 제1 익명화 영상 및 식별자 특징 정보 쌍을 저장한다. 프로세서는 통신 인터페이스와 저장 매체에 신호를 송신한다. In step S310, the communication interface of the personal information protection and personal identification server receives the anonymized image including the first anonymized face, and generates an identifier feature information pair in which the identifier feature information of the original face and the identifier feature information of the first anonymized face are matched. receive The storage medium of the personal information protection and personal identification server stores the first anonymized image and identifier characteristic information pair. The processor transmits signals to the communication interface and the storage medium.
단계 S320에서 개인 정보 보호 및 개인 식별 서버의 통신 인터페이스는 피관찰자의 신원 확인이 필요한 상황에서 제1 익명화 얼굴이 포함된 익명화 영상을 수신한다. 개인 정보 보호 및 개인 식별 서버의 프로세서는 제2 익명화 영상으로부터 제2 익명화 얼굴을 추출하고, 제2 익명화 얼굴로부터 제2 익명화 얼굴의 식별자 특징 정보를 추출하고, 제2 익명화 얼굴의 식별자 특징 정보 및 제1 익명화 얼굴의 식별자 특징 정보를 비교하고 유사도에 따라 유력한 제1 익명화 얼굴의 식별자 특징 정보를 출력한다. In step S320, the communication interface of the personal information protection and personal identification server receives the anonymized image including the first anonymized face in a situation where identification of the observer is required. The processor of the personal information protection and personal identification server extracts a second anonymized face from the second anonymized image, extracts identifier feature information of the second anonymized face from the second anonymized face, and identifies the identifier feature information of the second anonymized face and the second anonymized face. 1 The identifier characteristic information of the anonymized face is compared, and the identifier characteristic information of the first anonymized face that is influential according to the degree of similarity is output.
단계 S330에서 개인 정보 보호 및 개인 식별 서버의 프로세서는 유력한 제1 익명화 얼굴의 식별자 특징 정보에 매칭하는 원본 얼굴의 식별자 특징 정보를 검출한다.In step S330, the processor of the personal information protection and personal identification server detects the identifier characteristic information of the original face matching the identifier characteristic information of the first likely anonymized face.
단계 S340에서 개인 정보 보호 및 개인 식별 서버의 통신 인터페이스는 용의자의 사진이나 영상을 수신한다. 개인 정보 보호 및 개인 식별 서버의 프로세서는 용의자의 사진이나 영상으로부터 후보 얼굴의 식별자 특징 정보를 추출하고, 후보 얼굴의 식별자 특징 정보 및 검출한 원본 얼굴의 식별자 특징 정보를 비교하고 유사도를 출력할 수 있다.In step S340, the communication interface of the personal information protection and personal identification server receives the suspect's photo or video. The processor of the personal information protection and personal identification server extracts the identifier characteristic information of the candidate face from the suspect's photo or video, compares the identifier characteristic information of the candidate face with the identifier characteristic information of the detected original face, and outputs a degree of similarity. .
도 7은 본 발명의 실시 예들에 따른 피관찰자 모니터링 시스템의 식별자 특징 정보 매칭 동작을 예시한 도면이고, 도 8은 본 발명의 실시 예들에 따른 피관찰자 모니터링 시스템의 동작을 예시한 도면이다.FIG. 7 is a diagram illustrating an identifier characteristic information matching operation of the observed monitoring system according to embodiments of the present invention, and FIG. 8 is a diagram illustrating the operation of the observed monitoring system according to embodiments of the present invention.
영상 기반 모니터링 장치와 개인 정보 보호 및 개인 식별 서버를 포함하는 피관찰자 모니터링 시스템은 영상에서 얼굴을 추출한다. 얼굴에서 추출한 식별자 특징 정보는 N차원으로 구현될 수 있다. 예컨대, 128-차원 벡터로 구현될 수 있으며, 128-차원보다 적으면 얼굴 비교가 곤란하고 128-차원보다 크면 불필요하게 파라미터를 증가시키게 된다.An observer monitoring system including an image-based monitoring device and a personal information protection and personal identification server extracts a face from an image. The identifier characteristic information extracted from the face may be implemented in N dimensions. For example, it can be implemented as a 128-dimensional vector. If the vector is less than 128-dimensional, face comparison is difficult, and if it is greater than 128-dimensional, the parameter is unnecessarily increased.
피관찰자 모니터링 시스템은 얼굴 특징 검출 모델을 적용한다.The observer monitoring system applies a facial feature detection model.
얼굴 특징 검출 모델은 특징을 추출하고 특징을 데이터 가공 처리한다. 얼굴 검출 모델은 다수의 레이어가 네트워크로 연결되며 히든 레이어를 포함한다. 레이어는 파라미터를 포함할 수 있고, 레이어의 파라미터는 학습가능한 필터 집합을 포함한다. 파라미터는 노드 간의 가중치 및/또는 바이어스를 포함한다.The facial feature detection model extracts features and processes the features into data. In the face detection model, a plurality of layers are connected through a network and include a hidden layer. A layer can contain parameters, and the parameters of a layer contain a set of learnable filters. Parameters include weights and/or biases between nodes.
얼굴 특징 검출 모델은 추출을 극대화하기 위해 깊고 넓은 신경망을 사용할 수 있다. 입력 값을 받아 입력 값과 컨볼루션(convolution) 연산을 더하는 레지듀얼(residual) 연산을 적용할 수 있다. Facial feature detection models can use deep and wide neural networks to maximize extraction. Residual operation that receives an input value and adds the input value and a convolution operation may be applied.
얼굴 특징 검출 모델은 인물 재인식에 관한 오류를 측정하는데 사용되는 트리플 손실 함수를 적용한다. 모델은 손실 함수를 최소화하도록 파라미터를 학습한다. 트리플 손실 함수(triple loss function)은 수학식 1과 같이 표현된다.The facial feature detection model applies a triple loss function used to measure errors related to person recognition. The model learns parameters to minimize the loss function. The triple loss function is expressed as
익명화된 앵커 영상(A)는 이례적인 상황에서 파악된 인물을 나타내고, 익명화된 포지티브 영상(P)은 클라우드에 저장된 동일인의 영상을 나타내고, 익명화된 네거티브 영상(N)은 다른 피관찰자를 나타낸다. 데이터 쌍 간에 유클리드 거리를 적용할 수 있다. 오분류를 최소화하는 마진을 적용할 수 있다.The anonymized anchor image (A) represents a person identified in an unusual situation, the anonymized positive image (P) represents an image of the same person stored in the cloud, and the anonymized negative image (N) represents another observer. Euclidean distance can be applied between data pairs. A margin that minimizes misclassification can be applied.
식별자 특징 정보의 유사도는 거리의 길이 등을 기준으로 측정할 수 있다. 벡터 공간의 유사도는 수학식 2와 같이 표현된다.The similarity of identifier characteristic information can be measured based on the length of a distance. The similarity of the vector space is expressed as
영상(R)은 인물을 나타내고, 영상(C)는 클라우드에 저장된 동일인의 영상을 나타내고, 영상(D)는 다른 피관찰자의 영상을 나타낸다.An image R represents a person, an image C represents an image of the same person stored in the cloud, and an image D represents an image of another observer.
피관찰자 모니터링 시스템은 소스 얼굴 생성 모델을 적용한다.The observer monitoring system applies a source face generation model.
소스 얼굴 생성 모델은 교환에 필요한 대상 얼굴과 유사한 얼굴을 생성한다. 소스 얼굴 생성 모델은 성별, 나이, 인종, 또는 이들이 조합된 속성에 따른 복수의 소스 얼굴을 생성하며, 다양한 식별자 특징 정보를 표현한 가상 얼굴을 생성할 수 있다. 소스 얼굴 집합은 식별자 특징 정보 집합에 대응한다. 소스 얼굴 생성 모델은 피관찰자에 의한 행동이나 원래의 감정을 효과적으로 렌더링한다. 소스 얼굴과 대상 얼굴 간의 유사도 매칭은 모니터링에 필요한 유사 감정과 행동 의도를 상호 파악하는데 유용하다. 식별자 특징 정보 집합에서 추출된 식별자 특징 정보와 원본 얼굴의 식별자 특징 정보를 비교하여 합성용 얼굴을 선별할 수 있다.The source face generation model generates a face similar to the target face required for exchange. The source face generating model may generate a plurality of source faces according to attributes such as gender, age, race, or a combination thereof, and may generate virtual faces expressing various identifier characteristic information. The source face set corresponds to the identifier feature information set. The source face generation model effectively renders the behavior or original emotion by the observer. Similarity matching between a source face and a target face is useful for mutually identifying similar emotions and behavioral intentions required for monitoring. A face for synthesis may be selected by comparing the identifier characteristic information extracted from the identifier characteristic information set with the identifier characteristic information of the original face.
피관찰자 모니터링 시스템은 얼굴 익명화 모델을 적용한다. 모델은 손실 함수를 최소화하도록 파라미터를 학습한다.The observer monitoring system applies a face anonymization model. The model learns parameters to minimize the loss function.
얼굴 익명화 모델은 대상 얼굴에서 얼굴과 헤어 영역을 구분한다. 얼굴의 랜드마크 위치를 매핑한 얼굴 영역과 헤어 영역을 분리한다.The face anonymization model distinguishes face and hair regions from a target face. Separate the face area and hair area where the location of landmarks on the face is mapped.
i번째 레이어 특징 맵()에 대해서 영상 쌍(x,y)의 지각 손실()은 수학식 3과 같이 표현된다.ith layer feature map ( ), the perceptual loss of the image pair (x,y) ( ) is expressed as in
지각 손실은 미세한 얼굴 세부 정보 캡처의 오류를 추정하는데 사용된다.Perceptual loss is used to estimate the error in capturing fine facial details.
영상 쌍의 재구성 손실()은 수학식 4와 같이 표현된다.Reconstruction loss of image pairs ( ) is expressed as in Equation 4.
재구성 손실은 색상 부정확성을 픽셀 단위로 평가하는데 사용된다. λ는 하이퍼 파라미터에 대응한다. Reconstruction loss is used to evaluate color inaccuracies on a pixel-by-pixel basis. λ corresponds to a hyperparameter.
픽셀 손실()은 수학식 5와 같이 표현된다.pixel loss ( ) is expressed as in Equation 5.
얼굴 익명화 모델은 생성자(Generator)와 판별자(Discriminator)를 갖는 적대적 생성 네트워크(Generative Adversarial Network, GAN) 모델을 이용하여 익명화 얼굴을 생성할 수 있다.The face anonymization model may generate an anonymized face using a Generative Adversarial Network (GAN) model having a generator and discriminator.
생성자와 판별자 간의 적대적 손실()은 수학식 6과 같이 표현된다.Adversarial loss between generator and discriminator ( ) is expressed as in Equation 6.
적대적 손실은 생성된 이미지를 개선하여 사실적인 모습을 제공한다. E(x,y)는 모든 실제 데이터 인스턴스에 대한 예상 값이고, Ex는 생성자에 대한 모든 임의 입력에 대한 예상 값을 나타낸다.Adversarial loss enhances the generated image to give it a realistic look. E(x,y) is the expected value for every real data instance, and E x represents the expected value for every random input to the constructor.
생성 손실()은 수학식 6과 같이 표현된다.production loss ( ) is expressed as in Equation 6.
기준 교차 엔트로피 손실()은 수학식 7과 같이 표현된다.Reference cross entropy loss ( ) is expressed as in Equation 7.
i번째 클래스에 대해서 검증 레이블 ti와 소프트맥스 확률 Pi로 정의된다. For the ith class, it is defined by the validation label t i and the softmax probability P i .
영역 생성 손실()은 수학식 9와 같이 표현된다.area creation loss ( ) is expressed as in Equation 9.
모델은 대상 영상의 얼굴 및 헤어 영역을 기반으로 불완전 부분을 평가하고 채운다. 인페인팅 생성 손실()은 수학식 10과 같이 표현된다.The model evaluates and fills incomplete parts based on the face and hair regions of the target image. Loss of inpainting creation ( ) is expressed as in Equation 10.
모델은 완전히 재연된 얼굴을 블렌딩하여 교환한 얼굴이 원래 대상 얼굴과 같은 배경 환경과 일치하도록 한다. 얼굴 블렌딩 손실()은 수학식 11과 같이 표현된다.The model blends the fully recreated faces so that the swapped face matches the background environment as the original target face. face blending loss ( ) is expressed as in Equation 11.
피관찰자 모니터링 시스템은 각 피관찰자에 해당하는 식별 서명을 생성한다. 예컨대, 실제 얼굴에 대한 식별자 특징 정보와 익명화된 영상에 대한 식별자 특징 정보에 해당하는 식별 서명 쌍을 생성한다. 얼굴 익명화 처리 후 비디오 프레임은 피관찰자의 식별 서명 쌍과 함께 클라우드를 통해 서버로 전송된다.The observed person monitoring system generates an identification signature corresponding to each observed person. For example, an identification signature pair corresponding to identifier characteristic information for a real face and identifier characteristic information for an anonymized image is generated. After facial anonymization, the video frames are sent to the server via the cloud along with a pair of identifying signatures of the observer.
비정상적 상황에서 식별자 특징 정보를 획득하는 알고리즘 1이 표 1에 나타난다.
시스템은 카메라 등을 이용하여 피관찰자 모니터링 영상을 획득한다. The system obtains an observer monitoring image using a camera or the like.
시스템은 영상을 입력으로 받아 영상 내 모든 탑승객의 특징을 출력으로 내보내고, 입력 영상의 얼굴로부터 특징(ID) 추출한다. 검출된 얼굴 당 128-차원의 벡터 특징을 추출할 수 있다.The system receives the image as an input, exports the features of all passengers in the image as output, and extracts features (IDs) from the face of the input image. A 128-dimensional vector feature can be extracted per detected face.
시스템은 영상을 입력으로 받아 영상 내 모든 탑승객의 얼굴 위치를 출력으로 내보낸다.The system takes an image as input and outputs the facial positions of all passengers in the image as output.
시스템은 획득된 영상을 입력으로 받아 익명화된 영상을 출력으로 내보낸다. 익명화는 원본 영상 내에 존재하는 각각의 원본 얼굴(대상 얼굴)과 기 저장된 소스 얼굴의 합성을 통해 이루어진다The system receives the acquired image as input and outputs the anonymized image as output. Anonymization is performed through the synthesis of each original face (target face) existing in the original video and the previously stored source face.
익명화를 통해 원본 얼굴은 원본 얼굴과 소스 얼굴이 적절히 혼합된 중간 형태의 얼굴로 익명화된다. 이는 적대적 생성 신경망(GAN) 등을 통해 구현될 수 있다.Through anonymization, the original face is anonymized into an intermediate face in which the original face and the source face are properly mixed. This may be implemented through adversarial generative neural networks (GANs) or the like.
시스템은 입력 영상으로부터 원본 얼굴들의 위치들을 알아낸다The system finds the locations of the original faces from the input image
시스템은 원본 얼굴들의 ID를 추출한다. 익명화를 위한 소스 얼굴은 기 지정된 수만큼 장치에 저장되어 있으며, 이 역시 인공지능을 통해 가상으로 생성된 인물일 수 있다. 소스 얼굴로부터 추출된 ID와 영상의 원본 얼굴로부터 추출된 ID간 유사도(or 거리)를 측정하여 원본 얼굴과 가장 유사한 소스 얼굴을 찾는다. 영상 내의 각 원본 얼굴과 가장 유사한 소스 얼굴을 이용하여 각 위치의 원본 얼굴의 익명화를 진행한다The system extracts the IDs of the original faces. A predetermined number of source faces for anonymization are stored in the device, and these may also be persons virtually created through artificial intelligence. The similarity (or distance) between the ID extracted from the source face and the ID extracted from the original face of the video is measured to find the source face most similar to the original face. The source face most similar to each original face in the video is used to anonymize the original face at each position.
시스템은 획득한 원본 영상과 획득한 익명화 영상으로부터 추출된 전체 탑승객의 ID를 서버로 송신한다. 이 때, 영상 내 동일 인물에 대해 원본 ID와 익명화 ID를 쌍으로 묶어(개인 식별 정보), 획득한 익명화 영상과 같이 서버로 송신한다.The system transmits the IDs of all passengers extracted from the acquired original video and the acquired anonymized video to the server. At this time, the original ID and the anonymized ID for the same person in the video are paired (personal identification information) and transmitted to the server together with the acquired anonymized video.
비정상적 상황에서 인물의 증거를 찾는 알고리즘 2가 표 2에 나타난다.
시스템은 장치로부터 익명화된 모니터링 영상과 영상의 해당 프레임의 개인 식별 정보를 받아 저장한다.The system receives and stores the anonymized monitoring video and personal identification information of the corresponding frame of the video from the device.
시스템은 피관찰자 신원 확인이 필요한 사건 발생 시 익명화된 영상으로부터 익명화된 피관찰자 개개인의 특징을 추출한다(ID획득). 추출된 ID와 저장된 익명화 ID간 유사도를 계산하여 가장 유사한 익명화 ID를 알아낸다. 해당 익명화 ID와 쌍으로 저장된 원본 ID를 알아낸다. 사건의 유력 용의자의 다른 사진으로부터 ID를 추출해내어 저장되어 있는 원본 ID와 유사도를 대조한다.The system extracts the characteristics of an anonymized individual observer from the anonymized video when an event requiring identification of the observer occurs (ID acquisition). The similarity between the extracted ID and the stored anonymized ID is calculated to find out the most similar anonymized ID. Find out the original ID stored in pairs with the corresponding anonymized ID. The ID is extracted from other photos of the prime suspect in the case and compared with the stored original ID for similarity.
본 실시 예에 따른 영상 기반 모니터링 장치, 개인 정보 보호 및 개인 식별 서버에 의하면 익명화 얼굴을 통해 타인의 개인 프라이버시를 보호하면서, 실제 얼굴과 익명화 얼굴의 얼굴 식별 특징 정보를 이용한 매칭을 통해 비정상적인 상황에서 관련된 사람을 찾을 수 있는 방안을 제공한다.According to the video-based monitoring device and personal information protection and personal identification server according to the present embodiment, personal privacy of others is protected through the anonymized face, and through matching using facial identification feature information of the real face and the anonymized face, related in an abnormal situation. It provides a way to find people.
영상 기반 모니터링 장치, 개인 정보 보호 및 개인 식별 서버는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.The image-based monitoring device, personal information protection and personal identification server may be implemented in a logic circuit by hardware, firmware, software, or a combination thereof, or may be implemented using a general-purpose or special-purpose computer. The device may be implemented using a hardwired device, a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), or the like. In addition, the device may be implemented as a System on Chip (SoC) including one or more processors and controllers.
영상 기반 모니터링 장치, 개인 정보 보호 및 개인 식별 서버는 하드웨어적 요소가 마련된 컴퓨팅 디바이스 또는 서버에 소프트웨어, 하드웨어, 또는 이들의 조합하는 형태로 탑재될 수 있다. 컴퓨팅 디바이스 또는 서버는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신장치, 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 포함한 다양한 장치를 의미할 수 있다.The image-based monitoring device, personal information protection and personal identification server may be installed in a computing device or server equipped with hardware elements in the form of software, hardware, or a combination thereof. A computing device or server includes all or part of a communication device such as a communication modem for communicating with various devices or wired/wireless communication networks, a memory for storing data for executing a program, and a microprocessor for executing calculations and commands by executing a program. It can mean a variety of devices, including
도 5 및 도 6에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시 예의 본질적인 특성에서 벗어나지 않는 범위에서 도 5 및 도 6에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.In FIGS. 5 and 6, it is described that each process is sequentially executed, but this is merely an example, and a person skilled in the art will refer to FIGS. 5 and 6 without departing from the essential characteristics of the embodiment of the present invention. Various modifications and variations may be applied by changing the order described, executing one or more processes in parallel, or adding another process.
본 실시 예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시 예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시 예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.Operations according to the present embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. Computer readable medium refers to any medium that participates in providing instructions to a processor for execution. A computer readable medium may include program instructions, data files, data structures, or combinations thereof. For example, there may be a magnetic medium, an optical recording medium, a memory, and the like. The computer program may be distributed over networked computer systems so that computer readable codes are stored and executed in a distributed manner. Functional programs, codes, and code segments for implementing this embodiment may be easily inferred by programmers in the art to which this embodiment belongs.
본 실시 예들은 본 실시 예의 기술 사상을 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 실시 예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시 예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시 예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.These embodiments are for explaining the technical idea of this embodiment, and the scope of the technical idea of this embodiment is not limited by these embodiments. The scope of protection of this embodiment should be interpreted according to the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of rights of this embodiment.
본 발명의 실시 예는 자동차의 내부 카메라를 제시하였으나, 본 발명은 자동차의 차량 내부 탐승자 관찰 카메라(in-cabin monitoring camera)로 한정되지 않으며, 일반적인 폐쇄 회로 TV (CCTV) 등의 관찰 또는 감시 카메라의 피관찰자 얼굴영상 익명화와 재식별에도 적용 가능하다.An embodiment of the present invention presents an internal camera of a vehicle, but the present invention is not limited to an in-cabin monitoring camera of a vehicle, and an observation or surveillance camera such as a general closed-circuit TV (CCTV). It can also be applied to the anonymization and re-identification of the face image of the observed person.
Claims (13)
원본 얼굴과 선별된 소스 얼굴을 합성 또는 변환하여 제1 익명화 얼굴을 생성하고, 상기 원본 얼굴의 식별자 특징 정보 및 제1 익명화 얼굴의 식별자 특징 정보를 매칭하여 식별자 특징 정보 쌍을 생성하는 프로세서; 및
상기 식별자 특징 정보 쌍을 개인 정보 보호 및 개인 식별 서버로 전송하는 통신 인터페이스를 포함하는 영상 기반 모니터링 장치.In the image-based monitoring device including personal information protection and personal identification,
a processor generating a first anonymized face by synthesizing or transforming the original face and the selected source face, and generating an identifier feature information pair by matching the identifier characteristic information of the original face and the identifier characteristic information of the first anonymized face; and
A video-based monitoring device comprising a communication interface for transmitting the identifier characteristic information pair to a personal information protection and personal identification server.
상기 프로세서는 영상 장치를 통해 하나 이상의 피관찰자를 촬영한 관찰 영상을 획득하고, 상기 관찰 영상에서 상기 원본 얼굴을 검출하고 상기 검출된 원본 얼굴로부터 식별자 특징 정보를 추출하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 1,
Wherein the processor acquires an observation image of one or more observers captured through an imaging device, detects the original face from the observation image, and extracts identifier characteristic information from the detected original face.
상기 영상 장치는 자율주행 자동차 또는 일반 자동차, 감시가 필요한 장소에 설치되는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 2,
The imaging device is an image-based monitoring device, characterized in that installed in an autonomous vehicle or a general vehicle, a place where monitoring is required.
상기 프로세서는 (i) 프레임별 주기적인 시점에, (ii) 탑승 후 일회적인 시점에, (iii) 특정 행동이나 특정 상황이 발생한 시점에, (iv) 특정 표정이 검출되거나 얼굴 영역의 기준 크기를 만족하는 시점에, 또는 이들이 조합된 시점에, 상기 원본 얼굴을 검출하고 상기 검출된 원본 얼굴로부터 식별자 특징 정보를 추출하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 2,
The processor determines (i) periodic time per frame, (ii) one-time time after boarding, (iii) when a specific action or a specific situation occurs, (iv) when a specific facial expression is detected or the reference size of the face area is determined. An image-based monitoring device characterized in that the original face is detected and identifier characteristic information is extracted from the detected original face at a satisfied time point or a combination time point.
상기 프로세서는 성별, 나이, 인종, 또는 이들이 조합된 속성에 따른 복수의 소스 얼굴로부터 추출된 복수의 식별자 특징 정보와 상기 원본 얼굴의 식별자 특징 정보를 비교하고 유사도에 따라 적합한 소스 얼굴을 선별하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 1,
The processor compares a plurality of identifier characteristic information extracted from a plurality of source faces according to gender, age, race, or a combination thereof with identifier characteristic information of the original face, and selects a suitable source face according to similarity. video-based monitoring device.
상기 소스 얼굴은 인공지능을 통해 실존하지 않는 가상으로 생성된 인물의 얼굴을 포함하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 1,
The source face is an image-based monitoring device, characterized in that it comprises a face of a virtually created person who does not exist through artificial intelligence.
상기 프로세서는 생성자(Generator)와 판별자(Discriminator)를 갖는 적대적 생성 네트워크(Generative Adversarial Network, GAN) 모델을 이용하여 상기 제1 익명화 얼굴을 생성하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 1,
Wherein the processor generates the first anonymized face using a Generative Adversarial Network (GAN) model having a generator and a discriminator.
상기 프로세서는 상기 관찰 영상에서 해당하는 위치에 상기 제1 익명화 얼굴을 출력하여 익명화 영상을 생성하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 2,
The processor generates an anonymized image by outputting the first anonymized face at a corresponding position in the observation image.
상기 통신 인터페이스는 상기 익명화 영상을 상기 개인 정보 보호 및 개인 식별 서버로 전송하는 것을 특징으로 하는 영상 기반 모니터링 장치.According to claim 8,
The video-based monitoring device, characterized in that the communication interface transmits the anonymized video to the personal information protection and personal identification server.
제1 익명화 얼굴이 포함된 제1 익명화 영상을 수신하고, 원본 얼굴의 식별자 특징 정보 및 상기 제1 익명화 얼굴의 식별자 특징 정보가 매칭된 식별자 특징 정보 쌍을 수신하는 통신 인터페이스;
상기 제1 익명화 영상 및 상기 식별자 특징 정보 쌍을 저장하는 저장 매체; 및
상기 통신 인터페이스와 상기 저장 매체에 신호를 송신하는 프로세서를 포함하는 개인 정보 보호 및 개인 식별 서버.In the personal information protection and personal identification server,
a communication interface for receiving a first anonymized image including a first anonymized face and receiving a pair of identifier feature information in which the identifier feature information of an original face and the identifier feature information of the first anonymized face are matched;
a storage medium for storing the first anonymized image and the identifier characteristic information pair; and
A personal information protection and personal identification server including a processor for transmitting a signal to the communication interface and the storage medium.
상기 통신 인터페이스는 피관찰자의 신원 확인이 필요한 상황에서 제2 익명화 얼굴이 포함된 제2 익명화 영상을 수신하고,
상기 프로세서는 상기 제2 익명화 영상으로부터 제2 익명화 얼굴을 추출하고, 상기 제2 익명화 얼굴로부터 상기 제2 익명화 얼굴의 식별자 특징 정보를 추출하고, 상기 제2 익명화 얼굴의 식별자 특징 정보 및 상기 제1 익명화 얼굴의 식별자 특징 정보를 비교하고 유사도에 따라 유력한 제1 익명화 얼굴의 식별자 특징 정보를 출력하는 것을 특징으로 하는 개인 정보 보호 및 개인 식별 서버.According to claim 10,
The communication interface receives a second anonymized image including a second anonymized face in a situation where identification of an observer is required,
The processor extracts a second anonymized face from the second anonymized image, extracts identifier characteristic information of the second anonymized face from the second anonymized face, and identifies characteristic information of the second anonymized face and the first anonymized face. A personal information protection and personal identification server, characterized in that for comparing face identifier feature information and outputting likely first anonymized face identifier feature information according to similarity.
상기 프로세서는 상기 유력한 제1 익명화 얼굴의 식별자 특징 정보에 매칭하는 원본 얼굴의 식별자 특징 정보를 검출하는 것을 특징으로 하는 개인 정보 보호 및 개인 식별 서버.According to claim 11,
The personal information protection and personal identification server, characterized in that the processor detects the identifier characteristic information of the original face matching the identifier characteristic information of the first likely anonymized face.
상기 통신 인터페이스는 용의자의 사진이나 영상을 수신하고,
상기 프로세서는 상기 용의자의 사진이나 영상으로부터 후보 얼굴의 식별자 특징 정보를 추출하고, 상기 후보 얼굴의 식별자 특징 정보 및 상기 검출한 원본 얼굴의 식별자 특징 정보를 비교하고 유사도를 출력하는 것을 특징으로 하는 개인 정보 보호 및 개인 식별 서버.According to claim 12,
The communication interface receives a picture or video of a suspect,
The processor extracts the identifier characteristic information of the candidate face from the suspect's photo or video, compares the identifier characteristic information of the candidate face with the detected identifier characteristic information of the original face, and outputs a similarity. Protection and Personal Identification Servers.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210112251A KR102609607B1 (en) | 2021-08-25 | 2021-08-25 | Privacy preserved monitoring system based on re-identification of anonymized individual face |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210112251A KR102609607B1 (en) | 2021-08-25 | 2021-08-25 | Privacy preserved monitoring system based on re-identification of anonymized individual face |
Publications (3)
Publication Number | Publication Date |
---|---|
KR20230030251A true KR20230030251A (en) | 2023-03-06 |
KR102609607B1 KR102609607B1 (en) | 2023-12-01 |
KR102609607B9 KR102609607B9 (en) | 2024-04-16 |
Family
ID=85509798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210112251A KR102609607B1 (en) | 2021-08-25 | 2021-08-25 | Privacy preserved monitoring system based on re-identification of anonymized individual face |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102609607B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170119379A (en) * | 2016-04-19 | 2017-10-27 | 주식회사 이엠따블유 | System and method for real-time face recognition of cctv video stream |
KR101911900B1 (en) | 2017-07-20 | 2018-10-29 | 주식회사 이고비드 | Privacy-preserving camera, system the same and real-time automated video anonymization method based on face detection |
KR101943433B1 (en) * | 2018-08-24 | 2019-01-29 | 전북대학교산학협력단 | System for detecting suspects in real-time through face sketch recognition |
KR102103557B1 (en) * | 2019-05-03 | 2020-04-22 | 주식회사 페이스테그 | Method for face recognition, apparatus for face recognition and computer program for the same |
KR20200094651A (en) * | 2019-01-30 | 2020-08-07 | 주식회사 스트라드비젼 | Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition |
KR20210030060A (en) * | 2019-09-09 | 2021-03-17 | 주식회사 케이티 | Event monitoring system and method based on face image |
KR20210062955A (en) * | 2019-11-22 | 2021-06-01 | 엘지전자 주식회사 | Controlling of device based on user recognition |
-
2021
- 2021-08-25 KR KR1020210112251A patent/KR102609607B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170119379A (en) * | 2016-04-19 | 2017-10-27 | 주식회사 이엠따블유 | System and method for real-time face recognition of cctv video stream |
KR101911900B1 (en) | 2017-07-20 | 2018-10-29 | 주식회사 이고비드 | Privacy-preserving camera, system the same and real-time automated video anonymization method based on face detection |
KR101943433B1 (en) * | 2018-08-24 | 2019-01-29 | 전북대학교산학협력단 | System for detecting suspects in real-time through face sketch recognition |
KR20200094651A (en) * | 2019-01-30 | 2020-08-07 | 주식회사 스트라드비젼 | Method and device for estimating height and weight of passengers using body part length and face information based on humans' status recognition |
KR102103557B1 (en) * | 2019-05-03 | 2020-04-22 | 주식회사 페이스테그 | Method for face recognition, apparatus for face recognition and computer program for the same |
KR20210030060A (en) * | 2019-09-09 | 2021-03-17 | 주식회사 케이티 | Event monitoring system and method based on face image |
KR20210062955A (en) * | 2019-11-22 | 2021-06-01 | 엘지전자 주식회사 | Controlling of device based on user recognition |
Non-Patent Citations (2)
Title |
---|
Maximov, et al., CIAGAN, Conditional identity anonymization generative adversarial networks, Proceedings of the IEEE/CVF conference on computer vision and pattern recognition(2020)* * |
Yifan, et al., Privacy-Protective-GAN for Privacy Preserving Face De-Identification, Journal of Computer Science and Technology(2019)* * |
Also Published As
Publication number | Publication date |
---|---|
KR102609607B9 (en) | 2024-04-16 |
KR102609607B1 (en) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Damer et al. | Morgan: Recognition vulnerability and attack detectability of face morphing attacks created by generative adversarial network | |
CN110163078B (en) | Living body detection method, living body detection device and service system applying living body detection method | |
CN111709408B (en) | Image authenticity detection method and device | |
KR102483642B1 (en) | Method and apparatus for liveness test | |
US10275641B2 (en) | Methods and systems for extracting feature descriptors for an image | |
CN110674800B (en) | Face living body detection method and device, electronic equipment and storage medium | |
WO2018065158A1 (en) | Computer device for training a deep neural network | |
CN110705392A (en) | Face image detection method and device and storage medium | |
Aghdaie et al. | Attention aware wavelet-based detection of morphed face images | |
EP3471060B1 (en) | Apparatus and methods for determining and providing anonymized content within images | |
US20200211348A1 (en) | Privacy Preserving Camera | |
CN111553235B (en) | Network training method for protecting privacy, identity recognition method and device | |
US20230102479A1 (en) | Anonymization device, monitoring apparatus, method, computer program, and storage medium | |
Zhang et al. | A semi-feature learning approach for tampered region localization across multi-format images | |
JP6542819B2 (en) | Image surveillance system | |
Mishra et al. | Privacy‐Preserved In‐Cabin Monitoring System for Autonomous Vehicles | |
Rajalaxmi et al. | Deepfake Detection using Inception-ResNet-V2 Network | |
CN112041847A (en) | Providing images with privacy tags | |
Aqeel et al. | Detection of anomaly in videos using convolutional autoencoder and generative adversarial network model | |
Alanazi | Comparative Analysis of Deep Fake Detection Techniques | |
KR102609607B1 (en) | Privacy preserved monitoring system based on re-identification of anonymized individual face | |
US20220180102A1 (en) | Reducing false negatives and finding new classes in object detectors | |
CN115966030A (en) | Image processing method and device and intelligent terminal | |
Shibel et al. | Deep learning detection of facial biometric presentation attack | |
Bresan et al. | Exposing presentation attacks by a combination of multi-intrinsic image properties, convolutional networks and transfer learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |