KR102420890B1 - Service providing apparatus and method for de-identification of objects included in images - Google Patents

Service providing apparatus and method for de-identification of objects included in images Download PDF

Info

Publication number
KR102420890B1
KR102420890B1 KR1020220004259A KR20220004259A KR102420890B1 KR 102420890 B1 KR102420890 B1 KR 102420890B1 KR 1020220004259 A KR1020220004259 A KR 1020220004259A KR 20220004259 A KR20220004259 A KR 20220004259A KR 102420890 B1 KR102420890 B1 KR 102420890B1
Authority
KR
South Korea
Prior art keywords
image
original image
face
event
unit
Prior art date
Application number
KR1020220004259A
Other languages
Korean (ko)
Inventor
장경애
Original Assignee
장경애
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장경애 filed Critical 장경애
Priority to KR1020220004259A priority Critical patent/KR102420890B1/en
Application granted granted Critical
Publication of KR102420890B1 publication Critical patent/KR102420890B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region

Abstract

The present invention relates to a service providing apparatus and method for de-identification of an object included in an image and, more specifically, to a service providing apparatus and method for de-identification of an object included in an image, which change a face of an object included in an original image to be different from the original image, thereby preventing leakage of personal information and supporting the use of images for various purposes. According to the present invention, after a composite image is generated by synthesizing an original image corresponding to a face area extracted from an object corresponding to a person in an image with a preset face model, the corresponding composite image is inserted into the face area of the object, and a face of the object is changed to a face different from an actual face of the person corresponding to the object, and thus, de-identification processing may be performed so that a face of an actual person corresponding to the object cannot be identified in the image. Therefore, images with personal information protected may be provided without worrying about infringement of portrait rights, and images including natural people may be provided compared to existing de-identification processing methods such as mosaic or blind, such that, by increasing the realism of images, satisfaction of users who use or distribute the images can be greatly increased.

Description

영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치 및 방법{Service providing apparatus and method for de-identification of objects included in images}Service providing apparatus and method for de-identification of objects included in images

본 발명은 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치 및 방법에 관한 것으로서, 더욱 상세히는 원본 영상에 포함된 객체의 얼굴을 원본 영상과 상이하게 변경하여 개인정보의 유출을 방지함과 아울러 다양한 용도에 영상을 사용할 수 있도록 지원하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing a service for de-identification of an object included in an image, and more particularly, by changing the face of an object included in an original image to be different from the original image to prevent leakage of personal information; In addition, the present invention relates to an apparatus and method for providing a service for de-identification of an object included in an image that supports the use of an image for various purposes.

일반적으로 영상 촬영시 영상에 촬영된 인물의 얼굴이 나타나게 되며, 이러한 얼굴을 통해 개인을 식별할 수 있어, 초상권 보호 및 개인정보 유출의 방지를 위해 이러한 영상에 나타난 개개인의 얼굴을 영상을 통해 확인할 수 없도록 후처리 해야만 한다.In general, when shooting a video, the face of the person photographed in the video appears, and an individual can be identified through such a face. It has to be post-processed.

이를 위해, 기존에는 영상에서 개개인에 대응되는 객체를 식별하고, 해당 객체에서 얼굴 영역에 대해 모자이크나 블라인드 등과 같은 비식별화 처리 과정을 수행하여 영상 배포에 따른 개인정보의 유출을 방지하고 있다.To this end, conventionally, an object corresponding to an individual is identified in an image, and a de-identification process such as mosaic or blind is performed on the face area in the object to prevent leakage of personal information due to image distribution.

그러나, 이와 같은 기존의 후처리 과정은 얼굴 영역을 모자이크나 블라인드와 같은 비식별화 처리를 통해 생성된 객체가 부자연스러워 영상 품질을 저하시키게 되며, 이로 인해 영상을 시청하는 시청자의 만족도를 저하시키는 문제가 있다.However, in such a conventional post-processing process, the object created through de-identification processing such as mosaic or blind of the face area is unnatural, and thus the image quality is deteriorated, thereby lowering the satisfaction of viewers watching the video. there is

한국등록특허 제10-2129031호Korean Patent Registration No. 10-2129031

본 발명은 영상에서 사람에 해당하는 객체를 식별하고, 해당 객체의 얼굴 영영을 추출한 후 미리 설정된 기본 얼굴 모델과 합성하여 합성 이미지를 생성한 후 객체의 얼굴 영역에 삽입함으로써, 영상에 나타나는 사람에 해당하는 객체의 사실감을 높이면서도 객체를 통해 개인을 식별할 수 없도록 지원하여 개인 정보를 보호할 수 있도록 지원하는데 그 목적이 있다.The present invention identifies an object corresponding to a person from an image, extracts a face image of the object, synthesizes it with a preset basic face model, creates a composite image, and inserts it into the face region of the object, corresponding to the person appearing in the image The purpose of this is to support the protection of personal information by increasing the realism of the object, and by supporting that the individual cannot be identified through the object.

또한, 본 발명은 영상에 나타난 개개인의 얼굴을 비식별화 처리하여 개인 정보가 보호된 영상을 초상권 침해에 대한 우려 없이 다양한 용도에 사용할 수 있도록 지원하는데 그 목적이 있다.In addition, an object of the present invention is to support the use of an image in which personal information is protected by de-identification processing of an individual's face appearing in an image for various purposes without fear of infringement of the right to portrait.

본 발명의 실시예에 따른 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치는, 영상을 수신하는 영상 수신부와, 상기 영상에서 사람에 해당하는 하나 이상의 객체를 식별하고, 상기 하나 이상의 객체 각각에서 얼굴 영역을 추출하여 원본 이미지를 생성하는 얼굴 추출부와, 상기 하나 이상의 객체별로 생성된 상기 원본 이미지를 미리 설정된 얼굴 모델과 합성하여 합성 이미지를 상기 객체별로 생성하는 합성부 및 상기 하나 이상의 객체와 각각 대응되도록 생성된 하나 이상의 상기 합성 이미지 각각에 대해 상기 영상에서 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 상기 합성 이미지를 삽입하는 삽입부를 포함할 수 있다.A service providing apparatus for de-identification of an object included in an image according to an embodiment of the present invention includes an image receiving unit for receiving an image, identifying one or more objects corresponding to a person in the image, and each of the one or more objects a face extractor for generating an original image by extracting a face region from a synthesizing unit for generating a composite image for each object by synthesizing the original image generated for each of the one or more objects with a preset face model; and the one or more objects; and an inserter for inserting the composite image into a face region of an object corresponding to the composite image in the image for each of the one or more composite images generated to correspond to each other.

본 발명과 관련된 일 예로서, 상기 서비스 제공 장치는, 상기 영상을 통해 구분 가능한 하나 이상의 속성 중 상기 원본 이미지에 대응되는 상기 하나 이상의 속성별 속성값을 포함하는 속성 정보를 산출하는 검출부를 더 포함하며, 상기 합성부는, 상기 속성 정보를 미리 설정된 복수의 카테고리별 카테고리 정보와 비교하여 상기 속성 정보에 대응되는 특정 카테고리에 대응되도록 미리 설정된 특정 얼굴 모델을 선택하고, 상기 특정 얼굴 모델과 상기 원본 이미지를 합성하여 상기 합성 이미지를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the service providing apparatus further includes a detection unit for calculating attribute information including attribute values for each of the one or more attributes corresponding to the original image among one or more attributes distinguishable through the image, , the synthesizing unit compares the attribute information with category information for a plurality of preset categories, selects a preset specific face model to correspond to a specific category corresponding to the attribute information, and synthesizes the specific face model and the original image to generate the composite image.

본 발명과 관련된 일 예로서, 상기 하나 이상의 속성은, 나이, 성별, 국적, 피부색, 인종 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, the one or more attributes may include at least one of age, gender, nationality, skin color, and race.

본 발명과 관련된 일 예로서, 상기 검출부는 상기 하나 이상의 속성과 얼굴에 대한 이미지 사이의 상관 관계가 학습된 학습 모델에 상기 얼굴 추출부를 통해 생성된 상기 원본 이미지를 적용하여 상기 학습 모델을 통해 상기 원본 이미지에 대응되는 상기 속성 정보를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the detection unit applies the original image generated through the face extraction unit to a learning model in which the correlation between the one or more attributes and the image for the face is learned, and the original image through the learning model It may be characterized in that the attribute information corresponding to the image is generated.

본 발명과 관련된 일 예로서, 상기 검출부는, 얼굴의 신체 일부가 검출되지 않는 원본 이미지를 식별하며, 상기 합성부는, 상기 검출부와 연동하여 얼굴의 신체 일부가 검출되지 않는 원본 이미지를 미리 설정된 GAN 모델에 적용하여 상기 원본 이미지에서 상기 검출되지 않는 신체 일부에 대한 영역을 보간한 가상 이미지를 생성하고, 상기 가상 이미지를 상기 얼굴 모델과 합성하여 합성 이미지를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the detection unit identifies an original image in which a body part of a face is not detected, and the synthesizing unit interworks with the detection unit and sets an original image in which a body part of the face is not detected in a preset GAN model. to generate a virtual image obtained by interpolating a region of the body part that is not detected in the original image, and synthesizing the virtual image with the face model to generate a composite image.

본 발명과 관련된 일 예로서, 상기 서비스 제공 장치는, 상기 복수의 카테고리별 카테고리 정보와 상기 복수의 카테고리와 각각 매칭되는 복수의 얼굴 모델이 저장된 저장부를 더 포함하고, 상기 카테고리 정보는 상기 하나 이상의 속성별 설정값이 미리 설정되고, 상기 복수의 카테고리별 카테고리 정보 상호 간 상기 하나 이상의 속성별 설정값 중 적어도 하나가 상이하게 미리 설정되며, 상기 합성부는, 특정 객체에 대해 생성된 속성 정보에 대응되는 특정 카테고리에 매칭된 복수의 얼굴 모델 중 어느 하나를 상기 특정 얼굴 모델로 랜덤 선택하여 상기 원본 이미지와 합성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the service providing apparatus further includes a storage unit storing category information for each of the plurality of categories and a plurality of face models each matching the plurality of categories, wherein the category information includes the one or more attributes Each set value is preset, and at least one of the set values for the one or more attributes is set differently among the plurality of category information for each category, and the synthesizing unit is configured to: It may be characterized in that any one of a plurality of face models matched with a category is randomly selected as the specific face model and then combined with the original image.

본 발명과 관련된 일 예로서, 상기 얼굴 추출부는, 상기 영상을 구성하는 복수의 프레임 각각에서 상호 동일한 특정 객체를 식별하고, 상기 복수의 프레임별로 상기 특정 객체에 대응되는 원본 이미지를 생성하며, 상기 합성부는, 상기 얼굴 추출부와 연동하여 상기 복수의 프레임 중 어느 하나의 프레임을 기초로 상기 특정 객체에 대응되도록 선택된 특정 얼굴 모델을 기준 모델로 설정하고, 상기 복수의 프레임별로 상기 특정 객체 및 프레임에 대응되는 원본 이미지를 상기 기준 모델과 합성하여 합성 이미지를 상기 특정 객체 및 프레임에 대응되도록 생성하며, 상기 삽입부는, 상기 합성부와 연동하여 상기 복수의 프레임별로 프레임에 대응되는 합성 이미지를 상기 특정 객체의 얼굴 영역에 삽입하는 것을 특징으로 할 수 있다.As an example related to the present invention, the face extractor identifies a mutually identical specific object in each of a plurality of frames constituting the image, and generates an original image corresponding to the specific object for each of the plurality of frames, and the synthesis The unit sets a specific face model selected to correspond to the specific object based on any one frame among the plurality of frames as a reference model in conjunction with the face extractor, and corresponds to the specific object and frame for each of the plurality of frames The original image is synthesized with the reference model to generate a composite image corresponding to the specific object and frame, and the inserting unit interworks with the synthesis unit to generate a composite image corresponding to the frame for each of the plurality of frames of the specific object. It may be characterized in that it is inserted into the face region.

본 발명과 관련된 일 예로서, 상기 검출부는, 상기 원본 이미지를 분석하여 얼굴 특징과 관련되어 미리 설정된 하나 이상의 이벤트 조건 중 어느 하나를 만족하는지 판단하여 특정 이벤트 조건 만족시 상기 원본 이미지가 만족하는 특정 이벤트 조건에 대응되는 이벤트 정보를 생성한 후 상기 원본 이미지와 함께 상기 합성부에 제공하고, 상기 합성부는, 상기 원본 이미지와 함께 제공되는 상기 이벤트 정보를 기초로 상기 원본 이미지에 대응되는 특정 이벤트 종류를 식별하고, 상기 특정 이벤트 종류에 대응되도록 미리 설정된 이벤트 처리 함수에 따라 상기 원본 이미지에서 상기 특정 이벤트 조건을 만족하는 이벤트 영역을 제거한 후 상기 얼굴 모델과 합성하여 상기 합성 이미지를 생성하거나 상기 특정 이벤트 종류에 대응되는 미리 저장된 부가 아이템을 추출한 후 상기 부가 아이템에 대응되는 원본 이미지의 이벤트 영역에 합성한 다음 상기 원본 이미지에 대응되는 상기 얼굴 모델과 합성하여 상기 합성 이미지를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the detection unit analyzes the original image and determines whether any one of one or more event conditions set in relation to facial features is satisfied, and when the specific event condition is satisfied, the specific event that the original image is satisfied with After generating event information corresponding to the condition, it is provided to the synthesizing unit together with the original image, and the synthesizing unit identifies a specific event type corresponding to the original image based on the event information provided together with the original image and, after removing an event region satisfying the specific event condition from the original image according to an event processing function preset to correspond to the specific event type, synthesized with the face model to generate the composite image or to respond to the specific event type It may be characterized in that after extracting the additional items stored in advance, synthesizing them in an event area of the original image corresponding to the additional items, and then synthesizing them with the face model corresponding to the original image to generate the composite image.

본 발명과 관련된 일 예로서, 상기 합성부는, 상기 원본 이미지에서 얼굴의 자세를 검출하고, 상기 자세에 대응되도록 상기 얼굴 모델의 자세를 변경한 후 상기 원본 이미지와 합성하여 상기 합성 이미지를 생성하는 것을 특징으로 할 수 있다.As an example related to the present invention, the synthesizing unit detects the posture of the face in the original image, changes the posture of the face model to correspond to the posture, and then synthesizes it with the original image to generate the synthesized image. can be characterized.

본 발명의 실시예에 따른 서비스 제공 장치의 영상에 포함된 객체의 비식별화를 위한 서비스 제공 방법은, 영상을 수신하는 단계와, 상기 영상에서 사람에 해당하는 하나 이상의 객체를 식별하고, 상기 하나 이상의 객체 각각에서 얼굴 영역을 추출하여 원본 이미지를 생성하는 단계와, 상기 하나 이상의 객체별로 생성된 상기 원본 이미지를 미리 설정된 얼굴 모델과 합성하여 합성 이미지를 상기 객체별로 생성하는 단계 및 상기 하나 이상의 객체와 각각 대응되도록 생성된 하나 이상의 상기 합성 이미지 각각에 대해 상기 영상에서 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 삽입하는 단계를 포함할 수 있다.A service providing method for de-identification of an object included in an image of a service providing apparatus according to an embodiment of the present invention includes: receiving an image; identifying one or more objects corresponding to a person in the image; generating an original image by extracting a face region from each of the above objects; generating a composite image for each object by synthesizing the original image generated for each of the one or more objects with a preset face model; The method may include inserting each of the one or more synthetic images generated to correspond to each other into a face region of an object corresponding to the composite image in the image.

본 발명은 영상에서 사람에 해당하는 객체로부터 추출한 얼굴 영역에 대응되는 원본 이미지를 미리 설정된 얼굴 모델과 합성하여 합성 이미지를 생성한 후 해당 합성 이미지를 객체의 얼굴 영역에 삽입하여 상기 객체에 대응되는 사람의 실제 얼굴과 다른 얼굴로 객체의 얼굴을 변경함으로써 상기 객체에 대응되는 실제 인물의 얼굴을 영상에서 식별할 수 없도록 비식별화 처리할 수 있으며, 이를 통해 초상권 침해에 대한 염려 없이 개인 정보가 보호된 영상을 제공할 수 있을 뿐만 아니라 모자이크나 블라인드와 같은 기존의 비식별화 처리 방식에 비해 자연스러운 인물이 포함된 영상을 제공할 수 있어 영상의 사실감을 높여 영상을 이용하거나 배포하는 사용자의 만족도를 크게 높일 수 있다.The present invention generates a composite image by synthesizing an original image corresponding to a face region extracted from an object corresponding to a person in an image with a preset face model, and then inserting the composite image into the face region of the object to create a person corresponding to the object. By changing the face of the object to a face different from the real face of In addition to being able to provide images, it is possible to provide images with natural people compared to existing de-identification processing methods such as mosaics and blinds. can

또한, 본 발명은 영상에서 사람에 해당하는 객체로부터 식별된 객체에 대응되는 사람의 나이, 성별, 국적, 피부색, 인종 등과 같은 속성과 유사하거나 동일한 속성을 가진 얼굴 모델을 이용하여 해당 객체의 얼굴을 다른 얼굴로 대체함으로써, 영상에 나타난 사람들의 얼굴이 이질감 없이 표시되도록 지원할 수 있으므로, 영상에 나타난 개개인의 비식별화 처리를 통해 생성된 영상의 품질을 보장할 수 있다.In addition, the present invention uses a face model having properties similar to or identical to those of the person corresponding to the object identified from the object corresponding to the person in the image, such as age, gender, nationality, skin color, race, etc. By substituting another face, it is possible to support the faces of people appearing in the image to be displayed without any sense of heterogeneity, so that the quality of the image generated through de-identification processing of individuals appearing in the image can be guaranteed.

더하여, 본 발명은 영상에 나타난 개개인의 얼굴이 비식별화 처리된 영상을 제공하여 해당 영상이 다양한 미디어 컨텐츠의 배경으로 사용될 수 있도록 지원할 수 있으며, 이를 통해 개인 정보에 대한 침해 우려가 없는 영상을 다양한 용도에 사용될 수 있도록 지원할 수 있다.In addition, the present invention can support the image to be used as the background of various media contents by providing an image in which the face of an individual appearing in the image is de-identified, and through this, it is possible to display various images that do not infringe on personal information. We can support you to use it for your intended purpose.

도 1은 본 발명의 실시예에 따른 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치의 구성도.
도 2 및 도 3은 본 발명의 실시예에 따른 서비스 제공 장치의 동작 예시도.
도 4는 본 발명의 실시예에 따른 서비스 제공 장치의 원본 이미지의 자세를 고려한 얼굴 모델과의 합성 과정을 나타낸 예시도.
도 5는 본 발명의 실시예에 따른 서비스 제공 장치의 원본 이미지의 속성을 고려한 얼굴 모델과의 합성 과정을 나타낸 예시도.
도 6은 본 발명의 실시예에 따른 서비스 제공 장치의 신체 일부가 가려진 원본 이미지의 보간 과정에 대한 예시도.
도 7은 본 발명의 실시예에 따른 영상에 포함된 객체의 비식별화를 위한 서비스 제공 방법에 대한 순서도.
1 is a block diagram of a service providing apparatus for de-identification of an object included in an image according to an embodiment of the present invention;
2 and 3 are diagrams illustrating an operation of an apparatus for providing a service according to an embodiment of the present invention.
4 is an exemplary diagram illustrating a synthesis process with a face model in consideration of the posture of the original image of the service providing apparatus according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a synthesis process with a face model in consideration of the properties of the original image of the service providing apparatus according to an embodiment of the present invention.
6 is an exemplary diagram illustrating an interpolation process of an original image in which a body part of a service providing apparatus is covered according to an embodiment of the present invention;
7 is a flowchart of a service providing method for de-identification of an object included in an image according to an embodiment of the present invention;

이하, 도면을 참고하여 본 발명의 상세 실시예를 설명한다.Hereinafter, detailed embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 실시예에 따른 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치(이하, 서비스 제공 장치)의 구성도이다.1 is a block diagram of a service providing apparatus (hereinafter, service providing apparatus) for de-identification of an object included in an image according to an embodiment of the present invention.

도시된 바와 같이, 서비스 제공 장치(100)는, 통신부(110), 저장부(120) 및 제어부(130)를 포함하여 구성될 수 있다.As illustrated, the service providing apparatus 100 may include a communication unit 110 , a storage unit 120 , and a control unit 130 .

이때, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 서비스 제공 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 서비스 제공 장치(100)가 구현될 수도 있다.In this case, the service providing apparatus 100 may be implemented by more components than the components shown in FIG. 1 , or the service providing apparatus 100 may be implemented by fewer components than the components shown in FIG. 1 .

우선, 상기 통신부(110)는, 외부 장치와 통신망을 통해 통신하여 상기 외부 장치로부터 영상을 수신할 수 있으며, 상기 영상을 제어부(130)에 제공할 수 있다.First, the communication unit 110 may communicate with an external device through a communication network to receive an image from the external device, and may provide the image to the controller 130 .

이때, 본 발명에서 설명하는 통신망은 유/무선 통신망을 포함할 수 있으며, 이러한 무선 통신망의 일례로 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS), 5G 이동통신 서비스, 블루투스(Bluetooth), LoRa(Long Range), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신망으로는 유선 LAN(Local Area Network), 유선 WAN(Wide Area Network), 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.In this case, the communication network described in the present invention may include a wired/wireless communication network, and as an example of such a wireless communication network, a wireless LAN (WLAN), a DLNA (Digital Living Network Alliance), a WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice- Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-A (LTE-A) Advanced), Wireless Mobile Broadband Service (WMBS), 5G mobile communication service, Bluetooth (Bluetooth), LoRa (Long Range), RFID (Radio Frequency Identification), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct may be included. In addition, wired communication networks include wired LAN (Local Area Network), wired WAN (Wide Area Network), Power Line Communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cables, etc. may be included.

또한, 상기 외부 장치는, 사용자 단말이나 외부 서버와 같은 다양한 장치로 구성될 수 있다.In addition, the external device may be composed of various devices such as a user terminal or an external server.

또한, 상기 저장부(120)는 각종 정보를 저장할 수 있으며, DB를 포함하여 구성되거나 DB로 구성될 수 있다.In addition, the storage unit 120 may store various types of information, and may include a DB or may be configured as a DB.

일례로, 상기 저장부(120)는, 영상을 저장하는 영상 DB, 객체 관련 정보를 저장하는 객체 DB, 카테고리 관련 정보를 저장하는 카테고리 DB, 객체의 얼굴 영역에 적용 가능한 하나 이상의 부가 아이템 관련 정보가 저장된 특징 DB 등을 포함할 수 있다.For example, the storage unit 120 includes an image DB for storing images, an object DB for storing object-related information, a category DB for storing category-related information, and one or more additional item-related information applicable to the face region of the object. It may include a stored feature DB and the like.

또한, 상기 제어부(130)는, 상기 서비스 제공 장치(100)의 전반적인 제어 기능을 수행하며, RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다.In addition, the control unit 130 performs an overall control function of the service providing device 100, and may include a RAM, ROM, CPU, GPU, and bus, and RAM, ROM, CPU, GPU, etc. can be connected to each other through

이때, 이하에서 설명하는 서비스 제공 장치(100)의 동작 구성은 상기 제어부(130)에 의해 수행될 수 있다.In this case, an operation configuration of the service providing apparatus 100 described below may be performed by the controller 130 .

또한, 상기 제어부(130)는 영상 수신부(131), 얼굴 추출부(132), 검출부(133), 합성부(134) 및 삽입부(135)를 포함하는 복수의 구성부를 포함하여 구성될 수 있으며, 상기 제어부(130)를 구성하는 상기 복수의 구성부 중 적어도 하나가 다른 구성부에 포함되어 구성될 수도 있다.In addition, the control unit 130 may be configured to include a plurality of components including an image receiving unit 131 , a face extracting unit 132 , a detecting unit 133 , a synthesizing unit 134 , and an inserting unit 135 . , at least one of the plurality of components constituting the control unit 130 may be included in another component.

이때, 상기 제어부(130)를 구성하는 복수의 구성부는 데이터 처리가 가능한 프로세서 등에 의해 구현될 수 있으며, 각각이 분리되어 상이한 프로세서에 의해 구현될 수도, 하나의 프로세서 내에서 기능적으로 분리될 수도 있다.In this case, the plurality of components constituting the control unit 130 may be implemented by a processor capable of data processing, etc., and may be separately implemented by different processors, or may be functionally separated within one processor.

이하, 상기 서비스 제공 장치(100)의 전반적인 제어 기능을 수행하는 제어부(130)의 구성을 토대로 이하 도면을 참고하여 서비스 제공 장치(100)의 상세 동작 구성을 설명한다.Hereinafter, a detailed operation configuration of the service providing apparatus 100 will be described with reference to the following drawings based on the configuration of the control unit 130 that performs the overall control function of the service providing apparatus 100 .

우선, 도 2 및 도 3은 본 발명의 실시예에 따른 서비스 제공 장치(100)의 동작 예시도이다.First, FIGS. 2 and 3 are diagrams illustrating an operation of the service providing apparatus 100 according to an embodiment of the present invention.

우선, 도 2를 참고하여 서비스 제공 장치(100)의 객체 식별 및 분석 과정을 설명한다.First, an object identification and analysis process of the service providing apparatus 100 will be described with reference to FIG. 2 .

상기 영상 수신부(131)는, 외부 장치로부터 영상을 수신할 수 있으며, 상기 영상을 상기 저장부(120)에 포함된 영상 DB에 저장할 수 있으며, 상기 영상을 상기 얼굴 추출부(132)에 제공할 수도 있다.The image receiving unit 131 may receive an image from an external device, store the image in an image DB included in the storage unit 120 , and provide the image to the face extractor 132 . may be

또한, 상기 얼굴 추출부(132)는, 상기 영상 DB로부터 상기 영상을 추출하거나 상기 영상 수신부(131)로부터 상기 영상을 수신할 수 있으며, 상기 영상에서 사람에 해당하는 하나 이상의 객체를 식별하고, 상기 하나 이상의 객체 각각에서 영상 분석을 통해 얼굴 영역을 식별한 후 해당 얼굴 영역을 추출하여 상기 추출된 얼굴 영역으로 구성된 원본 이미지를 생성할 수 있다.In addition, the face extractor 132 may extract the image from the image DB or receive the image from the image receiver 131 , identify one or more objects corresponding to a person in the image, and After identifying a face region through image analysis in each of one or more objects, the corresponding face region may be extracted to generate an original image composed of the extracted face region.

일례로, 상기 얼굴 추출부(132)는, 미리 설정된 영상 분석 알고리즘을 이용하여 전경과 배경을 분리하고, 전경에 해당하는 객체를 식별할 수 있다.For example, the face extractor 132 may use a preset image analysis algorithm to separate a foreground and a background, and identify an object corresponding to the foreground.

이때, 상기 얼굴 추출부(132)는, 상기 영상에 배경 모델링을 위한 다양한 영상 분석 알고리즘을 적용할 수 있으며, 일례로 차분영상 방법, GMM(Gaussian Mixture Models)을 이용하는 MOG(Model of Gaussian) 알고리즘, 코드북(Codebook) 알고리즘 등을 적용할 수 있다.At this time, the face extractor 132 may apply various image analysis algorithms for background modeling to the image, for example, a differential image method, a Model of Gaussian (MOG) algorithm using Gaussian Mixture Models (GMM), A codebook algorithm or the like may be applied.

또한, 상기 얼굴 추출부(132)는, 영상에서 식별된 하나 이상의 객체 중에서 사람에 해당되는 객체를 식별하기 위해, 특징 정보 추출을 위한 특징 추출 알고리즘이 미리 설정되어 해당 특징 추출 알고리즘을 통해 상기 식별된 하나 이상의 객체 각각에 대해 특징 정보를 추출하고, 상기 추출된 특징 정보를 사람에 해당하는 객체의 식별을 위해 미리 설정된 기준 특징 정보와 비교하여 상기 식별된 하나 이상의 객체 중에서 사람에 해당되는 객체를 식별할 수 있다.In addition, in order to identify an object corresponding to a person from among one or more objects identified in the image, the face extractor 132 is configured to set a feature extraction algorithm for extracting feature information in advance, Extracting characteristic information for each of one or more objects, and comparing the extracted characteristic information with reference characteristic information preset for identification of an object corresponding to a person to identify an object corresponding to a person among the identified one or more objects can

이때, 상기 특징 추출 알고리즘의 일례로, SIFT(Scale Invariant Feature Transform), HOG(Histogram of Oriented Gradient), Haar feature, Ferns 등과 같은 특징정보 추출을 위한 알고리즘이 이용될 수 있다.In this case, as an example of the feature extraction algorithm, an algorithm for extracting feature information such as Scale Invariant Feature Transform (SIFT), Histogram of Oriented Gradient (HOG), Haar feature, Ferns, etc. may be used.

또한, 이하 설명에서 사용되는 객체는 상기 사람에 해당되는 객체를 의미할 수 있다.Also, an object used in the following description may mean an object corresponding to the person.

또한, 상기 얼굴 추출부(132)는, 미리 설정된 얼굴 식별을 위한 알고리즘을 통해 상기 영상에서 식별된 사람에 해당하는 하나 이상의 객체 각각에서 얼굴 영역을 추출하고, 상기 추출된 얼굴 영역을 기초로 원본 이미지를 생성할 수 있다.In addition, the face extraction unit 132 extracts a face region from each of one or more objects corresponding to the person identified in the image through a preset algorithm for face identification, and based on the extracted face region, an original image can create

또한, 상기 검출부(133)는, 상기 원본 이미지를 미리 설정된 속성 분석 알고리즘을 통해 분석하여 영상을 통해 구분 가능한 미리 설정된 하나 이상의 속성 중 상기 원본 이미지에 대응되는 하나 이상의 속성별 속성값을 산출하고, 상기 하나 이상의 속성별 속성값을 포함하는 속성 정보를 생성할 수 있다.In addition, the detection unit 133 analyzes the original image through a preset attribute analysis algorithm to calculate an attribute value of one or more attributes corresponding to the original image among one or more preset attributes distinguishable through an image, Attribute information including attribute values for one or more attributes may be generated.

이때, 상기 검출부(133)에는, 상기 하나 이상의 속성과 얼굴에 대한 이미지 사이의 상관 관계가 학습된 학습 모델이 미리 설정될 수 있으며, 상기 검출부(133)는, 상기 학습 모델에 상기 얼굴 추출부(132)를 통해 생성된 원본 이미지를 상기 학습 모델에 입력으로 적용하여 상기 학습 모델을 통해 상기 원본 이미지에 대응되는 상기 하나 이상의 속성별 속성값을 포함하는 속성 정보를 출력으로 산출할 수 있다.In this case, the detection unit 133 may be preset with a learning model in which the correlation between the one or more attributes and the image for the face is learned, and the detection unit 133 may include the face extraction unit ( 132) may be applied to the learning model as an input, and attribute information including attribute values for each of the one or more attributes corresponding to the original image may be output as an output through the learning model.

상술한 구성에서, 상기 속성 분석 알고리즘은 상기 학습 모델로 구성될 수 있으며, 상기 학습 모델은 딥러닝(Deep Learning) 알고리즘을 구성될 수 있다.In the above configuration, the attribute analysis algorithm may be configured as the learning model, and the learning model may be configured as a deep learning algorithm.

이때, 상기 딥러닝 알고리즘은 하나 이상의 신경망 모델로 구성될 수 있다.In this case, the deep learning algorithm may be composed of one or more neural network models.

또한, 본 발명에서 설명하는 신경망 모델(또는 신경망)은 입력층(Input Layer), 하나 이상의 은닉층(Hidden Layers) 및 출력층(Output Layer)으로 구성될 수 있으며, 상기 신경망 모델에는 DNN(Deep Neural Network), RNN(Recurrent Neural Network), CNN(Convolutional Neural Network), SVM(Support Vector Machine) 등과 같은 다양한 종류의 신경망이 적용될 수 있다.In addition, the neural network model (or neural network) described in the present invention may be composed of an input layer, one or more hidden layers and an output layer, and the neural network model includes a Deep Neural Network (DNN). , Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), Support Vector Machine (SVM), and the like may be applied to various types of neural networks.

또한, 상기 하나 이상의 속성은 나이(또는 나이대), 성별, 국적, 피부색, 인종 등을 포함할 수 있으며, 상기 검출부(133)는, 객체의 얼굴에 대한 이미지인 원본 이미지로부터 나이(또는 나이대), 성별, 국적, 피부색, 인종 각각에 대한 데이터를 포함하는 속성 정보를 생성할 수 있다.In addition, the one or more attributes may include age (or age group), gender, nationality, skin color, race, etc., and the detection unit 133 may include an age (or age group), Attribute information including data on each of gender, nationality, skin color, and race may be generated.

또한, 상기 얼굴 추출부(132)는, 상기 사람에 해당하는 객체 식별시 상기 객체에 대한 객체 정보를 생성한 후 상기 저장부(120)에 포함된 객체 DB에 저장할 수 있으며, 상기 검출부(133)는, 상기 얼굴 추출부(132)와 연동하여 상기 객체 정보에 대응되는 원본 이미지 및 상기 속성 정보를 상기 객체 정보와 매칭하여 상기 객체 DB에 저장할 수 있다.In addition, the face extraction unit 132 may generate object information on the object when identifying the object corresponding to the person and store it in the object DB included in the storage unit 120 , and the detection unit 133 . may work with the face extractor 132 to match the original image corresponding to the object information and the attribute information with the object information and store it in the object DB.

한편, 도 3은 서비스 제공 장치(100)의 객체에 대한 비식별화 과정을 도시한 동작 예시도이다.Meanwhile, FIG. 3 is an operation example diagram illustrating a de-identification process for an object of the service providing apparatus 100 .

우선, 상기 합성부(134)는, 상기 영상에 포함된 하나 이상의 객체별로 생성된 상기 원본 이미지를 미리 설정된 얼굴 모델과 합성하여 합성 이미지를 상기 하나 이상의 객체별로 생성할 수 있다.First, the synthesizing unit 134 may generate a composite image for each of the one or more objects by synthesizing the original image generated for each one or more objects included in the image with a preset face model.

또한, 상기 삽입부(135)는, 상기 하나 이상의 객체와 각각 대응되도록 생성된 하나 이상의 상기 합성 이미지 각각에 대해 상기 영상에서 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 상기 합성 이미지를 삽입할 수 있다.Also, the insertion unit 135 may insert the composite image into the face region of the object corresponding to the composite image in the image for each of the one or more composite images generated to correspond to the one or more objects, respectively. .

일례로, 상기 합성부(134)에는 3차원 형태의 얼굴 모델이 기본 모델로 미리 설정될 수 있으며, 상기 합성부(134)는, 미리 설정된 합성 알고리즘에 따라 상기 원본 이미지를 상기 얼굴 모델과 합성하여 상기 합성 이미지를 생성할 수 있다.For example, the three-dimensional face model may be preset in the synthesizing unit 134 as a basic model, and the synthesizing unit 134 synthesizes the original image with the face model according to a preset synthesizing algorithm. The composite image may be generated.

이때, 상기 합성 알고리즘의 일례로, 모핑(morphing) 알고리즘이 사용될 수 있다.In this case, as an example of the synthesis algorithm, a morphing algorithm may be used.

또한, 도 4에 도시된 바와 같이, 상기 합성부(134)는, 상기 원본 이미지와 상기 얼굴 모델 합성시 상기 원본 이미지에서 눈, 코 및 입과 각각 대응되는 복수의 영역을 식별하고, 상기 눈, 코 및 입과 각각 대응되는 복수의 영역의 배치 상태를 기초로 상기 원본 이미지에 포함된 객체의 얼굴에 대한 자세를 식별(판단)할 수 있다.In addition, as shown in FIG. 4 , the synthesizing unit 134 identifies a plurality of regions respectively corresponding to eyes, nose and mouth in the original image when synthesizing the original image and the face model, and the eyes, The posture of the object included in the original image with respect to the face may be identified (determined) based on the arrangement state of the plurality of regions respectively corresponding to the nose and the mouth.

이때, 상기 영역은 좌표일 수도 있다.In this case, the region may be a coordinate.

또한, 상기 합성부(134)는, 상기 객체의 얼굴에 대한 자세 관련 자세 정보를 생성하고, 상기 자세 정보를 기초로 상기 얼굴 모델의 자세를 상기 원본 이미지에 대해 식별된 자세와 동일한 자세를 가지도록 변경한 후 상기 자세가 변경된 얼굴 모델과 상기 원본 이미지를 합성하여 상기 합성 이미지를 생성할 수 있다.In addition, the synthesizing unit 134 generates posture-related posture information for the face of the object, and sets the posture of the face model based on the posture information to have the same posture as the posture identified with respect to the original image. After the change, the composite image may be generated by synthesizing the face model whose posture is changed and the original image.

즉, 상기 합성부(134)는, 상기 원본 이미지에 나타난 객체의 얼굴에 대응되는 자세와 일치하도록 상기 얼굴 모델의 자세를 변경한 후 상기 원본 이미지와 합성하여 상기 합성 이미지를 생성함으로써, 자연스러운 얼굴이 나타난 합성 이미지를 생성할 수 있다.That is, the synthesizing unit 134 changes the posture of the face model to match the posture corresponding to the face of the object shown in the original image and then synthesizes it with the original image to generate the synthesized image, thereby creating a natural face. You can create the composite image shown.

또한, 상기 합성부(134)는, 상기 원본 이미지와 상기 얼굴 모델의 합성시 상기 원본 이미지에 포함된 객체의 얼굴에 대응되는 사람의 나이(또는 나이대), 성별, 국적, 피부색, 인종 등과 같은 속성이 상기 얼굴 모델에 대응되는 나이, 성별, 국적, 피부색, 인종 등과 같은 속성과 서로 동일하지 않는 경우 부자연스러운 얼굴에 대한 합성 이미지를 생성하게 된다.In addition, when the original image and the face model are synthesized, the synthesizing unit 134 includes attributes such as age (or age group), gender, nationality, skin color, race, etc. of a person corresponding to the face of the object included in the original image. When the attributes such as age, gender, nationality, skin color, race, etc. corresponding to the face model are not identical to each other, a composite image of an unnatural face is generated.

이를 방지하기 위한 구성을 도 5를 참고하여 설명한다.A configuration for preventing this will be described with reference to FIG. 5 .

우선, 상기 저장부(120)에는 복수의 서로 다른 카테고리별 카테고리 정보가 저장될 수 있으며, 상기 카테고리 정보는 상기 하나 이상의 속성별로 미리 설정된 설정값을 포함할 수 있다.First, the storage unit 120 may store a plurality of different category information for each category, and the category information may include preset values for each of the one or more attributes.

또한, 상기 저장부(120)에 저장된 복수의 카테고리 정보 상호 간 적어도 하나의 속성에 대한 설정값이 서로 상이할 수 있다.Also, set values of at least one attribute among a plurality of category information stored in the storage unit 120 may be different from each other.

또한, 상기 저장부(120)에는 상기 복수의 카테고리 정보별로 하나 이상의 얼굴 모델이 저장될 수 있으며, 카테고리 정보에 매칭된 복수의 얼굴 모델은 서로 상이하도록 구성될 수 있다.In addition, one or more face models may be stored for each of the plurality of category information in the storage unit 120 , and the plurality of face models matched with the category information may be configured to be different from each other.

예를 들어, 상기 저장부(120)에는, 나이가 20대인 미국 국적의 백인 여자에 대한 제 1 카테고리 정보 및 상기 제 1 카테고리 정보에 대응되는 하나 이상의 얼굴 모델이 상기 제 1 카테고리 정보와 매칭되어 저장될 수 있으며, 나이가 30대인 한국 국적의 황인 남자에 대한 제 2 카테고리 정보 및 상기 제 2 카테고리 정보에 대응되는 하나 이상의 얼굴 모델이 상기 제 2 카테고리 정보와 매칭되어 저장될 수 있다.For example, in the storage unit 120 , first category information about a Caucasian woman of American nationality in her twenties and one or more face models corresponding to the first category information are matched with the first category information and stored In addition, second category information about a yellow male of Korean nationality who is 30 years of age and one or more face models corresponding to the second category information may be stored by matching the second category information.

이때, 상기 복수의 카테고리 정보 및 상기 카테고리 정보별 하나 이상의 얼굴 모델은 상기 저장부(120)에 포함된 별도의 카테고리 DB에 저장될 수 있다.In this case, the plurality of category information and one or more face models for each category information may be stored in a separate category DB included in the storage unit 120 .

이에 따라, 상기 합성부(134)는, 상기 얼굴 추출부(132) 및 검출부(133)와 연동하여 상기 원본 이미지에 대해 상기 검출부(133)를 통해 생성된 속성 정보를 기초로 상기 저장부(120)의 카테고리 DB를 검색하여 상기 복수의 카테고리 정보 중 상기 속성 정보에 따른 하나 이상의 속성별 속성값과 일치하는 하나 이상의 속성별 설정값이 포함된 특정 카테고리 정보를 식별할 수 있다.Accordingly, the synthesizing unit 134 cooperates with the face extracting unit 132 and the detecting unit 133, and based on the attribute information generated through the detecting unit 133 for the original image, the storage unit 120 ), it is possible to identify specific category information including set values for one or more attributes matching the attribute values for one or more attributes according to the attribute information among the plurality of category information.

또한, 상기 합성부(134)는, 상기 특정 카테고리 정보에 매칭된 하나 이상의 얼굴 모델 중 어느 하나를 선택한 후 선택된 얼굴 모델을 상기 원본 이미지와 합성하여 상기 합성 이미지를 생성할 수 있다.Also, the synthesizer 134 may select any one of one or more face models matched with the specific category information and then synthesize the selected face model with the original image to generate the synthesized image.

상술한 구성을 통해, 상기 합성부(134)는, 원본 이미지의 속성과 일치하는 속성을 가진 얼굴 모델을 선택하여 상기 원본 이미지와 합성함으로써, 상기 원본 이미지를 기초로 상기 원본 이미지에 포함된 사람의 얼굴을 비식별화하면서도 해당 사람과 동일한 속성을 가진 다른 가상의 인물로 변형하여 원본 이미지에 나타난 얼굴과의 이질감이 최소화된 자연스러운 다른 가상의 얼굴이 포함된 합성 이미지를 생성할 수 있다.Through the above-described configuration, the synthesizing unit 134 selects a face model having properties matching the properties of the original image and synthesizes the face model with the original image, based on the original image. While de-identifying a face, it is possible to create a composite image including another natural virtual face with minimal difference with the face shown in the original image by transforming it into another virtual person having the same properties as the person concerned.

또한, 상기 삽입부(135)는, 상기 얼굴 추출부(132), 검출부(133) 및 합성부(134) 중 적어도 하나와 연동하여 상기 합성 이미지에 대응되는 특정 객체를 상기 영상에서 식별할 수 있으며, 상기 합성 이미지를 상기 얼굴 추출부(132)에 의해 추출된 상기 특정 객체의 얼굴 영역에 삽입하여 상기 영상에 포함된 상기 특정 객체의 얼굴이 비식별화되도록 할 수 있다.In addition, the insertion unit 135 may identify a specific object corresponding to the composite image in the image by interworking with at least one of the face extraction unit 132, the detection unit 133, and the synthesis unit 134. , the composite image may be inserted into the face region of the specific object extracted by the face extraction unit 132 to de-identify the face of the specific object included in the image.

즉, 상기 삽입부(135)는, 상기 합성 이미지에 대응되는 객체에서 얼굴 영역이 추출된 영역을 상기 합성 이미지의 삽입 대상 영역으로 식별하고, 상기 삽입 대상 영역에 상기 합성 이미지를 삽입할 수 있다.That is, the insertion unit 135 may identify a region from which the face region is extracted from the object corresponding to the composite image as the insertion target region of the composite image, and insert the composite image into the insertion target region.

또한, 상기 제어부(130)는, 상기 영상에서 식별된 사람에 해당되는 하나 이상의 객체별로, 상술한 바와 같이 객체에서 얼굴 영역을 추출하여 원본 이미지를 생성한 후 상기 원본 이미지에 대응되는 속성 정보를 생성한 다음, 상기 속성 정보를 기초로 상기 저장부(120)에서 선택한 얼굴 모델을 상기 원본 이미지의 자세를 고려하여 상기 원본 이미지와 합성하여 합성 이미지를 생성한 후 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 삽입할 수 있다.In addition, the controller 130 generates an original image by extracting a face region from the object as described above for one or more objects corresponding to the person identified in the image, and then generates attribute information corresponding to the original image. Then, the face model selected in the storage unit 120 based on the attribute information is synthesized with the original image in consideration of the posture of the original image to generate a composite image, and then the face region of the object corresponding to the composite image. can be inserted into

한편, 상술한 구성에서, 상기 영상은 복수의 프레임(frame)으로 구성될 수 있다.Meanwhile, in the above configuration, the image may be composed of a plurality of frames.

이에 따라, 상기 제어부(130)는, 상기 복수의 프레임 각각에 대해 상술한 바와 같이 프레임에서 사람에 해당되는 객체마다 얼굴 추출부(132)를 통해 원본 이미지를 생성한 후 상기 원본 이미지와 상기 속성 정보를 기초로 선택된 얼굴 모델을 상기 원본 이미지의 자세를 고려한 상태에서 합성하여 합성 이미지를 생성한 다음 상기 합성 이미지를 객체의 얼굴 영역에 삽입하여 상기 프레임에 포함된 객체마다 얼굴을 비식별화 처리할 수 있다.Accordingly, the controller 130 generates an original image through the face extractor 132 for each object corresponding to a person in the frame as described above for each of the plurality of frames, and then generates the original image and the attribute information. A face model selected on the basis of is synthesized in a state of considering the posture of the original image to generate a composite image, and then the composite image is inserted into the face region of the object to de-identify the face for each object included in the frame. have.

이때, 상기 제어부(130)의 얼굴 추출부(132)는, 상기 프레임에서 식별된 객체별로 다른 객체와 구분하기 위한 고유 식별자를 부여하고 상기 고유 식별자가 포함된 객체 정보를 생성하여 상기 저장부(120)에 포함된 객체 DB에 저장할 수 있으며, 상기 객체 정보에 대응되는 프레임별 원본 이미지 및 속성 정보를 상기 객체 정보와 매칭하여 상기 객체 DB에 저장할 수 있다.At this time, the face extraction unit 132 of the control unit 130 gives each object identified in the frame a unique identifier for distinguishing it from other objects, generates object information including the unique identifier, and generates the object information in the storage unit 120 . ) may be stored in the object DB, and original image and attribute information for each frame corresponding to the object information may be matched with the object information and stored in the object DB.

한편, 상기 영상이 복수의 프레임으로 구성된 경우, 상기 제어부(130)는, 상기 영상을 구성하는 복수의 프레임 각각에서 상호 동일한 특정 객체를 식별하고, 상기 복수의 프레임별로 상기 특정 객체에 대응되는 원본 이미지를 생성하며, 상기 복수의 프레임 중 어느 하나의 프레임을 기초로 상기 특정 객체에 대응되도록 선택된 특정 얼굴 모델을 기준 모델로 설정하고, 상기 복수의 프레임별로 상기 특정 객체 및 프레임에 대응되는 원본 이미지를 상기 기준 모델과 합성하여 합성 이미지를 상기 특정 객체 및 프레임에 대응되도록 생성하며, 상기 복수의 프레임별로 프레임에 대응되는 합성 이미지를 상기 특정 객체의 얼굴 영역에 삽입함으로써, 서로 다른 프레임에서 동일 객체가 동일한 얼굴로 나타나도록 특정 객체의 얼굴을 비식별화 처리할 수 있다.On the other hand, when the image is composed of a plurality of frames, the controller 130 identifies the mutually identical specific object in each of a plurality of frames constituting the image, and an original image corresponding to the specific object for each of the plurality of frames. generating a specific face model selected to correspond to the specific object based on any one frame among the plurality of frames as a reference model, and setting an original image corresponding to the specific object and frame for each of the plurality of frames. By synthesizing a reference model to generate a composite image to correspond to the specific object and frame, and inserting the composite image corresponding to the frame for each frame into the face region of the specific object, the same object in different frames has the same face It is possible to de-identify the face of a specific object so that it appears as .

이에 대한 일례로, 상기 얼굴 추출부(132)는, 상기 영상을 구성하는 복수의 프레임 각각에서 상호 동일한 특정 객체를 식별하고, 상기 복수의 프레임별로 상기 특정 객체에 대응되는 원본 이미지를 생성할 수 있다.As an example, the face extractor 132 may identify a mutually identical specific object in each of a plurality of frames constituting the image, and generate an original image corresponding to the specific object for each of the plurality of frames. .

이를 위해, 상기 얼굴 추출부(132)는, 영상에서 식별된 특정 객체에 대하여 객체 추적 알고리즘을 이용하여 추적할 수 있으며, 일례로 칼만 필터(Kalman filter)를 이용하여 영상을 구성하는 복수의 프레임마다 상기 특정 객체와 동일한 동일 객체에 대한 지속적인 추적을 수행할 수 있다.To this end, the face extractor 132 may track a specific object identified in the image using an object tracking algorithm, for example, for each of a plurality of frames constituting the image using a Kalman filter. Continuous tracking of the same object as the specific object may be performed.

또한, 상기 합성부(134)는, 상기 특정 객체의 속성 정보를 기초로 선택된 얼굴 모델로부터 모델 식별 정보를 추출하여 상기 객체 DB의 상기 특정 객체에 대응되는 객체 정보와 매칭하여 저장할 수 있다.Also, the synthesizing unit 134 may extract model identification information from a face model selected based on the attribute information of the specific object, match it with object information corresponding to the specific object in the object DB, and store it.

이에 따라, 상기 합성부(134)는, 상기 얼굴 추출부(132)와 연동하여 상기 복수의 프레임 각각에서 상호 동일한 동일 객체를 식별할 수 있으며, 복수의 프레임 각각에서 상기 특정 객체와 동일한 동일 객체에 대해 상기 합성 이미지 생성시 상기 객체 DB에 상기 특정 객체의 객체 정보와 매칭되어 저장된 모델 식별 정보에 대응되는 얼굴 모델만을 이용하여 합성 이미지를 생성할 수 있다.Accordingly, the synthesizing unit 134 may identify the same object in each of the plurality of frames by interworking with the face extractor 132, and in each of the plurality of frames, the same object as the specific object In the case of generating the composite image, the composite image may be generated using only the face model corresponding to the model identification information stored in the object DB by matching with the object information of the specific object.

또한, 상기 삽입부(135)는, 상기 얼굴 추출부(132) 및 합성부(134)와 연동하여 상기 합성 이미지에 대응되는 프레임에서 상기 특정 객체와 동일한 동일 객체를 식별하고, 상기 식별된 동일 객체의 얼굴 영역에 상기 합성 이미지를 삽입할 수 있으며, 상기 복수의 프레임별로 상기 특정 객체에 대해 생성한 상기 합성 이미지를 상기 특정 객체의 얼굴 영역에 삽입할 수 있다.In addition, the insertion unit 135 identifies the same object as the specific object in the frame corresponding to the composite image in cooperation with the face extraction unit 132 and the synthesis unit 134 , and the identified identical object The composite image may be inserted into the face region of , and the composite image generated for the specific object for each of the plurality of frames may be inserted into the face region of the specific object.

또한, 상기 삽입부(135)는, 상기 영상 또는 영상을 구성하는 하나 이상의 프레임 각각에 대해 상술한 바와 같이 영상 또는 하나 이상의 프레임에 포함된 모든 객체에 대한 비식별화 처리가 완료되면, 비식별화 처리가 완료된 하나 이상의 객체를 포함하는 영상 또는 비식별화 처리가 완료된 하나 이상의 프레임을 기초로 비식별화 처리 영상을 생성할 수 있으며, 상기 비식별화 처리 영상을 상기 영상 DB에 저장할 수 있다.In addition, when the de-identification process for all objects included in the image or one or more frames is completed, the insertion unit 135 performs de-identification of the image or each of the one or more frames constituting the image as described above. A de-identification-processed image may be generated based on an image including one or more processed objects or one or more frames on which de-identification processing has been completed, and the de-identified processed image may be stored in the image DB.

또한, 상기 삽입부(135)는, 상기 비식별화 처리 영상을 상기 통신부(110)를 통해 상기 외부 장치로 전송할 수 있으며, 상기 비식별화 처리 영상이 영화, 드라마와 같은 각종 미디어 컨텐츠의 배경으로 사용될 수 있도록 배포할 수 있다.In addition, the inserting unit 135 may transmit the de-identified processed image to the external device through the communication unit 110, and the de-identified processed image is used as a background of various media contents such as movies and dramas. It can be distributed for use.

즉, 상기 제어부(130)는, 복수의 프레임 각각에 포함된 모든 동일 객체에 대해 특정 얼굴 모델만이 합성 이미지의 생성에 사용되도록 하여 동일 객체의 얼굴에 대한 동일성 및 일관성을 유지할 수 있으며, 이를 통해 복수의 프레임 상호 간 동일 객체에 대해 서로 다른 얼굴 모델을 사용하여 동일 객체의 얼굴이 지속적으로 변경되는 것을 방지함으로써, 이질감 없는 자연스러운 객체가 포함된 영상을 생성할 수 있다.That is, the controller 130 can maintain the sameness and consistency with respect to the face of the same object by allowing only a specific face model to be used to generate a composite image for all the same objects included in each of the plurality of frames. By preventing the face of the same object from continuously changing by using different face models for the same object between a plurality of frames, an image including a natural object without a sense of heterogeneity can be generated.

상술한 바와 같이, 본 발명은 영상에서 사람에 해당하는 객체로부터 추출한 얼굴 영역에 대응되는 원본 이미지를 미리 설정된 얼굴 모델과 합성하여 합성 이미지를 생성한 후 해당 합성 이미지를 객체의 얼굴 영역에 삽입하여 상기 객체에 대응되는 사람의 실제 얼굴과 다른 얼굴로 객체의 얼굴을 변경함으로써 상기 객체에 대응되는 실제 인물의 얼굴을 영상에서 식별할 수 없도록 비식별화 처리할 수 있으며, 이를 통해 초상권 침해에 대한 염려 없이 개인 정보가 보호된 영상을 제공할 수 있을 뿐만 아니라 모자이크나 블라인드와 같은 기존의 비식별화 처리 방식에 비해 자연스러운 인물이 포함된 영상을 제공할 수 있어 영상의 사실감을 높여 영상을 이용하거나 배포하는 사용자의 만족도를 크게 높일 수 있다.As described above, in the present invention, a composite image is generated by synthesizing an original image corresponding to a face region extracted from an object corresponding to a person in an image with a preset face model, and then inserting the synthesized image into the face region of the object. By changing the face of the object to a face different from the real face of the person corresponding to the object, de-identification processing can be performed so that the face of the real person corresponding to the object cannot be identified in the image, and through this, without worrying about infringement of portrait rights Users who use or distribute the video by increasing the realism of the video by providing not only privacy-protected video, but also natural person compared to existing de-identification processing methods such as mosaic or blinds. can significantly increase satisfaction.

또한, 본 발명은 영상에서 사람에 해당하는 객체로부터 식별된 객체에 대응되는 사람의 나이, 성별, 국적, 피부색, 인종 등과 같은 속성과 유사하거나 동일한 속성을 가진 얼굴 모델을 이용하여 해당 객체의 얼굴을 다른 얼굴로 대체(변경)함으로써, 영상에 나타난 사람들의 얼굴이 이질감 없이 표시되도록 지원할 수 있으므로, 영상에 나타난 개개인의 비식별화 처리를 통해 생성된 영상의 품질을 보장할 수 있다.In addition, the present invention uses a face model having properties similar to or identical to those of the person corresponding to the object identified from the object corresponding to the person in the image, such as age, gender, nationality, skin color, race, etc. By substituting (changing) other faces, it is possible to support the faces of people appearing in the image to be displayed without a sense of heterogeneity, thereby ensuring the quality of the image generated through de-identification processing of individuals appearing in the image.

더하여, 본 발명은 영상에 나타난 개개인의 얼굴이 비식별화 처리된 영상을 제공하여 해당 영상이 다양한 미디어 컨텐츠의 배경으로 사용될 수 있도록 지원할 수 있으며, 이를 통해 개인 정보에 대한 침해 우려가 없는 영상을 다양한 용도에 사용될 수 있도록 지원할 수 있다.In addition, the present invention can support the image to be used as the background of various media contents by providing an image in which the face of an individual appearing in the image is de-identified, and through this, it is possible to display various images that do not infringe on personal information. We can support you to use it for your intended purpose.

한편, 영상에 나타난 사람에 해당하는 객체의 특징이 다른 객체에 비해 과하거나(강하거나) 마스크나 안경 또는 액세서리(accessory)와 같은 다양한 착용물에 의해 객체의 얼굴이 가려진 경우 이를 얼굴 모델과 합성하면 왜곡이 심한 합성 이미지가 생성될 수 있으며, 이를 그대로 영상에 나타난 객체의 얼굴에 삽입하면 영상의 이질감이 높아지므로 이를 방지하기 위한 구성이 필요한데, 이를 위한 서비스 제공 장치(100)의 동작 구성을 상세히 설명한다.On the other hand, if the characteristics of the object corresponding to the person appearing in the image are excessive (strong) compared to other objects, or if the object's face is covered by various wears such as masks, glasses, or accessories, it is synthesized with the face model. A highly distorted composite image can be generated, and when it is inserted into the face of an object appearing in the image as it is, the sense of heterogeneity of the image increases, so a configuration is required to prevent this. do.

우선, 도 6에 도시된 바와 같이, 상기 검출부(133)는 상기 원본 이미지를 분석하여 상기 원본 이미지에 포함된 얼굴에서 신체 일부가 검출되지 않는 경우 오류 정보를 생성한 후 상기 원본 이미지에 대응되는 속성 정보 및 원본 이미지와 함께 상기 합성부(134)에 제공할 수 있다.First, as shown in FIG. 6 , the detection unit 133 analyzes the original image and generates error information when a body part is not detected in the face included in the original image, and then attributes corresponding to the original image. It may be provided to the synthesizing unit 134 together with the information and the original image.

또한, 상기 합성부(134)는, 상기 검출부(133)와 연동하여 상기 오류 정보에 대응되는 원본 이미지를 미리 설정된 GAN(Generative Adversarial Network) 모델에 적용하여 상기 원본 이미지에서 상기 검출되지 않는 신체 일부에 대응되는 영역을 보간(補間)한 가상 이미지를 생성할 수 있다.In addition, the synthesizing unit 134, in conjunction with the detection unit 133, applies the original image corresponding to the error information to a preset GAN (Generative Adversarial Network) model to the body part that is not detected in the original image. A virtual image obtained by interpolating the corresponding region may be generated.

일례로, 상기 검출부(133)는, 원본 이미지에 나타난 얼굴에서 코와 입이 얼굴에 착용되는 물품인 마스크에 의해 가려진 경우 오류 정보를 생성할 수 있으며, 이 경우에도 상기 원본 이미지를 상기 학습 모델에 적용하여 상기 속성 정보를 생성할 수 있다.For example, the detection unit 133 may generate error information when the nose and mouth are covered by a mask, which is an article to be worn on the face, in the face shown in the original image, and even in this case, the original image is applied to the learning model. can be applied to generate the attribute information.

또한, 다수의 얼굴 이미지를 학습하여 가상의 얼굴 이미지를 생성하는 생성자(Generator)와 다수의 얼굴 이미지를 학습하여 상기 생성자가 생성하는 가상 이미지에 대한 정상 여부를 판정하여 판정 결과를 상기 생성자에게 제공함으로써 상기 생성자가 자연스러운 얼굴 이미지를 생성하도록 학습시키는 판별자(Discriminator)를 포함하며, 상기 생성자와 판별자가 상호 경쟁하도록 구성된 GAN 모델이 상기 합성부(134)에 미리 설정될 수 있다.In addition, a generator that generates a virtual face image by learning a plurality of face images, and a generator that learns a plurality of face images to determine whether the virtual image generated by the generator is normal, and provides the determination result to the generator A discriminator that trains the generator to generate a natural face image, and a GAN model configured to compete with the generator and the discriminator may be preset in the synthesizing unit 134 .

이에 따라, 상기 합성부(134)는, 상기 검출부(133)와 연동하여 상기 오류 정보에 대응되는 원본 이미지를 상기 GAN 모델에 입력으로 적용하고, 상기 판별자에 의해 정상인 가상 이미지만을 생성하도록 학습된 상기 GAN 모델의 생성자를 통해 상기 원본 이미지에 나타난 얼굴에서 가려진 신체 부위에 대응되는 영역을 보간한 가상 이미지를 출력으로서 생성(산출)할 수 있다.Accordingly, the synthesis unit 134, in conjunction with the detection unit 133, applies the original image corresponding to the error information as an input to the GAN model, and is trained to generate only a normal virtual image by the discriminator. Through the generator of the GAN model, a virtual image obtained by interpolating a region corresponding to a body part hidden from the face displayed in the original image may be generated (calculated) as an output.

이때, 상기 합성부(134)는, 상기 원본 이미지에 대응되는 속성 정보와 상기 원본 이미지를 함께 상기 GAN 모델에 적용하여 상기 GAN 모델을 통해 상기 속성 정보에 따라 상기 원본 이미지에서 가려진 신체 부위를 보간한 가상 가상 이미지를 생성할 수도 있다.At this time, the synthesizing unit 134 applies the attribute information corresponding to the original image and the original image together to the GAN model, and interpolates the body parts hidden in the original image according to the attribute information through the GAN model. You can also create virtual virtual images.

즉, 상기 합성부(134)는, 상기 속성 정보를 상기 신체 일부가 가려진 원본 이미지와 함께 GAN 모델의 생성자에 적용함으로써, 상기 GAN 모델에서 상기 속성 정보에 따른 나이(또는 나이대), 성별, 국적, 피부색, 인종 중 적어도 하나를 고려하여 상기 원본 이미지에서 가려진 신체 일부를 보간하여 가상 이미지를 생성하도록 할 수 있으며, 이를 통해 원본 이미지에서 가려지지 않은 신체 부위와 동일한 속성을 가지도록 상기 가려진 신체 부위에 대한 보간 이미지를 생성한 후 상기 보간 이미지로 보간된 원본 이미지인 가상 이미지를 생성하여 상기 보간된 영역이 상기 원본 이미지의 나머지 영역과 연속성을 가지도록 상기 가상 이미지를 생성함으로써, 자연스러운 얼굴이 포함된 가상 이미지를 획득할 수 있다.That is, the synthesizing unit 134 applies the attribute information to the generator of the GAN model together with the original image in which the body part is covered, so that age (or age range), gender, nationality, In consideration of at least one of skin color and race, a virtual image may be generated by interpolating a body part covered in the original image. After generating an interpolated image, a virtual image that is an interpolated original image is generated with the interpolated image, and the virtual image is generated so that the interpolated region has continuity with the remaining regions of the original image. can be obtained.

이때, 본 발명에서 설명하는 보간은, 영상에서 상기 검출부(133)에 의해 검출되지 않는 하나 이상의 신체 부위와 각각 대응되는 영상에 포함된 하나 이상의 보간 대상 영역별로 보간 대상 영역에 대해 예측되는 가상의 신체 부위에 대한 이미지를 생성하여 해당 보간 대상 영역에 삽입하는 것을 의미할 수 있다.At this time, in the interpolation described in the present invention, one or more body parts that are not detected by the detector 133 in the image and one or more interpolation target regions included in the image corresponding respectively to the virtual body predicted for the interpolation target region This may mean generating an image of a region and inserting it into a corresponding interpolation target region.

또한, 상기 합성부(134)는, 상기 오류 정보에 대응되는 원본 이미지에 대해 상기 GAN 모델을 통해 생성된 가상 이미지를 상기 원본 이미지 대신 상기 원본 이미지의 속성 정보를 기초로 선택된 얼굴 모델과 합성하여 상기 합성 이미지를 생성할 수 있으며, 상기 합성 이미지를 상기 원본 이미지에 대응되는 영상 또는 프레임에 포함된 특정 객체의 얼굴 영역에 삽입할 수 있다.In addition, the synthesizing unit 134 is configured to synthesize a virtual image generated through the GAN model with respect to the original image corresponding to the error information with a face model selected based on attribute information of the original image instead of the original image. A composite image may be generated, and the composite image may be inserted into a face region of a specific object included in an image or frame corresponding to the original image.

또한, 상기 검출부(133)는, 상기 원본 이미지를 분석하여 얼굴 특징과 관련되어 미리 설정된 하나 이상의 이벤트 조건 중 어느 하나를 만족하는지 판단할 수 있으며, 상기 원본 이미지가 만족하는 이벤트 조건에 대응되는 이벤트 정보를 생성할 수 있다.In addition, the detection unit 133 may analyze the original image to determine whether any one of one or more preset event conditions related to facial features is satisfied, and event information corresponding to the event condition satisfied by the original image can create

일례로, 상기 하나 이상의 이벤트 조건은, 상기 원본 이미지에 나타난 얼굴이 대머리이거나 수염이 존재하는 것과 같은 다양한 이벤트 조건을 포함할 수 있다.For example, the one or more event conditions may include various event conditions such as a bald face or a beard present in the original image.

또한, 상기 검출부(133)는, 상기 원본 이미지가 만족하는 이벤트 조건에 대응되는 이벤트 종류를 포함하는 이벤트 정보를 생성하여 상기 합성부(134)에 제공할 수 있으며, 상기 원본 이미지가 만족하는 이벤트 조건이 복수인 경우 복수의 이벤트 조건과 각각 대응되는 복수의 이벤트 정보를 상기 원본 이미지에 대응되도록 생성한 후 상기 원본 이미지 및 상기 원본 이미지에 대응되는 속성 정보와 함께 상기 합성부(134)에 제공할 수 있다.In addition, the detection unit 133 may generate event information including an event type corresponding to an event condition satisfied by the original image and provide it to the synthesis unit 134 , and the event condition satisfied by the original image In this case, a plurality of event information corresponding to a plurality of event conditions may be generated to correspond to the original image, and then provided to the synthesizing unit 134 together with the original image and attribute information corresponding to the original image. have.

이에 따라, 상기 합성부(134)는, 상기 검출부(133)로부터 특정 원본 이미지와 함께 제공되는 하나 이상의 이벤트 정보를 기초로 상기 특정 원본 이미지에 대응되는 하나 이상의 이벤트 종류를 식별할 수 있다.Accordingly, the synthesizing unit 134 may identify one or more event types corresponding to the specific original image based on one or more event information provided together with the specific original image from the detection unit 133 .

또한, 상기 합성부(134)에는 상기 하나 이상의 이벤트 종류별로 상기 합성부(134)가 수행해야 하는 이벤트 처리 함수가 설정될 수 있다.In addition, an event processing function to be performed by the synthesizing unit 134 for each of the one or more event types may be set in the synthesizing unit 134 .

또한, 상기 서비스 제공 장치(100)의 저장부(120)에는 미리 설정된 하나 이상의 이벤트 종류별로 상기 원본 이미지에 부가되는 부가 아이템이 저장된 특징 DB를 포함할 수 있다.In addition, the storage unit 120 of the service providing apparatus 100 may include a feature DB in which additional items added to the original image are stored for each of one or more preset event types.

이에 따라, 상기 합성부(134)는, 상기 검출부(133)로부터 제공되는 이벤트 정보에 따른 이벤트 종류에 대응되는 이벤트 처리 함수에 따라 상기 원본 이미지에서 상기 이벤트 정보에 따른 이벤트 조건을 만족하는 이벤트 영역을 제거한 후 상기 원본 이미지에 대응되는 얼굴 모델과 합성하거나 상기 이벤트 영역에 상기 이벤트 정보에 따른 이벤트 종류에 대응되는 부가 아이템을 상기 특징 DB로부터 추출하여 상기 추출된 부가 아이템에 대응되는 상기 원본 이미지의 이벤트 영역에 합성한 후 상기 원본 이미지에 대응되는 얼굴 모델과 합성하여 이벤트 처리를 수행할 수 있다.Accordingly, the synthesizing unit 134 generates an event region satisfying the event condition according to the event information in the original image according to an event processing function corresponding to the event type according to the event information provided from the detection unit 133 . After removal, an additional item corresponding to an event type according to the event information is extracted from the feature DB by synthesizing with a face model corresponding to the original image, or an event area of the original image corresponding to the extracted additional item in the event area After synthesizing with the face model corresponding to the original image, event processing may be performed.

일례로, 상기 합성부(134)는, 원본 이미지에 나타난 얼굴이 대머리인 경우 상기 대머리에 대응되는 이벤트 종류를 기초로 식별된 이벤트 처리 함수에 따라 상기 머리카락과 관련된 부가 아이템을 상기 특징 DB로부터 추출한 후 상기 원본 이미지에서 식별한 상기 이벤트 영역인 머리카락 영역에 적용한 다음 상기 얼굴 모델과 합성하여 상기 합성 이미지를 생성할 수 있다.For example, when the face shown in the original image is bald, the synthesizing unit 134 extracts the additional item related to the hair from the feature DB according to an event processing function identified based on the event type corresponding to the baldness. The composite image may be generated by applying it to the hair region, which is the event region identified in the original image, and then synthesizing it with the face model.

또는, 상기 합성부(134)는, 상기 원본 이미지에 나타난 얼굴에 수염이 존재하면 상기 수염에 대응되는 이벤트 종류를 기초로 식별된 이벤트 처리 함수에 따라 상기 원본 이미지에서 수염이 포함된 이벤트 영역을 제거한 후 상기 얼굴 모델과 합성하여 상기 합성 이미지를 생성할 수 있다.Alternatively, the synthesizing unit 134 may remove an event region including a beard from the original image according to an event processing function identified based on an event type corresponding to the beard when a beard is present on the face shown in the original image. Then, the composite image may be generated by synthesizing it with the face model.

또한, 상기 삽입부(135)는 상기 이벤트 처리된 합성 이미지를 영상 또는 프레임에서 상기 합성 이미지에 대응되는 특정 객체의 얼굴 영역에 삽입할 수 있다.Also, the insertion unit 135 may insert the event-processed composite image into a face region of a specific object corresponding to the composite image in an image or frame.

상술한 구성을 통해, 상기 서비스 제공 장치(100)는, 이벤트 조건을 만족하는 특징이 강한 얼굴이 포함된 원본 이미지에서 이러한 특징을 완화하거나 제거하여 해당 특징이 가려지도록 비식별화 처리함으로써, 용이하게 개인 정보를 보호할 수 있도록 지원할 수 있다.Through the above-described configuration, the service providing apparatus 100 eases or removes these features from the original image including the face with strong features that satisfy the event condition, and de-identifies the features so that the features are covered, so that the features are easily We can help you protect your personal information.

도 7은 본 발명의 실시예에 따른 서비스 제공 장치(100)의 영상에 포함된 객체의 비식별화를 위한 서비스 제공 방법에 대한 순서도이다.7 is a flowchart of a service providing method for de-identification of an object included in an image of the service providing apparatus 100 according to an embodiment of the present invention.

도시된 바와 같이, 서비스 제공 장치(100)는, 외부 장치로부터 영상을 수신할 수 있다(S1).As shown, the service providing apparatus 100 may receive an image from an external device (S1).

또한, 서비스 제공 장치(100)는, 상기 영상에서 사람에 해당하는 하나 이상의 객체를 식별하고(S2), 상기 하나 이상의 객체 각각에서 얼굴 영역을 추출하여 원본 이미지를 생성할 수 있다(S3).Also, the service providing apparatus 100 may identify one or more objects corresponding to a person in the image (S2), and extract a face region from each of the one or more objects to generate an original image (S3).

또한, 서비스 제공 장치(100)는, 상기 하나 이상의 객체별로 생성된 상기 원본 이미지를 미리 설정된 얼굴 모델과 합성하여 합성 이미지를 상기 객체별로 생성할 수 있다(S4).Also, the service providing apparatus 100 may generate a composite image for each object by synthesizing the original image generated for each one or more objects with a preset face model (S4).

또한, 서비스 제공 장치(100)는, 상기 하나 이상의 객체와 각각 대응되도록 생성된 하나 이상의 상기 합성 이미지 각각에 대해 상기 영상에서 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 삽입할 수 있다(S5).Also, the service providing apparatus 100 may insert each of the one or more composite images generated to correspond to the one or more objects in the face region of the object corresponding to the composite image in the image (S5).

본 발명의 실시예들에서 설명된 구성요소는, 예를 들어, 메모리 등의 저장부(120), 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(programmable logic unit), 마이크로프로세서 등의 하드웨어, 명령어 세트를 포함하는 소프트웨어 내지 이들의 조합 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.The components described in the embodiments of the present invention include, for example, a storage unit 120 such as a memory, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and an FPGA. (Field Programmable Gate Array), hardware such as a programmable logic unit (PLU), a microprocessor, software including an instruction set, or any combination thereof or any other device capable of executing and responding to instructions, one or more It may be implemented using a general purpose computer or a special purpose computer.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those of ordinary skill in the art to which the present invention pertains may modify and modify the above-described contents without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100: 서비스 제공 장치 110: 통신부
120: 저장부 130: 제어부
131: 영상 수신부 132: 얼굴 추출부
133: 검출부 134: 합성부
135: 삽입부
100: service providing device 110: communication unit
120: storage unit 130: control unit
131: image receiving unit 132: face extracting unit
133: detection unit 134: synthesis unit
135: insert

Claims (10)

영상을 수신하는 영상 수신부;
상기 영상에서 사람에 해당하는 하나 이상의 객체를 식별하고, 상기 하나 이상의 객체 각각에서 얼굴 영역을 추출하여 원본 이미지를 생성하는 얼굴 추출부;
상기 영상을 통해 구분 가능한 하나 이상의 속성 중 상기 원본 이미지에 대응되는 상기 하나 이상의 속성별 속성값을 포함하는 속성 정보를 산출하는 검출부;
상기 원본 이미지에 대응되는 상기 속성 정보를 미리 설정된 복수의 카테고리별 카테고리 정보와 비교하여 상기 속성 정보에 대응되는 특정 카테고리에 대응되도록 미리 설정된 얼굴 모델을 선택한 후 상기 선택된 얼굴 모델을 상기 원본 이미지와 합성하여 합성 이미지를 생성하는 방식으로 상기 하나 이상의 객체와 각각 대응되는 하나 이상의 상기 원본 이미지 각각에 대해 상기 합성 이미지를 생성하는 합성부; 및
상기 하나 이상의 객체와 각각 대응되도록 생성된 하나 이상의 상기 합성 이미지 각각에 대해 상기 영상에서 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 상기 합성 이미지를 삽입하는 삽입부
를 포함하며,
상기 검출부는, 상기 원본 이미지를 분석하여 얼굴 특징과 관련되어 미리 설정된 하나 이상의 이벤트 조건 중 어느 하나를 만족하는지 판단하여 특정 이벤트 조건 만족시 상기 원본 이미지가 만족하는 특정 이벤트 조건에 대응되는 이벤트 정보를 생성한 후 상기 원본 이미지와 함께 상기 합성부에 제공하고,
상기 합성부는, 상기 원본 이미지와 함께 제공되는 상기 이벤트 정보를 기초로 상기 원본 이미지에 대응되는 특정 이벤트 종류를 식별하고, 상기 특정 이벤트 종류에 대응되도록 미리 설정된 이벤트 처리 함수에 따라 상기 원본 이미지에서 상기 특정 이벤트 조건을 만족하는 이벤트 영역을 제거한 후 상기 선택된 얼굴 모델과 합성하여 상기 합성 이미지를 생성하거나 상기 특정 이벤트 종류에 대응되는 미리 저장된 부가 아이템을 추출한 후 상기 부가 아이템에 대응되는 원본 이미지의 이벤트 영역에 합성한 다음 상기 원본 이미지에 대응되는 상기 선택된 얼굴 모델과 합성하여 상기 합성 이미지를 생성하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
an image receiving unit for receiving an image;
a face extractor for identifying one or more objects corresponding to a person in the image, and extracting a face region from each of the one or more objects to generate an original image;
a detector for calculating attribute information including attribute values for each of the one or more attributes corresponding to the original image among one or more attributes distinguishable through the image;
Comparing the attribute information corresponding to the original image with category information for a plurality of preset categories, selecting a preset face model to correspond to a specific category corresponding to the attribute information, and synthesizing the selected face model with the original image a synthesis unit generating the composite image for each of the one or more original images respectively corresponding to the one or more objects in a manner of generating a composite image; and
Insertion unit for inserting the composite image into a face region of an object corresponding to the composite image in the image for each of the one or more composite images generated to correspond to the one or more objects, respectively
includes,
The detector analyzes the original image to determine whether any one of one or more preset event conditions related to facial features is satisfied, and generates event information corresponding to a specific event condition satisfied by the original image when the specific event condition is satisfied and then provided to the synthesizing unit together with the original image,
The synthesizing unit identifies a specific event type corresponding to the original image based on the event information provided together with the original image, and selects the specific event type from the original image according to an event processing function preset to correspond to the specific event type. After removing the event area that satisfies the event condition, the composite image is generated by synthesizing with the selected face model, or a pre-stored additional item corresponding to the specific event type is extracted and then synthesized in the event area of the original image corresponding to the additional item and then synthesized with the selected face model corresponding to the original image to generate the synthesized image.
삭제delete 청구항 1에 있어서,
상기 하나 이상의 속성은, 나이, 성별, 국적, 피부색, 인종 중 적어도 하나를 포함하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
The method according to claim 1,
The one or more attributes include at least one of age, gender, nationality, skin color, and race.
청구항 1에 있어서,
상기 검출부는 상기 하나 이상의 속성과 얼굴에 대한 이미지 사이의 상관 관계가 학습된 학습 모델에 상기 얼굴 추출부를 통해 생성된 상기 원본 이미지를 적용하여 상기 학습 모델을 통해 상기 원본 이미지에 대응되는 상기 속성 정보를 생성하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
The method according to claim 1,
The detection unit applies the original image generated through the face extraction unit to a learning model in which the correlation between the one or more attributes and the image for the face is learned, and the attribute information corresponding to the original image through the learning model A service providing apparatus for de-identification of an object included in an image, characterized in that it is generated.
청구항 1에 있어서,
상기 검출부는, 얼굴의 신체 일부가 검출되지 않는 원본 이미지를 식별하며,
상기 합성부는, 상기 검출부와 연동하여 얼굴의 신체 일부가 검출되지 않는 원본 이미지를 미리 설정된 GAN 모델에 적용하여 상기 원본 이미지에서 상기 검출되지 않는 신체 일부에 대한 영역을 보간한 가상 이미지를 생성하고, 상기 가상 이미지를 상기 얼굴 모델과 합성하여 합성 이미지를 생성하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
The method according to claim 1,
The detection unit identifies an original image in which a body part of the face is not detected,
The synthesizing unit generates a virtual image obtained by interpolating an area for the undetected body part from the original image by applying an original image in which a body part of the face is not detected in the original image by interworking with the detection unit to a preset GAN model, A service providing apparatus for de-identification of an object included in an image, characterized in that a virtual image is synthesized with the face model to generate a composite image.
청구항 1에 있어서,
상기 복수의 카테고리별 카테고리 정보와 상기 복수의 카테고리와 각각 매칭되는 복수의 얼굴 모델이 저장된 저장부를 더 포함하고,
상기 카테고리 정보는 상기 하나 이상의 속성별 설정값이 미리 설정되고,
상기 복수의 카테고리별 카테고리 정보 상호 간 상기 하나 이상의 속성별 설정값 중 적어도 하나가 상이하게 미리 설정되며,
상기 합성부는, 특정 객체에 대해 생성된 속성 정보에 대응되는 특정 카테고리에 매칭된 복수의 얼굴 모델 중 어느 하나를 랜덤 선택하여 상기 원본 이미지와 합성하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
The method according to claim 1,
and a storage unit storing category information for each of the plurality of categories and a plurality of face models each matching the plurality of categories;
In the category information, set values for each of the one or more attributes are preset,
At least one of the set values for each of the one or more attributes is set differently in advance among the plurality of category information for each category,
wherein the synthesizing unit randomly selects any one of a plurality of face models matched to a specific category corresponding to attribute information generated for a specific object and synthesizes it with the original image. service providing device for
청구항 6에 있어서,
상기 얼굴 추출부는, 상기 영상을 구성하는 복수의 프레임 각각에서 상호 동일한 특정 객체를 식별하고, 상기 복수의 프레임별로 상기 특정 객체에 대응되는 원본 이미지를 생성하며,
상기 합성부는, 상기 얼굴 추출부와 연동하여 상기 복수의 프레임 중 어느 하나의 프레임을 기초로 상기 특정 객체에 대응되도록 선택된 특정 얼굴 모델을 기준 모델로 설정하고, 상기 복수의 프레임별로 상기 특정 객체 및 프레임에 대응되는 원본 이미지를 상기 기준 모델과 합성하여 합성 이미지를 상기 특정 객체 및 프레임에 대응되도록 생성하며,
상기 삽입부는, 상기 합성부와 연동하여 상기 복수의 프레임별로 프레임에 대응되는 합성 이미지를 상기 특정 객체의 얼굴 영역에 삽입하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
7. The method of claim 6,
The face extractor identifies a specific object identical to each other in each of a plurality of frames constituting the image, and generates an original image corresponding to the specific object for each of the plurality of frames,
The synthesizing unit, in conjunction with the face extracting unit, sets a specific face model selected to correspond to the specific object based on any one of the plurality of frames as a reference model, and sets the specific object and frame for each of the plurality of frames. By synthesizing the original image corresponding to the reference model and generating a composite image corresponding to the specific object and frame,
The insertion unit interlocks with the synthesis unit to insert a composite image corresponding to each frame for each of the plurality of frames into the face region of the specific object.
삭제delete 청구항 1에 있어서,
상기 합성부는, 상기 원본 이미지에서 얼굴의 자세를 검출하고, 상기 자세에 대응되도록 상기 얼굴 모델의 자세를 변경한 후 상기 원본 이미지와 합성하여 상기 합성 이미지를 생성하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 장치.
The method according to claim 1,
The synthesizing unit detects a posture of the face from the original image, changes the posture of the face model to correspond to the posture, and synthesizes the face model with the original image to generate the synthesized image. A service providing device for the de-identification of
서비스 제공 장치의 영상에 포함된 객체의 비식별화를 위한 서비스 제공 방법에 있어서,
영상을 수신하는 단계;
상기 영상에서 사람에 해당하는 하나 이상의 객체를 식별하고, 상기 하나 이상의 객체 각각에서 얼굴 영역을 추출하여 원본 이미지를 생성하는 단계;
상기 영상을 통해 구분 가능한 하나 이상의 속성 중 상기 원본 이미지에 대응되는 상기 하나 이상의 속성별 속성값을 포함하는 속성 정보를 산출하는 단계;
상기 원본 이미지에 대응되는 상기 속성 정보를 미리 설정된 복수의 카테고리별 카테고리 정보와 비교하여 상기 속성 정보에 대응되는 특정 카테고리에 대응되도록 미리 설정된 얼굴 모델을 선택한 후 상기 선택된 얼굴 모델을 상기 원본 이미지와 합성하여 합성 이미지를 생성하는 방식으로 상기 하나 이상의 객체와 각각 대응되는 하나 이상의 상기 원본 이미지 각각에 대해 상기 합성 이미지를 생성하는 단계; 및
상기 하나 이상의 객체와 각각 대응되도록 생성된 하나 이상의 상기 합성 이미지 각각에 대해 상기 영상에서 상기 합성 이미지에 대응되는 객체의 얼굴 영역에 상기 합성 이미지를 삽입하는 단계
를 포함하며,
상기 속성 정보를 산출하는 단계는, 상기 원본 이미지를 분석하여 얼굴 특징과 관련되어 미리 설정된 하나 이상의 이벤트 조건 중 어느 하나를 만족하는지 판단하여 특정 이벤트 조건 만족시 상기 원본 이미지가 만족하는 특정 이벤트 조건에 대응되는 이벤트 정보를 생성한 후 상기 원본 이미지와 함께 제공하는 단계를 더 포함하고,
상기 합성 이미지를 생성하는 단계는, 상기 원본 이미지와 함께 제공되는 상기 이벤트 정보를 기초로 상기 원본 이미지에 대응되는 특정 이벤트 종류를 식별하고, 상기 특정 이벤트 종류에 대응되도록 미리 설정된 이벤트 처리 함수에 따라 상기 원본 이미지에서 상기 특정 이벤트 조건을 만족하는 이벤트 영역을 제거한 후 상기 선택된 얼굴 모델과 합성하여 상기 합성 이미지를 생성하거나 상기 특정 이벤트 종류에 대응되는 미리 저장된 부가 아이템을 추출한 후 상기 부가 아이템에 대응되는 원본 이미지의 이벤트 영역에 합성한 다음 상기 원본 이미지에 대응되는 상기 선택된 얼굴 모델과 합성하여 상기 합성 이미지를 생성하는 것을 특징으로 하는 영상에 포함된 객체의 비식별화를 위한 서비스 제공 방법.
In the service providing method for de-identification of an object included in the image of the service providing device,
receiving an image;
generating an original image by identifying one or more objects corresponding to a person in the image and extracting a face region from each of the one or more objects;
calculating attribute information including attribute values for each of the one or more attributes corresponding to the original image among one or more attributes distinguishable through the image;
Comparing the attribute information corresponding to the original image with category information for a plurality of preset categories, selecting a preset face model to correspond to a specific category corresponding to the attribute information, and synthesizing the selected face model with the original image generating the composite image for each of the one or more original images respectively corresponding to the one or more objects in a manner of generating a composite image; and
Inserting the composite image into a face region of an object corresponding to the composite image in the image for each of the one or more composite images generated to correspond to the one or more objects, respectively
includes,
The calculating of the attribute information may include analyzing the original image to determine whether any one of one or more preset event conditions related to facial features is satisfied, and corresponding to a specific event condition satisfied by the original image when a specific event condition is satisfied After generating the event information to be further comprising the step of providing it together with the original image,
The generating of the composite image may include identifying a specific event type corresponding to the original image based on the event information provided together with the original image, and according to an event processing function preset to correspond to the specific event type. After removing an event region that satisfies the specific event condition from the original image, the composite image is generated by synthesizing with the selected face model, or an original image corresponding to the additional item after extracting a pre-stored additional item corresponding to the specific event type The method for providing a service for de-identification of an object included in an image, characterized in that the composite image is generated by synthesizing it in an event area of , and then synthesizing it with the selected face model corresponding to the original image.
KR1020220004259A 2022-01-11 2022-01-11 Service providing apparatus and method for de-identification of objects included in images KR102420890B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220004259A KR102420890B1 (en) 2022-01-11 2022-01-11 Service providing apparatus and method for de-identification of objects included in images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220004259A KR102420890B1 (en) 2022-01-11 2022-01-11 Service providing apparatus and method for de-identification of objects included in images

Publications (1)

Publication Number Publication Date
KR102420890B1 true KR102420890B1 (en) 2022-07-14

Family

ID=82406894

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220004259A KR102420890B1 (en) 2022-01-11 2022-01-11 Service providing apparatus and method for de-identification of objects included in images

Country Status (1)

Country Link
KR (1) KR102420890B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048842A1 (en) * 2022-08-31 2024-03-07 주식회사 마블러스 Device and method for processing de-identification of face within identification image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130105515A (en) * 2012-03-15 2013-09-25 가부시끼가이샤 도시바 Person image processing apparatus and person image processing method
KR20200014889A (en) * 2017-06-04 2020-02-11 디-아이덴티피케이션 엘티디. System and method for image non-identification
KR20200036656A (en) * 2018-09-28 2020-04-07 한국전자통신연구원 Face image de-identification apparatus and method
KR102129031B1 (en) 2020-02-27 2020-07-02 주식회사 지란지교데이터 Method and device for de-identifying security information in video
KR20210103275A (en) * 2020-02-13 2021-08-23 한국전자통신연구원 Apparatus and method for synthesizing face model

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130105515A (en) * 2012-03-15 2013-09-25 가부시끼가이샤 도시바 Person image processing apparatus and person image processing method
KR20200014889A (en) * 2017-06-04 2020-02-11 디-아이덴티피케이션 엘티디. System and method for image non-identification
KR20200036656A (en) * 2018-09-28 2020-04-07 한국전자통신연구원 Face image de-identification apparatus and method
KR20210103275A (en) * 2020-02-13 2021-08-23 한국전자통신연구원 Apparatus and method for synthesizing face model
KR102129031B1 (en) 2020-02-27 2020-07-02 주식회사 지란지교데이터 Method and device for de-identifying security information in video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048842A1 (en) * 2022-08-31 2024-03-07 주식회사 마블러스 Device and method for processing de-identification of face within identification image

Similar Documents

Publication Publication Date Title
US9142054B2 (en) System and method for changing hair color in digital images
KR101733512B1 (en) Virtual experience system based on facial feature and method therefore
JP6128309B2 (en) Makeup support device, makeup support method, and makeup support program
CN103180873B (en) Image processing apparatus and image processing method
EP2685419B1 (en) Image processing device, image processing method, and computer-readable medium
EP2615576B1 (en) Image-processing device, image-processing method, and control program
EP2998926A1 (en) Portrait generating device and portrait generating method
JP2008234342A (en) Image processor and image processing method
US11501564B2 (en) Mediating apparatus and method, and computer-readable recording medium thereof
KR101624801B1 (en) Matting method for extracting object of foreground and apparatus for performing the matting method
KR102420890B1 (en) Service providing apparatus and method for de-identification of objects included in images
JP2008243059A (en) Image processing device and method
KR101827998B1 (en) Virtual experience system based on facial feature and method therefore
KR20220026252A (en) Mobile terminal, server and method for composing beauty style
Kumar et al. Real time detection and tracking of human face using skin color segmentation and region properties
KR20200019282A (en) Apparatus and method for creating information related to facial expression and apparatus for creating facial expression
KR102284305B1 (en) Hair style composition system and method the same
JP6128356B2 (en) Makeup support device and makeup support method
Kumar et al. Skin color segmentation for detecting human face region in image
US20190347469A1 (en) Method of improving image analysis
JP6128357B2 (en) Makeup support device and makeup support method
KR102288001B1 (en) Device for generating job image having face to which age transformation is applied and photo booth including the same
Keivanmarz et al. Vein pattern visualisation using conditional generative adversarial networks
Christian Analysis of contrast enhancement methods for infrared images
Prinosil et al. Facial image de-identification using active appearance model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant