KR20220009676A - Baby face prediction system - Google Patents

Baby face prediction system Download PDF

Info

Publication number
KR20220009676A
KR20220009676A KR1020200088197A KR20200088197A KR20220009676A KR 20220009676 A KR20220009676 A KR 20220009676A KR 1020200088197 A KR1020200088197 A KR 1020200088197A KR 20200088197 A KR20200088197 A KR 20200088197A KR 20220009676 A KR20220009676 A KR 20220009676A
Authority
KR
South Korea
Prior art keywords
face
baby
image
baby face
feature points
Prior art date
Application number
KR1020200088197A
Other languages
Korean (ko)
Inventor
백승환
Original Assignee
백승환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 백승환 filed Critical 백승환
Priority to KR1020200088197A priority Critical patent/KR20220009676A/en
Publication of KR20220009676A publication Critical patent/KR20220009676A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a baby face prediction system and, more specifically, to a baby face prediction system for finding a feature point from the faces of a baby's parent and a fetus and predicting and providing a baby face based on the found feature point. According to one aspect of the present invention, the baby face prediction system for compositing a baby face using a parent picture and an ultrasound fetus picture includes: a user terminal; a server providing a baby face compositing service; and a database storing a baby face image including a feature point. The server includes: an image receiving unit receiving a parent image and an ultrasound fetus picture from the user terminal; a parent image face detection unit detecting father and mother face areas from the received parent image; a feature point detection unit detecting a feature point from each of the father's and mother's faces from the detected parent face areas; a baby face search unit searching for the baby face image most similar to the detected feature points of the father and mother from the database storing the baby face image; and a baby face compositing unit for compositing the father's and mother's feature points with the baby face image searched from the baby face search unit.

Description

아기 얼굴 예측 시스템{BABY FACE PREDICTION SYSTEM}Baby face prediction system {BABY FACE PREDICTION SYSTEM}

본 발명은 아기 얼굴 예측 시스템에 관한 것으로 보다 구체적으로는 아기 부모의 얼굴로부터 특징점을 찾아내고, 찾아낸 특징점에 기반하여 출생할 아기의 얼굴을 예측하여 제공하는 아기 얼굴 예측 시스템에 관한 것이다.The present invention relates to a baby face prediction system, and more particularly, to a baby face prediction system that finds a feature point from a baby's parent's face and predicts and provides a face of a baby to be born based on the found feature point.

일반적으로 얼굴 영상은 개인의 특징을 가장 잘 나타낼 수 있으며, 의사소통을 쉽고 자연스럽게 만드는 매개체로 사용 되어 왔다. 또한 최근에는 디지털 카메라 또는 디지털 카메라를 구비한 휴대용 기기의 보급화로 인해, 사람의 얼굴 이미지를 촬영하여 합성하거나, 개별적으로 촬영한 여러 사람의 얼굴 이미지를 함께 촬영한 것처럼 합성하는 기술이 널리 이용되고 있다.In general, facial images can best represent individual characteristics and have been used as a medium to make communication easy and natural. In addition, in recent years, due to the spread of digital cameras or portable devices equipped with digital cameras, techniques for synthesizing face images of people by photographing and synthesizing them as if they were taken together are widely used. .

얼굴 합성과 관련된 이미지 처리 기술은 일반적으로 카메라 등으로부터 획득한 얼굴 이미지에서 가상 얼굴을 생성하는 것으로, 예로서, 단순한 컴퓨터 그래픽 기술에 의존한 이미지 모자이크(mosaic) 기법이나 이미지 와핑(warping) 기법 등이 알려져 있다.Image processing technology related to face synthesis is generally to create a virtual face from a face image obtained from a camera, etc. For example, an image mosaic technique or image warping technique that relies on simple computer graphic technology is used. is known

이미지 모자이크 기법은 전체 이미지에 두 개 또는 그 이상의 이미지를 결합하여 변형된 이미지를 얻는 기법이고, 이미지 와핑 기법은 왜곡필터(distortion filter) 등에 수학식을 적용하여 이미지를 왜곡시킴으로써 이미지의 픽셀(pixel)들이 새로운 위치 값을 갖도록 변형시키는 기법이다.The image mosaic technique is a technique to obtain a deformed image by combining two or more images in the entire image, and the image warping technique applies an equation to a distortion filter, etc. It is a technique that transforms them so that they have a new position value.

하지만, 이미지 모자이크 기법이나 이미지 워핑 기법 등을 통해 얻어진 가상 얼굴은 합성된 얼굴 부위가 전반적으로 조화롭지 못하기 때문에 이를 수정하기 위한 별도의 수작업이 필요하다.However, in the virtual face obtained through the image mosaic technique or the image warping technique, since the synthesized face parts are not in harmony overall, a separate manual operation is required to correct it.

최근 이러한 기술을 오락이나 엔터테인먼트에 활용하고자 하는 다양한 시도가 이루어지고 있음을 볼 수 있는데, 그 중 한 예로서 얼굴인식을 통해 배우자 또는 이상형의 얼굴을 찾아주는 서비스를 들 수 있다. 그러나 결혼을 앞둔 예비 커플 또는 연인들이 궁금하게 여기는 앞으로 태어날 2세의 예상 얼굴 모습을 예측해주는 서비스 역시 단순히 부모의 얼굴을 합성하여 사용자에게 제공하고 있기 때문에 자연스러운 아기 얼굴이 제공되지 않는 문제점이 있다. Recently, it can be seen that various attempts are being made to utilize these technologies for entertainment or entertainment. One example of this is a service that finds the face of a spouse or ideal type through face recognition. However, there is a problem in that a natural baby face is not provided because the service that predicts the expected face shape of a two-year-old who will be born is also provided to the user by simply synthesizing the parents' faces.

대한민국 특허 제2063294호(2019.12.31)Korean Patent No. 2063294 (2019.12.31) 대한민국공개특허 제10-2002-0007735호(2002.01.29)Republic of Korea Patent Publication No. 10-2002-0007735 (Jan. 29, 2002)

본 발명은 전술한 문제점에 기반하여 안출된 발명으로, 부모의 얼굴의 특징점에 기반하여 태어날 아기의 얼굴을 예측하여, 자연스러우면서 비교적 정확한 아기 얼굴을 제공할 수 있는 아기 얼굴 예측 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a baby face prediction system capable of providing a natural and relatively accurate baby face by predicting the face of a baby to be born based on the feature points of the parents' faces. do it with

전술한 과제를 해결하기 위해, 본 발명의 일 양태에 따르면, 부모의 사진 및 태아의 초음파 사진을 이용하여 아기 얼굴을 합성하기 위한 아기 얼굴 예측 시스템이 제공되고, 이 시스템은, 사용자측 단말기; 아기 얼굴 합성 서비스를 제공하는 서버; 및 특징점을 포함하는 아기 얼굴 이미지가 저장되는 데이터베이스를 포함하고,In order to solve the above problems, according to an aspect of the present invention, there is provided a baby face prediction system for synthesizing a baby face using a photograph of a parent and an ultrasound photograph of a fetus, the system comprising: a user-side terminal; a server that provides baby face synthesis services; and a database in which baby face images including feature points are stored,

서버는, server,

사용자측 단말기로부터 부모 이미지 및 태아의 초음파 사진을 수신하는 영상 수신부; an image receiver configured to receive a parent image and an ultrasound picture of a fetus from a user-side terminal;

수신된 부모 이미지로부터 부와 모의 얼굴 영역을 감지하는 부모 이미지 얼굴 검출부;a parent image face detection unit for detecting a parent and a mother face region from the received parent image;

검출된 부모의 얼굴 영역으로부터 부와 모의 각각의 얼굴의 특징점을 검출하는 특징점 검출부;a feature point detector for detecting feature points of each face of the mother and father from the detected face region of the parent;

아기 얼굴 이미지가 저장된 데이터베이스로부터 검출된 부와 모의 특징점과 가장 유사한 아기 얼굴 이미지를 검색하는 아기 얼굴 검색부;a baby face search unit that searches for a baby face image most similar to parental and maternal feature points detected from a database in which baby face images are stored;

아기 얼굴 검색부로부터 검색된 아기 얼굴 이미지에 부와 모의 특징점을 합성하기 위한 아기 얼굴 합성부를 포함하는 것을 특징적 구성으로 한다.and a baby face synthesizing unit for synthesizing paternal and maternal feature points in the baby face image retrieved from the baby face search unit is characteristically configured.

전술한 양태에서 서버는, 사용자 단말기로부터 합성될 아기 얼굴에 대한 부모 얼굴과의 닮은비, 아기의 성별, 아기의 연령을 수신하기 위한 아기 정보 수신부를 더 포함한다. In the above aspect, the server further includes a baby information receiving unit for receiving the similarity ratio of the baby's face to the parent's face to be synthesized from the user terminal, the baby's gender, and the baby's age.

또한 전술한 양태에서 아기 얼굴 데이터베이스에 저장되는 아기 얼굴 이미지는 생성적 적대 신경망(Generative Adversarial Network, GAN) 알고리즘을 통해 생성되고, 특징점 검출 알고리즘을 통해 생성된 아기 얼굴 이미지에 대한 특징점이 검출되어, 생성된 아기 얼굴 이미지와 함께 데이터베이스에 저장된다.In addition, in the above aspect, the baby face image stored in the baby face database is generated through a generative adversarial network (GAN) algorithm, and the feature point for the baby face image generated through the feature point detection algorithm is detected and generated It is stored in the database along with the old baby face images.

또한 전술한 양태에서, 부와 모의 얼굴의 특징점은 얼굴의 형태 및 비율, 눈과 눈사이 거리, 턱선의 모양, 얼굴에서 눈의 비율, 코의 길이 및 비율, 입술의 두께, 이마의 넓이, 눈썹의 길이, 눈썹의 형태, 눈동자의 크기와 연관된 특징점을 포함한다. In addition, in the above-described aspect, the characteristic points of the face of the mother and father are the shape and ratio of the face, the distance between the eyes, the shape of the jaw line, the ratio of the face to the eyes, the length and ratio of the nose, the thickness of the lips, the width of the forehead, the eyebrows It includes feature points related to the length of the eyebrows, the shape of the eyebrows, and the size of the pupils.

또한 전술한 양태에서 데이터베이스에 저장되는 아기 얼굴의 특징점과, 부와 모의 얼굴의 특징점은, ArcFace 함수를 이용하는 딥 러닝 네트워크를 통해 추출된다.In addition, in the above aspect, the feature points of the baby's face and the feature points of the mother's and father's faces stored in the database are extracted through a deep learning network using the ArcFace function.

또한 전술한 양태에서 데이터베이스에 저장되는 아기 얼굴의 특징점은, 네트워크를 통해 아기 얼굴 사진을 수집하는 단계; 수집된 아기 얼굴 사진 데이터를 성별, 국가별, 인종별, 나이별로 분류하는 단계; 분류된 아기 얼굴 사진의 특징점을 포함하는 특징점 영역을 설정하는 단계; GAN 알고리즘을 통해 아기 얼굴 이미지를 생성하는 단계; 생성된 아기 얼굴 이미지로부터 아기 얼굴 특징점을 분석하는 단계; 및 생성된 아기 얼굴 이미지와 아기 얼굴 특징점을 데이터베이스에 저장하는 단계에 의해 형성될 수 있다. In addition, in the above aspect, the feature points of the baby's face stored in the database may include: collecting baby face pictures through a network; classifying the collected baby face photo data by gender, country, race, and age; setting a feature point area including the feature points of the classified baby face photos; generating a baby face image through a GAN algorithm; analyzing baby facial feature points from the generated baby face image; and storing the generated baby face image and baby facial feature points in a database.

또한 전술한 양태에서 아기 얼굴 합성부는, 아기 정보 수신부로부터 수신된 부모 얼굴과의 닮은비, 아기의 성별, 아기의 연령을 반영하여 아기 얼굴을 합성하도록 구성될 수 있다. In addition, in the above aspect, the baby face synthesizing unit may be configured to synthesize the baby face by reflecting the similarity ratio with the parent's face received from the baby information receiving unit, the baby's gender, and the baby's age.

본 발명에 따르면 합성되는 아기의 얼굴은 부모의 얼굴 특징점과 연관되어 있고 부모 각각의 얼굴 특징점의 혼합 비율을 조절할 수 있게 구성되어 아이의 얼굴을 여러 측면에서 비교적 정확하게 예측해볼 수 있는 작용효과가 얻어질 수 있다.According to the present invention, the synthesized baby's face is related to the parent's facial feature points, and the mixing ratio of each parent's facial feature points can be adjusted so that the effect of predicting the child's face relatively accurately in various aspects can be obtained. can

도 1은 본 발명에 따른 아기 얼굴 예측 시스템의 전체적인 구성을 나타내는 도면;
도 2는 본 발명에 따른 아기 얼굴 예측 시스템에서 아기 얼굴을 예측하고 합성하는 서비스를 제공하는 서버의 구성을 개략적으로 나타낸 기능 블록도;
도 3은 본 발명에 따른 아기 얼굴 예측 시스템에서 이용되는 96개의 안면 특징점을 나타낸 도면;
도 4는 본 발명에 따른 아기 얼굴 예측 시스템에서의 데이터베이스에 저장되는 아기 얼굴 이미지의 생성 동작을 나타내는 흐름도;
도 5는 본 발명에 따른 아기 얼굴 예측 시스템의 아기 얼굴 예측(또는 합성)의 흐름을 설명하기 위한 설명도이다.
1 is a view showing the overall configuration of a baby face prediction system according to the present invention;
2 is a functional block diagram schematically showing the configuration of a server that provides a service for predicting and synthesizing a baby face in the baby face prediction system according to the present invention;
3 is a view showing 96 facial feature points used in the baby face prediction system according to the present invention;
4 is a flowchart illustrating an operation of generating a baby face image stored in a database in the baby face prediction system according to the present invention;
5 is an explanatory diagram for explaining the flow of baby face prediction (or synthesis) of the baby face prediction system according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이다. Advantages and features of the present invention, and methods for achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms.

본 명세서에서 본 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 그리고 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 따라서, 몇몇 실시예들에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. In the present specification, the present embodiment is provided to complete the disclosure of the present invention, and to fully inform those of ordinary skill in the art to which the present invention pertains to the scope of the invention. And the invention is only defined by the scope of the claims. Accordingly, in some embodiments, well-known components, well-known operations, and well-known techniques have not been specifically described in order to avoid obscuring the present invention.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 그리고, 본 명세서에서 사용된(언급된) 용어들은 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, '포함(또는, 구비)한다'로 언급된 구성 요소 및 동작은 하나 이상의 다른 구성요소 및 동작의 존재 또는 추가를 배제하지 않는다. Like reference numerals refer to like elements throughout. And, the terms used (mentioned) in this specification are for the purpose of describing the embodiments and are not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. In addition, elements and operations referred to as 'include (or include)' do not exclude the presence or addition of one or more other elements and operations.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not ideally or excessively interpreted unless they are defined.

도 1은 본 발명에 따른 아기 얼굴 합성 시스템의(1)의 일례를 개략적으로 나타내는 설명도이다. 도 1에 도시된 바와 같이 아기 얼굴 합성 시스템(1)은 네트워크를 통해 연결되고 아기 얼굴 서비스를 희망하는 사용자들이 소지한 복수의 사용자 단말기(10), 유선 또는 무선의 네트워크를 통해 사용자 단말기의 각각에 대해 아기 얼굴 합성 서비스를 제공하는 서버(20); 및 아기 얼굴의 이미지와 그에 대응하는 특징점을 포함하는 아기 얼굴 데이터베이스(30)를 포함하고, 데이터베이스(30)은 네트워크를 통해 웹서버(20)에 연결될 수도 있고 서버(20) 내에 포함될 수도 있다. 1 is an explanatory diagram schematically showing an example of a baby face synthesis system (1) according to the present invention. As shown in FIG. 1 , the baby face synthesis system 1 is connected through a network and is connected to a plurality of user terminals 10 possessed by users who desire baby face service, and to each of the user terminals through a wired or wireless network. a server 20 providing a baby face synthesis service; and a baby face database 30 including an image of a baby's face and corresponding feature points. The database 30 may be connected to the web server 20 through a network or may be included in the server 20 .

또한 데이터베이스(30)에 저장되는 아기 얼굴은 실제 아기들의 얼굴을 포함할 수도 있지만, 이보다는 GAN(Generative Adversarial Network)을 이용하여 생성된 가상의 아기 얼굴일 수 있으며, 아기 얼굴들 각각은 얼굴의 특징점 정보를 포함하고 있다.In addition, the baby faces stored in the database 30 may include the faces of real babies, but rather may be virtual baby faces generated using a Generative Adversarial Network (GAN), and each of the baby faces is a facial feature point. contains information.

사용자 단말(10)의 경우 스마트폰이나 태블릿 PC 뿐만 아니라, PC 또는 노트북을 비롯하여, 각종 정보 처리 및 통신 기기가 사용될 수 있다. 이와 같은 사용자 단말(10)은 이미지를 촬영하여 서버(20)에 전송할 수 잇거나, 사용자 단말(10)에 저장된 이미지를 서버(20)로 전송할 수만 있다면 특별히 한정되는 것은 아니며, 서버(20)에 서비스를 요청하거나 서버(20)로부터 요청한 서비스 결과를 수신하고 확인하기 위한 인터페이스를 제공하는 어플리케이션이 미리 설치될 수도 있다.In the case of the user terminal 10, various information processing and communication devices, including not only a smartphone or tablet PC, but also a PC or a notebook computer may be used. Such a user terminal 10 is not particularly limited as long as it can take an image and transmit it to the server 20 , or transmit an image stored in the user terminal 10 to the server 20 . An application providing an interface for requesting a service or receiving and confirming a service result requested from the server 20 may be pre-installed.

서버(20)는 사용자 단말(10)로부터 서비스 요청을 수신하고 그에 응답하여 아기 얼굴 사진을 합성하도록 구성된다. 도 2는 아기 얼굴 합성 서비스를 제공하는 서버(20)의 내부 구성을 개략적으로 도시한 도면이다.The server 20 is configured to receive a service request from the user terminal 10 and synthesize a baby face picture in response thereto. 2 is a diagram schematically illustrating an internal configuration of a server 20 that provides a baby face synthesis service.

도 2에 도시된 바와 같이 서버(20)는 사용자 단말로부터 부모 얼굴 이미지 및 태아의 초음파 사진 이미지를 수신하는 영상 수신부(210), 합성될 아기 얼굴에 대해 부모가 선택한 정보를 사용자 단말로부터 수신하는 정보 수신부(215), 수신된 이미지로부터 부모 및 태아의 얼굴을 각각 검출하기 위한 얼굴 검출부(220), 검출된 부모 및 태아의 얼굴로부터 부모 및 태아 각각의 특징점을 검출하기 위한 특징점 검출부(230), 검출된 부모 및 태아 각각의 특징점에 기반하여 가장 유사한 특징점을 가진 아기 얼굴을 데이터베이스(30)로부터 검색하는 아기 얼굴 검색부(240), 합성될 아기 얼굴에 대해 부모의 닮은비를 계산하기 위한 부모 닮은비 계산부(250); 부모 얼굴의 특징점을 닮은비에 기반하여 합성하기 위한 아기 얼굴 합성부(260); 및 합성된 얼굴을 사용자의 단말(10)로 출력하는 합성 영상 출력부(217)을 포함한다.As shown in FIG. 2 , the server 20 receives the image receiving unit 210 for receiving the parent face image and the ultrasound picture image of the fetus from the user terminal, and information for receiving the information selected by the parent about the baby face to be synthesized from the user terminal. The receiving unit 215, the face detection unit 220 for respectively detecting the faces of the parent and the fetus from the received image, the feature point detection unit 230 for detecting the characteristic points of the parents and the fetus from the detected faces of the parents and the fetus, respectively, detection A baby face search unit 240 that searches the database 30 for a baby face having the most similar feature points based on each feature point of the parent and fetus, and a parental resemblance ratio for calculating a parental resemblance ratio for a baby face to be synthesized calculation unit 250; a baby face synthesizing unit 260 for synthesizing the feature points of the parent's face based on the similarity ratio; and a synthesized image output unit 217 for outputting the synthesized face to the user's terminal 10 .

영상 수신부(210)는 사용자 단말(10)로부터 부모의 사진 이미지 및 태아의 초음파 사진 이미지를 수신한다. 부모의 사진 이미지는 개별 사진 이미지일 수도 있고 부모가 한 장의 이미지에 모두 표시되어 있는 사진 이미지일 수도 있다.The image receiving unit 210 receives a photo image of a parent and an ultrasound photo image of a fetus from the user terminal 10 . The parent's photo image may be an individual photo image or a photo image in which the parents are all displayed in one image.

정보 수신부(215)는 아기 얼굴 합성에 대해 부모가 선택한 정보를 사용자 단말(10)로부터 수신한다. 예를 들면, 사용자는 사용자 단말(10)을 통해 부모의 사진 및 태아의 초음파 사진을 영상 수신부(210)로 보내는 동시에, 합성하고자 하는 아기의 부모 닮은비, 아기의 연령, 아기의 성별을 입력하고, 입력된 정보는 아기 얼굴 합성 정보로서 정보 수신부(215)에 수신되고, 수신된 정보에 기반하여 아기 얼굴이 합성된다.The information receiving unit 215 receives information selected by the parent for baby face synthesis from the user terminal 10 . For example, the user transmits the parent's picture and the fetal ultrasound picture to the image receiving unit 210 through the user terminal 10, and at the same time inputs the parental resemblance ratio of the baby to be synthesized, the baby's age, and the baby's gender. , the input information is received by the information receiving unit 215 as baby face synthesis information, and a baby face is synthesized based on the received information.

얼굴 검출부(220)는 사진으로부터 부(父)영상 얼굴을 검출하는 부 얼굴 검출부(230a)와 사진으로부터 모(母)이미지 얼굴을 검출하는 모 얼굴 검출부(230b), 및 태아의 초음파 사진으로부터 태아 얼굴을 검출하는 태아 얼굴 검출부(203c)로 이루어지며, 각각은 사진 이미지으로부터 부, 모 및 태아의 얼굴 영역을 각각 찾아내고, 찾아낸 얼굴 영역을 관심 영역으로서 결정한다.The face detection unit 220 includes a sub-face detection unit 230a for detecting a sub-image face from a photograph, a mother face detection unit 230b for detecting a mother image face from the photograph, and a fetal face from an ultrasound photograph of the fetus. is composed of a fetal face detection unit 203c for detecting

도 2에 도시된 바와 같이 부 얼굴 검출부(220a)는 사진 이미지로부터 부의 얼굴을 검출하고 이를 관심 영역으로서 결정하여 부 특징점 검출부(230a)로 전송하고, 모 얼굴 검출부(220b)는 사진 이미지로부터 모의 얼굴을 검출하고 이를 관심 영역으로서 결정하여 모 특징점 검출부(230b)로 전송하며, 태아 얼굴 검출부(220c)는 태아의 초음파 사진 이미지로부터 태아의 얼굴을 검출하고 이를 관심 영역으로서 결정하여 태아 특징점 검출부(230c)로 전송한다.As shown in FIG. 2 , the minor face detection unit 220a detects a negative face from the photo image, determines it as an area of interest, and transmits it to the minor feature point detection unit 230a, and the mother face detection unit 220b receives the mock face from the photo image. is detected, determined as a region of interest, and transmitted to the mother feature detection unit 230b, and the fetal face detection unit 220c detects a fetal face from an ultrasound photograph image of the fetus, determines it as a region of interest, and determines the fetal feature point detector 230c send to

특징 검출부(230)는 전술한 바와 같이 부 특징점 검출부(230a), 모 특징점 검출부(230b) 및 태아 특징점 검출부(230c)를 포함한다. 부 특징점 검출부(230a)는 부의 관심 영역(얼굴 영역)을 분석하여 부 얼굴의 특징점을 검출하고, 모 특징점 검출부(230b)는 모의 관심 영역(얼굴 영역)을 분석하여 모 얼굴의 특징점을 검출하고, 태아 특징점 검출부(230c)는 태아의 관심 영역(얼굴 영역)을 분석하여 태아의 특징점을 검출하여, 형태/비율을 수치화하도록 동작한다.The feature detection unit 230 includes a sub-feature point detector 230a, a maternal feature point detector 230b, and a fetal feature point detector 230c as described above. The sub-feature point detector 230a analyzes the negative region of interest (face region) to detect the feature point of the sub-face, and the mother feature point detector 230b analyzes the simulated region of interest (face region) to detect the feature point of the mother face, The fetal feature point detection unit 230c analyzes the fetal interest region (face region) to detect the fetal feature point, and operates to digitize the shape/ratio.

본 발명의 실시예에서 특징점의 예로는, 도 3에 도시한 바와 같이 현재 안면 인식에서 레퍼런스로 주로 이용되고 있는 96개의 안면 특징점을 포함할 수 있으며, 예를 들면 얼굴의 형태/비율, 눈과 눈사이 거리, 턱선의 모양, 얼굴에서 눈의 비율, 코의 길이 및 비율, 입술의 두께, 이마의 넓이, 눈썹의 길이, 눈썹의 형태, 눈동자의 크기가 포함될 수 있으나, 반드시 이에 제한되는 것은 아니다.Examples of the feature points in the embodiment of the present invention, as shown in FIG. 3 , may include 96 facial feature points that are mainly used as references in current face recognition, for example, face shape/ratio, eyes and eyes. The distance between them, the shape of the jaw line, the ratio of the eyes to the face, the length and ratio of the nose, the thickness of the lips, the width of the forehead, the length of the eyebrows, the shape of the eyebrows, and the size of the pupils may be included, but are not necessarily limited thereto.

얼굴의 특징점 검출은 관심 영역을 복수의 영역으로 분할하고, 분할된 각각의 영역에 설정된 특징점 검출 알고리즘을 적용하여 특징점의 특징 벡터를 계산할 수 있다. 여기서, 특징점 검출 알고리즘은 딥 러닝 네트워크를 포함하며, 구체적으로는 Jiankang Deng 등의 "ArcFace: Additive Angular Margin Loss for Deep Face Recognition" 논문의 ArcFace(Additive Angular Margin Loss) 함수를 통해 얼굴 특징점을 추출한다(https://arxiv.org/abs/1801.07698).The feature point detection of the face may divide a region of interest into a plurality of regions, and calculate a feature vector of the feature point by applying a feature point detection algorithm set to each of the divided regions. Here, the feature point detection algorithm includes a deep learning network, and specifically, the facial feature points are extracted through the ArcFace (Additive Angular Margin Loss) function of Jiankang Deng et al.'s "ArcFace: Additive Angular Margin Loss for Deep Face Recognition" paper ( https://arxiv.org/abs/1801.07698 ).

특징점 검출부(230)를 통해 검출되어 수치화되는 부의 얼굴 특징점과 모의 얼굴 특징점, 및 태아의 얼굴 특징점은 메모리와 같은 기억 장치에 저장되고, 이어서 아기 얼굴 검색부(240)는 저장된 부와 모, 태아의 얼굴 특징점에 기반하여 가장 유사한 특징점을 가진 아기 얼굴을 아기 얼굴 데이터베이스(30)로부터 검색하여 발견해낸다.Negative facial feature points, simulated facial feature points, and fetal facial feature points detected and digitized through the feature point detection unit 230 are stored in a storage device such as a memory, and then the baby face search unit 240 stores the stored parent and mother and fetal features. Based on the facial feature points, a baby face having the most similar feature points is searched and found from the baby face database 30 .

아기 얼굴 데이터베이스(30)에 저장되는 아기 얼굴은 생성적 적대 신경망(Generative Adversarial Network, GAN) 알고리즘을 통해 생성되고, 생성된 아기 얼굴은 전술한 바와 같은 얼굴에 대한 특징점 검출 알고리즘을 통해 검출되어 수치화된 특징점과 함께 데이터베이스(30)에 저장된다.The baby face stored in the baby face database 30 is generated through a generative adversarial network (GAN) algorithm, and the generated baby face is detected and digitized through the feature point detection algorithm for the face as described above. It is stored in the database 30 together with the feature points.

"생성적 적대 신경망(Generative Adversarial Network, GAN)" 알고리즘이란, 생성자(Generator) 판별자(Discriminator)가 포함된 모델로서, 학습데이터를 바탕으로 생성자는 학습데이터와 가까운 데이터를 생성하고, 판별자는 그 데이터가 학습데이터와 같은 데이터인지 또는 생성자가 생성한 데이터인지를 판별하게 된다. 따라서 GAN 알고리즘은 이 과정에서 생성자가 판별자를 속이도록 학습함으로써 학습데이터와 가까운 이미지를 만들어내도록 하는 알고리즘을 의미한다.The "Generative Adversarial Network (GAN)" algorithm is a model that includes a generator and a discriminator. Based on the learning data, the generator generates data close to the learning data, and the discriminator It is determined whether the data is the same data as the training data or the data generated by the generator. Therefore, the GAN algorithm means an algorithm that creates an image close to the learning data by learning to deceive the discriminator by the generator in this process.

생성자는 실제 데이터를 학습하여, 학습 데이터와 동일하다고 판별자를 속일 수 있는 유사 데이터를 생성한다. 그 다음 판별자는 입력된 데이터가 학습데이터와 동일한지(True) 아니면 생성자가 임의로 생성한 데이터인지(False) 판단하여 이를 구분한다. 생성자는 판별자를 속이지 못한 정보를, 판별자는 생성자에 의해 속은 정보를 입력받아 학습하는 과정을 반복하여 생성자가 실제와 가까운 데이터를 생성하도록 한다.The generator learns the real data to generate similar data that can fool the discriminator that it is identical to the training data. Then, the discriminator determines whether the input data is the same as the training data (True) or whether the data is randomly generated by the generator (False) and distinguishes them. The generator repeats the learning process by receiving information that has not been deceived by the discriminator, and the discriminator receives the information deceived by the generator, so that the generator generates data that is close to the real thing.

도 4는 전술한 바와 같이 GAN 알고리즘을 이용하여 아기 사진을 생성하는 것을 설명하기 위한 흐름도이다. 도 4에 도시된 바와 같이 먼저 단계 S10에서 서버(20) 또는 서버의 프로세서는 아기 사진을 수집한다. 수집되는 사진은 사용자가 사용자 단말(10)을 통해 제공하는 사진이거나 인터넷, 기타 데이터베이스 등에 대한 접속 또는 검색 등을 통해 수집된 사진일 수 있다.4 is a flowchart for explaining generation of a baby picture using the GAN algorithm as described above. As shown in FIG. 4 , in step S10 , the server 20 or the server's processor collects baby pictures. The collected photos may be photos provided by the user through the user terminal 10 or photos collected through access to or search for the Internet or other databases.

이어진 단계 S20에서 아기 사진이 수집되고 나면, 서버(20)는 아기의 사진 데이터를 남성/여성, 국가별, 인종별, 나이별로 분류하여 저장한다. 이와 같은 분류 작업은 데이터 학습 과정에서 처리 효율성을 향상시킬 수 있다.After the baby photos are collected in the subsequent step S20, the server 20 classifies and stores the baby photo data by male/female, country, race, and age. Such a classification task can improve processing efficiency in the data learning process.

단계 S20에서 아기 사진이 분류된 후, 서버(20)는 분류된 아기 얼굴 사진들 각각에 대해 소정의 가중값을 부여하여 데이터를 가공한다. 아기 사진 데이터에 대한 가공은 아기 사진의 특정 영역들 예를 들면 눈, 코, 입, 피부, 얼굴의 형태/비율, 눈과 눈사이 거리, 턱선의 모양, 얼굴에서 눈의 비율, 코의 길이 및 비율, 입술의 두께, 이마의 넓이, 눈썹의 길이, 눈썹의 형태, 눈동자의 크기를 포함하는 안면 특징점을 포함한다.After the baby photos are classified in step S20, the server 20 processes the data by giving a predetermined weight to each of the classified baby face photos. The processing of baby photo data includes specific areas of baby photo, such as eyes, nose, mouth, skin, face shape/ratio, eye-to-eye distance, jawline shape, face-to-eye ratio, nose length, and It includes facial features including proportions, thickness of lips, width of forehead, length of eyebrows, shape of eyebrows, and size of pupils.

예를 들면 서버(20)는 아기 사진 데이터에 대해 눈, 코 및 입 영역을 인식하고, 해당 영역들의 (x, y) 좌표값을 추정하고, 영역의 (x, y) 좌표값을 중심으로 눈 및 입 영역의 (x, y) 좌표값들을 경계값으로 추정함으로써, 특징점 영역을 설정할 수 있다. For example, the server 20 recognizes eye, nose, and mouth regions for baby photo data, estimates (x, y) coordinate values of the corresponding regions, and focuses on the (x, y) coordinate values of the region. and by estimating (x, y) coordinate values of the mouth region as boundary values, the feature point region may be set.

이와 같이 생성될 이미지에 이용될 특징점 영역이 설정되고 나면, 서버(20)는 해당 특징점 영역을 중심으로 GAN 알고리즘을 통해 이미지를 생성하게 된다. 이러한 과정을 통해 아기의 얼굴 영역만을 특징적으로 인식하여 학습할 수 있도록 함으로써, GAN 알고리즘에 의한 특징 검출, 데이터 매핑 등이 원할하게 수행될 수 있게 된다.After the keypoint area to be used in the image to be generated is set in this way, the server 20 generates an image through the GAN algorithm based on the keypoint area. Through this process, only the baby's face region can be characteristically recognized and learned, so that feature detection and data mapping by the GAN algorithm can be performed smoothly.

GAN 알고리즘은 전술한 바와 같이 아기의 특징점을 기반으로 하여 생성자와 판별자의 경쟁을 통해 실제와 가까운 아기 얼굴 이미지를 생성하게 된다.As described above, the GAN algorithm generates a baby face image close to the real thing through competition between a generator and a discriminator based on the baby's feature points.

GAN 알고리즘을 통해 획득된 아기 얼굴 사진에 대해, 이어진 단계 S50에서 전술한 바와 같은 특징점 검출 알고리즘인 딥 러닝 네트워크를 이용하여, 예를 들면 얼굴의 형태/비율, 눈과 눈사이 거리, 턱선의 모양, 얼굴에서 눈의 비율, 코의 길이 및 비율, 입술의 두께, 이마의 넓이, 눈썹의 길이, 눈썹의 형태, 눈동자의 크기가 포함하는 특징점을 다시 분석하고, 이어진 단계 S60에서는 검출되고 분석된 특징점들을 생성된 아기 얼굴 사진과 함께 데이터베이스에 저장한다.For the baby face picture obtained through the GAN algorithm, using the deep learning network, which is the feature point detection algorithm as described above in the subsequent step S50, for example, the shape/ratio of the face, the distance between the eyes, the shape of the jaw line, The feature points including the ratio of the eyes to the face, the length and ratio of the nose, the thickness of the lips, the width of the forehead, the length of the eyebrows, the shape of the eyebrows, and the size of the pupils are analyzed again. It is saved in the database together with the generated baby face picture.

이와 같이 GAN 알고리즘을 통해 생성된 아기 얼굴 사진 데이터는 데이터베이스에 무한에 가깝게 저장되고, 본 발명에서는 이 GAN 알고리즘에 의해 생성된 아기 얼굴 사진에 기반하여 태어날 아기의 얼굴을 예측하게 된다.In this way, the baby face photo data generated through the GAN algorithm is stored close to infinity in the database, and in the present invention, the face of a baby to be born is predicted based on the baby face photo generated by the GAN algorithm.

다시 도 2를 참조하면 아기 얼굴 검색부(240)는 부모 및 태아의 특징점 검출부(230)로부터 검출된 특징점을 아기 얼굴 데이터베이스(30)에 저장된 아기 얼굴의 특징점과 비교하고, 부 및 모, 태아의 특징점과 가장 유사한 특징점을 가진 아기 얼굴을 합성을 위한 기본 템플릿으로서 찾아 낸다.Referring back to FIG. 2 , the baby face search unit 240 compares the feature points detected by the parent and fetal feature point detection unit 230 with the baby face feature points stored in the baby face database 30 , A baby face with a feature point most similar to the feature point is found as a basic template for compositing.

아기 얼굴 합성을 위한 기본 템플릿의 아기 얼굴은 찾은 후, 서버(20)는 부모 얼굴과의 닮은비를 계산하게 된다. 부모 얼굴과의 닮은비는 사용자로부터 입력될 수 있으며, 예를 들면 서버(20)는 영상 수신부(210)으로부터 부모 이미지를 수신할 때 합성될 아기 얼굴에 대해 부모 얼굴과의 닮은비(예를 들면 부 70%, 모 30%)를 더 수신하도록 구성될 수 있다.After finding the baby face of the basic template for baby face synthesis, the server 20 calculates a similarity ratio with the parent face. The ratio of resemblance to the parent's face may be input from the user. For example, when the server 20 receives the parent image from the image receiving unit 210 , the ratio of resemblance to the parent's face to the baby's face to be synthesized (eg, 70% minor, 30% parent).

부모 얼굴과의 닮은비는 합성될 아기 얼굴에 부 또는 모의 특징점이 합성되는 비율을 나타낸다. 즉 부의 특징점이 70%, 모의 특징점이 30%로 설정된 경우 합성되는 아기 얼굴은 모의 얼굴 특징점보다는 부의 얼굴 특징점이 더 강하게 나타나고 아기의 얼굴은 모의 얼굴보다는 부의 얼굴을 더 닮게 합성된다. 반대로 모의 특징점 이 70%, 부의 특징점이 30%로 설정된 경우 합성되는 아기 얼굴은 부의 얼굴 특징점보다는 모의 얼굴 특징점이 더 강하게 나타나고 아기의 얼굴은 부의 얼굴보다는 모의 얼굴을 더 닮게 나타난다.The ratio of resemblance to the parent's face represents the rate at which parental or parental feature points are synthesized on the baby's face to be synthesized. That is, when negative feature points are set to 70% and mock feature points to be 30%, the synthesized baby face has stronger negative facial feature points than the simulated facial feature points, and the baby's face is synthesized to resemble the negative face more than the mock face. Conversely, when the simulated feature points are 70% and the negative feature points are set to 30%, the simulated facial feature points appear stronger than the negative facial feature points in the synthesized baby face, and the baby's face appears more like the mock face than the negative face features.

예를 들면 부의 특징점이 70%, 모의 특징점이 30%로 설정된 경우 합성되는 아기의 코의 경우, 부의 특징점이 70%가 반영되고 모의 특징점이 30%가 반영되어 아기의 코가 합성되게 된다.For example, in the case of a baby's nose that is synthesized when the negative feature points are set to 70% and the mother feature points are set to 30%, 70% of the negative feature points are reflected and 30% of the mother feature points are reflected, so that the baby's nose is synthesized.

또한 합성될 기본 아기 얼굴 템플릿은 예를 들면, 출생 후 30일, 50일, 100일과 같이 태어난 나이대 별로 생성되고, 사용자가 단말을 통해 아기의 연령을 입력 또는 선택하는 경우, 아기 얼굴 합성부(260)는 준비된 연령 템플릿에 기반하여 아기의 얼굴을 합성하게 된다.In addition, the basic baby face template to be synthesized is generated for each birth age, such as 30 days, 50 days, and 100 days after birth. ) will synthesize the baby's face based on the prepared age template.

도 5는 전술한 바와 같은 시스템을 이용하여 아기 사진 얼굴을 합성하는 과정을 개략적으로 도시한 도면이다. 도 5에 도시한 바와 같이 영상 수신부(210)는 사용자 단말(10)로부터 부모의 사진을 수신하는 동시에 정보 수신부(215)는 합성에 필요하여 부모가 선택한 정보를 사용자 단말(10)로부터 수신한다.5 is a diagram schematically illustrating a process of synthesizing a baby photo face using the system as described above. As shown in FIG. 5 , the image receiving unit 210 receives the parent's picture from the user terminal 10 , and the information receiving unit 215 receives the information selected by the parent for synthesis from the user terminal 10 .

서버(20)의 얼굴 검출부(220)는 수신된 부모 및 태아의 사진으로부터 부의 얼굴과 모의 얼굴, 및 태아의 얼굴을 검출해 내고, 특징점 검출부(230)는 검출된 부와 모, 및 태아의 얼굴 영역에서 특징점을 검출하고 검출된 부모 및 태아의 얼굴 특징점을 저장하여 둔다.The face detection unit 220 of the server 20 detects the negative face, the mother's face, and the fetal face from the received photos of the parent and the fetus, and the feature point detection unit 230 detects the detected father and mother and the fetal face. A feature point is detected in the region, and the detected facial feature points of the parent and fetus are stored.

이후 서버는 검출된 부모 및 태아의 특징점을 이용하여 데이터베이스에 저장되어 있는 유사 아기 얼굴 데이터(GAN 알고리즘에 의해 생성됨)에 포함된 특징점과 부모 및 태아의 특징점을 비교하여 가장 유사한 특징점을 가지는 아기 얼굴을 검출한다. Then, the server compares the feature points of the parent and fetus with the feature points included in the similar baby face data (generated by the GAN algorithm) stored in the database using the detected feature points of the parent and fetus, and selects the baby face with the most similar feature points. detect

서버는 검출된 아기 얼굴에 대해 연령별 특징점을 부가하여 아기 얼굴에 대해 복수의 연령 템플릿, 예를 들면 30일, 50일 100일 템플릿을 생성한다.The server generates a plurality of age templates for the baby face by adding age-specific feature points to the detected baby face, for example, 30-day, 50-day, and 100-day templates.

이후 서버는 사용자가 입력한 연령에 대응하는 아기 얼굴 템플릿을 이용하여 부모의 특징점을 아기 얼굴 템플릿에 반영하여 아기 얼굴을 반영하는데, 이 때 사용자가 입력한 닮은비에 대응하여 아기 얼굴을 합성하고 합성된 얼굴을 사용자에게 제공하게 된다. After that, the server reflects the baby face by reflecting the parental feature points to the baby face template using the baby face template corresponding to the age input by the user. At this time, the baby face is synthesized and synthesized in response to the similarity ratio input by the user A face is provided to the user.

한편 서버는 사용자가 입력한 연령에 대해 아기 얼굴 사진을 합성하는 것으로 설명하고 있지만 본 발명은 이에 한정되는 것은 아니고 30일, 50일, 100일 사진을 모두 합성하여 사용자에게 한 번에 이를 전송하도록 구성되는 것도 가능하다.On the other hand, the server is described as synthesizing baby face photos for the age input by the user, but the present invention is not limited thereto. It is also possible to be

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively)처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속하는 것으로 해석되어야만 한다.Therefore, other implementations, other embodiments, and equivalents to the claims should be construed as falling within the scope of the following claims.

10: 사용자 단말
20: 아기 얼굴 합성 서버
30: 아기 얼굴 데이터베이스
210: 영상 수신부
215: 정보 수신부
220: 얼굴 검출부
230: 특징점 검출부
240: 아기 얼굴 검색부
250: 부모 닮은비 계산부
260: 아기 얼굴 합성부
10: user terminal
20: Baby Face Synthesis Server
30: Baby Face Database
210: video receiver
215: information receiving unit
220: face detection unit
230: feature point detection unit
240: baby face search unit
250: parent similarity ratio calculator
260: baby face synthesizing unit

Claims (7)

부모의 사진 및 태아의 초음파 사진을 이용하여 아기 얼굴을 합성하기 위한 아기 얼굴 예측 시스템에 있어서,
사용자측 단말기;
아기 얼굴 합성 서비스를 제공하는 서버; 및
특징점을 포함하는 아기 얼굴 이미지가 저장되는 데이터베이스를 포함하고,
상기 서버는,
사용자측 단말기로부터 부모 이미지 및 태아의 초음파 사진을 수신하는 영상 수신부;
수신된 부모 이미지 및 태아의 초음파 사진으로부터 부와 모, 태아 각각의 얼굴 영역을 감지하는 얼굴 검출부;
검출된 부모 및 태아의 얼굴 영역으로부터 부와 모, 태아 각각의 얼굴의 특징점을 검출하는 특징점 검출부;
아기 얼굴 이미지가 저장된 데이터베이스로부터 검출된 부와 모, 태아의 특징점과 가장 유사한 아기 얼굴 이미지를 검색하는 아기 얼굴 검색부;
아기 얼굴 검색부로부터 검색된 아기 얼굴 이미지에 부와 모의 특징점을 합성하기 위한 아기 얼굴 합성부를 포함하는 것을 특징으로 하는
아기 얼굴 예측 시스템.
A baby face prediction system for synthesizing a baby face using a parent's picture and an ultrasound picture of a fetus,
user-side terminal;
a server that provides baby face synthesis services; and
A database in which a baby face image including feature points is stored,
The server is
an image receiver configured to receive a parent image and an ultrasound picture of a fetus from a user-side terminal;
a face detection unit for detecting each facial region of a parent, a mother, and a fetus from the received parent image and an ultrasound picture of the fetus;
a feature point detection unit for detecting feature points of each of the faces of the parents and the fetus from the detected face regions of the parents and the fetus;
a baby face search unit that searches for a baby face image most similar to the feature points of parents, mothers, and fetuses detected from a database in which baby face images are stored;
and a baby face synthesizing unit for synthesizing parental and maternal feature points in the baby face image retrieved from the baby face search unit.
Baby face prediction system.
제1항에 있어서,
상기 서버는,
사용자 단말기로부터 합성될 아기 얼굴에 대한 부모 얼굴과의 닮은비, 아기의 성별, 아기의 연령을 수신하기 위한 정보 수신부를 더 포함하는 것을 특징으로 하는
아기 얼굴 예측 시스템.
According to claim 1,
The server is
Characterized in that it further comprises an information receiving unit for receiving the similarity ratio of the baby's face to the parent's face to be synthesized from the user terminal, the gender of the baby, and the age of the baby
Baby face prediction system.
제1항에 있어서,
상기 아기 얼굴 데이터베이스에 저장되는 아기 얼굴 이미지는 생성적 적대 신경망(Generative Adversarial Network, GAN) 알고리즘을 통해 생성되고,
특징점 검출 알고리즘을 통해 생성된 아기 얼굴 이미지에 대한 특징점이 검출되어, 생성된 아기 얼굴 이미지와 함께 데이터베이스에 저장되는 것을 특징으로 하는
아기 얼굴 예측 시스템.
According to claim 1,
The baby face image stored in the baby face database is generated through a generative adversarial network (GAN) algorithm,
A feature point for the baby face image generated through the feature point detection algorithm is detected and stored in a database together with the generated baby face image
Baby face prediction system.
제1항에 있어서,
부와 모, 태아의 얼굴의 특징점은 얼굴의 형태 및 비율, 눈과 눈사이 거리, 턱선의 모양, 얼굴에서 눈의 비율, 코의 길이 및 비율, 입술의 두께, 이마의 넓이, 눈썹의 길이, 눈썹의 형태, 눈동자의 크기와 연관된 특징점을 포함하는 것을 특징으로 하는
아기 얼굴 예측 시스템.
According to claim 1,
The characteristic points of the face of the mother and the fetus are the shape and proportion of the face, the distance between the eyes, the shape of the jaw line, the ratio of the face to the eyes, the length and ratio of the nose, the thickness of the lips, the width of the forehead, the length of the eyebrows, Characterized in that it includes a feature point related to the shape of the eyebrow and the size of the pupil.
Baby face prediction system.
제4항에 있어서,
상기 데이터베이스에 저장되는 아기 얼굴의 특징점과, 부와 모, 태아의 얼굴의 특징점은, ArcFace 함수를 이용하는 딥 러닝 네트워크를 포함하는 얼굴 검출 알고리즘을 이용하여 검출되는 것을 특징으로 하는
아기 얼굴 예측 시스템.
5. The method of claim 4,
The feature points of the baby's face stored in the database, and the feature points of the mother's and fetus' faces are detected using a face detection algorithm including a deep learning network using an ArcFace function.
Baby face prediction system.
제5항에 있어서,
상기 데이터베이스에 저장되는 아기 얼굴의 특징점은,
네트워크를 통해 아기 얼굴 사진을 수집하는 동작;
수집된 아기 얼굴 사진 데이터를 성별, 국가별, 인종별, 나이별로 분류하는 동작;
분류된 아기 얼굴 사진의 특징점을 포함하는 특징점 영역을 설정하는 동작;
GAN 알고리즘을 통해 아기 얼굴 이미지를 생성하는 동작;
생성된 아기 얼굴 이미지로부터 아기 얼굴 특징점을 분석하는 동작; 및
생성된 아기 얼굴 이미지와 아기 얼굴 특징점을 데이터베이스에 저장하는 동작에 의해 형성되는 것을 특징으로 하는
아기 얼굴 예측 시스템.
6. The method of claim 5,
The feature points of the baby's face stored in the database are,
collecting pictures of the baby's face over the network;
classifying the collected baby face photo data by gender, country, race, and age;
setting a feature point area including the feature points of the classified baby face photograph;
generating a baby face image through a GAN algorithm;
analyzing baby facial feature points from the generated baby face image; and
Characterized in that it is formed by the operation of storing the generated baby face image and baby facial feature points in a database
Baby face prediction system.
제1항에 있어서,
아기 얼굴 합성부는, 아기 정보 수신부로부터 수신된 부모 얼굴과의 닮은비, 아기의 성별, 아기의 연령을 반영하여 아기 얼굴을 합성하도록 구성된 것을 특징으로 하는
아기 얼굴 예측 시스템.
According to claim 1,
The baby face synthesizing unit is configured to synthesize the baby face by reflecting the similarity ratio with the parent's face received from the baby information receiving unit, the baby's gender, and the baby's age.
Baby face prediction system.
KR1020200088197A 2020-07-16 2020-07-16 Baby face prediction system KR20220009676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200088197A KR20220009676A (en) 2020-07-16 2020-07-16 Baby face prediction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200088197A KR20220009676A (en) 2020-07-16 2020-07-16 Baby face prediction system

Publications (1)

Publication Number Publication Date
KR20220009676A true KR20220009676A (en) 2022-01-25

Family

ID=80049021

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200088197A KR20220009676A (en) 2020-07-16 2020-07-16 Baby face prediction system

Country Status (1)

Country Link
KR (1) KR20220009676A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020007735A (en) 2000-07-18 2002-01-29 최창석 Three dimensional face modeling method and facial photo sticker system for predicting the future children and the future facial shapes
KR102063294B1 (en) 2017-10-11 2020-01-07 알레시오 주식회사 Method and apparatus for converting ultrasound image into real image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020007735A (en) 2000-07-18 2002-01-29 최창석 Three dimensional face modeling method and facial photo sticker system for predicting the future children and the future facial shapes
KR102063294B1 (en) 2017-10-11 2020-01-07 알레시오 주식회사 Method and apparatus for converting ultrasound image into real image

Similar Documents

Publication Publication Date Title
KR102063037B1 (en) Identity authentication method, terminal equipment and computer readable storage medium
Habibie et al. Learning speech-driven 3d conversational gestures from video
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
Jesorsky et al. Robust face detection using the hausdorff distance
JP6624794B2 (en) Image processing apparatus, image processing method, and program
Wimmer et al. Low-level fusion of audio and video feature for multi-modal emotion recognition
CN111814620A (en) Face image quality evaluation model establishing method, optimization method, medium and device
JP2009157767A (en) Face image recognition apparatus, face image recognition method, face image recognition program, and recording medium recording this program
CN108229375B (en) Method and device for detecting face image
JP5087037B2 (en) Image processing apparatus, method, and program
JP6046501B2 (en) Feature point output device, feature point output program, feature point output method, search device, search program, and search method
JP2000259834A (en) Registering device and method for person recognizer
JP4708835B2 (en) Face detection device, face detection method, and face detection program
Liu et al. Self-boosted gesture interactive system with ST-Net
KR20220009676A (en) Baby face prediction system
TWI667054B (en) Aircraft flight control method, device, aircraft and system
JP7483532B2 (en) KEYWORD EXTRACTION DEVICE, KEYWORD EXTRACTION METHOD, AND KEYWORD EXTRACTION PROGRAM
JP7326965B2 (en) Image processing device, image processing program, and image processing method
Sithara et al. A survey on face recognition technique
JP6992881B2 (en) Information processing equipment, control methods, and programs
JP2018036870A (en) Image processing device, and program
JP2003168113A (en) System, method and program of image recognition
Anwar Real time facial expression recognition and eye gaze estimation system
Grabovskyi et al. Facial recognition with using of the microsoft face API Service
Ptucha et al. Facial pose estimation using a symmetrical feature model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application