KR102240237B1 - Apparatus and method for facial reproduction using genetic information - Google Patents

Apparatus and method for facial reproduction using genetic information Download PDF

Info

Publication number
KR102240237B1
KR102240237B1 KR1020190097357A KR20190097357A KR102240237B1 KR 102240237 B1 KR102240237 B1 KR 102240237B1 KR 1020190097357 A KR1020190097357 A KR 1020190097357A KR 20190097357 A KR20190097357 A KR 20190097357A KR 102240237 B1 KR102240237 B1 KR 102240237B1
Authority
KR
South Korea
Prior art keywords
face
information
genetic information
unit
snp
Prior art date
Application number
KR1020190097357A
Other languages
Korean (ko)
Other versions
KR20200018341A (en
Inventor
박진수
Original Assignee
순천향대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 순천향대학교 산학협력단 filed Critical 순천향대학교 산학협력단
Publication of KR20200018341A publication Critical patent/KR20200018341A/en
Application granted granted Critical
Publication of KR102240237B1 publication Critical patent/KR102240237B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 유전자 정보를 이용한 얼굴 재현 장치 및 방법을 개시한다. 본 발명의 일 측면에 따른 유전자 정보를 이용한 얼굴 재현 장치는, 생체정보에서 추출된 유전자 정보를 기초로하여 사람의 얼굴을 추정함으로써, 실종자의 얼굴 모습을 보다 효과적으로 추정할 수 있어 실종사건을 보다 효과적으로 해결할 수 있다.The present invention discloses an apparatus and method for reproducing a face using genetic information. A face reproducing apparatus using genetic information according to an aspect of the present invention can more effectively estimate a face of a missing person by estimating a person's face based on the genetic information extracted from the biometric information, thereby more effectively estimating the disappearance event. Can be solved.

Description

유전자 정보를 이용한 얼굴 재현 장치 및 방법{APPARATUS AND METHOD FOR FACIAL REPRODUCTION USING GENETIC INFORMATION}Facial reproduction device and method using genetic information {APPARATUS AND METHOD FOR FACIAL REPRODUCTION USING GENETIC INFORMATION}

본 발명은 유전자 정보를 이용한 얼굴 재현 장치 및 방법 에 관한 것으로, 더욱 상세하게는 사람의 생체정보에서 유전자 정보를 추출하여 추출된 유전자 정보를 기초로 사람의 얼굴을 재현하는 유전자 정보를 이용한 얼굴 재현 장치 및 방법에 관한 것이다.The present invention relates to a face reproducing apparatus and method using genetic information, and more particularly, a face reproducing apparatus using genetic information for reproducing a human face based on the extracted genetic information by extracting genetic information from human biometric information. And a method.

종래 기술에서는 얼굴 재현을 위해 3D 얼굴 모델 등을 이용하여 장기 실종자 얼굴 및 범죄자 얼굴 추정하거나, 미리 저장된 DNA 정보와 취득한 DNA 정보를 대조하여 실종자 얼굴 및 범죄자 얼굴을 추정하는 사례가 있었다. 하지만, 종래 기술에 따른 얼굴 재현을 위해서는 대조를 위한 DNA 정보가 사전에 저장되어 있어야만 가능하였고, 3D 얼굴 모델을 이용하는 종래 기술에 따라 재현된 얼굴은 목격자의 진술에 따르므로 실제 실종자 및 범죄자의 얼굴과 차이가 많아 실제적으로 활용도가 떨어지는 문제점이 발생한다.In the prior art, there has been a case of estimating a face of a long-term missing person and a criminal by using a 3D face model or the like to reproduce a face, or estimating the face of a missing person and a criminal by comparing previously stored DNA information and acquired DNA information. However, in order to reproduce the face according to the prior art, it was possible only when DNA information for contrast was stored in advance, and the face reproduced according to the prior art using a 3D face model follows the statement of an eyewitness. Due to the large difference, there is a problem that the practical use is degraded.

한국공개특허 제2004-0009460호(2004.01.31 공개)Korean Patent Publication No. 2004-0009460 (published on Jan. 31, 2004)

본 발명은 상기와 같은 문제점을 해결하기 위해 제안된 것으로서, 피, 땀, 피부세포, 머리카락 등과 같은 사람의 생체정보에서 유전자 정보를 추출하고, 추출된 유전자 정보를 기초로하여 사람의 얼굴을 재현하는 생체정보 기반의 얼굴 재현 장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, extracting genetic information from human biometric information such as blood, sweat, skin cells, hair, etc., and reproducing a human face based on the extracted genetic information. An object of the present invention is to provide an apparatus and method for reproducing a face based on biometric information.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 일 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by an embodiment of the present invention. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means shown in the claims and combinations thereof.

상기와 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 생체정보 기반의 얼굴 재현 장치는, 획득한 생체시료에서 유전자 정보를 분석하는 유전자 정보 분석부; 상기 분석된 유전자 정보로부터 SNP 정보를 추출하는 SNP 추출부; 상기 유전자 정보를 머신러닝 기법을 통해 학습하는 딥러닝 학습부; 및 상기 추출된 SNP 정보를 기초로 얼굴 이미지를 재현하는 얼굴 재현부;를 포함한다. In order to achieve the above object, a face reproduction apparatus based on biometric information according to an aspect of the present invention includes: a gene information analysis unit for analyzing gene information from an acquired biological sample; SNP extraction unit for extracting SNP information from the analyzed gene information; A deep learning learning unit that learns the genetic information through a machine learning technique; And a face reproducing unit for reproducing a face image based on the extracted SNP information.

목격자로부터 진술된 정보 또는 CCTV 영상을 기초로 추정된 얼굴 이미지를 보정하는 보정부;를 더 포함하는 것을 특징으로 한다. It characterized in that it further comprises a; correction unit for correcting the face image estimated based on the information stated by the witness or the CCTV image.

상기 유전자 정보 분석부는, 분석된 유전자 정보로부터 성별, 인종, 혈통의 정보 중 적어도 어느 하나를 추출하는 것을 특징으로 한다. The genetic information analysis unit may extract at least one of sex, race, and lineage information from the analyzed genetic information.

상기 딥러닝 학습부는, CNN(Convolutional Neural Network) 모델을 활용하여 유전자 정보를 학습하는 것을 특징으로 한다. The deep learning learning unit is characterized in that it learns genetic information using a convolutional neural network (CNN) model.

상기와 같은 목적을 달성하기 위한 본 발명의 다른 측면에 따른 유전자 정보를 이용한 얼굴 재현 장치에서의 얼굴 재현 방법은, 획득한 생체시료에서 유전자 정보를 분석하는 단계; 상기 분석된 유전자 정보로부터 SNP 정보를 추출하는 단계; 상기 유전자 정보를 머신러닝 기법을 통해 학습하는 단계; 및 상기 추출된 SNP 정보를 기초로 얼굴 이미지를 재현하는 단계;를 포함한다. A method for reproducing a face in a face reproducing apparatus using genetic information according to another aspect of the present invention for achieving the above object includes: analyzing the genetic information in the obtained biological sample; Extracting SNP information from the analyzed gene information; Learning the genetic information through a machine learning technique; And reproducing a face image based on the extracted SNP information.

목격자로부터 진술된 정보 또는 CCTV 영상을 기초로 추정된 얼굴 이미지를 보정하는 단계;를 더 포함하는 것을 특징으로 한다. It characterized in that it further comprises a; step of correcting the estimated face image based on the information stated by the witness or the CCTV image.

상기 유전자 정보를 분석하는 단계는, 분석된 유전자 정보로부터 성별, 인종, 혈통의 정보 중 적어도 어느 하나를 추출하는 것을 특징으로 한다. The step of analyzing the genetic information is characterized in that at least one of information on sex, race, and pedigree is extracted from the analyzed genetic information.

상기 유전자 정보를 머신러닝 기법을 통해 학습하는 단계는, CNN(Convolutional Neural Network) 모델을 활용하여 유전자 정보를 학습하는 것을 특징으로 한다. The step of learning the genetic information through a machine learning technique is characterized in that the genetic information is learned using a convolutional neural network (CNN) model.

본 발명의 일 측면에 따르면, 생체정보에서 추출된 유전자 정보를 기초로하여 사람의 얼굴을 추정함으로써, 실종자의 얼굴 모습을 보다 효과적으로 추정할 수 있어 실종사건을 보다 효과적으로 해결할 수 있다. According to an aspect of the present invention, by estimating a person's face based on the genetic information extracted from the biometric information, the face of the missing person can be more effectively estimated, and thus the disappearance case can be more effectively resolved.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present invention pertains from the following description. .

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용들과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 얼굴 재현 장치의 개략적인 기능 블록도,
도 2는 본 발명의 다른 실시예에 따른 얼굴 재현 장치의 개략적인 기능 블록도,
도 3은 본 발명의 일 실시예에 따른 얼굴 재현 방법의 개략적인 흐름도이다.
The following drawings appended to the present specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention along with specific details for carrying out the present invention. It should not be interpreted as being limited to the stated matters.
1 is a schematic functional block diagram of a face reproducing apparatus according to an embodiment of the present invention;
2 is a schematic functional block diagram of a face reproducing apparatus according to another embodiment of the present invention;
3 is a schematic flowchart of a method for reproducing a face according to an embodiment of the present invention.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.The above-described objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, whereby those of ordinary skill in the technical field to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, “… A term such as “sub” means a unit that processes at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.

본 발명에 따른 얼굴 재현 장치는 범죄 현장에서 목격자나 CCTV를 통한 범죄자 얼굴에 대한 실마리가 주어지지 않아 용의자를 가리기 힘든 경우 현장에 남겨진 생체정보를 기초로 몽타주를 생성할 수 있다.The face reproducing apparatus according to the present invention can generate a montage based on the biometric information left at the scene when it is difficult to cover the suspect because a clue about the face of a witness or a criminal through CCTV is not given at a crime scene.

도 1은 본 발명의 일 실시예에 따른 얼굴 재현 장치의 개략적인 기능 블록도, 도 2는 본 발명의 다른 실시예에 따른 얼굴 재현 장치의 개략적인 기능 블록도이다.1 is a schematic functional block diagram of a face reproducing apparatus according to an embodiment of the present invention, and FIG. 2 is a schematic functional block diagram of a face reproducing apparatus according to another embodiment of the present invention.

도 1을 참조하면, 본 실시예에 따른 얼굴 재현 장치(100)는 유전자 정보 분석부(110), SNP 추출부(120), 딥러닝 학습부(130) 및 얼굴 재현부(140)를 포함한다. Referring to FIG. 1, the face reproduction apparatus 100 according to the present embodiment includes a genetic information analysis unit 110, an SNP extraction unit 120, a deep learning learning unit 130, and a face reproduction unit 140.

유전자 정보 분석부(110)는 획득한 생체시료에서 유전자 정보를 분석한다. 이때, 생체시료는 피, 땀, 피부세포, 머리카락 등과 같은 사람의 생체정보를 포함하는 것일 수 있다. 이때, 분석된 유전자 정보로부터 성별, 인종, 혈통 등의 정보 중 적어도 어느 하나를 추출할 수 있다. 한편, 유전자 정보 분석부(110)는 분석된 유전자 정보를 별도의 저장공간인 데이터베이스에 저장하여 빅데이터화시킬 수 있다. 예컨대, 유전자 정보 분석부(110)는 유전자 정보와 이에 대응하는 사람들의 얼굴 이미지를 수집하여, 수집된 정보를 얼굴 이미지 재현에 활용할 수도 있다. 한편, 데이터베이스에는 사전에 얼굴 영상 정보와 DNA 정보를 수집하여, 얼굴 영상 정보로부터 얼굴 형태에 관련한 특징 성분을 추출하고, DNA 정보로부터 얼굴 생김새에 영향을 주는 SNP 정보를 추출하며, 추출된 얼굴 형태에 관한 부위별 속성값과 SNP 정보 간의 통계적 분석을 통하여 모델링된 상관 관계도가 저장될 수 있다. The gene information analysis unit 110 analyzes gene information from the obtained biological sample. In this case, the biological sample may include human biometric information such as blood, sweat, skin cells, hair, and the like. At this time, at least one of information such as sex, race, and pedigree may be extracted from the analyzed genetic information. Meanwhile, the gene information analysis unit 110 may store the analyzed gene information in a database, which is a separate storage space, and convert it into big data. For example, the gene information analysis unit 110 may collect gene information and face images of people corresponding thereto, and use the collected information to reproduce the face image. Meanwhile, in the database, facial image information and DNA information are collected in advance, feature components related to the face shape are extracted from the facial image information, SNP information that affects the appearance of the face is extracted from the DNA information, and the extracted face shape is A correlation diagram modeled through statistical analysis between attribute values for each site and SNP information may be stored.

SNP 추출부(120)는 분석된 유전자 정보로부터 SNP 정보를 추출할 수 있다. SNP(Single Nucleotide Polymorphism : 단일 뉴클레오타이드 다형성)는 얼굴 생김새에 영향을 주는 정보일 수 있다. 한편, 유전자는 DNA 상의 염기 배열 방식으로 DNA의 성분인 네 가지 염기 즉, 아데닌(A), 구아닌(G), 사이토신(C), 티민(T)이 DNA에서 어떤 순서로 배열되었는지에 따라 유전 정보를 저장한다. 결국, 유전자란, 쉽게 말해 4종류 알파벳(A, G, C, T)으로 이루어진 설명문이라고 할 수 있다. 이때, DNA 염기서열에서 하나의 염기서얼(A, T, G, C)의 차이를 보이는 유전적 변화 또는 변이를 SNP라고 한다. 인구집단에서 1% 이상의 빈도로 존재하는 2개 이상의 대립 염기서열이 발생하는 위치를 SNP라고 하며, 대립유전자형이 5% 이상의 빈도로 존재하는 경우 공통 다형성이라고 하며, 1 내지 5%인 경우 희귀 다형성으로 분류한다. SNP는 각 개인마다 많은 변이를 보이는 부분이므로 DNA 지문 분석에 많이 사용된다. 본 실시예에서는 얼굴 생김새에 영향을 주는 SNP를 기초로하여, 얼굴 재현을 추정하는데 사용된다. The SNP extraction unit 120 may extract SNP information from the analyzed gene information. Single Nucleotide Polymorphism (SNP) may be information that affects the appearance of a face. On the other hand, genes are inherited according to the order in which the four bases of DNA, namely adenine (A), guanine (G), cytosine (C), and thymine (T), are arranged in the DNA by the nucleotide sequence method on the DNA. Save the information. After all, it can be said that a gene is an explanatory text composed of four alphabets (A, G, C, T). At this time, a genetic change or mutation showing a difference in one nucleotide sequence (A, T, G, C) in the DNA sequence is called SNP. The location where two or more alleles present at a frequency of 1% or more in the population occurs is called SNP, and when the allele is present at a frequency of 5% or more, it is called a common polymorphism, and when 1 to 5% is a rare polymorphism. Classify. SNP is a part that shows a lot of variation for each individual, so it is often used for DNA fingerprint analysis. In this embodiment, it is used to estimate facial reproduction based on the SNP that affects the appearance of the face.

딥러닝 학습부(130)는 빅데이터화된 유전자 정보를 머신러닝 기법을 통해 학습한다. 딥러닝 학습부(130)는 저장된 데이터를 일정 비율 형태로 학습할 수 있다. 이때, 일정 비율은 8:2일 수 있으며, 학습 데이터를 8로 테스트 데이터를 2로 하여 학습할 수 있다. 머신러닝 기법은 공지된 기술로 자세한 설명은 생략하기로 한다. 학습시 딥러닝 모델로는 CNN(Convolutional Neural Network)을 활용할 수 있으며, CNN(Convolutional Neural Network) 활용시 입력으로는 유전자 정보를 사용하고, 출력으로는 얼굴 데이터를 사용할 수 있다. 보다 자세하게, 딥러닝 학습부(130)는 유전자 정보와 얼굴 이미지 사이의 관계를 머신러닝 기법을 통해 학습시키고 모델링하여 별도의 저장공간인 데이터베이스에 저장할 수 있다. 이때, 모델링된 정보는 얼굴 이미지와 SNP 정보 간의 관계식으로 표현될 수 있다. 한편, 데이터베이스에는 얼굴 영상 및 얼굴의 부위별 영상 정보가 더 저장될 수 있다. 데이터베이스는 다양한 인종, 국가에 적합한 데이터를 저장할 수 있다. The deep learning learning unit 130 learns genetic information converted to big data through machine learning techniques. The deep learning learning unit 130 may learn stored data in a predetermined ratio. In this case, a certain ratio may be 8:2, and training may be performed by using 8 as the training data and 2 as the test data. The machine learning technique is a known technique and a detailed description thereof will be omitted. During training, a CNN (Convolutional Neural Network) can be used as a deep learning model, and when a CNN (Convolutional Neural Network) is used, genetic information can be used as an input, and face data can be used as an output. In more detail, the deep learning learning unit 130 may learn and model the relationship between the genetic information and the face image through a machine learning technique and store it in a database, which is a separate storage space. In this case, the modeled information may be expressed as a relational expression between the face image and SNP information. Meanwhile, the database may further store a face image and image information for each portion of the face. The database can store data suitable for various races and countries.

얼굴 재현부(140)는 SNP 정보를 기초로 사람의 얼굴 이미지를 추정할 수 있다. 즉, 얼굴 재현부(140)는 SNP 추출부(120)에서 추출된 SNP 정보를 딥러닝 학습부(130)에 의해 학습되어 모델링된 정보와 매칭시켜 사람의 얼굴 이미지를 추정할 수 있다. 다시 말해, 얼굴 재현부(140)는 추출된 SNP 정보를 머신러닝 기법을 통해 학습되어 모델링된 정보에 반영하여 얼굴 이미지를 추정할 수 있다. The face reproducing unit 140 may estimate a human face image based on the SNP information. That is, the face reproducing unit 140 may estimate the human face image by matching the SNP information extracted by the SNP extraction unit 120 with the modeled information learned by the deep learning learning unit 130. In other words, the face reproducing unit 140 may estimate the face image by reflecting the extracted SNP information to the modeled information by learning through a machine learning technique.

한편, 본 실시예에 따른 얼굴 재현 장치(100)는 보정부(210)를 더 포함할 수 있다.Meanwhile, the face reproducing apparatus 100 according to the present embodiment may further include a correction unit 210.

보정부(210)는 목격자로부터 진술된 정보 및/또는 CCTV의 영상 정보를 기초로 얼굴 재현부(140)를 통해 추정된 얼굴 이미지를 보정할 수 있다. 이에 따라, 직접 증거인 생체 정보를 이용하여 추정된 용의자의 얼굴을 목격자나 CCTV 등의 간접 증거를 부가시켜 얼굴 이미지를 보정할 수 있다. 이러한 경우에는, 사람의 얼굴 이미지의 정확도를 높일 수 있는 효과가 있다. The correction unit 210 may correct the face image estimated through the face reproducing unit 140 based on the information stated by the witness and/or the image information of the CCTV. Accordingly, it is possible to correct the face image by adding indirect evidence such as a witness or CCTV to the face of the suspect estimated using biometric information, which is direct evidence. In this case, there is an effect of increasing the accuracy of a person's face image.

또한, 본 실시예에 따른 얼굴 재현 장치(100)는 모델링부(미도시)를 더 포함할 수 있다.In addition, the face reproducing apparatus 100 according to the present embodiment may further include a modeling unit (not shown).

모델링부는 얼굴 형태를 분류하여 얻은 얼굴 형태의 부위별 속성값과 SNP 정보 간의 통계적 분석을 통해 상관 관계를 모델링할 수 있으며, 모델링은 얼굴 형태와 SNP 정보 간의 관계식으로 표현될 수 있다. 이후, 모델링부에서 얼굴 형태와 SNP 정보 간의 상관 관계가 모델링되면, 얼굴 재현부(130)는 이후 입력되는 생체 시료로부터 유전자 정보를 이용한 얼굴을 추정할 수도 있다. 얼굴 재현부(130)가 모델링부에서 생성된 얼굴 형태를 이용하여 얼굴의 형태를 추정하는 경우, SNP 추출부(120)에서 추출된 SNP 정보를 모델링부(미도시)에서 생성된 얼굴 형태와 SNP 정보 간의 상관 관계의 분석 모델에 입력하여, 얼굴 부위가 분류된 각 속성에 대해 어떤 속성값을 갖는지 예측함으로써 얼굴의 형태를 추정할 수 있다. 이때, 얼굴 형태에 관련한 특징 성분은 별도의 얼굴 특징 추출부(미도시)에 의해 추출될 수 있다. 얼굴 부위 특징의 기준은 사용자에 의해 속성값이 정의될 수 있으며, 각 속성값은 단계별로 나타내어 사용될 수 있다. 한편, 표현된 얼굴의 속성값은 가변적으로 변경될 수도 있다. The modeling unit may model a correlation through statistical analysis between the attribute value of each part of the face shape obtained by classifying the face shape and SNP information, and the modeling may be expressed as a relational expression between the face shape and SNP information. Thereafter, when the correlation between the face shape and the SNP information is modeled in the modeling unit, the face reproducing unit 130 may estimate the face using the genetic information from the biological sample input thereafter. When the face reproducing unit 130 estimates the shape of the face using the face shape generated by the modeling unit, the SNP information extracted by the SNP extraction unit 120 is used as the face shape and SNP information generated by the modeling unit (not shown). It is possible to estimate the shape of the face by inputting it into the analysis model of the correlation between the face and predicting what attribute value the facial region has for each classified attribute. In this case, the feature component related to the shape of the face may be extracted by a separate facial feature extraction unit (not shown). As for the criterion of facial features, attribute values may be defined by the user, and each attribute value may be displayed in stages and used. Meanwhile, the attribute value of the expressed face may be variably changed.

한편, 얼굴 재현부(140)는 SNP 정보를 기초로 사람의 얼굴 이미지를 추정하되, SNP 추출부(120)에서 추출된 SNP 정보를 모델링부(미도시)에서 생성된 얼굴 형태와 SNP 정보 간의 상관 관계의 분석 모델에 입력하여, 얼굴 부위가 얼굴 특징 추출부(미도시)에서 분류된 각 속성에 대해 어떤 속성값을 갖는지 예측함으로써 얼굴의 형태를 추정할 수도 있다. Meanwhile, the face reproducing unit 140 estimates the human face image based on the SNP information, but the SNP information extracted by the SNP extraction unit 120 is correlated between the face shape generated by the modeling unit (not shown) and the SNP information. It is also possible to estimate the shape of the face by inputting it into the analysis model of, and predicting what attribute value the face part has for each attribute classified by the facial feature extraction unit (not shown).

또한, 본 실시예에 따른 얼굴 재현 장치는 얼굴 형태를 추정하기 이전에 초기얼굴 형태를 추정하는 얼굴 추정부(미도시)를 더 포함하여, 추정된 초기얼굴에 얼굴 부위별 속성값에 가중치를 적용하여 얼굴의 부위별 형태를 병합함에 따라 보다 정확하게 얼굴을 재현할 수도 있다.In addition, the face reproducing apparatus according to the present embodiment further includes a face estimating unit (not shown) for estimating an initial face shape before estimating the face shape, and applying a weight to an attribute value for each face part to the estimated initial face. Thus, by merging the shape of each part of the face, the face can be reproduced more accurately.

상술한 바에 따른 얼굴 재현 장치는 사람의 얼굴을 2차원 얼굴 모델 형태로 재현할 수 있다. 이때, 본 발명의 다른 실시예에 따르면, 얼굴 재현 장치는 재현된 2차원 얼굴 모델 형태를 3차원 형태로 재현하는 3차원 모델 형성부(미도시)를 더 포함하여 입체적인 얼굴 형태를 재현할 수도 있다. The face reproducing apparatus according to the above can reproduce a human face in the form of a two-dimensional face model. In this case, according to another embodiment of the present invention, the face reproducing apparatus may further include a three-dimensional model forming unit (not shown) that reproduces the reproduced two-dimensional face model shape in a three-dimensional shape to reproduce a three-dimensional face shape. .

3차원 모델 형성부는 얼굴 재현부(140)에 의해 생성된 2차원 얼굴 모델에서 특징점을 추출하여 3차원 표준 얼굴형들 간의 가중치 선형 조합을 통해 3차원 얼굴 모델을 생성할 수 있다. 구체적으로, 입력된 2차원 얼굴 영상으로부터 눈, 코, 입, 얼굴 윤곽에 대한 특징점을 추출하고, 추출된 2차원의 특징점을 기준으로 한국인을 대표하는 3D 표준 얼굴 형들간의 가중치 선형 조합을 통해 대상 이미지의 3차원 얼굴을 생성할 수 있다. 이때, 생성된 3차원 얼굴은 다양한 한국인 표준 모델을 기초로하여 생성될 수 있다. The 3D model forming unit may generate a 3D face model through a linear combination of weights between 3D standard face types by extracting feature points from the 2D face model generated by the face reproducing unit 140. Specifically, feature points for eyes, nose, mouth, and facial contours are extracted from the input 2D face image, and based on the extracted 2D feature points, the target is based on a linear combination of weights between 3D standard face types representing Koreans. You can create a three-dimensional face of an image. In this case, the generated 3D face may be generated based on various Korean standard models.

또한, 3차원 모델 형성부는 자동 표정 변화, 자유 변환 제공, 배경 변경 제공, 꾸미기 제공 중 적어도 하나의 기능을 제공할 수 있다. 자동 표정 변화 기능은 3차원 얼굴 모델의 다양한 얼굴 표정을 범주내의 값 조절을 통해 설정하는 기능으로 전문가의 수작업으로 이루어지는 기능을 손쉽게 다룰 수 있게 제공한다. 이는 기 구축된 3차원 표준 모델들의 표정 정보를 생성된 3차원 몽타주 모델에 전이시켜 표정 모델을 자동으로 생성하는 기법으로, 다양한 표정의 3차원 기초 세트를 구성하고 무표정 모델과 적절한 가중치의 선형 조합으로 원하는 표정을 만들어 낼 수 있다. 만들어진 표정 얼굴 소스를 대상 몽타주 3차원 모델에 적용함으로써 최종 목적인 표정이 변화된 대상 모델을 생성할 수 있다.In addition, the 3D model forming unit may provide at least one function of automatic facial expression change, free transformation provision, background change provision, and decoration provision. The automatic expression change function is a function that sets various facial expressions of a 3D face model through value adjustment within a category, and provides an easy way to handle functions manually performed by an expert. This is a technique that automatically generates an expression model by transferring the expression information of the previously constructed 3D standard models to the generated 3D montage model.It constructs a 3D basic set of various facial expressions and uses a linear combination of an expressionless model and an appropriate weight. You can create the expression you want. By applying the created facial expression source to the target montage 3D model, it is possible to create a target model with a changed facial expression, which is the final purpose.

자유 변환 제공 기능은 특징점 기반 방법 또는 스케치 기반 방법이 가능하다. 특징점 기반의 자유 변환은 3차원 모델 에디터로써, 3차원 모델에 부위별 특징점을 설정하여 설정된 점의 자유 변형(회전, 이동, 스케일)을 통해 부위별 얼굴 모델을 변형시킨다. 특징점은 얼굴 정보를 가장 잘 표현하는 위치에 설정하여 설정된 특징점만으로도 최대의 변형을 제공하되 사용자에게 사용하기 쉬운 변형 기능들을 제공할 수 있다. A feature point-based method or a sketch-based method can be used for the function of providing free transformation. The feature point-based free transformation is a 3D model editor that sets the feature points for each part in the 3D model and transforms the face model for each part through free transformation (rotation, movement, scale) of the set points. The feature point is set at the position that best expresses the face information, and the maximum deformation is provided only with the set feature point, but it is possible to provide the user with easy-to-use deformation functions.

스케치 기반의 자유 변환은 3차원 모델 변형 시 사용자가 직접 편집하고자 하는 얼굴의 실루엣 및 수정 실루엣을 그려서 얼굴의 실루엣 모양을 변형하는 에디터 기술이다. 특히, 스케치 기반 변형 유저 인터페이스를 통해 실루엣으로 표현되는 얼굴 형상에 대해 섬세한 변형이 가능하며, 동시에 사용자에게 얼굴 모델 변형에 있어 최대한의 자유를 제공할 수 있다. Sketch-based free transformation is an editor technology that transforms the shape of the silhouette of the face by drawing the silhouette of the face that the user wants to edit directly and the modified silhouette when transforming the 3D model. In particular, through a sketch-based transforming user interface, it is possible to delicately transform a face shape expressed as a silhouette, and at the same time, it is possible to provide the user with maximum freedom in transforming a face model.

배경 변경 제공 기능은 3차원 모델이 보이는 공간의 변환을 통해 3차원 모델이 보이는 이미지에 대해 사실성을 부여하고 좀 더 다양한 상황 재현을 가능토록 하여 목적 얼굴과 좀 더 유사하게 생성하는 것을 유도할 수 있다. 이에, 배경 변환 항목에는 얼굴의 이미지에 가장 큰 영향을 끼치는 배경 광원 조정과 색상 조정이 있다. 또한, 전체적인 이미지가 보여지는 느낌을 조정하기 위한 다양한 렌더링 기법을 제공할 수도 있다. The background change provision function gives realism to the image visible in the 3D model through transformation of the space in which the 3D model is visible, and enables a more diverse situation to be reproduced, thereby inducing the creation of a more similar to the target face. . Accordingly, background conversion items include background light source adjustment and color adjustment, which have the greatest influence on the image of the face. In addition, it is also possible to provide various rendering techniques to adjust the feeling of viewing the overall image.

꾸미기 제공 기능은 3차원 모델에 다양한 액세서리를 착용시켜 다양한 스타일을 꾸밀 수 있게 할 수 있다. 이는, 스타일에 따라 얼굴의 이미지가 많이 변한다는 점을 고려하여 목적 얼굴과 더 유사한 형태를 생성하기 위해 필요한 요소가 된다. 3차원 꾸미기 항목에는 안경, 모자, 헤어, 엑세서리 등이 있다. 각 소품은 에디터 툴에 의해 위치 이동 및 스케일 변형을 통해 대상 모델에 적절하게 위치시킬 수 있다. The decoration provision function can be used to decorate various styles by wearing various accessories on the 3D model. This becomes a necessary factor to create a shape more similar to the target face in consideration of the fact that the image of the face changes a lot according to the style. Three-dimensional decorating items include glasses, hats, hair, and accessories. Each prop can be properly positioned on the target model through position movement and scale transformation by the editor tool.

도 3은 본 발명의 일 실시예에 따른 얼굴 재현 방법의 개략적인 흐름도이다.3 is a schematic flowchart of a method for reproducing a face according to an embodiment of the present invention.

도 3을 참조하면, 먼저 얼굴 재현 장치(100)는 획득한 생체시료에서 유전자 정보를 분석한다(S310). 이때, 생체시료는 피, 땀, 피부세포, 머리카락 등과 같은 사람의 생체정보를 포함하는 것일 수 있다. 이때, 얼굴 재현 장치(100)는 분석된 유전자 정보로부터 성별, 인종, 혈통 등의 정보 중 적어도 어느 하나를 추출할 수 있다. 한편, 얼굴 재현 장치(100)는 분석된 유전자 정보를 별도의 저장공간인 데이터베이스에 저장하여 빅데이터화시킬 수 있다. Referring to FIG. 3, first, the face reproducing apparatus 100 analyzes gene information from an acquired biological sample (S310). In this case, the biological sample may include human biometric information such as blood, sweat, skin cells, hair, and the like. In this case, the face reproducing apparatus 100 may extract at least one of information such as sex, race, and blood line from the analyzed genetic information. Meanwhile, the face reproducing apparatus 100 may store the analyzed gene information in a database, which is a separate storage space, and convert it into big data.

다음으로, 얼굴 재현 장치(100)는 분석된 유전자 정보로부터 SNP 정보를 추출한다(S320). SNP(Single Nucleotide Polymorphism : 단일 뉴클레오타이드 다형성)는 얼굴 생김새에 영향을 주는 정보일 수 있다.Next, the face reproducing apparatus 100 extracts SNP information from the analyzed gene information (S320). Single Nucleotide Polymorphism (SNP) may be information that affects the appearance of a face.

다음으로, 얼굴 재현 장치(100)는 유전자 정보를 머신러닝 기법을 통해 학습한다(S330). 학습시 딥러닝 모델로는 CNN(Convolutional Neural Network)을 활용할 수 있으며, CNN(Convolutional Neural Network) 활용시 입력으로는 유전자 정보를 사용하고, 출력으로는 얼굴 데이터를 사용할 수 있다.Next, the face reproducing apparatus 100 learns genetic information through a machine learning technique (S330). During training, a CNN (Convolutional Neural Network) can be used as a deep learning model, and when using a CNN (Convolutional Neural Network), genetic information can be used as an input, and face data can be used as an output.

다음으로, 얼굴 재현 장치(100)는 추출된 SNP 정보를 기초로 얼굴 이미지를 재현한다(S340). 얼굴 재현 장치(100)는 추출된 SNP 정보를 머신러닝 모델에 의해 학습되어 모델링된 정보와 매칭시켜 사람의 얼굴 이미지를 추정할 수 있다.Next, the face reproducing apparatus 100 reproduces the face image based on the extracted SNP information (S340). The face reproducing apparatus 100 may estimate the human face image by matching the extracted SNP information with the modeled information by learning by a machine learning model.

한편, 얼굴 재현 장치(100)는 목격자로부터 진술된 정보 또는 CCTV 영상을 기초로 추정된 얼굴 이미지를 보정한다(S350).Meanwhile, the face reproducing apparatus 100 corrects the face image estimated based on the information stated by the witness or the CCTV image (S350).

본 발명은, 생체정보에 포함되는 유전자 정보를 기반으로 얼굴을 재현하는 하는 것으로, 사람들의 생체정보 즉, 피, 땀, 피부세포, 머리카락 등을 통해 추출 가능한 유전자 정보를 빅데이터화 한 다음, 빅데이터화된 유전자 정보를 머신러닝 기법을 통해 학습한 후, 얼굴이 알려지지 않은 사람의 생체정보를 이용하여 사람의 얼굴을 재현해볼 수 있다. 이에 따라, 실종자 및/또는 범죄자의 얼굴을 추정하거나 고대 인물을 재현하는 등에 활용할 수 있다. The present invention is to reproduce a face based on the genetic information included in the biometric information, and the biometric information of people, that is, the genetic information that can be extracted through blood, sweat, skin cells, hair, etc., is converted into big data, and then converted into big data. After learning the generated genetic information through machine learning techniques, the human face can be reproduced using the biometric information of a person whose face is unknown. Accordingly, it can be used to estimate the face of a missing person and/or a criminal, or to reproduce an ancient person.

본 발명의 실시예에 따른 방법들은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는, 본 발명을 위한 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The methods according to the embodiments of the present invention may be implemented as an application or implemented in the form of program instructions that can be executed through various computer components, and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and constructed for the present invention, and may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks. media) and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the processing according to the present invention, and vice versa.

본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 아니 된다. 또한, 본 명세서의 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서의 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절히 결합되어 구현될 수 있다.While this specification includes many features, such features should not be construed as limiting the scope or claims of the invention. In addition, features described in separate embodiments of the present specification may be combined and implemented in a single embodiment. Conversely, various features described in a single embodiment of the present specification may be individually implemented in various embodiments, or may be properly combined and implemented.

도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 안 된다. 특정 환경에서 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 앱 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.Although the operations have been described in a specific order in the drawings, it should not be understood that such operations are performed in a specific order as shown, or as a series of consecutive orders, or that all described operations are performed to obtain a desired result. Multitasking and parallel processing can be advantageous in certain environments. In addition, it should be understood that classification of various system components in the above-described embodiments does not require such classification in all embodiments. The above-described app components and systems may generally be implemented as a package in a single software product or multiple software products.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것은 아니다.The present invention described above, for those of ordinary skill in the art to which the present invention pertains, various substitutions, modifications and changes are possible within the scope of the technical spirit of the present invention. It is not limited by the drawings.

100 : 얼굴 재현 장치
110 : 유전자 정보 분석부
120 : SNP 추출부
130 : 딥러닝 학습부
140 : 얼굴 재현부
210 : 보정부
100: face reproduction device
110: genetic information analysis unit
120: SNP extraction unit
130: Deep Learning Department
140: face reproduction unit
210: correction unit

Claims (8)

획득한 생체시료에서 유전자 정보를 분석하는 유전자 정보 분석부;
상기 분석된 유전자 정보로부터 SNP 정보를 추출하는 SNP 추출부;
상기 유전자 정보를 머신러닝 기법을 통해 학습하는 딥러닝 학습부; 및
상기 추출된 SNP 정보를 기초로 얼굴 이미지를 재현하는 얼굴 재현부;를 포함하고,
얼굴 형태를 분류하여 얻은 얼굴 형태의 부위별 속성값과 SNP 정보 간의 통계적 분석을 통해 상관 관계를 모델링하는 모델링부; 및
얼굴 형태를 추정하기 이전에 초기얼굴 형태를 추정하는 얼굴 추정부;를 더 포함하고,
상기 얼굴 재현부는,
상기 모델링부에서 얼굴 형태와 SNP 정보 간의 상관 관계가 모델링된 후 입력되는 생체시료로부터 유전자 정보를 이용하여 얼굴을 추정하고,
상기 얼굴 추정부는,
추정된 초기얼굴에 얼굴 부위별 속성값에 가중치를 적용하여 얼굴의 부위별 형태를 병합하여 얼굴을 재현하는 것을 특징으로 하는 유전자 정보를 이용한 얼굴 재현 장치.
A gene information analysis unit that analyzes gene information from the obtained biological sample;
SNP extraction unit for extracting SNP information from the analyzed gene information;
A deep learning learning unit that learns the genetic information through a machine learning technique; And
Including; a face reproducing unit for reproducing a face image based on the extracted SNP information,
A modeling unit for modeling a correlation through statistical analysis between an attribute value for each part of the face shape obtained by classifying the face shape and SNP information; And
A face estimating unit for estimating the initial face shape before estimating the face shape; further comprising,
The face reproduction unit,
After the correlation between the face shape and the SNP information is modeled in the modeling unit, the face is estimated using genetic information from the input biological sample,
The face estimation unit,
A face reproduction apparatus using genetic information, characterized in that the face is reproduced by merging the shape of each face by applying a weight to an attribute value of each face part to the estimated initial face.
제 1 항에 있어서,
목격자로부터 진술된 정보 또는 CCTV 영상을 기초로 추정된 얼굴 이미지를 보정하는 보정부;를 더 포함하는 것을 특징으로 하는 유전자 정보를 이용한 얼굴 재현 장치.
The method of claim 1,
A face reproduction apparatus using genetic information, further comprising: a correction unit for correcting a face image estimated based on information stated by a witness or a CCTV image.
제 1 항에 있어서,
상기 유전자 정보 분석부는,
분석된 유전자 정보로부터 성별, 인종, 혈통의 정보 중 적어도 어느 하나를 추출하는 것을 특징으로 하는 유전자 정보를 이용한 얼굴 재현 장치.
The method of claim 1,
The genetic information analysis unit,
Facial reproduction apparatus using genetic information, characterized in that extracting at least one of information on sex, race, and pedigree from the analyzed genetic information.
제 1 항에 있어서,
상기 딥러닝 학습부는,
CNN(Convolutional Neural Network) 모델을 활용하여 유전자 정보를 학습하는 것을 특징으로 하는 유전자 정보를 이용한 얼굴 재현 장치.
The method of claim 1,
The deep learning learning unit,
A facial reproduction device using genetic information, characterized in that it learns genetic information using a CNN (Convolutional Neural Network) model.
유전자 정보를 이용한 얼굴 재현 장치에서의 얼굴 재현 방법에 있어서,
획득한 생체시료에서 유전자 정보를 분석하는 단계;
상기 분석된 유전자 정보로부터 SNP 정보를 추출하는 단계;
상기 유전자 정보를 머신러닝 기법을 통해 학습하는 단계; 및
상기 추출된 SNP 정보를 기초로 얼굴 이미지를 재현하는 단계;를 포함하고,
얼굴 형태를 분류하여 얻은 얼굴 형태의 부위별 속성값과 SNP 정보 간의 통계적 분석을 통해 상관 관계를 모델링하는 단계; 및
얼굴 형태를 추정하기 이전에 초기얼굴 형태를 추정하는 단계;를 더 포함하고,
상기 얼굴 이미지를 재현하는 단계는,
상기 상관 관계를 모델링하는 단계에서 얼굴 형태와 SNP 정보 간의 상관 관계가 모델링된 후 입력되는 생체시료로부터 유전자 정보를 이용하여 얼굴을 추정하는 단계를 포함하고,
상기 초기얼굴 형태를 추정하는 단계는,
추정된 초기얼굴에 얼굴 부위별 속성값에 가중치를 적용하여 얼굴의 부위별 형태를 병합하여 얼굴을 재현하는 단계를 포함하는 것을 특징으로 하는 얼굴 재현 방법.
In the face reproduction method in the face reproduction apparatus using genetic information,
Analyzing gene information from the obtained biological sample;
Extracting SNP information from the analyzed gene information;
Learning the genetic information through a machine learning technique; And
Reproducing a face image based on the extracted SNP information; Including,
Modeling a correlation through statistical analysis between an attribute value for each part of the face shape obtained by classifying the face shape and SNP information; And
The step of estimating the initial face shape before estimating the face shape; further comprising,
Reproducing the face image,
In the step of modeling the correlation, the correlation between the face shape and the SNP information is modeled, and then the face is estimated using genetic information from the input biological sample,
The step of estimating the initial face shape,
And reproducing the face by merging the shape of the face by applying a weight to an attribute value of each face part to the estimated initial face.
제 5 항에 있어서,
목격자로부터 진술된 정보 또는 CCTV 영상을 기초로 추정된 얼굴 이미지를 보정하는 단계;를 더 포함하는 것을 특징으로 하는 얼굴 재현 방법.
The method of claim 5,
Correcting the face image estimated based on the information stated by the witness or the CCTV image.
제 5 항에 있어서,
상기 유전자 정보를 분석하는 단계는,
분석된 유전자 정보로부터 성별, 인종, 혈통의 정보 중 적어도 어느 하나를 추출하는 것을 특징으로 하는 얼굴 재현 방법.
The method of claim 5,
Analyzing the genetic information,
A method for reproducing a face, comprising extracting at least one of information on sex, race, and lineage from the analyzed genetic information.
제 5 항에 있어서,
상기 유전자 정보를 머신러닝 기법을 통해 학습하는 단계는,
CNN(Convolutional Neural Network) 모델을 활용하여 유전자 정보를 학습하는 것을 특징으로 하는 얼굴 재현 방법.

The method of claim 5,
Learning the genetic information through a machine learning technique,
A face reproduction method, characterized in that it learns genetic information using a convolutional neural network (CNN) model.

KR1020190097357A 2018-08-09 2019-08-09 Apparatus and method for facial reproduction using genetic information KR102240237B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180092858 2018-08-09
KR20180092858 2018-08-09

Publications (2)

Publication Number Publication Date
KR20200018341A KR20200018341A (en) 2020-02-19
KR102240237B1 true KR102240237B1 (en) 2021-04-14

Family

ID=69670238

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190097357A KR102240237B1 (en) 2018-08-09 2019-08-09 Apparatus and method for facial reproduction using genetic information

Country Status (1)

Country Link
KR (1) KR102240237B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481555B1 (en) * 2020-12-29 2022-12-27 주식회사 테라젠바이오 Future face prediction method and device based on genetic information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011063819A1 (en) 2009-11-27 2011-06-03 Technical University Of Denmark Genome-wide association study identifying determinants of facial characteristics
US20130121548A1 (en) 2010-07-26 2013-05-16 Kjaya, Llc Adaptive visualization for direct physician use

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100456619B1 (en) * 2001-12-05 2004-11-10 한국전자통신연구원 A system for registering and authenticating human face using support vector machines and method thereof
KR20040009460A (en) 2002-07-23 2004-01-31 주식회사 페이스쓰리디 System and method for constructing three dimensional montaged geometric face
KR101635730B1 (en) * 2014-10-08 2016-07-20 한국과학기술연구원 Apparatus and method for generating montage, recording medium for performing the method
KR102339478B1 (en) * 2015-09-08 2021-12-16 한국과학기술연구원 Method for representing face using dna phenotyping, recording medium and device for performing the method
KR20180062917A (en) * 2016-11-30 2018-06-11 한국전자통신연구원 Apparatus and method for diagnosing cardiovascular disorders using genome information and health medical examination data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011063819A1 (en) 2009-11-27 2011-06-03 Technical University Of Denmark Genome-wide association study identifying determinants of facial characteristics
US20130039548A1 (en) * 2009-11-27 2013-02-14 Technical University Of Denmark Genome-Wide Association Study Identifying Determinants Of Facial Characteristics For Facial Image Generation
US20130121548A1 (en) 2010-07-26 2013-05-16 Kjaya, Llc Adaptive visualization for direct physician use
JP2013537445A (en) * 2010-07-26 2013-10-03 ケイジャヤ、エルエルシー Visualization adapted for direct use by physicians

Also Published As

Publication number Publication date
KR20200018341A (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP7200139B2 (en) Virtual face makeup removal, fast face detection and landmark tracking
CN105005777B (en) Audio and video recommendation method and system based on human face
CN105513125B (en) Composograph generating means and method, the recording medium for executing this method
JP2020526809A5 (en)
Zhang et al. Computer models for facial beauty analysis
Donia et al. Spontaneous facial expression recognition based on histogram of oriented gradients descriptor.
James et al. Emotion based music recommendation system
CN106651978B (en) Face image prediction method and system
KR102084782B1 (en) Method generating personification character with gan algorithm
WO2018203549A1 (en) Signal conversion device, method, and program
CN106558042B (en) Method and device for positioning key points of image
KR102240237B1 (en) Apparatus and method for facial reproduction using genetic information
CN113850169A (en) Face attribute migration method based on image segmentation and generation of confrontation network
CN110415261B (en) Expression animation conversion method and system for regional training
Nugraha et al. Video recognition of American sign language using two-stream convolution neural networks
CA3198335A1 (en) Systems and methods for artificial facial image generation conditioned on demographic information
Kaneko et al. Processing of face images and its applications
Al-agha et al. Geometric-based feature extraction and classification for emotion expressions of 3D video film
Gervasi et al. A method for predicting words by interpreting labial movements
KR20220155239A (en) Ai-based character creation system and method
JP7448006B2 (en) Object position estimation device
CN113781271A (en) Makeup teaching method and device, electronic equipment and storage medium
CN109509144B (en) Face aging method based on countermeasure generation network and related to occupation
CN113158735A (en) Dense event description method based on graph neural network
Tarannum et al. Human expression recognition based on facial features

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant