KR102063294B1 - Method and apparatus for converting ultrasound image into real image - Google Patents

Method and apparatus for converting ultrasound image into real image Download PDF

Info

Publication number
KR102063294B1
KR102063294B1 KR1020170129878A KR20170129878A KR102063294B1 KR 102063294 B1 KR102063294 B1 KR 102063294B1 KR 1020170129878 A KR1020170129878 A KR 1020170129878A KR 20170129878 A KR20170129878 A KR 20170129878A KR 102063294 B1 KR102063294 B1 KR 102063294B1
Authority
KR
South Korea
Prior art keywords
network
image
body region
attribute information
extracted
Prior art date
Application number
KR1020170129878A
Other languages
Korean (ko)
Other versions
KR20190040626A (en
Inventor
김다운
Original Assignee
알레시오 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알레시오 주식회사 filed Critical 알레시오 주식회사
Priority to KR1020170129878A priority Critical patent/KR102063294B1/en
Publication of KR20190040626A publication Critical patent/KR20190040626A/en
Application granted granted Critical
Publication of KR102063294B1 publication Critical patent/KR102063294B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Pregnancy & Childbirth (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 컴퓨팅 장치가 이미지를 변환하는 방법 및 그 컴퓨팅 장치를 개시한다. 본 방법은, 태아 초음파 이미지를 획득하는 단계; 제1 네트워크에 포함된 복수의 레이어를 이용하여, 상기 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출하는 단계; 및 제2 네트워크에 포함된 복수의 레이어를 이용하여, 상기 신체 영역으로부터 추출된 복수의 속성 정보를 기초로 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성하는 단계를 포함한다. The present invention discloses a method for a computing device to convert an image and a computing device. The method includes obtaining a fetal ultrasound image; Detecting at least one body region included in the fetal ultrasound image using a plurality of layers included in a first network; And synthesizing the characteristic information of the photo image corresponding to each attribute information based on the plurality of attribute information extracted from the body region by using the plurality of layers included in the second network.

Description

초음파 영상을 실사 영상으로 변환하는 방법 및 그 장치 {METHOD AND APPARATUS FOR CONVERTING ULTRASOUND IMAGE INTO REAL IMAGE}METHOD AND APPARATUS FOR CONVERTING ULTRASOUND IMAGE INTO REAL IMAGE}

본 발명은 초음파 영상을 실사 영상으로 변환하는 방법 및 그 장치에 관한 것이다. The present invention relates to a method and an apparatus for converting an ultrasound image into a real image.

대부분의 산모들은 태아의 발육 상태, 기형 여부, 산모의 양수의 양, 자궁 건강 등을 확인하기 위한 의료적 목적으로 초음파 검사를 실시한다. 그러나 최근에는 이러한 의료적 목적 이외에도 태아의 모습을 확인하고 보존하기 위해 초음파 검사를 실시하는 경우가 증가하고 있다. 이에 따라, 태아의 얼굴, 이목구비, 태아의 움직임을 보다 구체적으로 관찰할 수 있는 3차원 초음파 영상을 제공하는 입체 초음파 검사가 각광받고 있다. Most mothers perform ultrasound tests for medical purposes to check the development of the fetus, deformity, the amount of amniotic fluid, and uterine health. Recently, however, in addition to such medical purposes, ultrasound examinations are increasing to confirm and preserve the shape of the fetus. Accordingly, three-dimensional ultrasound examination that provides a three-dimensional ultrasound image that can more specifically observe the fetus's face, neck, fetal movement has been in the spotlight.

그러나, 이러한 3차원 초음파 영상의 경우, 태아의 형태적인 정보만을 가지고 있어, 태아의 자연스러운 얼굴형상을 인지하는데에는 어려움이 있으며, 초음파 사진의 왜곡으로 인해 실제와 다른 얼굴 형상이 제공될 가능성이 높다. However, such a 3D ultrasound image has only fetal morphological information, so it is difficult to recognize the natural face shape of the fetus, and it is likely that a face shape different from the actual one is provided due to the distortion of the ultrasound image.

이와 관련하여, 최근에는 입체 초음파 영상으로부터 태아의 얼굴을 스캔하여 3D 프린터로 구현하는 기술이 개발되었다. 이 기술은 태아의 얼굴을 입체적으로 형상화함으로써 사용자가 실제 아이를 보는 느낌을 가질 수 있도록 하고 있다. 그러나, 이 기술은 태아의 피부색이나 피부질감 등을 표현하지 못하며, 단순히 초음파 영상으로부터 획득된 태아의 형태적인 정보만을 3D 형상으로 제공하는데에 그치고 있다. 따라서, 보다 자연스러운 태아의 모습을 제공하기 위한 연구가 여전히 필요한 실정이다. In this regard, recently, a technology of scanning a fetal face from a stereoscopic ultrasound image and implementing the same with a 3D printer has been developed. This technology enables the user to have a feeling of seeing a real child by three-dimensionally shaping the face of the fetus. However, this technology does not express the skin color or texture of the fetus, and merely provides the 3D shape of the fetal morphological information obtained from the ultrasound image. Therefore, there is still a need for research to provide a more natural appearance of the fetus.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 뉴럴 네트워크를 이용하여 태아의 초음파 이미지를 실사 이미지로 변환하는 방법을 제공하는데에 그 목적이 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and an object thereof is to provide a method for converting an ultrasound image of a fetus into a live image using a neural network. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 이미지 변환 방법은, 태아 초음파 이미지를 획득하는 단계; 제1 네트워크에 포함된 복수의 레이어를 이용하여, 상기 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출하는 단계; 및 제2 네트워크에 포함된 복수의 레이어를 이용하여, 상기 신체 영역으로부터 추출된 복수의 속성 정보를 기초로 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성하는 단계를 포함한다. As a technical means for achieving the above-described technical problem, the image conversion method according to the first aspect of the present invention, obtaining a fetal ultrasound image; Detecting at least one body region included in the fetal ultrasound image using a plurality of layers included in a first network; And synthesizing the characteristic information of the photo image corresponding to each attribute information based on the plurality of attribute information extracted from the body region by using the plurality of layers included in the second network.

또한, 본 발명의 제2 측면에 따른 컴퓨팅 장치는, 태아 초음파 이미지를 실사 이미지로 변환하는 프로그램이 저장된 메모리; 및 상기 프로그램을 실행하는 프로세서를 포함한다. 이때, 상기 프로세서는, 상기 프로그램이 실행됨에 따라, 태아 초음파 이미지를 획득하고, 제1 네트워크에 포함된 복수의 레이어를 이용하여, 상기 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출하며, 제2 네트워크에 포함된 복수의 레이어를 이용하여, 상기 신체 영역으로부터 추출된 복수의 속성 정보를 기초로 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성한다. In addition, the computing device according to the second aspect of the present invention, a memory for storing a program for converting the fetal ultrasound image into a live-action image; And a processor for executing the program. In this case, as the program is executed, the processor acquires a fetal ultrasound image, detects at least one body region included in the fetal ultrasound image, using a plurality of layers included in the first network, 2, using the plurality of layers included in the network, the feature information of the photo image corresponding to each attribute information is synthesized based on the plurality of attribute information extracted from the body region.

또한, 본 발명의 제 3 측면은, 상기 제1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다. A third aspect of the invention also provides a computer readable recording medium having recorded thereon a program for executing the method of the first aspect on a computer.

전술한 본 발명의 과제 해결 수단에 의하면, 본 발명은 뉴럴 네트워크를 이용하여 태아의 초음파 사진의 형태적인 속성 정보를 기초로 각 속성 정보에 대응되는 사진 이미지의 특징 정보들을 합성함으로써, 태아의 실제 피부색이나 피부 질감 등을 실사처럼 복원할 수 있다. 또한, 뉴럴 네트워크를 신생아들의 사진 이미지들로 학습함으로써, 실제 신생아 얼굴의 확률 분포에 대응되도록 사진 이미지들이 합성되도록함으로써, 초음파 이미지의 왜곡이 보완되도록 할 수 있다.According to the above-described problem solving means of the present invention, the present invention synthesizes the characteristic information of the photo image corresponding to each attribute information on the basis of the morphological attribute information of the ultrasound image of the fetus using a neural network, the actual skin color of the fetus And skin textures can be restored like live action. In addition, by learning the neural network with photo images of newborns, the image images are synthesized to correspond to the probability distribution of the actual newborn face, thereby making it possible to compensate for the distortion of the ultrasound image.

도 1은 본 발명의 일 실시예에 따른 초음파 영상 변환 시스템을 도시한다.
도 2는 본 발명의 일 실시예에 따른 뉴럴 네트워크를 도시한 일례이다.
도 3은 본 발명의 다른 실시예에 따른 제2 네트워크를 도시한다.
도 4는 본 발명의 또 다른 실시예에 따른 제2 네트워크를 도시한다.
도 5는 본 발명의 일 실시예에 따른 서버의 구성을 도시한다.
도 6은 본 발명의 일 실시예에 따른 프로세서가 태아 초음파 이미지를 실사 이미지로 변환하는 동작을 설명하기 위한 순서도이다.
도 7은 본 발명의 일 실시예에 따른 프로세서를 설명하기 위한 도면이다.
1 illustrates an ultrasound image conversion system according to an embodiment of the present invention.
2 is an example of a neural network according to an embodiment of the present invention.
3 illustrates a second network according to another embodiment of the present invention.
4 shows a second network according to another embodiment of the present invention.
5 shows a configuration of a server according to an embodiment of the present invention.
FIG. 6 is a flowchart illustrating an operation of converting a fetal ultrasound image into a photorealistic image by a processor according to an exemplary embodiment.
7 is a diagram illustrating a processor according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this means that it may further include other components, except to exclude other components unless otherwise stated.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 초음파 영상 변환 시스템(1)을 도시한다. 1 shows an ultrasound image conversion system 1 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 초음파 영상 변환 시스템(1)은 태아의 초음파 영상을 제공하는 클라이언트 단말(20)과, 태아의 초음파 영상을 실사 영상으로 변환하는 서버(10)를 포함한다. Referring to FIG. 1, an ultrasound image conversion system 1 according to an embodiment of the present invention includes a client terminal 20 that provides an ultrasound image of a fetus, and a server 10 that converts an ultrasound image of a fetus into a real image. It includes.

먼저, 클라이언트 단말(20)은 태아를 촬영하는 초음파 촬영 기기 등과 같은 의료 기기이거나, 초음파 촬영 기기 등으로부터 태아 초음파 이미지를 제공받는 전자 기기일 수 있다. 클라이언트 단말(20)은 기 설치된 프로그램 또는 서버(10)의 주소를 이용하여 서버(10)에 접근할 수 있으며, 클라이언트 단말(20)에서 촬영되거나 저장된 태아 초음파 이미지를 서버(10)로 제공할 수 있다. 한편, 태아 초음파 이미지는 2차원 및 3차원 이미지일 수 있다. First, the client terminal 20 may be a medical device such as an ultrasound imaging device for capturing a fetus, or may be an electronic device that receives a fetus ultrasound image from an ultrasound imaging device. The client terminal 20 may access the server 10 by using a pre-installed program or the address of the server 10, and provide the fetal ultrasound image captured or stored by the client terminal 20 to the server 10. have. Meanwhile, fetal ultrasound images may be two-dimensional and three-dimensional images.

서버(10)는 통신망(30)을 통해 클라이언트 단말(20)로부터 제공받은 태아 초음파 이미지를 실사 이미지로 변환하는 처리 기능을 구비한 컴퓨팅 장치일 수 있다. 여기서, 실사 이미지란 태아의 피부색, 피부질감 등을 복원한 이미지를 의미할 수 있다. The server 10 may be a computing device having a processing function of converting a fetal ultrasound image provided from the client terminal 20 into a photorealistic image through the communication network 30. Here, the live-action image may mean an image of restoring the skin color, skin texture, and the like of the fetus.

서버(10)는 뉴럴 네트워크(neural network, 11)를 이용하여 태아 초음파 이미지를 실사 이미지로 변환할 수 있다. 뉴럴 네트워크(11)는, 통계학적 기계 학습의 결과를 이용하여, 태아 초음파 이미지의 다양한 속성 정보들을 추출하고, 추출된 속성 정보들을 기초로 태아 초음파 이미지를 실사 이미지로 변환하는 알고리즘 집합일 수 있다. 또한, 뉴럴 네트워크(11)는 전술한 알고리즘 집합을 실행하기 위한 소프트웨어 또는 엔진(engine) 등으로 구현될 수 있다. 소프트웨어 또는 엔진 등으로 구현된 뉴럴 네트워크는 서버(10) 내의 프로세서에 의해 실행될 수 있다.The server 10 may convert the fetal ultrasound image into a live image using a neural network 11. The neural network 11 may be a set of algorithms that extract various attribute information of the fetal ultrasound image and convert the fetal ultrasound image into a real image based on the extracted attribute information by using the result of statistical machine learning. In addition, the neural network 11 may be implemented by software or an engine or the like for executing the above-described algorithm set. The neural network implemented in software or an engine may be executed by a processor in the server 10.

도 2는 본 발명의 일 실시예에 따른 뉴럴 네트워크(11)를 도시한 일례이다.2 is an example of a neural network 11 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 뉴럴 네트워크(11)는 복수의 레이어를 포함하는 제1 네트워크(201) 및 제2 네트워크(202)를 포함할 수 있다.Referring to FIG. 2, the neural network 11 according to an embodiment of the present invention may include a first network 201 and a second network 202 including a plurality of layers.

먼저, 제1 네트워크(201)는 뉴럴 네트워크(11)에 입력되는 태아 초음파 이미지(12) 내에 포함된 다양한 속성들을 추상화함으로써, 태아 초음파 이미지(12) 내에 포함된 태아의 신체 영역을 검출 및/또는 판단할 수 있다. 여기서, 이미지 내 속성들을 추상화한다는 것은, 태아 초음파 이미지(12)로부터 속성 정보들을 검출하고, 검출된 속성 정보들 중에서 태아의 신체 영역을 대표할 수 있는 핵심 속성을 판단하는 것일 수 있다. First, the first network 201 detects and / or detects a body region of the fetus included in the fetal ultrasound image 12 by abstracting various attributes included in the fetal ultrasound image 12 input to the neural network 11. You can judge. Here, to abstract the attributes in the image may be to detect attribute information from the fetal ultrasound image 12 and to determine a core attribute that can represent the body region of the fetus among the detected attribute information.

이때, 제1 네트워크(201)는 복수의 레이어를 포함하는 추상화 네트워크(211) 및 적어도 하나의 영역분류 레이어(212)를 포함할 수 있다. In this case, the first network 201 may include an abstraction network 211 including a plurality of layers and at least one region classification layer 212.

서버(10)는 제1 네트워크(201)의 추상화 네트워크(211)에 포함된 복수의 레이어를 기초로 태아 초음파 이미지(12)의 속성 정보를 추출할 수 있다. 여기서, 속성 정보는, 비한정적인 예로서, 엣지(edge), 폴리건(polygon), 선명도(sharpness), 깊이(depth), 명도(brightness), 명도비(contrast), 블러(blur) 등을 포함할 수 있다. 서버(10)는 복수의 레이어 중 마지막 레이어에서 추출된 태아 초음파 이미지(12)의 속성 정보를 기초로 특징맵을 획득할 수 있다. 여기에서, 특징맵은 추출된 속성 정보의 조합으로서, 태아 초음파 이미지(12)의 속성을 대표하는 적어도 하나의 속성 벡터를 포함할 수 있다.The server 10 may extract attribute information of the fetal ultrasound image 12 based on a plurality of layers included in the abstraction network 211 of the first network 201. Here, the attribute information may include, by way of non-limiting example, edge, polygon, sharpness, depth, brightness, contrast, blur, and the like. Can be. The server 10 may obtain a feature map based on attribute information of the fetal ultrasound image 12 extracted from the last layer among the plurality of layers. Here, the feature map may include at least one attribute vector representing the attribute of the fetal ultrasound image 12 as a combination of extracted attribute information.

구현예에 따라, 추상화 네트워크(211)는 복수의 레이어에서 마지막 레이어 뿐만 아니라 다른 레이어(예컨대, 중간 단계 레이어)의 속성 정보를 조합하여 특징맵을 생성할 수도 있다. 이를 통해, 보다 정확하게 태아 초음파 이미지(12) 내의 신체 영역을 식별할 수 있다. According to an embodiment, the abstraction network 211 may generate a feature map by combining attribute information of not only the last layer but also another layer (eg, an intermediate layer) in the plurality of layers. Through this, it is possible to more accurately identify the body region in the fetal ultrasound image 12.

특징맵은 적어도 하나의 영역분류 레이어(212)의 입력 데이터로 적용할 수 있다. 서버(10)는 적어도 하나의 영역분류 레이어(212)에 특징맵을 입력한 결과로 획득된 경계박스(bounding box)를 기초로 신체 영역과 배경 영역을 구분함으로써 신체 영역에 대한 정보 및/또는 신체 영역의 경계에 대한 정보를 획득할 수 있다.The feature map may be applied as input data of at least one area classification layer 212. The server 10 distinguishes the body region from the background region based on a bounding box obtained as a result of inputting the feature map into the at least one region classification layer 212, and / or information about the body region and / or the body. Information about the boundary of the area can be obtained.

서버(10)는 제1 네트워크(201)에서 획득된 신체 영역에 대한 정보(예컨대, 경계 정보, 영역 정보 등)를 제2 네트워크(202)의 입력 데이터로 적용할 수 있다.The server 10 may apply information (eg, boundary information, area information, etc.) about the body area acquired in the first network 201 as input data of the second network 202.

제2 네트워크(202)는 제2 네트워크(202)에 입력되는 태아 초음파 이미지(12), 신체 영역에 대한 정보를 기초로, 태아 초음파 이미지(12)의 신체 영역 내에 포함된 다양한 속성들을 추상화하고, 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성함으로써, 태아 초음파 이미지(12)를 사진 합성 이미지(13)로 변환할 수 있다. The second network 202 abstracts various attributes included in the body region of the fetal ultrasound image 12 based on the fetal ultrasound image 12 input to the second network 202, information about the body region, The fetal ultrasound image 12 may be converted into the photo-synthesized image 13 by synthesizing the characteristic information of the photo-image corresponding to each attribute information.

이때, 제2 네트워크(202)는 복수의 레이어를 포함하는 추상화 네트워크(213) 및 합성 네트워크(214)를 포함할 수 있다. 서버(10)는 제1 네트워크(201)의 추상화 네트워크(211)에서와 유사하게, 추상화 네트워크(213)에 포함된 복수의 레이어를 이용하여, 신체 영역으로부터 다양한 속성 정보를 추출하고, 추출된 속성 정보를 조합하여 특징맵을 획득할 수 있다. In this case, the second network 202 may include an abstraction network 213 and a composite network 214 including a plurality of layers. Similar to the abstraction network 211 of the first network 201, the server 10 extracts various attribute information from the body region using a plurality of layers included in the abstraction network 213, and extracts the extracted attributes. The feature map can be obtained by combining the information.

서버(10)는 제2 네트워크(202)의 추상화 네트워크(213)에서 추출된 특징맵을 합성 네트워크(214)의 입력 데이터로 적용할 수 있다. 서버(10)는 합성 네트워크(214)에 포함된 복수의 레이어를 이용하여 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 추출하여 합성함으로써, 신체 영역을 실사 이미지로 변환할 수 있다. 여기서, 사진 이미지는 신생아를 실제 촬영한 이미지로, 서버(10)의 데이터 베이스(미도시)에 기 저장된 이미지일 수 있으나, 이에 한정된 것은 아니며, 서버(10)가 외부 서버 또는 외부 데이터 베이스로부터 획득하는 이미지일 수 있다. 또한, 사진 이미지의 특징 정보는 밝기, 색상, 반사색, 텍스처, 깊이, 블렌딩 등을 포함할 수 있다. The server 10 may apply the feature map extracted from the abstraction network 213 of the second network 202 as input data of the synthesis network 214. The server 10 may convert the body region into a photorealistic image by extracting and composing feature information of a photo image corresponding to each attribute information by using a plurality of layers included in the synthesis network 214. Here, the photographic image is an image of a newborn baby, which may be an image previously stored in a database (not shown) of the server 10, but is not limited thereto. The server 10 may be obtained from an external server or an external database. It may be an image. In addition, the characteristic information of the photo image may include brightness, color, reflection color, texture, depth, blending, and the like.

서버(10)는 합성 네트워크(214)의 복수의 레이어 중 마지막 레이어에서 추출된 사진 합성 이미지(13)를 기초로 최종 실사 이미지를 획득할 수 있다. 예시적으로, 서버(10)는 합성 네트워크(214)에서 추출된 사진 합성 이미지(13)에 대하여 해상도 조정, 크기 변환, 배경 영역 처리 등과 같은 후처리 과정을 수행함으로써, 최종 실사 이미지를 획득할 수 있다. 또한, 서버(10)는 복수의 신체 영역에 대한 사진 합성 이미지가 추출되는 경우, 복수의 신체 영역에 대한 사진 합성 이미지를 하나의 이미지로 통합할 수도 있다. The server 10 may obtain a final photorealistic image based on the photo composite image 13 extracted from the last layer of the plurality of layers of the composite network 214. For example, the server 10 may perform a post-processing process such as resolution adjustment, size conversion, background region processing, etc. on the photo composite image 13 extracted from the synthesis network 214, thereby obtaining a final photorealistic image. have. In addition, when the photo-composite images of the plurality of body regions are extracted, the server 10 may integrate the photo-composite images of the plurality of body regions into one image.

또한, 서버(10)는 일 신체 영역이 태아의 얼굴에 해당하며, 해당 신체 영역에 얼굴 내 신체 요소(예컨대, 눈, 코, 입, 귀) 중 일부가 다른 신체 영역에 의해 가려진 경우, 합성 네트워크(214)의 복수의 레이어들을 이용하여, 얼굴의 대칭성을 기초로 해당 신체 요소를 복원할 수도 있다. In addition, the server 10 may include a synthetic network when one body region corresponds to the face of the fetus, and when some of the body elements (eg, eyes, nose, mouth, and ears) in the face are covered by other body regions. The plurality of layers of 214 may be used to restore the corresponding body element based on symmetry of the face.

한편, 일 실시예에 따라 서버(10)는 합성 네트워크(214)의 복수의 레이어 중 적어도 하나의 레이어에서 추출된 사진 이미지의 특징 정보들이 합성된 합성 이미지가 조합된 사진 합성 이미지(13)를 획득할 수 있다. 이 경우, 각 레이어의 특성에 따른 서로 다른 가중치로 각 레이어의 합성 이미지가 조합될 수 있다. Meanwhile, according to an exemplary embodiment, the server 10 obtains a photo composite image 13 in which a composite image obtained by combining feature information of a photo image extracted from at least one layer among a plurality of layers of the composite network 214 is combined. can do. In this case, the composite image of each layer may be combined with different weights according to the characteristics of each layer.

또한, 일 실시예에 따라, 제1 네트워크(201)는 신체 영역의 카테고리를 결정할 수 있는 분류기(classifier, 미도시)를 더 포함할 수 있다. 또한, 신체 영역의 카테고리는, 예를 들어, 얼굴, 손, 발, 목 등을 포함할 수 있다. 또한, 신체 영역의 카테고리는, 눈, 코, 입, 귀 등을 포함할 수도 있다. 서버(10)는 분류기(미도시)에 신체 영역에 대응되는 특징맵 영역을 입력한 결과로 신체 영역의 카테고리를 획득할 수 있다. 또한, 서버(10)는 신체 영역의 카테고리 별로 제2 네트워크(202)에 포함된 복수의 레이어 중 적어도 하나의 레이어의 파라미터를 조정하거나, 적어도 하나의 레이어를 연산에서 생략 및/또는 추가할 수 있다. 또는, 서버(10)는 신체 영역의 카테고리에 기초하여 특정 신체 영역(예컨대, 손)을 제2 네트워크(202)에 입력하지 않음으로써, 해당 신체 영역을 배경 영역으로 처리할 수도 있다.In addition, according to an embodiment, the first network 201 may further include a classifier (not shown) capable of determining the category of the body region. In addition, the category of the body region may include, for example, a face, a hand, a foot, a neck, and the like. In addition, categories of body regions may include eyes, nose, mouth, ears, and the like. The server 10 may obtain a category of the body region as a result of inputting the feature map region corresponding to the body region into the classifier (not shown). In addition, the server 10 may adjust parameters of at least one layer among the plurality of layers included in the second network 202 for each category of the body region, or omit and / or add at least one layer in an operation. . Alternatively, the server 10 may process the body region as the background region by not inputting a specific body region (eg, hand) to the second network 202 based on the category of the body region.

한편, 위 설명에서는, 설명의 편의를 위해 제1 네트워크(201) 및 제2 네트워크(202)를 별개의 네트워크로 설명하였으나, 양 네트워크는 통합된 하나의 네트워크로 구현될 수 있으며, 더 세분화된 복수의 네트워크들로 구현될 수도 있다. 이와 마찬가지로, 제2 네트워크(202)의 추상화 네트워크(213) 및 합성 네트워크(214)는 하나의 네트워크로 구현될 수 있으며, 더 세분화된 복수의 네트워크로 구현될 수도 있다.Meanwhile, in the above description, for convenience of description, the first network 201 and the second network 202 are described as separate networks, but both networks may be implemented as one integrated network, and the plurality of networks may be further divided. It may be implemented in networks of. Similarly, the abstraction network 213 and the synthetic network 214 of the second network 202 may be implemented in one network, or may be implemented in a plurality of more granular networks.

도 3은 본 발명의 다른 실시예에 따른 제2 네트워크(301)를 도시한다.3 shows a second network 301 according to another embodiment of the present invention.

도 3을 참조하면, 제2 네트워크(301)는 도 2의 추상화 네트워크(213) 및 합성 네트워크(214) 이외에, 복수의 레이어를 포함하는 판별자 네트워크(215)를 더 포함할 수 있다. Referring to FIG. 3, the second network 301 may further include a discriminator network 215 including a plurality of layers, in addition to the abstraction network 213 and the synthesis network 214 of FIG. 2.

이때, 판별자 네트워크(215)에는 도 2의 합성 네트워크(214)에서 추출된 사진 합성 이미지가 입력 데이터로 적용될 수 있다. 서버(10)는 판별자 네트워크(215)에 입력된 사진 합성 이미지를 기초로 해당 사진 합성 이미지가 실제 촬영된 이미지에 해당할 확률을 판별한 판별 정보를 획득할 수 있다. 여기에서, 실제 촬영된 이미지는 일 시점에 단일 피사체를 촬영한 단일 이미지를 의미할 수 있다.In this case, the photo-synthesized image extracted by the synthesis network 214 of FIG. 2 may be applied to the discriminator network 215 as input data. The server 10 may obtain determination information that determines a probability that the corresponding photo composite image corresponds to the actually photographed image based on the photo composite image input to the discriminator network 215. Herein, the actually photographed image may mean a single image obtained by photographing a single subject at one point in time.

서버(10)는 판별자 네트워크(215)의 판별 정보(즉, 확률값)를 추상화 네트워크(213) 및 합성 네트워크(214)로 피드백(feedback)할 수 있다. 그리고 서버(10)는 판별자 네트워크(215)의 판별 정보가 임계값을 초과할 때까지, 판별 정보를 추상화 네트워크(213) 및 합성 네트워크(214) 중 적어도 하나로 반복 피드백하고, 판별 정보를 기초로 해당 신체 영역에 대한 사진 합성 이미지를 재획득할 수 있다. 그러나, 이에 한정되는 것은 아니며, 서버(10)는 기 설정된 횟수를 기초로, 추상화 네트워크(213) 및 합성 네트워크(214)를 반복 수행하여 사진 합성 이미지를 재획득할 수 있다. The server 10 may feed back the discrimination information (ie, probability value) of the discriminator network 215 to the abstraction network 213 and the synthesis network 214. The server 10 repeatedly feeds back the determination information to at least one of the abstraction network 213 and the synthesis network 214 until the determination information of the discriminator network 215 exceeds a threshold, and based on the determination information, A photographic composite image of the body region may be reacquired. However, the present invention is not limited thereto, and the server 10 may reacquire the photo composite image by repeatedly performing the abstraction network 213 and the synthesis network 214 based on a preset number.

이때, 서버(10)는 사진 합성 이미지가 실제 촬영된 이미지로 판별될 확률을 높이기 위해 추상화 네트워크(213) 및 합성 네트워크(214)의 각 레이어의 파라미터(예컨대, 가중치값(weight) 등)를 조정하거나, 복수의 레이어 중 적어도 하나의 레이어를 연산에서 생략 및/또는 추가할 수 있으나, 이에 한정되는 것은 아니다.At this time, the server 10 adjusts parameters (eg, weight, etc.) of each layer of the abstraction network 213 and the synthesis network 214 to increase the probability that the photographic composite image is actually determined to be taken. Alternatively, at least one layer of the plurality of layers may be omitted and / or added in an operation, but is not limited thereto.

전술한 과정을 통해, 서버(10)는 태아 초음파 이미지를 실제 촬영 이미지에 근접한 실사 이미지로 변환할 수 있다. Through the above-described process, the server 10 may convert the fetal ultrasound image into a live image that is close to the actual captured image.

도 4는 본 발명의 또 다른 실시예에 따른 제2 네트워크(401)를 도시한다.4 shows a second network 401 according to another embodiment of the present invention.

도 4를 참조하면, 제2 네트워크(401)는 태아 초음파 이미지의 신체 영역을 실사 이미지로 변환하기 위한 제1 추상화 네트워크(411), 제1 합성 네트워크(412) 및 제1 판별자 네트워크(413) 이외에, 실사 이미지를 다시 초음파 이미지로 변환하기 위한 제2 추상화 네트워크(414), 제2 합성 네트워크(415) 및 제2 판별자 네트워크(416)를 더 포함할 수 있다. 이때, 제1 추상화 네트워크(411) 및 제1 합성 네트워크(412)는 도 2의 추상화 네트워크(213) 및 합성 네트워크(214)에 대응되고, 제1 판별자 네트워크(413)는 도 3의 판별자 네트워크(215)에 대응되므로, 자세한 설명은 생략한다.Referring to FIG. 4, the second network 401 includes a first abstraction network 411, a first synthesis network 412, and a first discriminator network 413 for converting the body region of the fetal ultrasound image into a live-action image. In addition, the apparatus may further include a second abstraction network 414, a second synthesis network 415, and a second discriminator network 416 for converting the photo-realistic image into an ultrasound image. In this case, the first abstraction network 411 and the first synthesis network 412 correspond to the abstraction network 213 and the synthesis network 214 of FIG. 2, and the first discriminator network 413 is the discriminator of FIG. 3. Since it corresponds to the network 215, detailed description thereof will be omitted.

서버(10)는 제1 합성 네트워크(412)로부터 추출된 사진 합성 이미지를 제2 추상화 네트워크(414)의 입력 데이터로 적용할 수 있다. 서버(10)는 제2 추상화 네트워크(414)에 포함된 복수의 레이어들을 이용하여 사진 합성 이미지로부터 다양한 속성 정보를 추출하고, 추출된 속성 정보로부터 특징맵을 획득할 수 있다. 이때, 서버(10)는 제2 추상화 네트워크(414)의 복수의 레이어 중 적어도 하나의 레이어에서 추출된 속성 정보를 기초로 추출된 특징맵을 획득할 수 있다.The server 10 may apply the photo composite image extracted from the first composite network 412 as input data of the second abstraction network 414. The server 10 may extract various attribute information from the photo composite image by using the plurality of layers included in the second abstraction network 414 and obtain a feature map from the extracted attribute information. In this case, the server 10 may obtain the extracted feature map based on the attribute information extracted from at least one layer of the plurality of layers of the second abstraction network 414.

또한, 서버(10)는 제2 추상화 네트워크(414)에서 추출된 특징맵을 제2 합성 네트워크(415)의 입력 데이터로 적용할 수 있다. 서버(10)는 제2 합성 네트워크(415)에 포함된 복수의 레이어를 이용하여 특징맵을 기초로 각 속성 정보에 대응되는 초음파 이미지의 특징 정보들 이 합성된 초음파 합성 이미지를 획득할 수 있다. 여기서, 초음파 이미지는 실제 촬영된 초음파 이미지로서, 서버(10)의 데이터 베이스(미도시)에 기 저장된 이미지일 수 있으며, 초음파 이미지의 특징 정보는 엣지, 폴리건, 선명도, 명도, 명도비 등을 포함할 수 있다. In addition, the server 10 may apply the feature map extracted from the second abstraction network 414 as input data of the second synthesis network 415. The server 10 may obtain an ultrasound synthesized image obtained by synthesizing the feature information of the ultrasound image corresponding to each attribute information based on the feature map by using the plurality of layers included in the second synthesis network 415. Here, the ultrasound image may be an actual captured ultrasound image and may be an image previously stored in a database (not shown) of the server 10, and the feature information of the ultrasound image may include edge, polygon, sharpness, brightness, brightness ratio, and the like. Can be.

이때, 제2 합성 네트워크(415)에서 추출된 초음파 합성 이미지는 제2 판별자 네트워크(416)의 입력 데이터로 적용될 수 있다. 서버(10)는 제2 판별자 네트워크(416)에 입력된 초음파 합성 이미지를 기초로 실제 초음파 촬영 이미지에 해당할 확률을 판별한 제2 판별 정보를 획득할 수 있다. 서버(10)는 제2 판별 정보를, 제1 추상화 네트워크(411), 제2 추상화 네트워크(414), 제1 합성 네트워크(412) 및 제2 합성 네트워크(415) 중 적어도 하나로 제2 판별 정보를 피드백할 수 있다. 이에 따라, 제2 네트워크(401)에 포함된 적어도 하나의 레이어의 파라미터가 조정되거나, 적어도 하나의 레이어가 연산에서 생략 및/또는 추가될 수 있다. 이를 통해, 서버(10)는 제2 네트워크(401)에 포함된 복수의 레이어를 이용하여, 제2 판별 정보를 기초로 사진 합성 이미지 및 초음파 합성 이미지를 재획득할 수 있다. In this case, the ultrasound composite image extracted by the second composite network 415 may be applied as input data of the second discriminator network 416. The server 10 may obtain second discrimination information that determines a probability corresponding to the actual ultrasound image based on the ultrasound synthesized image input to the second discriminator network 416. The server 10 transmits the second discrimination information to at least one of the first abstraction network 411, the second abstraction network 414, the first synthesis network 412, and the second synthesis network 415. You can feedback. Accordingly, parameters of at least one layer included in the second network 401 may be adjusted, or at least one layer may be omitted and / or added to the operation. In this way, the server 10 may reacquire the photo composite image and the ultrasonic composite image based on the second determination information by using the plurality of layers included in the second network 401.

이후, 서버(10)는 제2 합성 네트워크(415)로부터 추출된 최종 초음파 합성 이미지와 최초 태아 초음파 이미지 간의 근접도를 기초로 제2 네트워크(401)를 반복 수행할 수 있다. 여기서, 근접도는 양 이미지 이미지의 차에 대한 절대값의 합으로 획득될 수 있다. 또는, 근접도는 각 이미지로부터 획득되는 특성 벡터 간의 거리일 수 있으나, 이에 한정되는 것은 아니다. Thereafter, the server 10 may repeat the second network 401 based on the proximity between the final ultrasound synthesized image extracted from the second synthesized network 415 and the first fetal ultrasound image. Here, the proximity may be obtained as a sum of absolute values for the difference between the two image images. Alternatively, the proximity may be a distance between feature vectors obtained from each image, but is not limited thereto.

이와 같이, 일 실시예에 따른 제2 네트워크(401)는 제1 추상화 네트워크(411) 및 제1 합성 네트워크(412)에 의해 생성된 실사 이미지가 초기 태아 초음파 이미지의 고유 정보들을 포함하여 변환되도록 함으로써, 이미지 변환 과정에서 발생될 수 있는 동일성(consistency) 저하를 방지할 수 있다.As such, the second network 401 according to an embodiment causes the real image generated by the first abstraction network 411 and the first synthesis network 412 to be converted to include the unique information of the initial fetal ultrasound image. As a result, it is possible to prevent a decrease in consistency that may occur during the image conversion process.

도 5는 본 발명의 일 실시예에 따른 서버(10)의 구성을 도시한다. 서버(10)는 메모리(110) 및 프로세서(120)를 포함한다. 5 shows a configuration of a server 10 according to an embodiment of the present invention. The server 10 includes a memory 110 and a processor 120.

메모리(110)에는 프로세서(120)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다. 일 실시예에 따라 메모리(110)는 태아 초음파 이미지를 실사 이미지로 변환하는 프로그램을 저장할 수 있다. 상기 프로그램은 뉴럴 네트워크 모듈을 포함할 수 있다. The memory 110 may store programs (one or more instructions) for processing and controlling the processor 120. Programs stored in the memory 110 may be divided into a plurality of modules according to functions. According to an embodiment, the memory 110 may store a program for converting a fetal ultrasound image into a live image. The program may include a neural network module.

뉴럴 네트워크 모듈은 제1 네트워크에 포함된 복수의 레이어들 및 제2 네트워크에 포함된 복수의 레이어들을 포함할 수 있다. 또한, 제1 네트워크에 포함된 복수의 레이어들은, 태아 초음파 이미지로부터 속성 정보를 추출하는 제1 추상화 네트워크에 포함된 복수의 레이어들과, 신체 영역을 식별 및/또는 검출하는 적어도 하나의 영역분류 레이어로 구분될 수 있다. 또한, 제2 네트워크에 포함된 복수의 레이어들은, 신체 영역으로부터 속성 정보를 추출하는 제2 추상화 네트워크에 포함된 복수의 레이어들과, 사진 이미지의 특징 정보를 합성하는 제1 합성 네트워크에 포함된 복수의 레이어로 구분될 수 있다. The neural network module may include a plurality of layers included in the first network and a plurality of layers included in the second network. In addition, the plurality of layers included in the first network may include a plurality of layers included in the first abstraction network extracting attribute information from the fetal ultrasound image, and at least one region classification layer for identifying and / or detecting a body region. It can be divided into. In addition, the plurality of layers included in the second network may include a plurality of layers included in the second abstraction network extracting attribute information from the body region and a plurality of layers included in the first synthesis network synthesizing the characteristic information of the photographic image. It can be divided into layers.

또한, 일 실시예에 따라, 제2 네트워크는 합성 네트워크에서 추출된 사진 합성 이미지가 실제 촬영된 이미지에 해당할 확률을 판별하는 제1 판별자 네트워크에 포함된 복수의 레이어들을 더 포함할 수 있다. 또한, 제2 네트워크에 포함된 복수의 레이어들은 제1 합성 네트워크에서 추출된 사진 합성 이미지의 속성 정보를 기초로 특징맵을 추출하는 제3 추상화 네트워크에 포함된 복수의 레이어들과, 상기 특징맵을 기초로 초음파 합성 이미지를 추출하는 제2 합성 네트워크에 포함된 복수의 레이어들로 구분될 수 있다. In addition, according to an embodiment, the second network may further include a plurality of layers included in the first discriminator network that determines a probability that the photo-synthesized image extracted from the synthesis network corresponds to the actually photographed image. The plurality of layers included in the second network may include the plurality of layers included in the third abstraction network extracting the feature map based on the attribute information of the photo composite image extracted from the first composite network, and the feature map. It may be divided into a plurality of layers included in the second synthesis network that extracts the ultrasound composite image on the basis.

이때, 제1 내지 제3 추상화 네트워크에 포함된 각 레이어는 입력 이미지로부터 이미지의 속성 정보를 추출하여 특징맵을 생성하는 하나 이상의 인스트럭션을 포함하는 컨벌루셔널 레이어(convolutional layer), 및/또는 추출된 속성 정보로부터 대표값을 결정하는 하나 이상의 인스트럭션을 포함하는 풀링 레이어(pooling layer)를 포함할 수 있다. 또한, 제1 네트워크의 영역분류 레이어는 제1 네트워크의 추상화 네트워크로부터 획득한 특징맵을 기초로 신체 영역을 배경 영역과 구분하는 하나 이상의 인스트럭션을 포함하는 컨벌루셔널 레이어 및/또는 풀링 레이어를 포함할 수 있다. In this case, each layer included in the first to third abstraction networks may include a convolutional layer including one or more instructions for generating a feature map by extracting attribute information of the image from the input image, and / or the extracted layer. It may include a pooling layer including one or more instructions for determining a representative value from the attribute information. In addition, the region classification layer of the first network may include a convolutional layer and / or a pooling layer including one or more instructions that distinguish the body region from the background region based on the feature map obtained from the abstraction network of the first network. Can be.

또한, 제1 및 제2 합성 네트워크에 포함된 복수의 레이어들은 속성 정보에 대응되는 적어도 하나의 사진 이미지 및 초음파 이미지의 특징 정보를 합성하는 하나 이상의 인스트럭션을 포함하는 디컨벌루셔널 레이어(deconvolutional layer)를 포함할 수 있다. In addition, the plurality of layers included in the first and second composite networks may include a deconvolutional layer including one or more instructions for synthesizing the characteristic information of at least one photo image and an ultrasound image corresponding to the attribute information. It may include.

또한, 제1 및 제2 판별자 네트워크에 포함된 복수의 레이어들은 사진 합성 이미지 및 초음파 합성 이미지가 실제 촬영된 이미지 및 실제 촬영된 초음파 이미지에 해당할 확률을 판별하는 하나 이상의 인스트력션을 포함하는 컨벌루셔널 레이어 및/또는 풀링 레이어를 포함할 수 있다. In addition, the plurality of layers included in the first and second discriminator networks may include one or more instruments for determining a probability that the photo composite image and the ultrasonic composite image correspond to the actually captured image and the actually captured ultrasonic image. It may include a convolutional layer and / or a pooling layer.

프로세서(120)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다. The processor 120 may include a connection passage (for example, a bus) for transmitting and receiving signals with one or more cores (not shown) and a graphics processor (not shown) and / or other components. .

일 실시예에 따라 프로세서(120)는 뉴럴 네트워크 모듈 내의 제1 네트워크 및 제2 네트워크에 포함된 하나 이상의 인스트럭션들을 병렬적으로 처리할 수 있다. According to an embodiment, the processor 120 may process one or more instructions included in the first network and the second network in the neural network module in parallel.

이하, 도 6을 참조하여, 프로세서(120)가 태아 초음파 이미지를 실사 이미지로 변환하는 동작을 상세히 설명한다. Hereinafter, referring to FIG. 6, an operation of the processor 120 converting a fetal ultrasound image into a live image will be described in detail.

먼저, 프로세서(120)는 태아 초음파 이미지를 획득한다(S110). First, the processor 120 obtains a fetal ultrasound image (S110).

이후, 프로세서(120)는 제1 네트워크에 포함된 복수의 레이어를 이용하여, 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출한다(S120).Thereafter, the processor 120 detects at least one body region included in the fetal ultrasound image by using the plurality of layers included in the first network (S120).

예시적으로, 프로세서(120)는 제1 추상화 네트워크에 포함된 복수의 레이어 중 제1 레이어를 이용하여 태아 초음파 이미지로부터 엣지 정보를 추출할 수 있다. 또한, 프로세서(120)는 추출된 엣지 정보를 상기 제1 레이어와 연결된 제2 레이어에 입력 데이터로 적용하여, 제2 레이어로부터 폴리머를 추출할 수 있다. 전술한 방식과 같이 프로세서(120)는 복수의 레이어 각각에 태아 초음파 이미지를 입력하거나, 이전 레이어로부터 추출된 속성 정보를 입력 데이터로 적용함으로써, 이미지의 다양한 속성 정보를 추출할 수 있다. 이어서, 프로세서(120)는 적어도 하나의 레이어를 이용하여 추출된 속성 정보를 조합함으로써, 태아 초음파 이미지의 특징을 나타내는 특징맵을 획득할 수 있다. 이때, 프로세서(120)는 제1 추상화 네트워크의 마지막 레이어에서 추출된 속성 정보 이외에, 다른 레이어에서 추출된 속성 정보를 더 조합하여 특징맵을 획득할 수도 있다. 이때, 서로 다른 레이어의 속성 정보는 서로 다른 가중치로 조합될 수 있으나, 이에 한정되는 것은 아니다. In exemplary embodiments, the processor 120 may extract edge information from the fetal ultrasound image by using a first layer among a plurality of layers included in the first abstraction network. In addition, the processor 120 may extract the polymer from the second layer by applying the extracted edge information as input data to the second layer connected to the first layer. As described above, the processor 120 may extract various attribute information of the image by inputting the fetal ultrasound image to each of the plurality of layers or by applying the attribute information extracted from the previous layer as input data. Subsequently, the processor 120 may acquire the feature map representing the feature of the fetal ultrasound image by combining attribute information extracted using at least one layer. In this case, the processor 120 may further combine the attribute information extracted from another layer in addition to the attribute information extracted from the last layer of the first abstraction network to obtain a feature map. At this time, the attribute information of different layers may be combined with different weights, but is not limited thereto.

또한, 프로세서(120)는 적어도 하나의 영역분류 레이어를 이용하여 신체 영역을 배경 영역과 구분함으로써, 신체 영역 및/또는 신체 영역의 경계를 식별할 수 있다. 이때, 프로세서(120)는 특징맵을 해당 레이어에 입력한 결과로 획득된 경계박스를 기초로 신체 영역과 배경 영역을 구분할 수 있다. In addition, the processor 120 may distinguish the body region from the background region by using at least one region classification layer to identify the body region and / or the boundary of the body region. In this case, the processor 120 may distinguish the body region and the background region based on the boundary box obtained as a result of inputting the feature map into the corresponding layer.

또한, 프로세서(120)는 제1 네트워크에 포함된 분류기에 식별된 신체 영역에 대응하는 특징맵 영역을 입력한 결과로 신체 영역의 카테고리를 획득할 수 있다.In addition, the processor 120 may obtain a category of the body region as a result of inputting the feature map region corresponding to the body region identified in the classifier included in the first network.

한편, 프로세서(120)는 단계 S120 이후에, 식별된 신체 영역의 기울기를 기초로, 신체 영역을 기 설정된 기울기에 대응되도록 회전시킬 수 있다. 기 설정된 기울기는, 예를 들어, 0도, 90도, 180도 등일 수 있으나, 이에 한정되는 것은 아니다. 한편, 신체 영역의 회전은, 제1 네트워크에 특징맵을 기초로 신체 영역의 기울기를 식별하기 위한 적어도 하나의 레이어 및 신체 영역을 회전시키는 적어도 하나의 레이어를 추가함으로써 수행될 수 있다. 그러나, 이에 한정되는 것은 아니며, 프로세서(120)는 추가 네트워크를 이용하여 신체 영역을 회전시키거나, 이미지 회전 함수를 이용하여 신체 영역을 회전시킬 수도 있다. Meanwhile, after step S120, the processor 120 may rotate the body region to correspond to the preset slope based on the identified slope of the body region. The preset slope may be, for example, 0 degrees, 90 degrees, 180 degrees, or the like, but is not limited thereto. Meanwhile, the rotation of the body region may be performed by adding at least one layer for identifying an inclination of the body region and at least one layer for rotating the body region to the first network. However, the present invention is not limited thereto, and the processor 120 may rotate the body region using an additional network, or may rotate the body region using an image rotation function.

이후, 프로세서(120)는 제2 네트워크에 포함된 복수의 레이어를 이용하여 신체 영역의 하나 이상의 속성 정보를 추출하고, 추출된 속성 정보를 기초로 실사 이미지를 생성한다(S130). Thereafter, the processor 120 extracts one or more attribute information of the body region by using the plurality of layers included in the second network, and generates a photorealistic image based on the extracted attribute information (S130).

예시적으로, 프로세서(120)는 제2 추상화 네트워크에 포함된 복수의 레이어 중 제1 레이어를 이용하여 신체 영역으로부터 엣지 정보를 추출할 수 있다. 또한, 프로세서(120)는 추출된 색상 특징을 상기 제1 레이어와 연결된 제2 레이어에 입력 데이터로 적용하여, 제2 레이어로부터 폴리머를 추출할 수 있다. 전술한 방식과 같이 프로세서(120)는 복수의 레이어 각각에 신체 영역을 입력하거나, 이전 레이어로부터 추출된 속성 정보를 입력 데이터로 적용함으로써 특징맵을 획득할 수 있다. 이때, 프로세서(120)는 제2 추상화 네트워크의 마지막 레이어에서 추출된 속성 정보 이외에, 다른 레이어에서 추출된 속성 정보를 더 조합하여 특징맵을 획득할 수 있다. In exemplary embodiments, the processor 120 may extract edge information from a body region using a first layer among a plurality of layers included in the second abstraction network. In addition, the processor 120 may extract the polymer from the second layer by applying the extracted color feature to the second layer connected to the first layer as input data. As described above, the processor 120 may obtain a feature map by inputting a body region to each of the plurality of layers or by applying attribute information extracted from a previous layer as input data. In this case, the processor 120 may obtain a feature map by further combining the attribute information extracted from another layer in addition to the attribute information extracted from the last layer of the second abstraction network.

이후, 프로세서(120)는 제1 합성 네트워크에 포함된 복수의 레이어를 이용하여 사진 이미지의 특징 정보가 합성된 사진 합성 이미지를 획득한다. 예를 들어, 프로세서(120)는 제1 합성 네트워크의 제1 레이어를 이용하여, 특징맵을 기초로 폴리머에 대응되는 색상 정보를 합성할 수 있다. 또한, 프로세서(120)는 제1 레이어에서 추출된 합성 이미지를 제1 레이어와 연결된 제2 레이어에 입력 데이터로 적용하여, 제2 레이어로부터 폴리머에 대응되는 질감 정보를 합성할 수 있다. 전술한 방식과 같이 프로세서(120)는 복수의 레이어 각각에서 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성함으로써, 합성 이미지를 획득할 수 있다. 이때, 프로세서(120)는 제1 합성 네트워크의 마지막 레이어에서 추출된 합성 이미지 이외에, 다른 레이어에서 추출된 합성 이미지를 더 조합하여 최종 합성 이미지를 획득할 수도 있다. 이때, 서로 다른 레이어의 합성 이미지들은 서로 다른 가중치로 조합될 수 있으나, 이에 한정되는 것은 아니다.Thereafter, the processor 120 obtains a photo-synthesized image obtained by synthesizing the feature information of the photo-image using the plurality of layers included in the first composite network. For example, the processor 120 may synthesize color information corresponding to the polymer based on the feature map using the first layer of the first synthesis network. In addition, the processor 120 may synthesize texture information corresponding to the polymer from the second layer by applying the composite image extracted from the first layer as input data to the second layer connected to the first layer. As described above, the processor 120 may acquire the composite image by synthesizing the feature information of the photo image corresponding to each attribute information in each of the plurality of layers. In this case, the processor 120 may obtain a final composite image by further combining a composite image extracted from another layer in addition to the composite image extracted from the last layer of the first composite network. In this case, the composite images of the different layers may be combined with different weights, but are not limited thereto.

또한, 사진 이미지의 특징 정보는 태아의 피부색, 국적, 인종, 성별 및 변환 타겟 나이(또는 변환 타겟 개월 수) 중 적어도 하나를 기초로 추출될 수 있다. 예시적으로, 제2 네트워크는 태아의 피부색, 국적, 인종, 성별 등과 같은 적어도 하나의 태아의 환경 정보를 파라미터로 입력받을 수 있다. 이 경우, 제2 네트워크에 포함된 각 레이어는 해당 파라미터를 고려하여 태아의 초음파 이미지를 실사 이미지로 변환할 수 있다. 또한, 제2 네트워크는 태아의 초음파 이미지가 타겟하는 나이(즉, 변환 타겟 나이)의 사진 이미지들의 특징 정보들에 기반하여 실사 이미지로 변환될 수 있도록 할 수 있다. 이를 위해, 제2 네트워크는 변환 타겟 나이를 파라미터로 더 입력받을 수 있다. 이때, 프로세서(120)는 제2 네트워크에 입력되는 적어도 하나의 파라미터를 클라이언트 단말(20)로부터 제공받을 수 있다. In addition, the characteristic information of the photographic image may be extracted based on at least one of skin color, nationality, race, sex, and conversion target age (or conversion target months) of the fetus. In exemplary embodiments, the second network may receive, as a parameter, environmental information of at least one fetus such as skin color, nationality, race, gender, etc. of the fetus. In this case, each layer included in the second network may convert the ultrasound image of the fetus into a live image in consideration of the corresponding parameter. In addition, the second network may enable the ultrasound image of the fetus to be converted into a live image based on feature information of photographic images of a target age (ie, a transform target age). To this end, the second network may further receive a conversion target age as a parameter. In this case, the processor 120 may receive at least one parameter input to the second network from the client terminal 20.

이후, 프로세서(120)는 제2 네트워크에서 추출된 사진 합성 이미지에 해상도 보정, 크기 변환, 배경 영역 처리 등과 같은 후처리 작업을 수행할 수 있다. 예시적으로, 프로세서(120)는 사진 합성 이미지에 보간 필터, 컨벌루션(convolution) 필터 등을 적용할 수 있다. 또한, 프로세서(120)는 복수의 신체 영역에 대한 사진 합성 이미지가 추출되는 경우, 복수의 신체 영역에 대한 사진 합성 이미지를 하나의 이미지로 통합할 수도 있다. 이때, 프로세서(120)는 이미지를 합성하기 위한 복수의 레이어를 포함하는 추가 네트워크를 더 이용할 수 있으나, 이에 한정되는 것은 아니다. Subsequently, the processor 120 may perform post-processing operations such as resolution correction, size conversion, background region processing, and the like, on the photo composite image extracted from the second network. In exemplary embodiments, the processor 120 may apply an interpolation filter, a convolution filter, or the like to the photo composite image. In addition, when the photo composite image of the plurality of body regions is extracted, the processor 120 may integrate the photo composite image of the plurality of body regions into a single image. In this case, the processor 120 may further use an additional network including a plurality of layers for synthesizing an image, but is not limited thereto.

이후, 프로세서(120)는 후처리 작업이 완료된 최종 사진 합성 이미지를, 실사 이미지로서 클라이언트 단말(20)로 제공할 수 있다. 또한, 프로세서(120)는 다양한 배경 및 신생아 얼굴을 포함하는 사진 이미지를 기초로, 사진 이미지에 포함된 신생아 얼굴을 최종 사진 합성 이미지로 변환할 수 있다. 이를 통해, 프로세서(120)는 보다 현실적인 실사 이미지를 클라이언트 단말(20)로 제공할 수 있다. Thereafter, the processor 120 may provide the client terminal 20 with the final photographed composite image having completed the post-processing as a live image. In addition, the processor 120 may convert the newborn face included in the photo image into the final photo composite image based on the photo image including various backgrounds and the newborn face. In this way, the processor 120 may provide a more realistic photorealistic image to the client terminal 20.

한편, 구현예에 따라, 제2 네트워크가 제1 판별자 네트워크를 더 포함하는 경우, 프로세서(120)는 제1 판별자 네트워크에서 추출된 제1 판별 정보(즉, 사진 합성 이미지가 실제 촬영된 이미지에 해당할 확률값)를 상승시키기 위해, 제2 네트워크에 포함된 적어도 하나의 레이어의 파라미터를 조정하거나, 적어도 하나의 레이어를 연산에서 생략 및/또는 추가할 수 있다. Meanwhile, according to an embodiment, when the second network further includes the first discriminator network, the processor 120 may determine the first discrimination information extracted from the first discriminator network (that is, the image in which the photo composite image is actually photographed). In order to increase the probability value corresponding to, the parameters of at least one layer included in the second network may be adjusted, or at least one layer may be omitted and / or added to the calculation.

또한, 제2 네트워크가 제2 추상화 네트워크, 제2 합성 네트워크 및 제2 판별자 네트워크를 더 포함하는 경우, 프로세서(120)는 제2 판별자 네트워크에서 추출된 제2 판별 정보(즉, 초음파 합성 이미지가 실제 촬영된 초음파 이미지에 해당할 확률값)를 증가시키기 위해, 제2 네트워크에 포함된 적어도 하나의 레이어의 파라미터를 조정하거나, 적어도 하나의 레이어를 연산에서 생략 및/또는 추가할 수 있다. 또한, 프로세서(120)는 제2 네트워크에서 추출된 초음파 합성 이미지와 최초 태아 초음파 이미지 간의 근접도를 기초로 제2 네트워크를 반복 수행할 수 있다.In addition, when the second network further includes a second abstraction network, a second synthesis network, and a second discriminator network, the processor 120 may determine the second discrimination information extracted from the second discriminator network (that is, the ultrasound synthesized image). In order to increase the probability value corresponding to the actually captured ultrasound image), parameters of at least one layer included in the second network may be adjusted, or at least one layer may be omitted and / or added to the calculation. In addition, the processor 120 may repeat the second network based on the proximity between the ultrasound synthesized image extracted from the second network and the first fetal ultrasound image.

추가적으로, 제2 네트워크는 태아의 포즈(pose) 별로 구분되는 복수의 레이어를 포함할 수도 있다. 여기서, 태아의 포즈는, 비한정적인 예로서, 태아의 얼굴 각도, 방향, 깊이 등을 포함할 수 있다. 이를 통해, 제2 네트워크는 태아의 포즈 별로, 해당 포즈에 매칭되는 사진 이미지의 특징 정보가 합성되도록 할 수 있다. 이 경우, 프로세서(120)는 단계 S120 이후에, 식별된 신체 영역으로부터 태아의 포즈(pose)를 식별하고, 제2 네트워크에 포함된 복수의 레이어 중에서 식별된 포즈에 대응되는 일부 레이어를 이용하여, 속성 정보 및 포즈에 대응되는 사진 이미지의 특징 정보를 합성할 수 있다. In addition, the second network may include a plurality of layers divided by fetal poses. Here, the pose of the fetus may include, by way of non-limiting example, the face angle, orientation, depth, etc. of the fetus. In this manner, the second network may allow the feature information of the photo image matching the corresponding pose to be synthesized for each fetal pose. In this case, after step S120, the processor 120 identifies a pose of the fetus from the identified body region and uses some layers corresponding to the identified poses among the plurality of layers included in the second network. Feature information of the photographic image corresponding to the attribute information and the pose may be synthesized.

한편, 단계 S120 및 S130에서 신체 영역을 검출하기 위한 기준, 사진 이미지 및/또는 초음파 이미지의 특징 정보를 합성하는 기준, 사진 합성 이미지 및/또는 초음파 합성 이미지가 실제 촬영된 이미지 및/또는 실제 촬영된 초음파 이미지에 해당할 확률을 판별하는 기준 등은 학습을 통해 결정될 수 있다. 예를 들어, 프로세서(120)는 S120 이전에 수행된 복수의 태아 초음파 이미지들 각각에 대한 신체 영역 식별 결과, 사진 이미지 합성 결과 및/또는 초음파 이미지 합성 결과, 판별 결과 등의 정확도를 높일 수 있는 방향으로 복수의 레이어를 학습시킬 수 있다. 이에 대해서는, 도 7을 참조하여 보다 구체적으로 후술한다. Meanwhile, in steps S120 and S130, the reference for detecting the body region, the reference for synthesizing the characteristic information of the photographic image and / or the ultrasound image, the photographic composite image and / or the ultrasound composite image are actually captured images and / or the actual captured images. A criterion for determining a probability corresponding to the ultrasound image may be determined through learning. For example, the processor 120 may increase the accuracy of body region identification results, photographic image synthesis results, and / or ultrasound image synthesis results, and determination results for each of a plurality of fetal ultrasound images performed before S120. You can learn a plurality of layers. This will be described later in more detail with reference to FIG. 7.

도 7은 본 발명의 일 실시예에 따른 프로세서(120)를 설명하기 위한 도면이다. 7 is a diagram for describing a processor 120 according to an embodiment of the present invention.

도 7을 참조하면, 프로세서(120)는 데이터 학습부(710) 및 데이터 인식부(720)를 포함할 수 있다. Referring to FIG. 7, the processor 120 may include a data learner 710 and a data recognizer 720.

데이터 학습부(710)는 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출하기 위한 제1 기준, 사진 이미지의 특징 정보를 합성하는 제2 기준, 초음파 이미지의 특징 정보를 합성하는 제3 기준, 사진 합성 이미지가 실제 촬영된 이미지에 해당할 확률을 판별하는 제4 기준, 초음파 합성 이미지가 실제 촬영된 초음파 이미지에 해당할 확률을 판별하는 제5 기준 등을 학습할 수 있다. The data learning unit 710 may include a first criterion for detecting at least one body region included in the fetal ultrasound image, a second criterion for synthesizing the characteristic information of the photographic image, a third criterion for synthesizing the characteristic information of the ultrasound image, A fourth criterion for determining a probability that the photo-synthesized image corresponds to the actually photographed image and a fifth criterion for determining a probability that the ultrasound composite image corresponds to the actually photographed ultrasound image may be learned.

이때, 데이터 학습부(710)는 제1 내지 제 5 기준을 상호 독립적 및/또는 의존적으로 학습시킬 수 있다. 예를 들어, 데이터 학습부(710)는 복수의 초음파 이미지가 저장된 데이터 베이스(미도시)로부터 임의 개수의 초음파 이미지 및/또는 각 초음파 이미지에 해당하는 신생아들의 사진 이미지를 획득하고, 이를 제1 및 제2 네트워크에 입력하여 학습시킬 수 있다. 이때, 학습은 제1 및 제2 네트워크에 포함된 각 레이어의 파라미터(예컨대, 가중치 등)를 조정하거나, 연산에서 적어도 하나의 레이어를 생략 및/또는 추가하는 것일 수 있다. In this case, the data learner 710 may learn the first to fifth criteria independently and / or dependently. For example, the data learner 710 acquires an arbitrary number of ultrasound images and / or photographic images of newborns corresponding to each ultrasound image from a database (not shown) in which a plurality of ultrasound images are stored. It can be learned by inputting to the second network. In this case, the learning may be adjusting parameters (eg, weights, etc.) of each layer included in the first and second networks, or omitting and / or adding at least one layer in an operation.

예시적으로, 데이터 학습부(710)는 제1 네트워크에 초음파 이미지와 해당 초음파 이미지 내 신체 영역 정보 및/또는 신체 영역의 경계 정보를 입력함으로써, 제1 기준을 학습시킬 수 있다. 또한, 데이터 학습부(710)는 제2 네트워크를 이용하여 초음파 이미지를 실사 이미지로 변환한 후, 각 초음파 이미지에 해당하는 신생아들의 사진 이미지를 제1 판별자 네트워크에 입력함으로써 제4 기준을 학습시킬 수 있다. 또한, 데이터 학습부(710)는 제1 판별자 네트워크에서 추출된 판별 정보를 제2 네트워크의 나머지 네트워크들(즉, 제2 추상화 네트워크와 제1 합성 네트워크)로 피드백하여, 제2 기준을 학습시킬 수 있다. 제3 및 제5 기준은 전술한 제2 및 제4 기준을 학습하는 과정과 유사하므로, 자세한 설명은 생략한다. For example, the data learner 710 may learn the first criterion by inputting an ultrasound image and body region information and / or boundary information of the body region into the first network. In addition, the data learning unit 710 converts an ultrasound image into a live image using a second network, and then inputs a photographic image of newborns corresponding to each ultrasound image to the first discriminator network to learn the fourth criterion. Can be. In addition, the data learner 710 feeds the discrimination information extracted from the first discriminator network to the remaining networks of the second network (that is, the second abstraction network and the first synthetic network) to learn the second criterion. Can be. Since the third and fifth criteria are similar to the process of learning the second and fourth criteria described above, detailed description thereof will be omitted.

이와 같이, 전술한 학습 과정은 신생아들의 사진 이미지를 학습시킴으로써, 데이터 학습부(710)는 추후 데이터 인식부(720)에서 신생아들의 신체 요소들 간의 확률 분포에 대응되도록 사진 이미지의 특징 정보들이 합성되도록 할 수 있으며, 이를 통해, 초음파 이미지의 왜곡이 보완되도록 할 수 있다.As described above, the above-described learning process learns the photographic images of the newborns, so that the data learner 710 synthesizes the characteristic information of the photographic images so as to correspond to the probability distribution between the body elements of the newborns in the data recognition unit 720. In this way, distortion of the ultrasound image may be compensated for.

또한, 제2 네트워크가 태아의 포즈(pose) 별로 구분되는 복수의 레이어를 포함하는 경우, 포즈 별로 복수의 레이어를 학습시킬 수 있다. 또한, 제2 네트워크가 태아의 피부색, 국적, 인종 등과 같은 태아의 환경 정보 및/또는 변환 타겟 나이(또는 개월 수) 정보를 파라미터로 입력받도록 형성되는 경우, 각 환경 정보에 대응되는 신생아들의 신체 요소들 간의 확률 분포를 학습할 수 있도록 상기 제2 내지 제 5 기준을 학습시킬 수 있다. In addition, when the second network includes a plurality of layers divided by the poses of the fetus, the plurality of layers may be learned by the poses. In addition, when the second network is configured to receive the fetus's environmental information such as skin color, nationality, race, and / or conversion target age (or months) information as parameters, the body elements of newborns corresponding to each environmental information. The second to fifth criteria may be learned to learn a probability distribution between the two.

데이터 인식부(720)는 데이터 학습부(710)를 통해 학습된 기준에 기초하여, 태아 초음파 이미지를 실사 이미지로 변환하는 동작을 수행할 수 있다. 이에 대해서는, 도 1 내지 도 6을 참조하여 전술하였으므로, 자세한 설명은 생략한다.The data recognizer 720 may perform an operation of converting the fetal ultrasound image into a live image based on the criteria learned by the data learner 710. This has been described above with reference to FIGS. 1 to 6, and thus a detailed description thereof will be omitted.

데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 서버(10)에 탑재될 수 있다. 예를 들어, 데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 컴퓨팅 장치에 탑재될 수도 있다. 이 경우, 데이터 학습부(710) 및 데이터 인식부(720)는 하나의 디바이스에 탑재될 수도 있으며, 또는 별개의 디바이스들에 각각 탑재될 수도 있다.At least one of the data learner 710 and the data recognizer 720 may be manufactured in the form of at least one hardware chip and mounted on the server 10. For example, at least one of the data learner 710 and the data recognizer 720 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or an existing general purpose processor (eg, a CPU). Alternatively, the processor may be manufactured as a part of an application processor or a graphics dedicated processor (eg, a GPU) and mounted on the aforementioned various computing devices. In this case, the data learner 710 and the data recognizer 720 may be mounted in one device or may be mounted in separate devices, respectively.

한편, 데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(710) 및 데이터 인식부(720) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 어플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 어플리케이션에 의해 제공될 수 있다. Meanwhile, at least one of the data learner 710 and the data recognizer 720 may be implemented as a software module. When at least one of the data learner 710 and the data recognizer 720 is implemented as a software module (or a program module including instructions), the software module may be computer readable non-transitory readable. It may be stored in a non-transitory computer readable media. In this case, at least one software module may be provided by an operating system (OS) or by a predetermined application. Alternatively, some of the at least one software module may be provided by an operating system (OS), and others may be provided by a predetermined application.

한편, 위 설명에서는 클라이언트 단말과 서버를 구분하여 설명하였으나, 상기한 서버의 동작들은 클라이언트 단말 내에서 수행될 수 있다. 다시 말해, 클라이언트 단말은 태아의 초음파 이미지를 촬영한 후, 해당 초음파 이미지를 전술한 동작에 따라 실사 이미지로 변환할 수 있으며, 이를 위한 뉴럴 네트워크를 포함하여 구현될 수 있다. Meanwhile, in the above description, the client terminal and the server have been described separately, but the operations of the server may be performed in the client terminal. In other words, the client terminal may take an ultrasound image of the fetus, and then convert the ultrasound image into a photorealistic image according to the above-described operation, and may include a neural network for this.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독 가능매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장매체는 컴퓨터 판독 가능 명령어, 데이터구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention can also be implemented in the form of a recording medium containing instructions executable by a computer, such as a program module executed by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer readable medium may include a computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 시스템 및 방법은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍처를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the systems and methods of the present invention have been described in connection with specific embodiments, some or all of their components or operations may be implemented using a computer system having a general hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

1: 영상 변환 시스템
10: 서버 11: 뉴럴 네트워크
12: 태아 초음파 이미지 13: 사진 합성 이미지
20: 클라이언트 단말
30: 통신망
110: 메모리 120: 프로세서
201: 제1 네트워크 202: 제2 네트워크
110: 메모리
120: 프로세서
710: 데이터 학습부
720: 데이터 인식부
1: video conversion system
10: Server 11: Neural Network
12: Fetal Ultrasound Image 13: Photo Composite Image
20: client terminal
30: network
110: memory 120: processor
201: first network 202: second network
110: memory
120: processor
710: data learning unit
720: data recognition unit

Claims (22)

컴퓨팅 장치의 이미지 변환 방법에 있어서,
태아 초음파 이미지를 획득하는 단계;
제1 네트워크에 포함된 복수의 레이어를 이용하여, 상기 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출하는 단계; 및
제2 네트워크에 포함된 복수의 레이어를 이용하여, 상기 신체 영역으로부터 추출된 복수의 속성 정보를 기초로 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성하여 신체 영역을 실사 이미지로 변환하되, 상기 제2 네트워크는 제2 추상화 네트워크 및 제1 합성 네트워크를 포함하는 것인 단계;를 포함하고,
상기 제1 네트워크는
상기 태아 초음파 이미지로부터 추출된 속성 정보를 기초로 특징맵을 획득하는 제1 추상화 네트워크, 및
상기 특징맵을 입력 데이터로 적용하여 상기 신체 영역의 경계 및 상기 신체 영역의 카테고리를 식별하여 실사 이미지 변환시 대응되지 않는 신체영역이 포함된 특징은 생략하고, 대응되는 신체영역의 특징을 출력하는 영역분류 네트워크를 포함하는 것이고,
상기 제2 추상화 네트워크는 상기 신체 영역으로부터 추출된 상기 복수의 속성 정보를 기초로 특징맵을 획득하는 것이고,
상기 제1 합성 네트워크는 상기 특징맵을 기초로 상기 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성하는 것인,
이미지 변환 방법.
In the image conversion method of the computing device,
Obtaining a fetal ultrasound image;
Detecting at least one body region included in the fetal ultrasound image using a plurality of layers included in a first network; And
Using the plurality of layers included in the second network, the feature information of the photo image corresponding to each attribute information is synthesized based on the plurality of attribute information extracted from the body region, and the body region is converted into a photorealistic image. The second network comprises a second abstraction network and a first synthetic network;
The first network is
A first abstraction network for obtaining a feature map based on attribute information extracted from the fetal ultrasound image, and
Area classification for outputting a feature of the corresponding body region without omitting features including body regions that do not correspond when the image is converted by identifying the boundary of the body region and the category of the body region by applying the feature map as input data. That includes the network,
Wherein the second abstraction network obtains a feature map based on the plurality of attribute information extracted from the body region,
The first synthesis network synthesizes feature information of a photo image corresponding to each attribute information based on the feature map.
Image conversion method.
삭제delete 제 1 항에 있어서,
상기 제1 네트워크는
상기 신체 영역의 카테고리 정보를 결정하는 분류기를 더 포함하는 것인 이미지 변환 방법.
The method of claim 1,
The first network is
And a classifier for determining category information of the body region.
삭제delete 제 1 항에 있어서,
상기 제2 네트워크는
상기 제1 합성 네트워크에서 추출된 사진 합성 이미지가 실제 촬영된 이미지에 해당할 확률을 판별하는 제1 판별자 네트워크를 더 포함하되,
상기 이미지 변환 방법은,
상기 제1 판별자 네트워크에서 추출된 제1 판별 정보를, 상기 제2 추상화 네트워크 및 상기 제1 합성 네트워크 중 적어도 하나로 상기 제1 판별 정보를 피드백하는 단계; 및
상기 제2 네트워크에 포함된 상기 복수의 레이어를 이용하여, 사진 합성 이미지를 재획득하는 단계를 더 포함하는 것인 이미지 변환 방법.
The method of claim 1,
The second network is
Further comprising a first discriminator network for determining the probability that the photo-synthesized image extracted from the first synthesis network corresponds to the actual photographed image,
The image conversion method,
Feeding back the first discrimination information extracted from the first discriminator network to at least one of the second abstraction network and the first synthesized network; And
And reacquiring a photographic composite image using the plurality of layers included in the second network.
제 5 항에 있어서,
상기 이미지 변환 방법은,
상기 제2 추상화 네트워크 및 상기 제1 합성 네트워크 중 적어도 하나에 포함된 복수의 레이어 중 적어도 하나의 레이어의 파라미터를 조정하거나, 상기 복수의 레이어 중 적어도 하나의 레이어를 연산에서 생략 또는 추가하는 단계를 더 포함하는 것인 이미지 변환 방법.
The method of claim 5,
The image conversion method,
Adjusting a parameter of at least one layer of a plurality of layers included in at least one of the second abstraction network and the first synthesis network, or omitting or adding at least one layer of the plurality of layers in an operation. An image conversion method that includes.
제 1 항에 있어서,
상기 제2 네트워크는
상기 제1 합성 네트워크에서 추출된 사진 합성 이미지로부터 복수의 속성 정보를 추출하고, 상기 복수의 속성 정보로부터 특징맵을 획득하는 제3 추상화 네트워크,
상기 특징맵을 기초로 각 속성 정보에 대응되는 초음파 이미지를 합성하는 제2 합성 네트워크, 및
상기 제2 합성 네트워크에서 추출된 초음파 합성 이미지가 실제 초음파 촬영 이미지에 해당할 확률을 판별하는 제2 판별자 네트워크를 더 포함하는 것인 이미지 변환 방법.
The method of claim 1,
The second network is
A third abstraction network extracting a plurality of attribute information from the photo-synthesized image extracted by the first composite network, and obtaining a feature map from the plurality of attribute information;
A second synthesis network for synthesizing an ultrasound image corresponding to each attribute information based on the feature map, and
And a second discriminator network for determining a probability that the ultrasound synthesized image extracted from the second synthesized network corresponds to an actual ultrasound image.
제 7 항에 있어서,
상기 이미지 변환 방법은,
상기 제2 판별자 네트워크에서 추출된 제2 판별 정보를, 상기 제2 추상화 네트워크, 상기 제3 추상화 네트워크, 상기 제1 합성 네트워크 및 상기 제2 합성 네트워크 중 적어도 하나로 상기 제2 판별 정보를 피드백하는 단계; 및
상기 제2 네트워크에 포함된 상기 복수의 레이어를 이용하여, 상기 제2 판별 정보를 기초로 사진 합성 이미지 및 상기 초음파 합성 이미지를 재획득하는 단계를 더 포함하는 것인 이미지 변환 방법.
The method of claim 7, wherein
The image conversion method,
Feedbacking the second discrimination information extracted from the second discriminator network to at least one of the second abstraction network, the third abstraction network, the first synthesis network, and the second synthesis network. ; And
And reacquiring a photographic composite image and the ultrasound composite image based on the second discrimination information using the plurality of layers included in the second network.
제 8 항에 있어서,
상기 이미지 변환 방법은
상기 초음파 합성 이미지와 상기 태아 초음파 이미지 간의 근접도를 기초로 상기 제2 네트워크를 반복 수행하는 단계를 더 포함하는 것인 이미지 변환 방법.
The method of claim 8,
The image conversion method
And repeating the second network based on the proximity between the ultrasound composite image and the fetal ultrasound image.
제 1 항에 있어서,
상기 이미지 변환 방법은,
상기 신체 영역을 검출하는 단계 이후에, 상기 신체 영역의 기울기를 기초로 상기 신체 영역을 기 설정된 기울기에 대응되도록 회전시키는 단계를 더 포함하는 이미지 변환 방법.
The method of claim 1,
The image conversion method,
And after detecting the body region, rotating the body region to correspond to a preset slope based on the slope of the body region.
제 1 항에 있어서,
상기 제2 네트워크는
태아의 포즈(pose) 별로 구분되는 복수의 레이어를 포함하는 것인 이미지 변환 방법.
The method of claim 1,
The second network is
Image transformation method comprising a plurality of layers divided by the pose (fetus) of the fetus.
제 11 항에 있어서,
상기 이미지 변환 방법은
상기 신체 영역을 검출하는 단계 이후에, 상기 신체 영역으로부터 태아의 포즈를 식별하는 단계를 더 포함하며,
상기 사진 이미지의 특징 정보를 합성하는 단계는,
상기 제2 네트워크에 포함된 복수의 레이어 중에서 상기 포즈에 대응되는 일부 레이어를 이용하여, 상기 각 속성 정보 및 상기 포즈에 대응되는 사진 이미지의 특징 정보를 합성하는 것인 이미지 변환 방법.
The method of claim 11,
The image conversion method
After detecting the body region, further comprising identifying a pose of the fetus from the body region,
Synthesizing the feature information of the photographic image,
And synthesizing the attribute information and feature information of the photo image corresponding to the pose by using some layers corresponding to the pose among the plurality of layers included in the second network.
제 1 항에 있어서,
상기 이미지 변환 방법은,
배경 및 신생아 얼굴을 포함하는 사진 이미지를 기초로, 상기 사진 이미지의 신생아 얼굴을 상기 제2 네트워크를 통해 합성된 이미지로 변환하는 단계를 더 포함하는 것인 이미지 변환 방법.
The method of claim 1,
The image conversion method,
Based on a photo image comprising a background and a newborn face, converting the newborn face of the photo image into an image synthesized via the second network.
제 1 항에 있어서,
상기 사진 이미지의 특징 정보들은, 태아의 피부색, 국적, 인종, 성별 및 변환 타겟 나이 중 적어도 하나를 기초로 추출되는 것인 이미지 변환 방법.
The method of claim 1,
The feature information of the photographic image is extracted based on at least one of the skin color, nationality, race, sex and conversion target age of the fetus.
태아 초음파 이미지를 실사 이미지로 변환하는 프로그램이 저장된 메모리; 및
상기 프로그램을 실행하는 프로세서를 포함하고,
상기 프로세서는, 상기 프로그램이 실행됨에 따라,
태아 초음파 이미지를 획득하고,
제1 네트워크에 포함된 복수의 레이어를 이용하여, 상기 태아 초음파 이미지 내에 포함된 적어도 하나의 신체 영역을 검출하고,
제2 네트워크에 포함된 복수의 레이어를 이용하여, 상기 신체 영역으로부터 추출된 복수의 속성 정보를 기초로 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성하여 신체 영역을 실사 이미지로 변환하되, 상기 제2 네트워크는 제2 추상화 네트워크 및 제1 합성 네트워크를 포함하고,
상기 제1 네트워크는
상기 태아 초음파 이미지로부터 추출된 속성 정보를 기초로 특징맵을 획득하는 제1 추상화 네트워크, 및
상기 특징맵을 입력 데이터로 적용하여 상기 신체 영역의 경계 및 상기 신체 영역의 카테고리를 식별하여 실사 이미지 변환시 대응되지 않는 신체영역이 포함된 특징은 생략하고, 대응되는 신체영역의 특징을 출력하는 영역분류 네트워크를 포함하는 것이고,
상기 제2 추상화 네트워크는 상기 신체 영역으로부터 추출된 상기 복수의 속성 정보를 기초로 특징맵을 획득하는 것이고,
상기 제1 합성 네트워크는 상기 특징맵을 기초로 상기 각 속성 정보에 대응되는 사진 이미지의 특징 정보를 합성하는 것인 컴퓨팅 장치.
A memory storing a program for converting a fetal ultrasound image into a live-action image; And
A processor for executing the program,
The processor, as the program is executed,
Acquire a fetal ultrasound image,
Detecting at least one body region included in the fetal ultrasound image by using a plurality of layers included in a first network,
Using the plurality of layers included in the second network, the feature information of the photo image corresponding to each attribute information is synthesized based on the plurality of attribute information extracted from the body region, and the body region is converted into a photorealistic image. The second network comprises a second abstraction network and a first synthetic network;
The first network is
A first abstraction network for obtaining a feature map based on attribute information extracted from the fetal ultrasound image, and
Area classification for outputting a feature of the corresponding body region without omitting features including body regions that do not correspond when the image is converted by identifying the boundary of the body region and the category of the body region by applying the feature map as input data. That includes the network,
Wherein the second abstraction network obtains a feature map based on the plurality of attribute information extracted from the body region,
And the first synthesizing network synthesizes feature information of a photo image corresponding to the respective attribute information based on the feature map.
삭제delete 삭제delete 제 15 항에 있어서,
상기 제2 네트워크는
상기 제1 합성 네트워크에서 추출된 사진 합성 이미지가 실제 촬영된 이미지에 해당할 확률을 판별하는 제1 판별자 네트워크를 더 포함하되,
상기 프로세서는,
상기 제1 판별자 네트워크에서 추출된 제1 판별 정보를, 상기 제2 추상화 네트워크 및 상기 제1 합성 네트워크 중 적어도 하나로 상기 제1 판별 정보를 피드백하고,
상기 제2 네트워크에 포함된 상기 복수의 레이어를 이용하여, 사진 합성 이미지를 재획득하는 것인 컴퓨팅 장치.
The method of claim 15,
The second network is
Further comprising a first discriminator network for determining the probability that the photo-synthesized image extracted from the first synthesis network corresponds to the actual photographed image,
The processor,
Feeding back the first discrimination information extracted from the first discriminator network to at least one of the second abstraction network and the first synthesized network;
And reacquiring a photographic composite image using the plurality of layers included in the second network.
제 18 항에 있어서,
상기 프로세서는
상기 제2 추상화 네트워크 및 상기 제1 합성 네트워크 중 적어도 하나에 포함된 복수의 레이어 중 적어도 하나의 레이어의 파라미터를 조정하거나, 상기 복수의 레이어 중 적어도 하나의 레이어를 연산에서 생략 또는 추가하는 것인 컴퓨팅 장치.
The method of claim 18,
The processor is
Computing parameters of at least one layer among a plurality of layers included in at least one of the second abstraction network and the first synthesis network, or omitting or adding at least one layer of the plurality of layers in an operation. Device.
제 18 항에 있어서,
상기 제2 네트워크는
상기 제1 합성 네트워크에서 추출된 상기 사진 합성 이미지로부터 복수의 속성 정보를 추출하고, 상기 복수의 속성 정보로부터 특징맵을 획득하는 제3 추상화 네트워크,
상기 특징맵을 기초로 각 속성 정보에 대응되는 초음파 이미지를 합성하는 제2 합성 네트워크, 및
상기 제2 합성 네트워크에서 추출된 초음파 합성 이미지가 실제 초음파 촬영 이미지에 해당할 확률을 판별하는 제2 판별자 네트워크를 더 포함하는 것인 컴퓨팅 장치.
The method of claim 18,
The second network is
A third abstraction network extracting a plurality of attribute information from the photo-synthesized image extracted by the first composite network, and obtaining a feature map from the plurality of attribute information;
A second synthesis network for synthesizing an ultrasound image corresponding to each attribute information based on the feature map, and
And a second discriminator network configured to determine a probability that the ultrasound synthesized image extracted from the second synthesized network corresponds to an actual ultrasound image.
제 15 항에 있어서,
상기 프로세서는,
상기 신체 영역을 검출한 이후에, 상기 신체 영역의 기울기를 기초로 상기 신체 영역을 기 설정된 기울기에 대응되도록 회전시키는 것인 컴퓨팅 장치.
The method of claim 15,
The processor,
And after detecting the body region, rotating the body region to correspond to a predetermined slope based on the inclination of the body region.
제 1 항, 제 3 항 및 제 5 항 내지 제 14 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1, 3, and 5-14.
KR1020170129878A 2017-10-11 2017-10-11 Method and apparatus for converting ultrasound image into real image KR102063294B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170129878A KR102063294B1 (en) 2017-10-11 2017-10-11 Method and apparatus for converting ultrasound image into real image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170129878A KR102063294B1 (en) 2017-10-11 2017-10-11 Method and apparatus for converting ultrasound image into real image

Publications (2)

Publication Number Publication Date
KR20190040626A KR20190040626A (en) 2019-04-19
KR102063294B1 true KR102063294B1 (en) 2020-01-07

Family

ID=66283276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170129878A KR102063294B1 (en) 2017-10-11 2017-10-11 Method and apparatus for converting ultrasound image into real image

Country Status (1)

Country Link
KR (1) KR102063294B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220009676A (en) 2020-07-16 2022-01-25 백승환 Baby face prediction system
WO2023238987A1 (en) * 2022-06-07 2023-12-14 삼성메디슨 주식회사 Ultrasound diagnostic apparatus and method for operating same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220211348A1 (en) * 2019-05-31 2022-07-07 Koninklijke Philips N.V. Guided ultrasound imaging
CN112201335B (en) * 2020-07-23 2023-05-26 中国人民解放军总医院 System and method for identifying intra-abdominal structure under linear array ultrasonic endoscope
JP7177538B2 (en) * 2020-11-13 2022-11-24 崇仁 藤森 How to generate newborn photos

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004075755A1 (en) 2003-02-28 2004-09-10 Matsushita Electric Industrial Co., Ltd. Ultrasonographic display device
JP2014018618A (en) * 2012-07-24 2014-02-03 Toshiba Corp Ultrasonic diagnostic device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102002408B1 (en) * 2012-09-12 2019-07-24 삼성전자주식회사 Apparatus and method for generating ultrasonic image
KR102294734B1 (en) * 2014-09-30 2021-08-30 삼성전자주식회사 Method and apparatus for image registration, and ultrasonic diagnosis apparatus
KR102486699B1 (en) * 2014-12-15 2023-01-11 삼성전자주식회사 Method and apparatus for recognizing and verifying image, and method and apparatus for learning image recognizing and verifying

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004075755A1 (en) 2003-02-28 2004-09-10 Matsushita Electric Industrial Co., Ltd. Ultrasonographic display device
JP2014018618A (en) * 2012-07-24 2014-02-03 Toshiba Corp Ultrasonic diagnostic device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220009676A (en) 2020-07-16 2022-01-25 백승환 Baby face prediction system
WO2023238987A1 (en) * 2022-06-07 2023-12-14 삼성메디슨 주식회사 Ultrasound diagnostic apparatus and method for operating same

Also Published As

Publication number Publication date
KR20190040626A (en) 2019-04-19

Similar Documents

Publication Publication Date Title
KR102063294B1 (en) Method and apparatus for converting ultrasound image into real image
US11302009B2 (en) Method of image processing using a neural network
JP7373554B2 (en) Cross-domain image transformation
JP6798183B2 (en) Image analyzer, image analysis method and program
JP6685827B2 (en) Image processing apparatus, image processing method and program
KR102053527B1 (en) Method for image processing
KR102097016B1 (en) Apparatus and methdo for analayzing motion
JP2018522622A (en) Method and system for simultaneous scene analysis and model fusion for endoscopic and laparoscopic navigation
KR102187143B1 (en) Three dimensional content producing apparatus and three dimensional content producing method thereof
JP2009020761A (en) Image processing apparatus and method thereof
JP6675691B1 (en) Learning data generation method, program, learning data generation device, and inference processing method
US20190114462A1 (en) Signal translation system and signal translation method
WO2021218568A1 (en) Image depth determination method, living body recognition method, circuit, device, and medium
JP2017211939A (en) Generation device, generation method, and generation program
CN108388889B (en) Method and device for analyzing face image
CN113628327A (en) Head three-dimensional reconstruction method and equipment
US11854158B2 (en) Medical image enhancement
JP2018026064A (en) Image processor, image processing method, system
Galteri et al. Deep 3d morphable model refinement via progressive growing of conditional generative adversarial networks
JP2019185469A (en) Image analysis device, method, and program
US11138785B2 (en) Method and system for generating 3D image of character
CN113327191A (en) Face image synthesis method and device
KR20200058295A (en) Method and Device of High Magnetic Field Magnetic Resonance Image Synthesis
WO2019116487A1 (en) Image processing device, image processing method, and image processing program
WO2022102015A1 (en) Image information acquisition device, image information acquisition method, and computer program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant