KR20210032945A - Signal translation system and signal translation method - Google Patents

Signal translation system and signal translation method Download PDF

Info

Publication number
KR20210032945A
KR20210032945A KR1020210032325A KR20210032325A KR20210032945A KR 20210032945 A KR20210032945 A KR 20210032945A KR 1020210032325 A KR1020210032325 A KR 1020210032325A KR 20210032325 A KR20210032325 A KR 20210032325A KR 20210032945 A KR20210032945 A KR 20210032945A
Authority
KR
South Korea
Prior art keywords
signal
virtual
domain
network
image
Prior art date
Application number
KR1020210032325A
Other languages
Korean (ko)
Inventor
최광민
장호용
김세경
김다운
Original Assignee
알레시오 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알레시오 주식회사 filed Critical 알레시오 주식회사
Publication of KR20210032945A publication Critical patent/KR20210032945A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

A signal conversion method according to embodiments of the present application may comprise the steps of: receiving a source signal of a first domain; identifying the error features and valid features in the source signal; generating a first virtual signal of a second domain from which at least one first error feature included in the source signal is removed; and outputting the first virtual signal. According to embodiments of the present application, the virtual signal of the second domain from which the error features in the source signal of the first domain are removed may be outputted.

Description

신호 변환 시스템 및 신호 변환 방법 {SIGNAL TRANSLATION SYSTEM AND SIGNAL TRANSLATION METHOD}Signal conversion system and signal conversion method {SIGNAL TRANSLATION SYSTEM AND SIGNAL TRANSLATION METHOD}

본 출원은 신호 변환 시스템 및 신호 변환 방법에 관한 것으로, 아래의 실시 예들은 제1 도메인의 입력 신호에 포함된 에러 특징들이 제거된 제2 도메인의 가상 신호를 생성하기 위한 신호 변환 시스템 및 신호 변환 방법들에 관한 것이다. The present application relates to a signal conversion system and a signal conversion method, and the following embodiments are a signal conversion system and a signal conversion method for generating a virtual signal of a second domain from which error features included in the input signal of the first domain are removed It is about the field.

기계 학습(machine learning)은 인공 지능의 한 분야로 여러 데이터를 이용하여 컴퓨터가 데이터의 특성들을 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야이다. 기계 학습은 다양한 분야에 응용되고 있으며, 문자 인식이 가장 대표적인 사례이다. Machine learning is a field of artificial intelligence that develops algorithms and technologies that enable computers to learn the characteristics of data using multiple data. Machine learning is being applied in various fields, and character recognition is the most representative example.

기계 학습은 학습 방식에 따라 지도 학습(supervised learning), 비지도학습(unsupervised learning), 강화 학습(reinforcement learning) 등으로 분류될 수 있다. 지도 학습은 미리 구축된 학습용 입력 및 출력 데이터의 쌍을 활용하여 모델을 학습하며, 비지도 학습은 입력 데이터만을 이용하여 모델이 데이터 자체를 분석하거나 군집하면서 학습을 수행한다. 강화 학습은 학습 수행 결과에 대해 적절한 보상을 주면서 피드백을 통해 학습한다. Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to the learning method. In supervised learning, a model is trained using a pair of pre-built training input and output data, and in unsupervised learning, the model analyzes or clusters the data itself using only input data. Reinforcement learning learns through feedback, giving appropriate rewards for the outcome of learning performance.

최근 기계 학습의 한 분야로 데이터를 컴퓨터가 처리 가능한 형태인 여러 비선형 기법의 조화를 통해 높은 수준의 추상화를 시도하는 딥러닝 기술이 주목받고 있으며, 물체 인식과 자동차를 위한 장애물 센서 연구 등 다양한 분야에 활용되고 있다. Recently, as a field of machine learning, deep learning technology that attempts a high level of abstraction through a combination of several nonlinear techniques that can process data in a computer is attracting attention. It is being utilized.

아래의 실시 예들은, 서로 다른 도메인(domain)에 있는 신호들 사이의 변환을 통해 소스 신호에 포함된 에러 특징들을 고려한 가상 신호를 생성하여 제공하는 것을 목적으로 한다. The following embodiments aim to generate and provide a virtual signal in consideration of error characteristics included in a source signal through conversion between signals in different domains.

본 출원의 일 실시 예에 따른 신호 변환 방법은 제1 도메인의 소스 신호를 입력받는 단계; 상기 소스 신호 내의 에러 특징 및 유효 특징들을 식별하는 단계; 상기 소스 신호에 포함된 적어도 하나의 제1 에러 특징들을 제거한 제2 도메인의 제1 가상 신호를 생성하는 단계; 및 상기 제1 가상 신호를 출력하는 단계;를 포함할 수 있다. A signal conversion method according to an embodiment of the present application includes the steps of receiving a source signal of a first domain; Identifying error characteristics and valid characteristics in the source signal; Generating a first virtual signal of a second domain from which at least one first error characteristic included in the source signal is removed; And outputting the first virtual signal.

상기 제1 가상 신호는 상기 소스 신호에 포함된 에러 특징들이 제거된 가상 신호를 생성하도록 미리 학습된 파라미터를 이용하여 생성될 수 있다.The first virtual signal may be generated using a parameter learned in advance to generate a virtual signal from which error features included in the source signal are removed.

상기 미리 학습된 파라미터는 상기 가상 신호의 품질을 향상시키도록 지속적으로 업데이트될 수 있다.The pre-learned parameter may be continuously updated to improve the quality of the virtual signal.

또한, 본 출원의 다른 실시 예에 따른 신호 변환 방법은, 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단하는 단계;를 더 포함하고, 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는 것으로 판단되는 경우, 상기 제1 가상 신호를 출력할 수 있다. In addition, the signal conversion method according to another embodiment of the present application further includes the step of determining whether the quality of the first virtual signal corresponds to a predetermined level, wherein the quality of the first virtual signal is predetermined. When it is determined that it meets the level, the first virtual signal may be output.

상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단되는 경우, 상기 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환하는 단계; 및 상기 제1 복원 신호를 입력 신호로 하여 제2 가상 신호를 생성하는 단계; 를 더 포함하되, 상기 제2 가상 신호의 품질이 미리 정해진 수준에 부합할 때까지 상기 단계들을 반복적으로 수행할 수 있다. Inversely transforming the first virtual signal into a first reconstructed signal in a first domain when it is determined that the quality of the first virtual signal does not meet a predetermined level; And generating a second virtual signal by using the first reconstructed signal as an input signal. Further comprising, the steps may be repeatedly performed until the quality of the second virtual signal meets a predetermined level.

상기 제2 가상 신호는, 상기 제1 복원 신호에 포함된 적어도 하나의 제2 에러 특징이 더 제거된 것일 수 있다.The second virtual signal may be obtained by further removing at least one second error feature included in the first restoration signal.

상기 제1 가상 신호는, 상기 제1 도메인의 소스 신호에 상기 제2 도메인의 데스티네이션 신호의 특징들을 합성하여 생성될 수 있다.The first virtual signal may be generated by synthesizing features of the destination signal of the second domain with the source signal of the first domain.

상기 유효 특징은, 사용자로부터 미리 설정된 상기 소스 신호 내의 관심 영역(ROI)에 관한 것 일수 있다. The effective feature may be related to a region of interest (ROI) in the source signal preset by a user.

본 출원의 또 다른 실시 예에 따른 학습 방법은 적어도 하나의 뉴럴 네트워크를 이용한 학습 방법에 있어서, 제1 도메인의 소스 신호로부터 적어도 하나의 제1 에러 특징을 식별하는 단계; 및 상기 제1 에러 특징이 제거된 제2 도메인의 제1 가상 신호를 산출하는 단계; 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단하는 단계;를 포함하되, 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단되는 경우, 상기 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환하는 단계; 및 상기 제1 복원 신호 및 상기 소스 신호의 차이를 이용하여 제1 가중치를 산출하는 단계;를 더 포함하며, 상기 제1 가중치를 통해 상기 소스 신호에 포함된 상기 적어도 하나의 제1 에러 특징이 학습될 수 있다.A learning method according to another embodiment of the present application is a learning method using at least one neural network, the method comprising: identifying at least one first error feature from a source signal of a first domain; And calculating a first virtual signal of a second domain from which the first error feature has been removed. Determining whether the quality of the first virtual signal corresponds to a predetermined level, but when it is determined that the quality of the first virtual signal does not meet the predetermined level, the first virtual signal is Inverse transforming into a first reconstructed signal in a first domain; And calculating a first weight using a difference between the first reconstructed signal and the source signal; further comprising, wherein the at least one first error feature included in the source signal is learned through the first weight. Can be.

상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단되는 경우, 상기 제1 가중치를 이용하여 상기 제1 에러 특징이 포함된 제2 도메인의 제2 가상 신호를 생성하는 단계; 상기 제2 가상 신호를 제1 도메인의 제2 복원 신호로 역변환 하는 단계; 및 상기 제2 복원 신호와 상기 소스 신호의 차이를 이용하여 파마리터를 조정하는 단계;를 더 포함될 수 있다. When it is determined that the quality of the first virtual signal does not meet a predetermined level, generating a second virtual signal of a second domain including the first error characteristic by using the first weight; Inversely transforming the second virtual signal into a second reconstructed signal in a first domain; And adjusting a parameter by using a difference between the second reconstructed signal and the source signal.

상기 제1 에러 특징을 식별하는 단계는, 상기 소스 신호로부터 하나 이상의 특징들을 획득하는 단계; 및 상기 하나 이상의 특징들 중 유효 특징들에 관련된 제1 특징과 에러 특징들에 관련된 제2 특징을 분류하는 단계;를 더 포함할 수 있다.Identifying the first error characteristic may include obtaining one or more characteristics from the source signal; And classifying a first feature related to valid features and a second feature related to error features among the one or more features.

상기 제2 가상 신호를 생성하는 단계는, 상기 적어도 하나의 제1 에러 특징을 기초로 산출되는 제1 에러 신호에 상기 제1 가중치를 적용하고, 상기 제1 가상 신호에 제2 가중치를 적용하여 생성될 수 있다.The generating of the second virtual signal may include applying the first weight to a first error signal calculated based on the at least one first error characteristic, and applying a second weight to the first virtual signal. Can be.

상기 제2 가중치는, 상기 제1 가중치를 기초로 산출될 수 있다. The second weight may be calculated based on the first weight.

또한, 상기 제1 가상 신호와 제2 도메인의 데스티네이션 신호의 유사도를 산출하는 단계를 더 포함할 수 있고, 상기 뉴럴 네트워크는 상기 제1 가상 신호와 상기 데스티네이션 신호의 유사도가 높아지도록 학습될 수 있다. In addition, the method may further include calculating a degree of similarity between the first virtual signal and the destination signal of the second domain, and the neural network may be trained to increase the degree of similarity between the first virtual signal and the destination signal. have.

본 출원의 또 다른 실시 예에 따른 학습 방법은 적어도 하나의 뉴럴 네트워크를 이용한 학습 방법에 있어서, 제1 도메인의 입력 신호로부터 복수 개의 특징을 획득하는 단계; 상기 복수 개의 특징 중 제1 특징만을 이용하여 제1 가상 신호를 생성하고, 상기 복수 개의 특징 모두를 이용하여 제2 가상 신호를 생성하는 단계; 및 상기 제1 가상 신호와 제2 도메인의 데스티네이션 신호의 유사도를 산출하는 단계; 및 상기 제2 가상 신호를 제1 도메인의 신호로 역변환한 제1 복원 신호와 상기 소스 신호의 차이를 이용하여 상기 네트워크에 적용되는 파라미터가 조정되는 단계;를 포함할 수 있다. A learning method according to another embodiment of the present application is a learning method using at least one neural network, the method comprising: acquiring a plurality of features from an input signal of a first domain; Generating a first virtual signal using only a first feature among the plurality of features, and generating a second virtual signal using all of the plurality of features; And calculating a similarity between the first virtual signal and the destination signal of the second domain. And adjusting a parameter applied to the network by using a difference between a first reconstructed signal obtained by inversely transforming the second virtual signal into a signal of a first domain and the source signal.

상기 제1 가상 신호의 품질이 미리 정해진 수준에 도달할 때까지 상기 단계들이 반복적으로 수행될 수 있다. The steps may be repeatedly performed until the quality of the first virtual signal reaches a predetermined level.

또한, 상기 뉴럴 네트워크는 상기 제1 가상 신호와 제2 도메인의 데스티네이션 신호의 유사도가 높아지도록 학습될 수 있다. In addition, the neural network may be trained to increase the similarity between the first virtual signal and the destination signal of the second domain.

이때 상기 유사도는 상기 제1 가상 신호와 상기 데스티네이션 신호 간의 정성적 특징들 사이의 유사성일 수 있다. In this case, the similarity may be a similarity between qualitative features between the first virtual signal and the destination signal.

또한, 본 출원의 또 다른 실시 예에 따른 컴퓨터 판독 가능 매체는, 본 출원의 실시 예들에 따른 신호 처리 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 것일 수 있다. In addition, the computer-readable medium according to another embodiment of the present application may be a recording program for executing the signal processing method according to the embodiments of the present application on a computer.

본 출원의 실시 예들에 의하면 제1 도메인의 입력 신호 내의 에러 특징들이 제거된 제2 도메인의 가상 신호가 출력될 수 있다.According to embodiments of the present application, a virtual signal of the second domain from which error features in the input signal of the first domain have been removed may be output.

도 1은 본 출원의 일 실시 예에 따른 신호 변환 제공 시스템의 전체 환경을 개략적으로 설명하기 위한 도면이다.
도 2는 본 출원의 일 실시 예에 따른 신호 변환 제공 시스템에서 제공되는 신호 변환 과정을 개략적으로 나타내기 위한 블록도이다.
도 3은 본 출원의 일 실시 예에 따른 신호 변환 모듈의 구성을 예시적으로 나타내는 블록도이다.
도 4는 본 출원의 제1 실시 예에 따른 신호 변환 방법을 예시적으로 설명하기 위한 순서도이다.
도 5는 본 출원의 제2 실시 예에 따른 신호 변환 방법을 예시적으로 설명하기 위한 순서도이다.
도 6은 본 출원의 제2 실시 예에 따른 신호 변환 방법을 예시적으로 나타내기 위한 도면이다.
도 7 및 도 8은 본 출원의 일 실시 예에 따른 하나 이상의 뉴럴 네트워크(NN)에 의해 수행되는 신호 변환 학습 과정을 예시적으로 설명하기 위한 도면이다.
도 9는 본 출원의 일 실시 예에 따른 신호 변환 학습 과정을 개략적으로 설명하기 위한 도면이다.
도 10은 본 출원의 제4 실시 예에 따른 학습 방법을 예시적으로 설명하기 위한 순서도이다.
도 11은 본 출원의 제5 실시 예에 따른 학습 방법을 예시적으로 설명하기 위한 도면이다.
도 12는 본 출원의 제5 실시 예에 따른 학습 방법을 예시적으로 설명하기 위한 순서도이다.
1 is a diagram schematically illustrating an entire environment of a system for providing signal conversion according to an exemplary embodiment of the present application.
2 is a block diagram schematically illustrating a signal conversion process provided by a signal conversion providing system according to an embodiment of the present application.
3 is a block diagram illustrating an exemplary configuration of a signal conversion module according to an embodiment of the present application.
4 is a flowchart illustrating a signal conversion method according to the first embodiment of the present application by way of example.
5 is a flowchart illustrating a signal conversion method according to a second embodiment of the present application by way of example.
6 is a diagram illustrating a signal conversion method according to a second embodiment of the present application by way of example.
7 and 8 are diagrams for illustratively explaining a signal conversion learning process performed by one or more neural networks (NN) according to an embodiment of the present application.
9 is a diagram schematically illustrating a signal conversion learning process according to an embodiment of the present application.
10 is a flowchart illustrating a learning method according to a fourth embodiment of the present application by way of example.
11 is a diagram for illustratively explaining a learning method according to a fifth embodiment of the present application.
12 is a flowchart illustrating a learning method according to a fifth embodiment of the present application by way of example.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above objects, features, and advantages of the present invention will become more apparent through the following detailed description in conjunction with the accompanying drawings. However, in the present invention, various modifications may be made and various embodiments may be provided. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail.

도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thicknesses of layers and regions are exaggerated for clarity, and elements or layers are "on" or "on" of other elements or layers. What is referred to includes not only directly above another component or layer, but also a case in which another layer or other component is interposed in the middle. The same reference numerals throughout the specification refer to the same elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of known functions or configurations related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from other components.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffixes "module" and "unit" for constituent elements used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves.

이하에서는, 서로 다른 도메인(domain)에 있는 다양한 신호들 사이의 신호 변환에 관련된 실시 예들에 대하여 설명한다. Hereinafter, exemplary embodiments related to signal conversion between various signals in different domains will be described.

본 출원의 실시 예들에 따른 신호 변환은 제1 도메인의 입력 신호와 제2 도메인의 가상 신호 사이의 신호 변환에 관한 것일 수 있다. The signal conversion according to the embodiments of the present application may be related to signal conversion between an input signal of the first domain and a virtual signal of the second domain.

본 명세서에서 신호는, 예를 들어, 이미지, 음성, 3차원 정보 등을 포함할 수 있다. 또한, 본 명세서에서 에러 특징은, 입력 신호에 포함된 사용자가 원하지 않는 임의의 특징일 수 있다.In the present specification, a signal may include, for example, an image, an audio, and 3D information. In addition, in the present specification, the error feature may be any feature that the user does not want included in the input signal.

음성 신호 변환의 일 예로, 제1 도메인의 남자 목소리를 제2 도메인의 여자 목소리로 변환할 수 있다. 이때, 제1 도메인의 남자 목소리에는 잡음(noise) 및 다른 목소리가 섞여있을 수 있고, 변환된 가상 신호는 상기 제1 도메인의 신호에 포함된 잡음 및 다른 목소리가 제거된 것일 수 있다. As an example of voice signal conversion, a male voice in a first domain may be converted into a female voice in a second domain. In this case, noise and other voices may be mixed with the male voice of the first domain, and the converted virtual signal may be obtained by removing noise and other voices included in the signal of the first domain.

다른 예로, 자연어 신호 변환의 경우, 제1 도메인의 한국어 문장을 제2 도메인의 영어 문장으로 변환할 수 있다. 이때, 제1 도메인의 한국어 문장에는 오타 및 잘못된 단어가 섞여있을 수 있고, 변환된 가상 신호는 상기 제1 도메인의 신호에 포함된 오타 및 잘못된 단어가 제거된 것일 수 있다. As another example, in the case of natural language signal conversion, a Korean sentence in the first domain may be converted into an English sentence in the second domain. In this case, the Korean sentence of the first domain may contain typos and incorrect words, and the converted virtual signal may be obtained by removing the typos and incorrect words included in the signal of the first domain.

소리 신호 변환의 일 예로, 제1 도메인의 클래식 음악을 제2 도메인의 재즈 음악으로 변환할 수 있다. 이때, 제1 도메인의 클래식 음악에는 잡음 및 사람 목소리(보컬이 아닌)가 섞여있을 수 있고, 변환된 가상 신호는 상기 제1 도메인의 신호에 포함된 잡음 및 사람 목소리가 제거된 것일 수 있다. As an example of sound signal conversion, classical music in the first domain may be converted into jazz music in the second domain. In this case, noise and human voice (not vocals) may be mixed with classical music of the first domain, and the converted virtual signal may be obtained by removing noise and human voice included in the signal of the first domain.

또 다른 예로, 3D 신호 변환의 경우, 제1 도메인의 3차원 복셀(voxel)을 제2 도메인의 2차원 이미지로 변환할 수 있다. 이때, 제1 도메인의 3차원 복셀에는 에러 특징이 포함되어 있을 수 있고, 변환된 가상 신호는 상기 제1 도메인의 신호에 포함된 에러 특징이 제거된 것일 수 있다. As another example, in the case of 3D signal conversion, a 3D voxel in the first domain may be converted into a 2D image in the second domain. In this case, an error characteristic may be included in the 3D voxel of the first domain, and the converted virtual signal may be obtained by removing the error characteristic included in the signal of the first domain.

또한 이미지 변환의 일 예로, 제1 도메인의 초음파 이미지를 제2 도메인의 사진 이미지로 변환할 수 있다. 이때, 제1 도메인의 초음파 이미지에는 에러, 사용자가 원하지 않는 특징들이 포함되어 있을 수 있고, 변환된 가상 이미지는 상기 제1 도메인의 신호에 포함된 에러, 원하지 않는 특징들이 제거된 것일 수 있다. Also, as an example of image conversion, an ultrasound image in the first domain may be converted into a photographic image in the second domain. In this case, the ultrasound image of the first domain may include errors and features that the user does not want, and the converted virtual image may be obtained by removing errors and unwanted features included in the signal of the first domain.

상술한 신호 변환의 실시 예들은 예시적인 목적으로 기재된 것으로, 본 발명이 상술한 실시 예로 한정되지 않으며 서로 다른 도메인에 있는 신호들 사이의 신호 변환에 있어서, 에러 신호가 포함된 제1 도메인의 소스 신호를 에러 신호가 제거된 제2 도메인의 가상 신호로 변환하기 위한 모든 분야에 활용될 수 있다. The above-described embodiments of signal conversion are described for illustrative purposes, and the present invention is not limited to the above-described embodiments, and in signal conversion between signals in different domains, the source signal of the first domain including the error signal It can be used in all fields for converting to a virtual signal of the second domain from which the error signal has been removed.

이하에서는 설명의 편의를 위하여 제1 도메인의 이미지를 입력 신호로 하여 제2 도메인의 가상 이미지를 출력하기 위한 이미지 변환을 상정하여 설명하기로 한다. Hereinafter, for convenience of explanation, an image conversion for outputting a virtual image of a second domain by using an image of the first domain as an input signal will be described.

이때, 입력 이미지는 다양한 이미징 장치(imaging apparatus)를 통해 획득된 이미지일 수 있다. In this case, the input image may be an image acquired through various imaging apparatuses.

예를 들어, 입력 이미지는 엑스레이(X-ray), CT(computed Tomography), MRI(Magnetic Resonance Imaging), 초음파 영상 촬영 장치 등을 통해 획득된 의료 이미지(medical image)일 수 있다. For example, the input image may be a medical image acquired through an X-ray, computed tomography (CT), magnetic resonance imaging (MRI), an ultrasound imaging device, or the like.

또는, 예를 들어, 상기 입력 이미지는 기타 다양한 종류의 카메라 장치 등을 통해 촬상된 사진 이미지일 수 있다. Alternatively, for example, the input image may be a photographic image captured through various types of camera devices.

또한, 가상 이미지는 상기 제1 도메인의 입력 이미지 내의 사용자의 관심 영역(ROI)을 적어도 하나 이상 포함하는 제2 도메인의 이미지일 수 있다. In addition, the virtual image may be an image of the second domain including at least one ROI of the user in the input image of the first domain.

예를 들어, 가상 이미지는 상기 제1 도메인의 입력 이미지에 포함된 적어도 하나의 인공물(artifact)이 제거된 제2 도메인의 이미지일 수 있다. For example, the virtual image may be an image of the second domain from which at least one artifact included in the input image of the first domain has been removed.

상기 인공물은, 예를 들어, 상기 입력 이미지에 포함된 다양한 형태의 이미징 에러(imaging error)일 수 있다. 또는, 상기 인공물은 사용자가 원하지 않는 특징(unwanted features)들일 수 있다. 사용자는 상기 입력 이미지에 포함된 원하지 않는 특징들을 인공물로 정의할 수 있다. The artifact may be, for example, various types of imaging errors included in the input image. Alternatively, the artifact may be features that the user does not want. The user can define unwanted features included in the input image as artifacts.

1. 신호 변환 제공 시스템1. Signal Conversion Provision System

이하에서는 도 1 및 도 2를 참조하여 전술한 다양한 신호 변환을 통해 변환된 가상 신호를 제공하기 위한 신호 변환 제공 시스템(1)의 전체 환경을 개략적으로 설명한다. Hereinafter, the entire environment of the signal conversion providing system 1 for providing a virtual signal converted through various signal conversions described above with reference to FIGS. 1 and 2 will be schematically described.

본 출원의 일 실시 예에 따른 신호 변환 제공 시스템(1)은, 사용자 장치(30)로부터 입력되는 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하여 해당 사용자 장치(30)를 통해 제공하기 위한 시스템일 수 있다. The signal conversion providing system 1 according to an embodiment of the present application converts the source signal of the first domain input from the user device 30 into a virtual signal of the second domain and provides it through the corresponding user device 30 It may be a system for doing.

또한, 상기 신호 변환 제공 시스템(1)은 소스 신호 내의 에러 특징들이 제거된 가상 신호를 제공하기 위해 미리 학습된 시스템일 수 있다. In addition, the signal conversion providing system 1 may be a system that has been learned in advance to provide a virtual signal from which error features in the source signal have been removed.

도 1은 본 출원의 일 실시 예에 따른 신호 변환 제공 시스템의 전체 환경을 개략적으로 설명하기 위한 도면이다. 본 출원의 일 실시 예에 따른 신호 변환 제공 시스템(1)은 서버(10), 데이터 베이스(20), 사용자 장치(30) 등을 포함할 수 있으며, 상기 서버(10), 상기 데이터 베이스(20), 상기 사용자 장치(30) 등이 통신망(2)을 통해 연결될 수 있다. 또한, 상기 신호 변환 제공 시스템(1)은 하나 이상의 서버(10), 데이터 베이스(20), 사용자 장치(30)를 포함할 수 있다. 1 is a diagram schematically illustrating an entire environment of a system for providing signal conversion according to an exemplary embodiment of the present application. The signal conversion providing system 1 according to the exemplary embodiment of the present application may include a server 10, a database 20, a user device 30, and the like, and the server 10, the database 20 ), the user device 30 and the like may be connected through the communication network 2. In addition, the signal conversion providing system 1 may include one or more servers 10, a database 20, and a user device 30.

서버(10)는 사용자 장치(30)로부터 수신된 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하여 제공하기 위한 장치일 수 있다. The server 10 may be a device for converting and providing a source signal of the first domain received from the user device 30 into a virtual signal of the second domain.

예를 들어, 상기 서버(10)는 소스 신호 내의 에러 특징들이 제거된 가상 신호를 생성하기 위해 학습을 수행하는 학습 모듈(M), 상기 학습 모듈(M)을 통해 획득된 소정의 기준을 기초로 하여 신호 변환 동작을 수행하는 신호 변환 모듈(T) 등을 포함할 수 있다. For example, the server 10 is based on a learning module (M) that performs learning to generate a virtual signal from which error features in the source signal are removed, and a predetermined criterion obtained through the learning module (M). Thus, it may include a signal conversion module (T) or the like that performs a signal conversion operation.

상기 학습 모듈(M) 및 상기 신호 변환 모듈(T)은 설명의 편의를 위하여 예시적으로 기재된 것으로 상기 서버(10)는 하나의 모듈을 통해 모든 기능들을 통합하여 제공할 수 있으며, 기타 가상 신호를 생성하여 제공하기 위해 필요한 모든 기능들을 제공할 수 있다. 상기 학습 모듈(M) 및 상기 신호 변환 모듈(T)에서 수행되는 세부 동작은 이하의 관련된 부분에서 설명하기로 한다. The learning module (M) and the signal conversion module (T) are exemplarily described for convenience of description, and the server 10 may provide all functions by integrating through one module, and provide other virtual signals. All functions necessary to create and provide can be provided. Detailed operations performed by the learning module M and the signal conversion module T will be described in a related section below.

또한, 예를 들어, 상기 서버(10)는, 메모리, 신호 처리를 수행하는 하나의 프로세서 또는 복수 개의 프로세서를 포함할 수 있다. In addition, for example, the server 10 may include a memory, one processor that performs signal processing, or a plurality of processors.

상기 메모리(도시되지 않음)에는 신호 처리를 위한 프로그램이 저장되어 있을 수 있고, 상기 프로그램은 하나 이상의 모듈을 포함할 수 있다. A program for signal processing may be stored in the memory (not shown), and the program may include one or more modules.

상기 프로세서(도시되지 않음)에는 머신 러닝을 수행하기 위한 하나 이상의 머신 러닝(Machine Learning) 알고리즘이 제공될 수 있다. 구체적으로, 본 출원의 일 실시 예에 따른 신호 처리에는 다양한 머신 러닝 모델(Machine learning model)이 사용될 수 있으며, 예를 들어, 딥러닝 모델(Deep learning model)이 사용될 수 있다. One or more machine learning algorithms for performing machine learning may be provided to the processor (not shown). Specifically, various machine learning models may be used for signal processing according to an exemplary embodiment of the present application, and for example, a deep learning model may be used.

딥러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions)를 시도하는 알고리즘의 집합이다. 딥러닝의 핵심 모델로 딥뉴럴 네트워크(Deep Neural Network, DNN)가 활용될 수 있다. 딥뉴럴 네트워크(DNN)는 입력층(input layer)과 출력층(output layer) 사이의 여러 개의 은닉층(hidden layer)들을 포함하며, 학습방법 또는 구조에 따라 심층 신뢰 네트워크(Deep Belief Network, DBN), 심층 오토 인코더(Deep Auto encoder), 컨볼루션 뉴럴 네트워크(Convolutional Neural Network, CNN), 순환 뉴럴 네트워크(Recurrent Neural Network, RNN), 생성적 적대 네트워크(Generative Adversarial Network, GAN) 등이 활용될 수 있다. 여기서 학습은 주어진 목적에 맞게 데이터의 특성을 파악하는 것으로 딥러닝에서는 연결 가중치(weight)를 조정한다. 예를 들어, 이미지와 같은 2차원 데이터의 학습에 적용될 수 있는 컨볼류션 뉴럴 네트워크(CNN)의 경우, 하나 또는 여러 개의 컨볼루션 레이어(convolutional layer)와 풀링 레이어(pooling layer), 완전하게 연결된 레이어(fully connected layer)들로 구성될 수 있고, 역전달 알고리즘(Backpropagation algorithm)을 통해 훈련될 수 있다. Deep learning is a set of algorithms that attempt high-level abstractions through a combination of several nonlinear transformation methods. As a core model of deep learning, a deep neural network (DNN) can be used. A deep neural network (DNN) includes several hidden layers between an input layer and an output layer. Deep Auto encoder, Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Generative Adversarial Network (GAN), etc. may be used. Here, learning is to understand the characteristics of the data for a given purpose, and in deep learning, the connection weight is adjusted. For example, in the case of a convolutional neural network (CNN) that can be applied to learning two-dimensional data such as images, one or several convolutional layers and pooling layers, and fully connected layers It can be composed of (fully connected layers) and can be trained through a backpropagation algorithm.

예를 들어, 상기 프로세서를 통해 사용자 장치(30)로부터 수신되는 제1 도메인의 입력 신호가 상술한 하나 이상의 머신 러닝 알고리즘을 이용하여 제2 도메인의 가상 신호로 변환될 수 있다. 한편, 상기 서버(10)는 외부에 위치하는 학습 모듈(M)을 통해 전달되는 소정의 기준을 기초로 하여 신호 변환 동작만을 수행할 수도 있다. 또는 상기 서버(10)는 신호 변환 학습 동작만을 수행하고, 학습 결과 산출되는 소정의 기준을 외부의 신호 변환 모듈(T)에 제공할 수도 있다. 또는, 상기 서버(10)는 외부에 위치하는 학습 모듈(M) 및 신호 변환 모듈(T)로부터 변환된 가상 신호만을 사용자에게 제공할 수도 있다. For example, an input signal of the first domain received from the user device 30 through the processor may be converted into a virtual signal of the second domain using one or more machine learning algorithms described above. Meanwhile, the server 10 may perform only a signal conversion operation based on a predetermined reference transmitted through the learning module M located outside. Alternatively, the server 10 may perform only the signal conversion learning operation and provide a predetermined reference calculated as a result of the learning to the external signal conversion module T. Alternatively, the server 10 may provide only the virtual signals converted from the externally located learning module M and the signal conversion module T to the user.

이하에서는 설명의 편의를 위하여 상기 서버(10) 내에 학습 모듈(M) 및 신호 변환 모듈(T)이 모두 위치하고, 상기 서버(10)에서 상술한 뉴럴 네트워크, 이들의 확장 또는 기타 딥러닝 접근법들을 이용하여 신호 변환을 수행하는 경우를 예로 들어 설명하기로 한다. 이때 변환된 가상 신호는 상기 입력 신호에 포함된 적어도 하나의 에러 특징이 제거된 신호일 수 있다. In the following, for convenience of explanation, both the learning module (M) and the signal conversion module (T) are located in the server 10, and the neural network described above in the server 10, extensions thereof, or other deep learning approaches are used. Thus, a case of performing signal conversion will be described as an example. In this case, the converted virtual signal may be a signal from which at least one error feature included in the input signal has been removed.

데이터 베이스(20)는, 각종 데이터를 저장하기 위한 구성으로 하나 이상의 메모리를 포함할 수 있다. The database 20 is configured to store various types of data and may include one or more memories.

*예를 들어, 데이터 베이스(20)는 사용자 장치(30)로부터 수신되는 하나 이상의 신호를 저장할 수 있고, 신호 변환 과정에서 생성되는 각종 데이터들을 저장할 수 있다. * For example, the database 20 may store one or more signals received from the user device 30 and may store various types of data generated during a signal conversion process.

또한, 예를 들어, 상기 데이터 베이스(20)는 외부 서버 또는 외부 데이터 베이스 등으로부터 획득한 하나 이상의 신호, 예컨대, 이미지, 음성, 3차원 정보의 특징 정보 등을 저장하고 있을 수 있다. In addition, for example, the database 20 may store one or more signals obtained from an external server or an external database, for example, image, voice, characteristic information of 3D information, and the like.

한편, 상기 데이터 베이스(20)는 전술한 서버(10) 내에 위치할 수 있고, 상기 서버(10)로부터 분리되어 위치할 수도 있다. Meanwhile, the database 20 may be located in the server 10 described above, or may be located separately from the server 10.

사용자 장치(30)는 특정 오브젝트(object)의 이미지, 음성, 3차원 정보 등을 획득하기 위한 전자기기일 수 있다. 예를 들어, 상기 사용자 장치(30)는 카메라, 엑스레이, CT, MRI, 초음파 영상 촬영 장치, 컴퓨터, 휴대용 단말기 등 일 수 있다. 또는, 상기 사용자 장치(30)는 외부 장치로부터 생성된 신호를 제공받는 컴퓨터,휴대용 단말기 등의 전자기기일 수 있다. 예를 들어, 컴퓨터는 데스크탑, 노트북 등을 포함할 수 있다. 또는, 예를 들어, 상기 휴대용 단말기는 태블릿, 스마트폰 등을 포함할 수 있다. The user device 30 may be an electronic device for acquiring an image, a voice, and 3D information of a specific object. For example, the user device 30 may be a camera, X-ray, CT, MRI, ultrasound imaging device, computer, portable terminal, or the like. Alternatively, the user device 30 may be an electronic device such as a computer or a portable terminal that receives a signal generated from an external device. For example, the computer may include a desktop, a notebook, and the like. Or, for example, the portable terminal may include a tablet, a smart phone, or the like.

일 예로, 외부 장치가 초음파 영상 촬영 장치인 경우, 상기 사용자 장치(30)는 상기 초음파 영상 촬영 장치로부터 촬상된 이미지를 제공받는 병원 내의 단말기일 수 있다. For example, when the external device is an ultrasound imaging device, the user device 30 may be a terminal in a hospital receiving an image captured from the ultrasound imaging device.

상기 사용자 장치(30)는 상기 사용자 장치(30)에 설치된 프로그램, 상기 사용자 장치(30) 상에 제공되는 웹사이트, 애플리케이션 등을 통하여 서버(10)에 접근할 수 있다. The user device 30 may access the server 10 through a program installed on the user device 30, a website provided on the user device 30, an application, or the like.

예를 들어, 상기 사용자 장치(30)는 상기 사용자 장치(30)에 미리 저장된 음성, 자연어, 음악, 이미지 데이터 등 중 적어도 하나를 상기 서버(10)에 입력 신호로서 제공할 수 있다. 또한, 예를 들어, 상기 사용자 장치(30)는 상기 사용자 장치(30)를 통해 실시간으로 획득되는 음성, 자연어, 음악, 이미지 데이터 등 중 적어도 하나를 상기 서버(10)에 입력 신호로써 제공할 수 있다. For example, the user device 30 may provide at least one of voice, natural language, music, and image data previously stored in the user device 30 as an input signal to the server 10. In addition, for example, the user device 30 may provide at least one of voice, natural language, music, image data, etc. acquired in real time through the user device 30 to the server 10 as an input signal. have.

통신망(2)은 서버(10)와 사용자 장치(30) 사이를 연결하기 위한 다양한 방식의 유무선 통신망일 수 있다. 또는, 상기 통신망(2)은 로컬 영역 통신망(local area network) 또는 광역 통신망(wide area network)일 수 있다. 예를 들어, 유에스비(USB)를 통한 유선 통신, 와파이(Wi-Fi), 와이브로(Wibro), 블루투스(Bluetooth), 알에프(RF), 적외선 통신(IrDA) 방식 등의 무선 통신일 수 있으며, 상기 통신망(2)은 상술한 예로 한정되지 않는다. The communication network 2 may be a wired or wireless communication network of various types for connecting the server 10 and the user device 30. Alternatively, the communication network 2 may be a local area network or a wide area network. For example, it may be wireless communication such as wired communication through USB, Wi-Fi, Wibro, Bluetooth, RF, infrared communication (IrDA), and the like. The communication network 2 is not limited to the above-described example.

2. 신호 변환 과정 2. Signal conversion process

도 2는 본 출원의 일 실시 예에 따른 신호 변환 제공 시스템(1)에서 제공되는 신호 변환 과정을 개략적으로 나타내기 위한 블록도이다. 2 is a block diagram schematically illustrating a signal conversion process provided by the signal conversion providing system 1 according to an embodiment of the present application.

예를 들어, 본 출원의 일 실시 예에 따른 신호 변환 과정은 전술한 서버(10) 내부에 위치하는 신호 변환 모듈(T)을 통해 수행될 수 있다. For example, the signal conversion process according to the exemplary embodiment of the present application may be performed through the signal conversion module T located inside the server 10 described above.

이때 상기 신호 변환 모듈(T)에는 하나 이상의 머신러닝 알고리즘이 제공될 수 있으다. 예를 들어, 상기 신호 변환 모듈(T)은, 도 2에 도시된 바와 같이, 적어도 하나의 뉴럴 네트워크(Neural Network, NN)를 이용하여 신호 변환을 수행할 수 있다. 상기 신호 변환 모듈(T)에 의해 수행되는 세부 동작에 관해서는 이하의 관련된 실시 예를 통해 설명하기로 한다. At this time, one or more machine learning algorithms may be provided to the signal conversion module T. For example, as illustrated in FIG. 2, the signal conversion module T may perform signal conversion using at least one neural network (NN). Detailed operations performed by the signal conversion module T will be described with reference to related embodiments below.

도 2를 참조하면, 상기 뉴럴 네트워크(NN)에는 전술한 사용자 장치(30)로부터 수신되는 제1 도메인의 소스 신호(X)가 입력데이터로서 적용될 수 있다. 즉, 상기 사용자 장치(30)로부터 수신된 초음파 이미지(X)가 상기 뉴럴 네트워크(NN)에 입력되면, 상기 뉴럴 네트워크(NN)를 이용하여 변환된 제2 도메인의 실제 사진 이미지(Yv)가 상기 사용자 장치(30) 상에 출력될 수 있다.Referring to FIG. 2, the source signal X of the first domain received from the user device 30 described above may be applied to the neural network NN as input data. That is, when the ultrasound image X received from the user device 30 is input to the neural network NN, the actual photo image Yv of the second domain converted using the neural network NN is It may be output on the user device 30.

예를 들어, 도 2에 도시된 바와 같이, 상기 실제 사진 이미지(Yv)는 상기 초음파 이미지(X) 내의 태아의 손과 같은 에러 특징들이 제거된 제2 도메인의 가상 이미지일 수 있다. 이때, 상기 신호 변환 모듈(T)은 미리 설정된 기준에 따라 제1 도메인의 소스 이미지(X) 내에 포함된 에러 특징들이 제거된 제2 도메인의 가상 이미지를 생성할 수 있다. 예를 들어, 상기 미리 설정된 기준은 기계 학습 결과로써 획득되는 파라미터일 수 있고, 상기 파라미터는 지속적으로 업데이트될 수 있다. For example, as illustrated in FIG. 2, the actual photographic image Yv may be a virtual image of the second domain from which error features such as a fetus's hand in the ultrasound image X have been removed. In this case, the signal conversion module T may generate a virtual image of the second domain from which error features included in the source image X of the first domain have been removed according to a preset criterion. For example, the preset criterion may be a parameter obtained as a result of machine learning, and the parameter may be continuously updated.

이하에서는 도3 내지 도 6을 참조하여 신호 변환 모듈(T)에서 수행되는 신호 변환 방법의 실시 예들에 관하여 상세하게 설명한다. Hereinafter, exemplary embodiments of a signal conversion method performed in the signal conversion module T will be described in detail with reference to FIGS. 3 to 6.

도 3은 본 출원의 실시 예에 따른 신호 변환 모듈(T)의 구성을 예시적으로 설명하기 위한 블록도이다. 예를 들어, 신호 변환 모듈(T)은 신호 송수신부(11), 특징 분석부(12), 가상 신호 생성부(13), 신호 역변환부(14) 및 제어부(15) 등을 포함할 수 있다. 각 구성요소는 예시적으로 기재된 것으로, 상기 신호 변환 모듈(T)에는 상술한 구성요소 중 하나 이상이 포함될 수 있으며, 각 구성요소에서 수행되는 동작들이 하나의 구성요소로 통합되어 제공될 수 있다. 또한, 각 구성요소에서 수행되는 동작들은 필요에 따라 순차적으로 또는 병렬적으로 수행될 수 있다. 3 is a block diagram illustrating an exemplary configuration of a signal conversion module T according to an exemplary embodiment of the present application. For example, the signal conversion module T may include a signal transmission/reception unit 11, a feature analysis unit 12, a virtual signal generation unit 13, an inverse signal conversion unit 14, and a control unit 15. . Each component is described as an example, and the signal conversion module T may include one or more of the above-described components, and operations performed by each component may be integrated into one component and provided. In addition, operations performed by each component may be performed sequentially or in parallel as necessary.

이하에서는 제1 도메인(domain)의 소스 신호(source signal)는 태아의 초음파 이미지(Ultrasound Image), 제2 도메인의 데스티네이션 신호(destination signal)는 신생아의 실제 사진 이미지(Real Photo Image)인 경우를 예로 들어 설명하기로 한다. Hereinafter, it is assumed that the source signal of the first domain is an ultrasound image of the fetus, and the destination signal of the second domain is a real photo image of a newborn baby. Let's explain with an example.

이 때, 제2 도메인의 가상 신호는 상기 태아의 초음파 이미지에 신생아의 실제 사진 이미지의 특징들을 합성한 이미지일 수 있으며, 상기 태아의 초음파 이미지 내에 포함된 적어도 하나의 인공물(artifact)이 제거된 태아의 사진 이미지일 수 있다. In this case, the virtual signal of the second domain may be an image obtained by synthesizing features of the actual photographic image of the newborn with the ultrasound image of the fetus, and at least one artifact included in the ultrasound image of the fetus has been removed. It may be a photographic image of.

여기서, 상기 인공물(artifact)은, 예를 들어, 상기 태아의 초음파 이미지에 포함된 다양한 형태의 이미징 에러(imaging error), 상기 태아의 얼굴 영역(face region)이 아닌 임의의 특징일 수 있다. Here, the artifact may be, for example, various types of imaging errors included in the ultrasound image of the fetus, or any feature other than a face region of the fetus.

이하에서는, 태아의 얼굴 영역(face region)을 사용자의 관심 영역(ROI)으로 정의하고, 상기 태아의 초음파 이미지 내의 적어도 하나의 인공물을 포함하는 영역을 에러 영역(error region)으로 정의한다. Hereinafter, a face region of the fetus is defined as a region of interest (ROI) of a user, and a region including at least one artificial object in the ultrasound image of the fetus is defined as an error region.

또한, 상기 태아의 초음파 이미지는 초음파 촬영 장치를 통해 촬상된 태아의 2차원 또는 3차원 이미지일 수 있고, 신생아의 실제 사진 이미지는 신생아를 실제로 촬상한 2차원 이미지일 수 있다. 한편, 본 출원의 일 실시 예에 따른 신호 처리에 있어서, 상기 초음파 이미지의 태아와 상기 실제 사진 이미지의 신생아는 서로 일치하지 않을 수 있다. In addition, the ultrasound image of the fetus may be a two-dimensional or three-dimensional image of the fetus captured through an ultrasound imaging device, and the actual photographic image of the newborn may be a two-dimensional image of the newborn. Meanwhile, in the signal processing according to the exemplary embodiment of the present application, the fetus in the ultrasound image and the newborn baby in the actual photograph image may not coincide with each other.

신호 송수신부(11)는 사용자로부터 제1 도메인의 소스 신호(X)를 수신하고, 후술할 가상 신호 생성부(13)에서 생성된 제2 도메인의 가상 신호를 사용자 장치(30) 상에 전송하기 위한 구성일 수 있다. The signal transmission/reception unit 11 receives the source signal X of the first domain from the user and transmits the virtual signal of the second domain generated by the virtual signal generation unit 13 to be described later on the user device 30 It can be a configuration for.

예를 들어, 상기 제1 도메인의 소스 신호(X)가 태아의 초음파 이미지인 경우, 상기 소스 신호(X)는 초음파 영상 촬영 장치로부터 실시간으로 수신되는 이미지일 수 있다. 또는, 상기 소스 신호(X)는 사용자의 휴대용 단말기에 저장되어 있는 이미지들 중 사용자에 의해 선택된 이미지일 수 있다. For example, when the source signal X of the first domain is an ultrasound image of a fetus, the source signal X may be an image received in real time from an ultrasound imaging apparatus. Alternatively, the source signal X may be an image selected by the user from among images stored in the user's portable terminal.

특징 분석부(12)는 상기 신호 송수신부(11)를 통해 획득한 제1 도메인의 소스 신호(X) 내의 복수의 특징들을 추출하기 위한 구성일 수 있다. The feature analysis unit 12 may be a component for extracting a plurality of features in the source signal X of the first domain obtained through the signal transmission/reception unit 11.

예를 들어, 상기 특징 분석부(12)는 적어도 하나의 뉴럴 네트워크를 이용하여 상기 소스 신호(X) 내의 복수의 특징들을 추출할 수 있다. 예를 들어, 상기 네트워크는 컨볼루션 네트워크일 수 있고, 복수의 레이어를 포함할 수 있다. 따라서, 상기 특징 분석 부(12)는 상기 복수의 레이어를 이용하여 상기 소스 신호(X) 내에 포함된 복수의 특징(feature)들을 추출할 수 있다. For example, the feature analysis unit 12 may extract a plurality of features in the source signal X using at least one neural network. For example, the network may be a convolutional network and may include a plurality of layers. Accordingly, the feature analysis unit 12 may extract a plurality of features included in the source signal X by using the plurality of layers.

또한, 상기 특징 분석부(12)는 상기 복수의 특징들을 미리 설정된 기준에 따라 관심 영역(ROI)에 관련된 유효 특징 및/또는 에러 영역에 관련된 에러 특징으로 분류할 수 있다. 상기 미리 설정된 기준은, 예를 들어, 사용자로부터 미리 입력된 기준일 수 있고, 학습 모듈(M)을 통해 미리 학습된 결과에 따라 업데이트되는 것일 수 있다. In addition, the feature analysis unit 12 may classify the plurality of features into valid features related to the ROI and/or error features related to an error area according to a preset criterion. The preset criterion may be, for example, a criterion previously input from a user, and may be updated according to a result previously learned through the learning module M.

예를 들어, 상기 특징 분석부(12)는 하나 이상의 특징맵(FM, Feature Map)을 통하여 상기 소스 신호 내의 관심 영역(ROI, Region of Interest) 및 에러 영역(error region)을 식별할 수 있다. 이때, 상기 특징맵은 상기 복수의 특징들의 조합일 수 있다.For example, the feature analysis unit 12 may identify a region of interest (ROI) and an error region in the source signal through one or more feature maps (FM). In this case, the feature map may be a combination of the plurality of features.

일 예로, 상기 소스 신호(X)가 태아의 초음파 이미지인 경우, 상기 관심 영역은 태아의 얼굴 영역(face region)일 수 있고, 상기 에러 영역은 태아의 얼굴 영역이 아닌 다른 신체 영역일 수 있다. 예를 들어, 상기 얼굴 영역은 태아의 눈, 코, 입, 귀 등을 포함할 수 있다. 예를 들어, 상기 에러 영역은 태아의 손, 발, 태반, 양수 등을 포함할 수 있다. For example, when the source signal X is an ultrasound image of a fetus, the region of interest may be a face region of the fetus, and the error region may be a body region other than a face region of the fetus. For example, the face area may include the eyes, nose, mouth, and ears of the fetus. For example, the error region may include a fetus's hand, foot, placenta, amniotic fluid, and the like.

추가로, 상기 특징 분석부(12)는 제2 도메인의 데스티네이션 신호의 특징들을 추출할 수도 있다. 이때, 상기 데스티네이션 신호의 특징들을 추출하는 방법은, 상기 소스 신호 내의 특징들을 추출하는 방법에 대응될 수 있다.Additionally, the feature analysis unit 12 may extract features of the destination signal of the second domain. In this case, the method of extracting features of the destination signal may correspond to a method of extracting features of the source signal.

또한, 선택적으로, 상기 신호 변환 모듈(T)은 사용자 장치(30)를 통해 상기 특징 분석부(12)를 통해 분석된 유효 특징 및/또는 에러 특징들의 리스트를 제공할 수 있다. 예를 들어, 사용자는 상기 리스트의 특징들 중 하나를 선택하여 속성 정보를 변경할 수 있다. 예를 들어, 상기 속성 정보는, 피부색, 머리 색깔 등을 포함할 수 있다. In addition, optionally, the signal conversion module T may provide a list of valid features and/or error features analyzed by the feature analysis unit 12 through the user device 30. For example, the user may change attribute information by selecting one of the features of the list. For example, the attribute information may include skin color, hair color, and the like.

가상 신호 생성부(13)는 전술한 특징 분석부(12)로부터 획득되는 하나 이상의 특징들을 이용하여 제1 도메인의 소스 신호를 제2 도메인의 제1 가상 신호로 변환하기 위한 구성일 수 있다. The virtual signal generation unit 13 may be a component for converting a source signal of a first domain into a first virtual signal of a second domain by using one or more features obtained from the above-described feature analysis unit 12.

예를 들어, 상기 가상 신호 생성부(13)는 적어도 하나의 뉴럴 네트워크를 이용하여 상기 소스 신호를 제2 도메인의 제1 가상 신호로 변환할 수 있다. 예를 들어, 상기 네트워크는 복수의 레이어를 포함할 수 있고, 상기 가상 신호 생성부(13)는 상기 복수의 레이어에 미리 학습된 파라미터를 적용하여 상기 제1 가상 신호를 생성할 수 있다. For example, the virtual signal generator 13 may convert the source signal into a first virtual signal of a second domain using at least one neural network. For example, the network may include a plurality of layers, and the virtual signal generator 13 may generate the first virtual signal by applying a pre-learned parameter to the plurality of layers.

상기 미리 학습된 파라미터는, 일정 수준 이상의 품질을 갖는 제1 가상 신호를 생성하도록 학습 모듈(M)에 의해 미리 학습된 것일 수 있다. 상기 파라미터가 산출되는 과정에 대해서는 이하의 학습 모듈(M)에서 수행되는 학습 방법에 관한 부분에서 후술한다. The pre-learned parameter may be pre-learned by the learning module M to generate a first virtual signal having a quality of a certain level or higher. The process of calculating the parameter will be described later in the section on the learning method performed in the learning module M below.

또한, 예를 들어, 상기 가상 신호 생성부(13)는 소스 신호의 유효 특징들을 기초로 신호 변환에 필요한 데스티네이션 신호의 특징들을 재조합할 수 있고, 상기 소스 신호의 유효 특징들에 재조합된 데스티네이션 신호의 특징들을 합성하여 제2 도메인의 제1 가상 신호로 변환할 수 있다. 이때, 상기 가상 신호 생성부(13)로부터 변환된 제1 가상 신호는 상기 소스 신호 내의 적어도 하나의 에러 특징들이 제거된 것일 수 있다. In addition, for example, the virtual signal generation unit 13 may recombine characteristics of a destination signal necessary for signal conversion based on valid characteristics of the source signal, and a destination recombined to the valid characteristics of the source signal. The characteristics of the signal may be synthesized and converted into a first virtual signal of the second domain. In this case, the first virtual signal converted by the virtual signal generation unit 13 may be obtained by removing at least one error characteristic in the source signal.

예를 들어, 상기 데스티네이션 신호의 특징들은, 이미지의 밝기, 색상, 반사색, 텍스쳐, 깊이, 블렌딩, 형태 또는 형태의 조합 등을 포함할 수 있다. For example, the characteristics of the destination signal may include brightness, color, reflection color, texture, depth, blending, shape or combination of shapes of the image.

한편, 상기 데스티네이션 신호 및/또는 상기 데스티네이션 신호의 특징들은 전술한 특징 분석부(12), 데이터 베이스(20), 메모리 또는 외부 서버로부터 획득될 수 있다. 또는, 상기 가상 신호 생성부(13)는 상기 뉴럴 네트워크를 이용하여 상기 데스티네이션 신호의 특징들을 추출할 수 있으며, 상기 데스티네이션의 특징들이 추출되는 과정은 전술한 특징 분석부(12)에서 상기 소스 신호 내의 특징들을 추출하는 방법에 대응될 수 있다.Meanwhile, the destination signal and/or the characteristics of the destination signal may be obtained from the above-described feature analysis unit 12, the database 20, a memory, or an external server. Alternatively, the virtual signal generation unit 13 may extract features of the destination signal using the neural network, and the process of extracting the features of the destination is performed by the above-described feature analysis unit 12 It may correspond to a method of extracting features in the signal.

일 예로, 상기 소스 신호가 태아의 초음파 이미지인 경우, 미리 설정된 기준에 따라 상기 태아의 초음파 이미지 내에 포함된 에러 특징들이 식별될 수 있고, 상기 가상 신호 생성부(13)를 통해 상기 에러 특징들을 제거한 가상 이미지가 생성될 수 있다. 예를 들어, 상기 가상 신호 생성부(13)를 통해 생성되는 가상 이미지는 상기 초음파 이미지 내의 태아의 손, 발, 태반 등과 같은 에러 특징들이 제거된 제2 도메인의 실제 사진 이미지일 수 있다. For example, when the source signal is an ultrasound image of a fetus, error features included in the ultrasound image of the fetus may be identified according to a preset criterion, and the error features are removed through the virtual signal generator 13. Virtual images can be created. For example, the virtual image generated by the virtual signal generator 13 may be an actual photographic image of the second domain from which error features such as hands, feet, placenta, etc. of the fetus in the ultrasound image have been removed.

다른 예로, 사용자가 사용자 장치(30) 상에 제공되는 상기 유효 특징 및/또는 유효 특징 리스트의 특징들 중 하나를 선택하여 속성 정보 변경을 요청한 경우, 상기 가상 신호 생성부(13)는 상기 속성 정보 변경 요청을 반영하여 가상 신호를 생성할 수 있다. As another example, when a user requests to change attribute information by selecting one of the valid features and/or features of the valid feature list provided on the user device 30, the virtual signal generator 13 A virtual signal can be generated by reflecting the change request.

추가로, 상기 가상 신호 생성부(13)는 후술할 신호 역변환부(14) 통해 변환된 복원 신호를 입력 신호로 하여 제2 가상 신호를 생성할 수도 있다. 상기 복원 신호를 입력 신호로 하여 제2 가상 신호를 생성하는 방법은 전술한 제1 가상 신호를 생성하는 방법에 대응될 수 있다. Additionally, the virtual signal generation unit 13 may generate a second virtual signal by using the reconstructed signal converted through the signal inverse conversion unit 14 to be described later as an input signal. The method of generating the second virtual signal by using the restored signal as an input signal may correspond to the method of generating the first virtual signal described above.

신호 역변환부(14)는 전술한 가상 신호 생성부(13)에서 생성된 제2 도메인의 제1 가상 신호를 제1 도메인의 복원 신호로 역변환하기 위한 구성일 수 있다. The signal inverse transform unit 14 may be a component for inversely transforming the first virtual signal of the second domain generated by the above-described virtual signal generator 13 into a reconstructed signal of the first domain.

예를 들어, 상기 신호 역변환부(14)는 적어도 하나의 뉴럴 네트워크를 이용하여 상기 제1 가상 신호를 제1 도메인의 복원 신호로 역변환할 수 있다. For example, the signal inverse transform unit 14 may inversely transform the first virtual signal into a reconstructed signal of a first domain using at least one neural network.

이때, 상기 제1 가상 신호를 제1 도메인의 복원 신호로 변환하는 과정은 전술한 가상 신호 생성부(13)에서 수행되는 신호 변환 동작에 대응될 수 있다. In this case, the process of converting the first virtual signal into a reconstructed signal of the first domain may correspond to a signal conversion operation performed by the above-described virtual signal generator 13.

예를 들어, 상기 뉴럴 네트워크는 두 개의 서브 네트워크를 포함할 수 있고, 상기 신호 역변환부(14)는 제1 서브 네트워크에 포함된 복수의 레이어를 이용하여 상기 제1 가상 신호 내의 복수의 특징들을 추출할 수 있다. 이때, 상기 신호 역변환부(14)에서 상기 제1 서브 네트워크를 이용하여 복수의 특징들을 추출하는 과정은 전술한 특징 분석부(12)에서 수행되는 동작에 대응될 수 있다. 이때, 상기 신호 역변환부(14)에서 복원 신호를 생성하는 과정은 전술한 가상 신호 생성부(13)에서 수행되는 동작에 대응될 수 있다. For example, the neural network may include two sub-networks, and the signal inverse transform unit 14 extracts a plurality of features in the first virtual signal using a plurality of layers included in the first sub-network. can do. In this case, the process of extracting a plurality of features by the signal inverse transform unit 14 using the first sub-network may correspond to an operation performed by the feature analysis unit 12 described above. In this case, the process of generating the reconstructed signal by the signal inverse transform unit 14 may correspond to the operation performed by the above-described virtual signal generation unit 13.

즉, 상기 신호 역변환부(14)는 제2 서브 네트워크에 포함된 복수의 레이어를 이용하여 상기 복수의 특징들에 상기 제1 도메인의 소스 신호의 특징들을 맵핑하여 복원 신호를 생성할 수 있다.That is, the signal inverse transform unit 14 may generate a reconstructed signal by mapping features of the source signal of the first domain to the plurality of features using a plurality of layers included in the second sub-network.

한편, 상기 제1 가상 신호는 상기 소스 신호 내의 적어도 하나의 에러 특징이 제거된 것일 수 있으므로, 상기 신호 역변환부(14)를 통해 생성되는 복원 신호 또한 상기 적어도 하나의 에러 특징이 제거된 것일 수 있다. Meanwhile, since the first virtual signal may have at least one error feature removed from the source signal, the reconstructed signal generated through the signal inverse transform unit 14 may also have the at least one error feature removed. .

일 예로, 후술할 제어부(15)는 가상 신호의 품질이 미리 정해진 수준에 부합할 때까지 전술한 가상 신호 생성부(13) 및 신호 역변환부(14)를 통해 신호 변환 및 역변환 과정을 반복적으로 수행하도록 제어함으로써, 상기 소스 신호에 포함된 에러 특징들이 점차적/단계적으로 제거될 수 있다. 상기 신호 변환 및 역변환 과정에 관한 상세한 설명은 이하의 관련된 실시 예를 통해 상세하게 설명한다. For example, the control unit 15 to be described later repeatedly performs signal conversion and inverse conversion through the above-described virtual signal generation unit 13 and signal inverse conversion unit 14 until the quality of the virtual signal meets a predetermined level. By controlling to be performed, error features included in the source signal can be gradually/stepwise removed. A detailed description of the signal conversion and inverse conversion process will be described in detail through the following related embodiments.

제어부(15)는 사용자로부터 입력된 소스 신호에 포함된 에러 신호들을 식별하여 품질이 향상된 제2 도메인의 가상 신호를 생성하도록 상기 신호 변환 모듈(T)에서 수행되는 모든 동작을 제어하기 위한 구성일 수 있다. The control unit 15 may be a configuration for controlling all operations performed by the signal conversion module T to generate a virtual signal of a second domain with improved quality by identifying error signals included in a source signal input from a user. have.

예를 들어, 상기 제어부(15)는 학습 모듈(M)로부터 산출된 최적의 파라미터를 획득할 수 있고, 상기 파라미터를 전술한 특징 분석부(12), 가상 신호 생성부(13) 및/또는 신호 역변환부(14)에 전달할 수 있다. For example, the control unit 15 may obtain the optimum parameter calculated from the learning module M, and the parameter may be applied to the above-described feature analysis unit 12, a virtual signal generation unit 13, and/or a signal. It can be transmitted to the inverse transform unit 14.

또한, 예를 들어, 상기 제어부(15)는 상기 가상 신호 생성부(13)를 통해 최종 변환된 제2 도메인의 가상 이미지를 상기 신호 송수신부(11)를 통해 사용자 장치(30) 상에 출력하도록 제어할 수 있다. In addition, for example, the control unit 15 outputs the virtual image of the second domain finally converted through the virtual signal generation unit 13 on the user device 30 through the signal transmission/reception unit 11. Can be controlled.

또한, 예를 들어, 상기 제어부(15)는 상기 가상 신호 생성부(13)를 통해 생성된 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 더 판단할 수 있다. Also, for example, the control unit 15 may further determine whether the quality of the virtual signal generated through the virtual signal generation unit 13 meets a predetermined level.

여기서 미리 정해진 수준은 사용자에 의해 미리 입력된 기준일 수 있으며, 예를 들어 사용자는 상기 가상 신호 생성부(13) 및 상기 신호 역변환부(14)에 의한 동작을 미리 지정된 횟수 이상 반복하도록 설정할 수 있다. 상기 가상 신호의 품질은 신호의 종류에 따라 다양한 기준에 의해 판단될 수 있으며, 이와 관련된 상세한 설명은 이하의 실시 예를 통해 상세하게 설명한다. Here, the predetermined level may be a reference previously input by the user, and for example, the user may set the operation by the virtual signal generator 13 and the signal inverse transform unit 14 to be repeated more than a predetermined number of times. The quality of the virtual signal may be determined according to various criteria according to the type of signal, and a detailed description thereof will be described in detail through the following embodiments.

일 예로, 상기 제어부(15)는 상기 가상 신호의 품질이 미리 정해진 수준에 부합하는 것으로 판단되는 경우, 상기 신호 송수신부(11)를 통해 상기 가상 이미지를 사용자 장치(30) 상에 출력하도록 제어할 수 있다. For example, when it is determined that the quality of the virtual signal corresponds to a predetermined level, the control unit 15 controls to output the virtual image on the user device 30 through the signal transmission/reception unit 11. I can.

또는, 상기 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단되는 경우, 상기 가상 신호를 전술한 신호 역변환부(14)로 전달할 수 있다.Alternatively, when it is determined that the quality of the virtual signal does not meet a predetermined level, the virtual signal may be transmitted to the signal inverse transform unit 14 described above.

즉, 상기 제어부(15)는 상기 가상 신호 생성부(13)를 통해 생성된 가상 신호의 품질이 미리 정해진 수준에 부합할 때까지, 신호 변환 과정 및 신호 역변환 과정을 반복하도록 상기 가상 신호 생성부(13) 및 상기 신호 역변환부(14)의 동작을 제어함으로써, 상기 소스 신호에 포함된 에러 특징들이 제거되도록 할 수 있다. That is, the controller 15 repeats the signal conversion process and the signal inverse conversion process until the quality of the virtual signal generated by the virtual signal generator 13 meets a predetermined level. 13) And by controlling the operation of the signal inverse transform unit 14, it is possible to remove the error features included in the source signal.

이하에서는 도 4 및 도 5를 참조하여 전술한 신호 변환 모듈(T)에 의해 수행되는 신호 변환 방법의 다양한 실시 예들에 관하여 설명한다.Hereinafter, various embodiments of the signal conversion method performed by the signal conversion module T described above will be described with reference to FIGS. 4 and 5.

도 4는 본 출원의 제1 실시 예에 따른 신호 변환 방법을 예시적으로 설명하기 위한 순서도이다. 도 4를 참조하면, 본 출원의 제1 실시 예에 따른 신호 변환 방법은 제1 도메인의 소스 신호를 입력받는 단계(S41), 상기 소스 신호 내의 에러 특징 및 유효 특징들을 식별하는 단계(S42), 상기 소스 신호에 포함된 적어도 하나의 제1 에러 특징들을 제거한 제2 도메인의 제1 가상 신호를 생성하는 단계(S43), 상기 제1 가상 신호를 출력하는 단계 (S45)를 포함할 수 있다. 4 is a flowchart illustrating a signal conversion method according to the first embodiment of the present application by way of example. Referring to FIG. 4, the signal conversion method according to the first embodiment of the present application includes receiving a source signal of a first domain (S41), identifying error characteristics and valid characteristics in the source signal (S42), Generating a first virtual signal of a second domain from which at least one first error characteristic included in the source signal has been removed (S43), and outputting the first virtual signal (S45).

이하에서는, 제1 도메인의 소스 신호가 태아의 초음파 이미지(X)이고, 제2 도메인의 가상 신호는 상기 태아의 초음파 이미지에 신생아의 실제 사진 이미지의 특징들을 합성된 이미지(Yv)인 경우를 예로 들어 상세하게 설명한다. Hereinafter, it is assumed that the source signal of the first domain is an ultrasound image (X) of the fetus, and the virtual signal of the second domain is an image (Yv) in which features of the actual photographic image of the newborn are combined with the ultrasound image of the fetus It will be described in detail.

신호 변환 모듈(T)은 제1 도메인의 소스 신호를 입력받을 수 있다(S41).The signal conversion module T may receive a source signal of the first domain (S41).

도 3을 참조하여 설명한 바와 같이, 상기 신호 변환 모듈(T)은 상기 신호 송수신부(11)를 통해 사용자로부터 제1 도메인의 소스 신호(X)를 수신할 수 있다. 예를 들어, 상기 신호 변환 모듈(T)은 병원 내에 위치하는 초음파 영상 촬영 장치로부터 태아의 초음파 이미지를 전송받을 수 있다. As described with reference to FIG. 3, the signal conversion module T may receive a source signal X of the first domain from a user through the signal transmission/reception unit 11. For example, the signal conversion module T may receive an ultrasound image of a fetus from an ultrasound imaging apparatus located in a hospital.

신호 변환 모듈(T)은 상기 소스 신호 내의 에러 특징 및 유효 특징들을 식별할 수 있다(S42). The signal conversion module T may identify error characteristics and valid characteristics in the source signal (S42).

예를 들어, 신호 변환 모듈(T)은 전술한 바와 같이 특징 분석부(12)를 통해 상기 소스 신호에 포함된 복수의 특징들을 추출할 수 있다. 또한, 예를 들어, 상기 특징 분석부(12)는 상기 복수의 특징들을 미리 설정된 기준에 따라 유효 특징 및/또는 에러 특징으로 분류할 수 있다. For example, the signal conversion module T may extract a plurality of features included in the source signal through the feature analysis unit 12 as described above. In addition, for example, the feature analysis unit 12 may classify the plurality of features into valid features and/or error features according to a preset criterion.

신호 변환 모듈(T)은 상기 소스 신호에 포함된 적어도 하나의 제1 에러 특징들이 제거된 제2 도메인의 제1 가상 신호를 생성할 수 있다(S43).The signal conversion module T may generate a first virtual signal of a second domain from which at least one first error characteristic included in the source signal has been removed (S43).

예를 들어, 상기 신호 변환 모듈(T)은 S42 단계에서 식별된 적어도 하나의 제1 에러 특징들을 제외하고상기 제1 도메인의 소스 신호를 제2 도메인의 제1 가상 신호로 변환할 수 있다. 예를 들어, 상기 적어도 하나의 제1 에러 특징들은 태아의 초음파 이미지 내에 포함된 손, 발, 태반, 양수 등과 관련된 것일 수 있다. For example, the signal conversion module T may convert the source signal of the first domain into a first virtual signal of the second domain, excluding at least one first error characteristic identified in step S42. For example, the at least one first error feature may be related to a hand, foot, placenta, amniotic fluid, etc. included in an ultrasound image of a fetus.

또한, 예를 들어, 상기 신호 변환 모듈(T)은 미리 학습된 파라미터를 이용하여 상기 제1 가상 신호를 생성할 수 있다. 이때 상기 미리 학습된 파라미터는 상기 제1 가상 신호의 품질을 향상시키도록 지속적으로 업데이트될 수 있다. Also, for example, the signal conversion module T may generate the first virtual signal using a parameter learned in advance. In this case, the pre-learned parameter may be continuously updated to improve the quality of the first virtual signal.

일 예로 상기 가상 신호 생성부(13)는 상기 태아의 초음파 이미지 내에 포함된 복수의 특징들 중 S42 단계에서 식별된 제1 에러 특징들을 제외하고, 태아의 얼굴 영역에 관한 특징들(예컨대, 얼굴, 눈, 코, 입, 귀 등)을 기초로 신호 변환에 필요한 신생아의 실제 사진 이미지의 특징들(예컨대, 이미지의 밝기, 색상, 반사색, 텍스쳐, 깊이, 블렌딩, 형태 또는 형태의 조합 등)을 재조합할 수 있다. 이때 상기 가상 신호 생성부(13)는 상기 태야의 얼굴 영역에 관한 특징들에 재조합된 실제 사진 이미지의 특징들을 합성하여 제1 가상 신호를 생성할 수 있다. For example, the virtual signal generator 13 excludes the first error features identified in step S42 among a plurality of features included in the ultrasound image of the fetus, and features related to the fetal face area (eg, face, Based on the eyes, nose, mouth, ears, etc.), the characteristics of the newborn's actual photographic image (e.g., brightness, color, reflection color, texture, depth, blending, shape or combination of shapes, etc.) required for signal conversion Can be recombined. In this case, the virtual signal generator 13 may generate a first virtual signal by synthesizing features of the real photographic image recombined with the features of the face area of the womb.

신호 변환 모듈(T)은 사용자 장치 상에 상기 제1 가상 신호를 출력할 수 있다(S45). The signal conversion module T may output the first virtual signal on the user device (S45).

예를 들어, 상기 신호 변환 모듈(T)은 전술한 신호 송수신부(11)를 통하여 가상 신호 생성부(13)에서 생성된 제1 가상 신호를 전송할 수 있다. 이때, 상기 사용자 장치 상에 출력되는 상기 제1 가상 이미지는 상기 태아의 초음파 이미지 내의 에러 특징들이 제거된 품질이 향상된 이미지일 수 있다. For example, the signal conversion module T may transmit the first virtual signal generated by the virtual signal generation unit 13 through the signal transmission/reception unit 11 described above. In this case, the first virtual image output on the user device may be an image with improved quality from which error features in the ultrasound image of the fetus are removed.

한편, 신호 변환 모듈(T)은 전술한 신호 변환 동작을 적어도 2회 이상 반복적으로 수행함으로써 사용자에게 품질이 향상된 가상 신호를 제공할 수 있다. 이때, 신호 변환 모듈(T)에서 신호 변환 동작을 반복 수행하는 기준은 다양할 수 있다. Meanwhile, the signal conversion module T may provide a virtual signal with improved quality to a user by repeatedly performing the above-described signal conversion operation at least two or more times. In this case, the criteria for repeatedly performing the signal conversion operation in the signal conversion module T may be various.

본 출원의 제2 실시 예에 따른 신호 변환 방법에 의하면 전술한 S41 단계 내지 S43 단계를 통해 생성된 제1 가상 신호의 품질이 미리 지정된 수준에 부합할 때까지 신호 변환 과정을 반복적으로 수행함으로써 품질이 향상된 가상 신호를 출력할 수 있다. According to the signal conversion method according to the second embodiment of the present application, the quality is improved by repeatedly performing the signal conversion process until the quality of the first virtual signal generated through the above-described steps S41 to S43 meets a predetermined level. It is possible to output an improved virtual signal.

즉, 본 출원의 제2 실시 예에 따른 신호 변환 방법은 가상 신호의 품질이 미리 지정된 수준에 부합하는지 여부를 판단하고, 상기 제1 가상 신호의 품질이 미리 지정된 수준에 부합하는 것으로 판단되는 경우에만 사용자 장치(30)를 통해 제1 가상 신호를 출력할 수 있다. That is, the signal conversion method according to the second embodiment of the present application determines whether the quality of the virtual signal meets a predetermined level, and only when it is determined that the quality of the first virtual signal meets the predetermined level. The first virtual signal may be output through the user device 30.

다시 말해, 본 출원의 제2 실시 예에 따른 신호 변환 방법에 의하면 S43 단계를 통해 생성된 제1 가상 신호를 사용자 장치(30) 상에 출력하기 전에 상기 제1 가상 신호의 품질을 확인하는 단계를 더 거침으로써 사용자에게 미리 정해진 품질 이상의 가상 신호를 제공하도록 할 수 있다. In other words, according to the signal conversion method according to the second embodiment of the present application, the step of checking the quality of the first virtual signal before outputting the first virtual signal generated through the step S43 on the user device 30 is performed. By further coarse, it is possible to provide a virtual signal of a predetermined quality or higher to the user.

도 5는 본 출원의 제2 실시 예에 따른 신호 변환 방법을 예시적으로 설명하기 위한 순서도이다. 도 5를 참조하면, 본 출원의 제2 실시 예에 따른 신호 변환 방법은, 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단하는 단계(S44), 상기 제1 가상 신호의 품질이 미리 지정된 수준에 부합하지 않는 것으로 판단되는 경우, 상기 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환 하는 단계(S46), 상기 제1 복원 신호를 입력 신호로 하여 제2 가상 신호를 생성하는 단계(S48)를 더 포함할 수 있다. 5 is a flowchart illustrating a signal conversion method according to a second embodiment of the present application by way of example. Referring to FIG. 5, in the signal conversion method according to the second embodiment of the present application, the step of determining whether the quality of a first virtual signal corresponds to a predetermined level (S44), and the quality of the first virtual signal is If it is determined that it does not meet a predetermined level, inversely converting the first virtual signal into a first reconstructed signal in a first domain (S46), and generating a second virtual signal by using the first reconstructed signal as an input signal. It may further include a step (S48).

신호 변환 모듈(T)은 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단할 수 있다(S44).The signal conversion module T may determine whether the quality of the first virtual signal meets a predetermined level (S44).

즉, 전술한 제어부(15)는 S43 단계에서 생성된 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단할 수 있다. 이때, 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부는, 상기 제1 가상 신호와 제2 도메인의 데스티네이션 신호의 유사도(similarity)를 기초로 판단될 수 있다. That is, the above-described control unit 15 may determine whether the quality of the first virtual signal generated in step S43 corresponds to a predetermined level. In this case, whether the quality of the first virtual signal meets a predetermined level may be determined based on a similarity between the first virtual signal and a destination signal of the second domain.

여기서 유사도는 상기 가상 신호와 데스티네이션 신호의 정성적 특징들(qualitative features) 사이의 유사성을 의미할 수 있다. 예를 들어, 상기 소스 신호가 태아의 초음파 이미지인 경우, 상기 유사도는, 상기 가상 신호 생성부(13)를 통해 생성된 상기 태아의 실제 사진 이미지가 신생아의 실제 사진 이미지에 해당될 확률로 나타낼 수 있다. Here, the similarity may mean similarity between the qualitative features of the virtual signal and the destination signal. For example, when the source signal is an ultrasound image of a fetus, the similarity may be expressed as a probability that the actual photographic image of the fetus generated through the virtual signal generator 13 corresponds to the actual photographic image of the newborn. have.

일 예로, 상기 제어부(15)는 상기 제1 가상 이미지가 데스티네이션 이미지에 해당될 확률을 산출할 수 있고, 상기 제1 가상 이미지가 데스티네이션 이미지에 해당될 확률이 미리 정해진 값 이상일 경우 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는 것으로 결정할 수 있다. 따라서, 상기 제어부(15)는 상기 제1 가상 이미지를 사용자 장치(30) 상에 출력하도록 제어할 수 있다. For example, the controller 15 may calculate a probability that the first virtual image corresponds to a destination image, and when the probability that the first virtual image corresponds to a destination image is greater than or equal to a predetermined value, the first virtual image It can be determined that the quality of the signal corresponds to a predetermined level. Accordingly, the controller 15 may control to output the first virtual image on the user device 30.

다른 예로, 상기 제어부(15)는 상기 제1 가상 이미지가 데스티네이션 이미지에 해당될 확률을 산출할 수 있고, 상기 제1 가상 이미지가 데스티네이션 이미지에 해당될 확률이 미리 정해진 값 미만일 경우 제1 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 결정할 수 있다.As another example, the controller 15 may calculate a probability that the first virtual image corresponds to a destination image, and when the probability that the first virtual image corresponds to a destination image is less than a predetermined value, the first virtual image It may be determined that the quality of the signal does not meet a predetermined level.

이때 신호 변환 모듈(T)은 상기 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환할 수 있다(S46). In this case, the signal conversion module T may inversely convert the first virtual signal into a first reconstructed signal in the first domain (S46).

전술한 바와 같이, 신호 역변환부(14)는 상기 제1 가상 신호에 포함된 복수의 특징에 상기 제1 도메인의 소스 신호의 특징들을 맵핑하여 상기 제1 도메인의 제1 복원 신호를 생성할 수 있다. 이때, 상기 제1 복원 신호는 전술한 제1 에러 특징이 제거된 것일 수 있다. As described above, the signal inverse transform unit 14 may generate a first reconstructed signal of the first domain by mapping features of the source signal of the first domain to a plurality of features included in the first virtual signal. . In this case, the first recovery signal may be obtained by removing the aforementioned first error feature.

일 예로, 제1 도메인의 소스 신호가 태아의 초음파 이미지 이고, 상기 태아의 초음파 이미지에는 태아의 눈, 코, 입, 귀 등 얼굴 영역에 관련된 유효 특징들 및 손, 발, 양수, 태반 등 에러 영역에 관련된 에러 특징들이 포함되어 있을 수 있다. 이때 상기 제1 에러 특징이 상기 초음파 이미지 내의 태반에 관련된 특징인 경우, 상기 제1 가상 신호에는 상기 초음파 이미지 내의 태반에 관련된 특징이 제거된 제2 도메인의 실제 사진 이미지일 수 있다. 따라서, S46 단계에 의하면 상기 신호 역변환부(14)를 통해 역변환된 제1 복원 신호에는 상기 초음파 이미지 내의 태반에 관련된 특징이 제거되어 있을 수 있다. As an example, the source signal of the first domain is an ultrasound image of a fetus, and the ultrasound image of the fetus includes effective features related to facial areas such as eyes, nose, mouth, and ears of the fetus, and error areas such as hands, feet, amniotic fluid, and placenta. Error features related to may be included. In this case, when the first error characteristic is a characteristic related to the placenta in the ultrasound image, the first virtual signal may be an actual photographic image of the second domain from which the characteristic related to the placenta in the ultrasound image has been removed. Accordingly, in step S46, the first reconstructed signal inversely transformed through the signal inverse transform unit 14 may have a placenta-related feature in the ultrasound image removed.

상기 제1 복원 신호를 입력 신호로 하여 제2 가상 신호를 생성할 수 있다(S48).A second virtual signal may be generated by using the first restoration signal as an input signal (S48).

전술한 바와 같이, 가상 신호 생성부(13)는 상기 제1 복원 신호에 포함된 복수의 특징들에 상기 제2 도메인의 데스티네이션 신호의 특징들을 맵핑하여 상기 제2 도메인의 제2 가상 신호를 생성할 수 있다. As described above, the virtual signal generator 13 generates a second virtual signal of the second domain by mapping features of the destination signal of the second domain to a plurality of features included in the first restoration signal. can do.

예를 들어, 상기 제2 가상 신호를 생성하는 과정은 전술한 S42 및 S43 단계에서 수행되는 동작에 대응될 수 있다. For example, the process of generating the second virtual signal may correspond to the operation performed in steps S42 and S43 described above.

일 예로, 상기 신호 변환 모듈(T)은 S42 단계에서 수행되는 동작과 유사하게 상기 제1 복원 신호 내에 존재하는 적어도 하나의 제2 에러 특징들을 더 식별할 수 있고, 상기 적어도 하나의 제2 에러 특징들을 고려하여 상기 제1 복원 신호를 제2 도메인의 제2 가상 신호로 변환할 수 있다. As an example, the signal conversion module T may further identify at least one second error characteristic present in the first recovery signal similar to the operation performed in step S42, and the at least one second error characteristic In consideration of these, the first reconstructed signal may be converted into a second virtual signal of a second domain.

다른 예로, 상기 신호 변환 모듈(T)은 미리 학습된 파라미터를 이용하여 상기 제1 복원 신호를 제2 가상 신호로 변환할 수 있다. 이때 상기 가상 신호 생성부(13)를 통해 생성되는 상기 제2 가상 신호는 상기 제2 에러 특징이 더 제거된 것일 수 있다. As another example, the signal conversion module T may convert the first reconstructed signal into a second virtual signal using a parameter learned in advance. In this case, the second virtual signal generated through the virtual signal generation unit 13 may have the second error characteristic further removed.

따라서, 본 출원의 제2 실시 예에 따른 신호 변환 방법에 의하면 가상 신호의 품질이 미리 정해진 수준에 부합할 때까지 상기 단계들을 반복적으로 수행함으로써 일정 수준 이상의 품질을 갖는 가상 신호를 사용자에게 제공할 수 있다. Therefore, according to the signal conversion method according to the second embodiment of the present application, a virtual signal having a quality of a certain level or higher can be provided to a user by repeatedly performing the above steps until the quality of the virtual signal meets a predetermined level. have.

예를 들어, 도 6을 참조하면, 제1 도메인의 초음파 이미지(x0)를 제2 도메인의 실제 사진 이미지로 변환한 제1 가상 이미지(y0)에는 상기 소스 이미지(x0) 내의 에러 특징들 중 태아의 손에 관련된 특징이 포함되어 있을 수 있다. 이때, 상기 제어부(15)는 상기 제1 가상 이미지(y0)의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단할 수 있고, 상기 제1 가상 이미지(y0)를 상기 제1 도메인으로 역변환한 제1 복원 이미지(x1)를 생성하도록 신호 역변환부(13)에 상기 제1 가상 이미지(y0)를 전달할 수 있다. 또한, 상기 제어부(15)는 상기 신호 역변환부(14)를 통해 생성된 제1 복원 이미지(x1)를 상기 가상 신호 생성부(13)에 재입력하여 상기 제1 복원 이미지(x1)를 상기 제2 도메인의 제2 가상 이미지로 재변환할 수 있다. For example, referring to FIG. 6, a first virtual image (y0) obtained by converting an ultrasound image (x0) of a first domain into an actual photographic image of a second domain includes a fetus among error features in the source image (x0). It may contain features related to your hand. In this case, the controller 15 may determine that the quality of the first virtual image y0 does not meet a predetermined level, and the first virtual image y0 is inversely transformed into the first domain. The first virtual image y0 may be transmitted to the signal inverse transform unit 13 to generate the reconstructed image x1. In addition, the control unit 15 re-inputs the first reconstructed image x1 generated through the signal inverse transform unit 14 to the virtual signal generation unit 13 to obtain the first reconstructed image x1 It is possible to re-convert to a second virtual image of the 2 domain.

즉, 도 6에 도시된 바와 같이, 상기 제어부(15)는 가상 신호 생성부(13)에 의한 신호 변환 과정 및 신호 역변환부(14)에 의한 신호 역변환 과정이 연쇄적/반복적으로 수행되도록 할 수 있다. 결과적으로 상기 제어부(15)는 상기 소스 이미지(x0) 내에 포함된 원하지 않는 특징들이 제거된 미리 정해진 수준에 부합하는 품질을 갖는 가상 이미지(y*)가 출력되도록 상기 신호 변환부(T)의 동작을 제어할 수 있다. That is, as shown in Fig. 6, the control unit 15 can cause the signal conversion process by the virtual signal generation unit 13 and the signal inverse conversion process by the signal inverse conversion unit 14 to be sequentially/repetitively performed. have. As a result, the control unit 15 operates the signal conversion unit T to output a virtual image (y*) having a quality corresponding to a predetermined level from which unwanted features included in the source image (x0) are removed. Can be controlled.

또한, 본 출원의 제3 실시 예에 따른 신호 변환 방법은, 전술한 신호 변환 동작을 미리 설정된 횟수만큼 반복적으로 수행함으로써 품질이 향상된 가상 신호를 출력할 수 있다. In addition, the signal conversion method according to the third embodiment of the present application may output a virtual signal with improved quality by repeatedly performing the above-described signal conversion operation a predetermined number of times.

예를 들어, 제어부(15)는 S43 단계에서 소스 신호에 포함된 적어도 하나의 제1 에러 특징들을 제거한 제2 도메인의 제1 가상 신호를 생성한 다음, 미리 설정된 횟수만큼 신호 변환 동작이 수행되었는지 여부를 확인하는 단계를 더 포함할 수 있다. For example, the control unit 15 generates a first virtual signal of the second domain from which at least one first error feature included in the source signal is removed in step S43, and then whether the signal conversion operation has been performed a predetermined number of times. It may further include the step of confirming.

이때 제어부(15)는 미리 설정된 횟수만큼 신호 변환 동작이 수행된 것으로 확인된 경우, S45 단계에 따라 사용자 장치 상에 상기 제1 가상 신호를 출력할 수 있다. In this case, when it is determined that the signal conversion operation has been performed a predetermined number of times, the controller 15 may output the first virtual signal on the user device in step S45.

반대로, 제어부(15)는, 미리 설정된 횟수만큼 신호 변환 동작이 수행되지 않은 것으로 확인된 경우, S43 단계로 돌아가 제2 가상 신호를 생성하도록 가상 신호 생성부(13)의 동작을 제어할 수 있다. 예를 들어, 가상 신호 생성부(13)는 상기 소스 신호 내의 적어도 하나의 제2 에러 특징들이 더 제거된 제2 가상 신호를 생성할 수 있다. Conversely, when it is determined that the signal conversion operation has not been performed a predetermined number of times, the control unit 15 may return to step S43 and control the operation of the virtual signal generation unit 13 to generate a second virtual signal. For example, the virtual signal generator 13 may generate a second virtual signal from which at least one second error characteristic in the source signal is further removed.

또는, 제어부(15)는 미리 설정된 횟수만큼 신호 변환 동작이 수행되지 않은 것으로 확인된 경우, S42 단계 및 S43 단계에 대응되는 동작을 수행하도록 특징 분석부(12) 및 가상 신호 생성부(13)의 동작을 제어할 수 있다. Alternatively, when it is determined that the signal conversion operation has not been performed a predetermined number of times, the control unit 15 performs the operation corresponding to steps S42 and S43. You can control the operation.

따라서, 제어부(15)는 가상 신호 생성부(13)에 의한 신호 변환 동작이 미리 설정된 횟수만큼 단순 반복되도록 하여, 사용자 장치 상에 미리 정해진 수준 이상의 품질을 갖는 가상 신호를 출력할 수 있다. Accordingly, the control unit 15 may simply repeat the signal conversion operation by the virtual signal generation unit 13 a predetermined number of times, thereby outputting a virtual signal having a quality of a predetermined level or higher on the user device.

3. 신호 변환 학습 과정3. Signal Transformation Learning Process

이하에서는 도 7 및 도 8을 참조하여 전술한 신호 변환 동작을 최적화하기 위한 기계 학습 과정에 관하여 상세하게 설명한다. Hereinafter, a machine learning process for optimizing the above-described signal conversion operation will be described in detail with reference to FIGS. 7 and 8.

본 출원의 일 실시 예에 따른 기계 학습 과정은 전술한 서버(10) 내부 또는 외부에 위치하는 학습 모듈(M)에 의해 수행될 수 있으며, 상기 학습 모듈(M)은 하나 이상의 뉴럴 네트워크(NN)을 포함할 수 있다. The machine learning process according to an embodiment of the present application may be performed by a learning module M located inside or outside the server 10 described above, and the learning module M includes one or more neural networks (NN). It may include.

도 7 및 도 8은 본 출원의 일 실시 예에 따른 하나 이상의 뉴럴 네트워크(NN)에 의해 수행되는 신호 변환 학습 과정을 예시적으로 설명하기 위한 도면이다. 7 and 8 are diagrams for illustratively explaining a signal conversion learning process performed by one or more neural networks (NN) according to an embodiment of the present application.

본 출원의 일 실시 예에 따른 신호 변환 학습은 메모리 또는 데이터베이스로부터 획득되는 복수의 데이터들을 이용하여 수행될 수 있으며, 이하에서는 서로 다른 도메인에 있는 이미지들 사이의 이미지 변환의 예를 상정하여 설명하기로 한다. The signal conversion learning according to the exemplary embodiment of the present application may be performed using a plurality of data acquired from a memory or a database. Hereinafter, an example of image conversion between images in different domains is assumed and described. do.

도 7은 본 출원의 일 실시 예에 따른 뉴럴 네트워크(NN)의 구성을 예시적으로 나타내기 위한 도면이다. 예를 들어, 뉴럴 네트워크(NN)는 하나 이상의 네트워크를 포함할 수 있고, 상기 네트워크는 복수의 레이어를 포함할 수 있다. 이하에서는 설명의 편의를 위하여 하나 이상의 네트워크를 이용하여 신호 변환 학습이 수행되는 경우를 상정하여 설명한다. 도 7을 참조하면, 상기 뉴럴 네트워크(NN)는, 예를 들어, 제1 네트워크(101), 제2 네트워크(102), 제3 네트워크(103), 제4 네트워크(104) 및 제5 네트워크(105)를 포함할 수 있다. 상기 제1 내지 제5 네트워크에서는 신호 변환 학습을 위한 각 단계가 순차적으로 또는 병렬적으로 수행될 수 있다. 7 is a diagram illustrating a configuration of a neural network (NN) according to an embodiment of the present application. For example, the neural network NN may include one or more networks, and the network may include a plurality of layers. Hereinafter, for convenience of description, it is assumed that signal conversion learning is performed using one or more networks. Referring to FIG. 7, the neural network NN includes, for example, a first network 101, a second network 102, a third network 103, a fourth network 104, and a fifth network ( 105). In the first to fifth networks, each step for signal conversion learning may be performed sequentially or in parallel.

이하에서는 각 네트워크에서 수행될 수 있는 동작에 대해 상세하게 설명한다. Hereinafter, operations that can be performed in each network will be described in detail.

먼저, 제1 네트워크(101)는 제1 도메인의 소스 신호(X)를 특징맵(Feature Map, FM)으로 변환하기 위한 네트워크일 수 있다. First, the first network 101 may be a network for converting the source signal X of the first domain into a feature map (FM).

예를 들어, 상기 제1 네트워크(101)는 컨볼루션 네트워크일 수 있고, 복수의 레이어를 포함할 수 있다. 이 때, 상기 제1 네트워크(101)에서는 상기 복수의 레이어를 이용하여 상기 소스 신호(X) 내에 포함된 복수의 특징(feature)들이 추출될 수 있다. For example, the first network 101 may be a convolutional network and may include a plurality of layers. In this case, in the first network 101, a plurality of features included in the source signal X may be extracted using the plurality of layers.

상기 소스 신호(X)가 이미지인 경우, 상기 복수의 특징들은, 예를 들어, 엣지(edge), 선명도(sharpness), 깊이(depth), 명도(brightness), 컨트라스트(contrast), 블러(blur), 형태 또는 형태의 조합 등을 포함할 수 있으며, 상기 복수의 특징들은 상술한 예로 한정되지 않는다. When the source signal X is an image, the plurality of features are, for example, edge, sharpness, depth, brightness, contrast, and blur. , Shapes or combinations of shapes, and the like, and the plurality of features are not limited to the above-described examples.

상기 특징맵은 상기 복수의 특징들의 조합일 수 있으며, 하나 이상의 특징맵을 통하여 상기 소스 신호 내의 각 영역(region)들이 식별될 수 있다. 상기 각 영역들은 사용자의 관심 영역(ROI, Region of Interest) 및 상기 소스 신호 내의 적어도 하나의 인공물을 포함하는 에러 영역(error region)을 포함할 수 있다. 예를 들어, 상기 소스 신호(X)가 태아의 초음파 이미지인 경우, 상기 관심 영역은 태아의 얼굴 영역(face region)일 수 있고, 상기 에러 영역은 태아의 얼굴 영역이 아닌 다른 신체 영역일 수 있다. 예를 들어, 상기 얼굴 영역은 태아의 눈, 코, 입, 귀 등을 포함할 수 있다. 또한, 예를 들어, 상기 에러 영역은 태아의 손, 발, 태반, 양수 등을 포함할 수 있다.The feature map may be a combination of the plurality of features, and regions in the source signal may be identified through one or more feature maps. Each of the regions may include a region of interest (ROI) of the user and an error region including at least one artifact in the source signal. For example, when the source signal X is an ultrasound image of a fetus, the region of interest may be a face region of the fetus, and the error region may be a body region other than the face region of the fetus. . For example, the face area may include the eyes, nose, mouth, and ears of the fetus. In addition, for example, the error region may include hands, feet, placenta, and amniotic fluid of the fetus.

따라서, 상기 제1 네트워크(101)를 이용하여 상기 복수의 레이어 중 적어도 하나의 레이어로부터 특징맵(feature map)이 획득될 수 있다. 또는, 상기 복수의 레이어 중 마지막 레이어로부터 특징맵이 획득될 수도 있다. 상기 제1 네트워크(101)에서 생성된 하나 이상의 특징맵은 제2 네트워크(102) 및/또는 제3 네트워크(103)의 입력 데이터로서 사용될 수 있다. Accordingly, a feature map may be obtained from at least one of the plurality of layers using the first network 101. Alternatively, a feature map may be obtained from the last layer among the plurality of layers. One or more feature maps generated in the first network 101 may be used as input data of the second network 102 and/or the third network 103.

한편, 본 출원의 일 실시 예에 따른 뉴럴 네트워크의 신호 처리 수행 결과에 따라 상기 복수의 레이어에 대한 파라미터가 조정될 수 있고, 상기 복수의 레이어 중 적어도 하나의 레이어가 연산에서 제거 또는 추가될 수 있다. 상기 파라미터 조정에 관한 상세한 설명은 관련된 부분에서 기술하기로 한다.Meanwhile, parameters for the plurality of layers may be adjusted according to a result of signal processing performed by the neural network according to the exemplary embodiment of the present application, and at least one of the plurality of layers may be removed or added in an operation. A detailed description of the parameter adjustment will be given in the related section.

제2 네트워크(102)는 전술한 제1 네트워크(101)로부터 입력되는 하나 이상의 특징맵을 입력 데이터로 사용하여 제2 도메인의 가상 신호(Yv)를 생성하기 위한 네트워크일 수 있다. 상기 제2 네트워크(102)는 제1 도메인의 소스 신호(X)를 제2 도메인의 가상 신호(Yv)로 변환하도록 학습 될 수 있다. The second network 102 may be a network for generating a virtual signal Yv of the second domain by using one or more feature maps input from the first network 101 described above as input data. The second network 102 may be trained to convert the source signal X of the first domain into a virtual signal Yv of the second domain.

예를 들어, 상기 제2 네트워크(102)는 복수의 레이어를 포함할 수 있다. 상기 제2 네트워크(102)에서는 상기 복수의 레이어를 이용하여 상기 특징맵의 대응되는 특징들에 제2 도메인의 데스티네이션 신호(destination signal)의 특징들이 맵핑된 가상 신호(Yv)가 생성될 수 있다. For example, the second network 102 may include a plurality of layers. In the second network 102, a virtual signal Yv in which features of a destination signal of a second domain are mapped to corresponding features of the feature map may be generated using the plurality of layers. .

상기 데스티네이션 신호의 특징들은, 상기 소스 신호(X)가 이미지인 경우, 예를 들어, 이미지의 밝기, 색상, 반사색, 텍스쳐, 깊이, 블렌딩, 형태 또는 형태의 조합 등을 포함할 수 있다. The characteristics of the destination signal, when the source signal X is an image, may include, for example, brightness, color, reflection color, texture, depth, blending, shape or combination of shapes of the image.

전술한 제1 네트워크(101)로부터 상기 제2 네트워크(102)에 입력되는 하나 이상의 특징맵은, 소스 신호(X) 내의 관심 영역(예컨대, 눈, 코, 입, 귀 등)의 특징들을 포함한 것일 수 있다.One or more feature maps input to the second network 102 from the first network 101 described above include features of a region of interest (eg, eyes, nose, mouth, ears, etc.) in the source signal X. I can.

또는, 상기 제2 네트워크(102)는 전술한 제1 네트워크(101)로부터 입력되는 하나 이상의 특징맵 중 에러 영역(예컨대, 손, 발, 태반 등)에 관련된 특징을 식별하도록 학습될 수 있다. Alternatively, the second network 102 may be trained to identify a feature related to an error region (eg, hand, foot, placenta, etc.) among one or more feature maps input from the first network 101 described above.

*상기 가상 신호(Yv)는 상기 하나 이상의 특징맵을 이용하여 생성되며 상기 소스 신호(X) 내의 관심 영역을 포함하는 신호일 수 있다. * The virtual signal Yv is generated using the one or more feature maps and may be a signal including a region of interest in the source signal X.

예를 들어, 상기 소스 신호(X)가 태아의 초음파 이미지인 경우, 상기 제2 네트워크(102)에서 변환된 가상 신호(Yv)는 상기 초음파 이미지(X) 내의 에러 영역의 특징들이 적게 포함된 제2 도메인의 이미지일 수 있다. 또는, 예를 들어, 상기 가상 신호(Yv)는 상기 초음파 이미지(X) 내의 적어도 하나의 에러 영역의 특징들이 제거된 제2 도메인의 이미지일 수 있다. 또는, 예를 들어, 상기 가상 신호(Yv)는 상기 초음파 이미지(X) 내의 에러 영역의 특징들이 모두 제거된 제2 도메인의 이미지일 수 있다. For example, when the source signal (X) is an ultrasound image of a fetus, the virtual signal (Yv) converted by the second network (102) is a first including fewer features of an error region in the ultrasound image (X). It may be an image of 2 domains. Alternatively, for example, the virtual signal Yv may be an image of a second domain from which features of at least one error region in the ultrasound image X have been removed. Alternatively, for example, the virtual signal Yv may be an image of the second domain in which all of the features of the error region in the ultrasound image X have been removed.

상기 데스티네이션 신호 및/또는 상기 데스티네이션 신호의 특징들은 전술한 데이터 베이스(20), 메모리 또는 외부 서버로부터 획득될 수 있다. 또는, 상기 제2 네트워크(102)는 상기 데스티네이션 신호의 특징들을 추출하기 위한 서브 네트워크(도시되지 않음)를 더 포함할 수 있다. 상기 서브 네트워크는, 예를 들어, 컨볼루션 네트워크일 수 있고, 복수의 레이어를 포함할 수 있다. 상기 서브 네트워크를 통해 상기 데스티네이션 신호의 특징들을 추출하는 동작은 전술한 제1 네트워크(101)에서 수행되는 동작에 대응될 수 있다.The destination signal and/or the characteristics of the destination signal may be obtained from the aforementioned database 20, a memory, or an external server. Alternatively, the second network 102 may further include a sub-network (not shown) for extracting features of the destination signal. The sub-network may be, for example, a convolutional network, and may include a plurality of layers. The operation of extracting features of the destination signal through the sub-network may correspond to the operation performed in the first network 101 described above.

따라서, 서버(10)는 상기 제2 네트워크(102)를 통하여 상기 적어도 하나의 특징맵에 상기 데스티네이션 신호의 특징들이 합성된 제2 도메인의 가상 신호를 획득할 수 있다. 상기 서버(10)는 복수의 특징맵에 대한 복수의 합성 신호가 추출되는 경우 상기 합성 신호들을 통합하여 하나의 가상 신호를 획득할 수도 있다. Accordingly, the server 10 may obtain a virtual signal of a second domain in which features of the destination signal are synthesized in the at least one feature map through the second network 102. When a plurality of synthesized signals for a plurality of feature maps are extracted, the server 10 may obtain one virtual signal by integrating the synthesized signals.

한편, 본 출원의 일 실시 예에 따른 뉴럴 네트워크의 신호 처리 수행결과에 따라 상기 복수의 레이어에 대한 파라미터가 조정될 수 있고, 상기 복수의 레이어 중 적어도 하나의 레이어가 연산에서 제거 또는 추가될 수 있다. 상기 파라미터 조정에 관한 상세한 설명은 관련된 부분에서 기술하기로 한다.Meanwhile, parameters for the plurality of layers may be adjusted according to a result of signal processing performed by the neural network according to the exemplary embodiment of the present application, and at least one of the plurality of layers may be removed or added in an operation. A detailed description of the parameter adjustment will be given in the related section.

제3 네트워크(103)는 전술한 제1 네트워크(101)로부터 입력되는 하나 이상의 특징맵을 입력 데이터로 사용하여 에러 신호(Ye)를 생성하기 위한 네트워크일 수 있다. 예를 들어, 상기 에러 신호(Ye)는 제1 도메인, 제2 도메인, 또는 상기 제1 도메인과 상기 제2 도메인 사이의 임의의 중간 도메인의 신호일 수 있다. The third network 103 may be a network for generating an error signal Ye by using one or more feature maps input from the first network 101 described above as input data. For example, the error signal Ye may be a signal of a first domain, a second domain, or an intermediate domain between the first domain and the second domain.

상기 제3 네트워크(103)에 입력되는 하나 이상의 특징맵은, 소스 신호(X) 내의 관심 영역이 아닌 에러 영역(예컨대, 손, 발, 태반, 양수 등)의 특징들 중 적어도 하나를 포함할 수 있다. The one or more feature maps input to the third network 103 may include at least one of features of an error region (eg, hand, foot, placenta, amniotic fluid, etc.) other than a region of interest in the source signal X. have.

상기 에러 신호(Ye)는 상기 하나 이상의 특징맵을 이용하여 생성될 수 있고, 상기 소스 신호(X) 내의 에러 영역에 관련된 특징들 중 적어도 하나를 포함하는 신호일 수 있다. The error signal Ye may be generated using the one or more feature maps, and may be a signal including at least one of features related to an error region in the source signal X.

따라서, 서버(10)는 상기 제3 네트워크(103)를 통하여 에러 신호(Ye)를 획득할 수 있다. 예를 들어, 상기 서버(10)는 복수의 특징맵에 대한 복수의 합성 신호가 추출되는 경우 상기 합성 신호들을 통합하여 하나의 에러 신호를 획득할 수 있다. Accordingly, the server 10 may obtain the error signal Ye through the third network 103. For example, when a plurality of synthesized signals for a plurality of feature maps are extracted, the server 10 may obtain one error signal by integrating the synthesized signals.

또는, 제3 네트워크(103)는 제1 도메인의 소스 신호(X)에 포함된 에러 영역에 관련된 특징들 중 적어도 하나를 포함하는 에러 신호(Ye)를 추출 또는 분리하도록 학습될 수 있다. Alternatively, the third network 103 may be trained to extract or separate an error signal Ye including at least one of features related to an error region included in the source signal X of the first domain.

예를 들어, 상기 제3 네트워크(103)는 컨볼루션 또는 디컨볼루션 네트워크일 수 있고, 복수의 레이어를 포함할 수 있다. 상기 제3 네트워크(103)에서는 상기 복수의 레이어 중 적어도 하나를 이용하여 에러 신호(Ye)를 생성할 수 있다. 예를 들어, 상기 복수의 레이어 중 임의의 제1 레이어를 통해 제1 에러 신호가 추출될 수 있고, 제2 레이어를 통해 제2 에러 신호가 추출될 수 있다. 다시 말해, 복수 개의 레이어들을 거쳐 복수 개의 에러 신호가 획득 또는 추출될 수 있다. For example, the third network 103 may be a convolutional or deconvolutional network, and may include a plurality of layers. The third network 103 may generate an error signal Ye using at least one of the plurality of layers. For example, a first error signal may be extracted through a first layer among the plurality of layers, and a second error signal may be extracted through a second layer. In other words, a plurality of error signals may be acquired or extracted through a plurality of layers.

또한, 서버(10)는 상기 제2 네트워크(102)로부터 획득된 가상 신호(Yv) 및 상기 제3 네트워크(103)로부터 획득된 에러 신호(Ye)를 통합한 타겟 신호(YT)를 획득할 수 있고, 상기 타겟 신호(YT)는 제4 네트워크(104)의 입력 데이터로서 사용될 수 있다. 이하에서는 상기 타겟 신호(YT)가 획득되는 과정에 관하여 상세하게 설명한다. In addition, the server 10 may obtain a target signal (Y T ) in which the virtual signal (Yv) obtained from the second network (102) and the error signal (Ye) obtained from the third network (103) are integrated. The target signal Y T may be used as input data of the fourth network 104. Hereinafter, a process of obtaining the target signal Y T will be described in detail.

상기 타겟 신호(YT)는 에러 신호(Ye)에 제1 가중치가 적용되고, 가상 신호(Yv)에 제2 가중치가 적용된 것일 수 있고, 예를 들어 [수학식 1]과 같이 산출될 수 있다. [수학식 1]을 참조하면, 상기 타겟 신호(YT)는 상기 가상 신호(Yv)와 제2 가중치의 요소별 곱(element-wise product) 및, 상기 에러 신호(Ye)와 제1 가중치의 요소별 곱의 합(sum)에 의해 생성될 수 있다. The target signal Y T may have a first weight applied to the error signal Ye and a second weight applied to the virtual signal Yv, and may be calculated as [Equation 1]. . Referring to [Equation 1], the target signal Y T is an element-wise product of the virtual signal Yv and the second weight, and the error signal Ye and the first weight It can be generated by the sum of the product of each element.

Figure pat00001
Figure pat00001

여기서, We는 에러 신호(Ye)에 적용되는 제1 가중치일 수 있고, (1-We)는 가상 신호(Yv)에 적용되는 제2 가중치일 수 있다. 상기 에러 신호(Ye)에 적용되는 제1 가중치는 본 출원의 일 실시 예에 따른 뉴럴 네트워크(NN)의 이미지 처리 수행결과에 따라 조정된 값일 수 있다. Here, We may be a first weight applied to the error signal Ye, and (1-We) may be a second weight applied to the virtual signal Yv. The first weight applied to the error signal Ye may be a value adjusted according to a result of image processing performed by the neural network NN according to an embodiment of the present application.

또한, 상기 가상 신호(Yv)에 적용되는 제2 가중치는 상기 제1 가중치를 기초로 산출될 수 있다. 이때, 상기 제1 가중치와 제2 가중치는 같거나 서로 다른 값일 수 있다. Also, a second weight applied to the virtual signal Yv may be calculated based on the first weight. In this case, the first weight and the second weight may be the same or different values.

예를 들어, 상기 제1 가중치는 후술할 제4 네트워크(104)에서 가상 신호(Yv)만을 이용하여 복원된 복원 신호(X'')와 소스 신호(X)의 차이를 기초로 산출된 값일 수 있다. 상기 제1 가중치 산출방법에 관해서는 이하의 관련된 실시 예에서 상세하게 설명하기로 한다. For example, the first weight may be a value calculated based on the difference between the reconstructed signal X'' and the source signal X restored using only the virtual signal Yv in the fourth network 104 to be described later. have. The first weight calculation method will be described in detail in the following related embodiments.

제 4 네트워크(104)는 전술한 제2 네트워크(102) 및 제3 네트워크(103)를 통해 생성된 제2 도메인의 타겟 신호(YT)를 제1 도메인의 복원 신호(X')로 역변환하기 위한 네트워크일 수 있다. The fourth network 104 inversely transforms the target signal Y T of the second domain generated through the above-described second network 102 and the third network 103 into a reconstructed signal X′ of the first domain. It can be a network for

예를 들어, 상기 제4 네트워크(104)는 상기 소스 신호(X)가 정확하게 복원되도록 함으로써 복원된 신호와 소스 신호 간의 컨텐츠(content)의 일관성(consistency)을 향상시킬 수 있다. 여기서 컨텐츠의 일관성은, 태아의 초음파 이미지를 실제 사진 이미지로 변환하는 경우에, 상기 초음파 이미지 내의 태아와 변환된 실제 사진 이미지의 태아의 유사성일 수 있다. For example, the fourth network 104 may improve the consistency of content between the restored signal and the source signal by accurately reconstructing the source signal X. Here, the consistency of content may be a similarity between the fetus in the ultrasound image and the converted real photograph image when the ultrasound image of the fetus is converted into an actual photographic image.

또는, 예를 들어, 상기 뉴럴 네트워크(NN)는 상기 제2 네트워크(102) 및 상기 제3 네트워크(103)를 통하여 제1 도메인의 소스 신호(X)를 제2 도메인의 타겟 신호(YT)로 변환하는 과정과 상기 변환된 제2 도메인의 타겟 신호(YT)를 제1 도메인의 복원 신호(X')로 변환하는 과정을 동시에 학습함으로써 전체 학습 내용의 일관성을 유지하면서 도메인을 변환하도록 학습할 수 있다. Or, for example, the neural network (NN) transmits the source signal (X) of the first domain to the target signal (Y T ) of the second domain through the second network 102 and the third network 103 Learn to convert the domain while maintaining consistency of the entire learning contents by simultaneously learning the process of converting to and converting the converted target signal (Y T) of the second domain into a reconstructed signal (X') of the first domain. can do.

이때, 상기 타겟 신호(YT)를 역변환하여 생성한 복원 신호(X')와 소스 신호(X) 간의 차이 값을 기초로 상기 뉴럴 네트워크(NN) 중 적어도 하나에 적용되는 파라미터가 조정될 수 있다. 즉, 상기 파라미터는 상기 복원 신호(X')와 상기 소스 신호(X) 간의 차이에서 발생하는 손실함수(Lrec)를 전술한 네트워크들 중 적어도 하나에 역전달함으로써 조정될 수 있다. 상기 손실함수(Lrec)는 아래의 [수학식 2]와 같이 나타낼 수 있다. In this case, a parameter applied to at least one of the neural networks NN may be adjusted based on a difference value between the reconstructed signal X′ generated by inverse transforming the target signal Y T and the source signal X. That is, the parameter may be adjusted by inversely transferring a loss function L rec occurring from a difference between the reconstructed signal X'and the source signal X to at least one of the aforementioned networks. The loss function (L rec ) can be expressed as [Equation 2] below.

Figure pat00002
Figure pat00002

또는, 제4 네트워크(104)는 전술한 제1 가중치를 산출하기 위해 제2 네트워크(102)로부터 생성된 가상 신호(Yv)를 제1 도메인의 복원 신호(X'')로 역변환하기 위한 네트워크일 수 있다. Alternatively, the fourth network 104 is a network for inversely transforming the virtual signal Yv generated from the second network 102 into a reconstructed signal X'' of the first domain in order to calculate the above-described first weight. I can.

이 때, 상기 제4 네트워크(104)는 상기 가상 신호(Yv)만을 이용하여 제1 도메인의 복원 신호(X'')를 생성하므로, 상기 복원 신호(X'')를 이용하여 상기 가상 신호(Yv)만으로 복원할 수 없는 부분(예컨대, 에러 영역)을 식별하도록 상기 뉴럴 네트워크(NN)를 학습시킬 수 있다. 상기 뉴럴 네트워크(NN)가 에러 영역을 식별하도록 상기 에러 영역에 대한 정보를 가이드 하는 방법에 관해서는 이하의 관련된 부분에서 상세하게 설명한다. At this time, since the fourth network 104 generates a reconstructed signal (X'') of the first domain using only the virtual signal (Yv), the virtual signal ( Yv) alone, the neural network NN may be trained to identify a portion that cannot be reconstructed (eg, an error region). A method of guiding information on the error area so that the neural network NN identifies the error area will be described in detail in the related part below.

상기 제4 네트워크(104)는 하나 이상의 네트워크를 포함할 수 있고, 복수의 레이어를 포함할 수 있다. 예를 들어, 상기 제4 네트워크(104)는 먼저 상기 타겟 신호(YT) 또는 가상 신호(Yv)를 특징맵으로 변환하기 위한 제1 서브 네트워크(도시되지 않음) 및 상기 변환된 특징맵을 입력 데이터로 적용하여 복원 신호(X', X'')를 생성하기 위한 제2 서브 네트워크(도시되지 않음)를 포함할 수 있다. 예를 들어, 상기 제1 서브 네트워크는 컨볼루션 네트워크일 수 있고, 상기 제2 서브 네트워크는 디컨볼루션 네트워크일 수 있다. The fourth network 104 may include one or more networks, and may include a plurality of layers. For example, the fourth network 104 first inputs a first sub-network (not shown) for converting the target signal (Y T ) or the virtual signal (Yv) into a feature map and the converted feature map. It may include a second sub-network (not shown) for generating reconstructed signals X′ and X″ by applying them as data. For example, the first sub-network may be a convolutional network, and the second sub-network may be a deconvolutional network.

이하에서는 설명의 편의를 위하여 상기 제4 네트워크(104)는 적어도 제1 서브 네트워크 및 제2 서브 네트워크를 포함하는 경우를 상정하여 설명하기로 한다. 또한, 상기 제1 서브 네트워크에서는 전술한 제1 네트워크, 상기 제2 서브 네트워크에서는 전술한 제2 네트워크 및 제3 네트워크와 동일 또는 유사한 방식으로 신호 변환이 수행될 수 있다. Hereinafter, for convenience of description, it is assumed that the fourth network 104 includes at least a first sub-network and a second sub-network. In addition, signal conversion may be performed in the first sub-network in the same or similar manner as the above-described first network, and in the second sub-network as the second and third networks described above.

제1 서브 네트워크는 복수의 레이어를 포함할 수 있고, 상기 복수의 레이어를 이용하여 상기 타겟 신호(YT) 또는 가상 신호(Yv)가 하나 이상의 특징맵(feature)으로 변환될 수 있다. 예를 들어, 상기 상기 제1 서브 네트워크에서는 상기 복수의 레이어를 이용하여 상기 타겟 신호(YT) 또는 가상 신호(Yv) 내에 포함된 복수의 특징 정보(feature)들이 추출될 수 있고, 상기 복수의 특징 정보들을 기초로 하나 이상의 특징맵(feature map)이 생성될 수 있다. 상기 제1 서브 네트워크에서 생성된 하나 이상의 특징맵은 제2 서브 네트워크의 입력 데이터로 적용될 수 있다. The first sub-network may include a plurality of layers, and the target signal (Y T ) or the virtual signal (Yv) may be converted into one or more feature maps using the plurality of layers. For example, in the first sub-network, a plurality of feature information included in the target signal Y T or the virtual signal Yv may be extracted using the plurality of layers, and the plurality of One or more feature maps may be generated based on the feature information. One or more feature maps generated in the first sub-network may be applied as input data of the second sub-network.

제2 서브네트워크는 복수의 레이어를 포함할 수 있고, 상기 복수의 레이어를 이용하여 상기 타겟 신호(YT) 또는 가상 신호(Yv)가 복원 신호(X', X'')로 변환될 수 있다. 즉, 상기 제2 서브 네트워크에서는 상기 제1 서브 네트워크로부터 입력된 하나 이상의 특징맵의 각 특징들에 소스 신호(X)의 특징들이 맵핑되어 복원 신호(X', X'')가 생성될 수 있다. 상기 소스 신호(X)의 특징 정보들은 전술한 제1 네트워크(101)를 통해 추출된 정보일 수 있고, 상기 서버(10)의 저장부(도시되지 않음)로부터 획득될 수 있다. The second subnetwork may include a plurality of layers, and the target signal (Y T ) or the virtual signal (Yv) may be converted into a reconstructed signal (X′, X″) using the plurality of layers. . That is, in the second sub-network, features of the source signal X are mapped to each feature of one or more feature maps input from the first sub-network to generate the reconstructed signals X′ and X″. . The characteristic information of the source signal X may be information extracted through the first network 101 described above, and may be obtained from a storage unit (not shown) of the server 10.

따라서, 서버(10)는 상기 제4 네트워크(104)를 통하여 상기 적어도 하나의 특징맵에 상기 소스 신호(X)의 특징들이 합성된 제1 도메인의 복원 신호(X', X'')를 획득할 수 있다. 상기 서버(10)는 복수의 특징맵에 대한 복수의 합성 신호가 추출되는 경우 상기 합성 신호들을 통합하여 하나의 복원 신호(X', X'')를 획득할 수 있다. Accordingly, the server 10 obtains the reconstructed signals (X', X'') of the first domain in which the features of the source signal (X) are synthesized in the at least one feature map through the fourth network 104. can do. When a plurality of synthesized signals for a plurality of feature maps are extracted, the server 10 may obtain one reconstructed signal (X′, X″) by integrating the synthesized signals.

한편, 전술한 제2네트워크(102)를 이용하여 생성된 제2 도메인의 가상 신호(YV)는 제5 네트워크(105)의 입력 데이터로 사용될 수 있다. Meanwhile, the virtual signal Y V of the second domain generated using the above-described second network 102 may be used as input data of the fifth network 105.

제5 네트워크(105)는 전술한 제2 네트워크(102)로부터 생성된 가상 신호(YV)를 제2 도메인의 데스티네이션 신호(YR)로부터 구별하기 위한 네트워크일 수 있다. The fifth network 105 may be a network for distinguishing the virtual signal Y V generated from the above-described second network 102 from the destination signal Y R of the second domain.

예를 들어, 상기 제5 네트워크(105)는 상기 가상 신호(YV)와 데스티네이션 신호(YR) 사이를 식별하도록 학습될 수 있다. 예를 들어, 상기 제5 네트워크(105)는 컨볼루션 네트워크일 수 있고, 복수의 레이어를 포함할 수 있다. 이때, 상기 제 5 네트워크(105)에서는 상기 복수의 레이어 중 마지막 레이어를 통해 상기 가상 신호와 데스티네이션 신호의 유사도(similarity)에 관련된 정보가 출력될 수 있다. 여기서, 유사도라 함은 상기 가상 신호와 데스티네이션 신호의 정성적 특징(qualitative features)들 사이의 유사성을 의미할 수 있다. For example, the fifth network 105 may be trained to identify between the virtual signal Y V and the destination signal Y R. For example, the fifth network 105 may be a convolutional network and may include a plurality of layers. In this case, the fifth network 105 may output information related to a similarity between the virtual signal and a destination signal through a last layer among the plurality of layers. Here, the degree of similarity may mean similarity between qualitative features of the virtual signal and the destination signal.

상기 데스티네이션 신호는 전술한 데이터 베이스(20)로부터 획득될 수 있으며, 예를 들어, 상기 데스티네이션 신호는 신생아의 얼굴을 실제 촬영한 이미지일 수 있다. The destination signal may be obtained from the above-described database 20, and for example, the destination signal may be an image actually photographed of a newborn's face.

상기 유사도에 관련된 정보는 상기 가상 신호(YV)가 데스티네이션 신호에 해당될 확률을 나타내는 정보일 수 있다. 예를 들어, 상기 가상 이미지(YV)가 실제 촬영한 이미지에 해당되는 경우 유사도 값은 '1' 또는 1에 가까운 값일 수 있다. 또한, 예를 들어, 상기 가상 신호(YV)가 실제 촬영한 이미지가 아닌 경우 유사도 값은 '0' 또는 0에 가까운 값일 수 있다. The information related to the similarity may be information indicating a probability that the virtual signal Y V corresponds to a destination signal. For example, when the virtual image Y V corresponds to an image actually captured, the similarity value may be '1' or a value close to 1. In addition, for example, when the virtual signal Y V is not an actual captured image, the similarity value may be '0' or a value close to 0.

따라서, 상기 서버(10)는 상기 제1 네트워크(101) 내지 상기 제3 네트워크(103) 중 적어도 하나로 상기 유사도에 관련된 정보를 피드백할 수 있다. 상기 서버(10)는 상기 유사도에 관련된 정보를 기초로 상기 제2 네트워크(102) 및 상기 제3 네트워크(103)의 동작이 반복 수행되도록 함으로써 상기 가상 신호(YV)를 재획득할 수 있다. Accordingly, the server 10 may feed back information related to the similarity to at least one of the first network 101 to the third network 103. The server 10 may re-acquire the virtual signal Y V by repeatedly performing the operations of the second network 102 and the third network 103 based on the information related to the similarity.

또는, 예를 들어, 제5 네트워크(105)는 상기 가상 신호와 데스티네이션 신호의 차이에서 발생하는 손실함수를 전술한 제1 네트워크(101) 및 제2 네트워크(102)에 피드백할 수 있다. 따라서, 상기 제1 네트워크 및 제2 네트워크에 포함된 복수의 레이어 중 적어도 하나의 레이어의 파라미터가 조정될 수 있다. 또는 상기 제1 네트워크(101) 및 상기 제2 네트워크(102)에 포함된 복수의 레이어 중 적어도 하나의 레이어가 연산에서 제거 또는 추가될 수 있다. 다시 말해, 상기 제1 네트워크(101) 및 상기 제2 네트워크(102)는 상기 제5 네트워크(105)로부터 피드백되는 상기 가상 신호와 데스티네이션 신호의 차이를 이용하여 학습될 수 있다. Alternatively, for example, the fifth network 105 may feed back a loss function generated from the difference between the virtual signal and the destination signal to the first network 101 and the second network 102 described above. Accordingly, a parameter of at least one layer among a plurality of layers included in the first network and the second network may be adjusted. Alternatively, at least one of a plurality of layers included in the first network 101 and the second network 102 may be removed or added in an operation. In other words, the first network 101 and the second network 102 may be learned using a difference between the virtual signal and a destination signal fed back from the fifth network 105.

도 8은 본 출원의 다른 실시 예에 따른 뉴럴 네트워크(NN)의 구성을 예시적으로 나타내기 위한 블록도이다. 도 8에 도시된 바와 같이, 본 출원의 다른 실시 예에 따른 뉴럴 네트워크(NN)는 특징 분류 네트워크(106)를 더 포함할 수 있다. 8 is a block diagram illustrating a configuration of a neural network (NN) according to another embodiment of the present application. As shown in FIG. 8, the neural network NN according to another embodiment of the present application may further include a feature classification network 106.

상기 특징 분류 네트워크(106)는, 소스 신호(X) 내의 각 영역들 중 에러 영역에 관련된 특징들과 관심 영역에 관련된 특징들을 분류하기 위한 네트워크일 수 있다. 이때, 상기 특징 분류 네트워크(106)는 제1 네트워크(101) 내의 일부분일 수 있다. 또는, 도 8에 도시된 바와 같이, 상기 특징 분류 네트워크(106)는 상기 제1 네트워크(101)와 별도로 구성될 수 있으며, 상기 제1 네트워크(101)와 제2 네트워크(102) 및 제3 네트워크(103) 사이에 배치될 수 있다. The feature classification network 106 may be a network for classifying features related to an error area and features related to an ROI among respective areas in the source signal X. In this case, the feature classification network 106 may be a part of the first network 101. Alternatively, as shown in FIG. 8, the feature classification network 106 may be configured separately from the first network 101, and the first network 101, the second network 102, and the third network Can be placed between 103.

예를 들어, 상기 특징 분류 네트워크(106)는 상기 제1 네트워크(101)에서 생성된 하나 이상의 특징맵들을 이용하여 제1 특징맵 및 제2 특징맵을 생성할 수 있다. 예를 들어, 상기 제1 특징맵은 유효 특징들에 관련된 것일 수 있고, 에러 영역에 관련된 특징들을 적게 포함한 것일 수 있다. 예를 들어, 상기 제2 특징맵은 에러 특징들에 관련된 것일 수 있고, 관심 영역에 관련된 특징들을 적게 포함한 것일 수 있다. 예를 들어, 상기 소스 신호가 태아의 초음파 이미지인 경우, 상기 관심영역에 관련된 특징들은, 태아의 눈, 코, 입, 귀 등을 포함할 수 있다. 또한, 예를 들어, 상기 에러 영역에 관련된 특징들은, 예를 들어, 태아의 손, 발, 태반, 양수 등을 포함할 수 있다. For example, the feature classification network 106 may generate a first feature map and a second feature map using one or more feature maps generated in the first network 101. For example, the first feature map may be related to valid features and may include fewer features related to an error area. For example, the second feature map may be related to error features and may include fewer features related to an ROI. For example, when the source signal is an ultrasound image of a fetus, features related to the ROI may include eyes, nose, mouth, and ears of the fetus. Also, for example, features related to the error region may include, for example, a fetus's hand, foot, placenta, amniotic fluid, and the like.

또한, 예를 들어, 상기 특징 분류 네트워크(106)는 미리 설정된 기준을 기초로 하여 상기 소스 신호(X) 내의 관심 영역에 관련된 제1 특징맵 및 상기 에러 영역에 관련된 제2 특징맵을 분류할 수 있다. 상기 미리 설정된 기준은 상기 소스 신호(X) 내의 관심 영역 및 상기 에러 영역에 관련된 정보를 기초로 미리 학습될 수 있다. In addition, for example, the feature classification network 106 may classify a first feature map related to an ROI in the source signal X and a second feature map related to the error region based on a preset criterion. have. The preset reference may be learned in advance based on information related to the region of interest and the error region in the source signal X.

따라서, 본 출원의 다른 실시 예에 따른 상기 특징 분류 네트워크(106)는 상기 관심 영역에 관련된 제1 특징맵을 상기 제2 네트워크(102)의 입력데이터로 전달할 수 있고, 상기 에러 영역에 관련된 제2 특징맵을 상기 제3 네트워크(103)의 입력데이터로 전달할 수 있다. 상기 특징 분류 네트워크(106)를 통하여 상기 에러 영역에 관련된 특징들이 보다 정확하게 분류될 수 있다. 예를 들어, 상기 제2 네트워크(102)는 상기 특징 분류 네트워크(106)를 통해 입력되는 상기 관심 영역에 관련된 제1 특징맵을 이용하여 상기 소스 신호 내의 적어도 하나의 에러 영역에 관련된 특징들이 제거된 가상 신호(Yv)를 생성할 수 있다. Accordingly, the feature classification network 106 according to another embodiment of the present application may transmit the first feature map related to the ROI as input data of the second network 102, and the second feature map related to the error region The feature map may be transmitted as input data of the third network 103. Features related to the error area may be more accurately classified through the feature classification network 106. For example, the second network 102 removes features related to at least one error region in the source signal by using a first feature map related to the ROI input through the feature classification network 106. It is possible to generate a virtual signal (Y v ).

한편, 상기 특징 분류 네트워크(106)는 상기 복원 신호(X')와 상기 소스 신호(X)간의 차이를 이용하여 조정된 파라미터를 반영하여 업데이트될 수도 있다. 또는, 상기 특징 분류 네트워크(106)는 상기 가상 신호와 데스티네이션 신호간의 차이를 이용하여 조정된 파리마터를 반영하여 업데이트될 수도 있다. 상기 파라미터에 관한 자세한 설명은 관련된 부분에서 기술하기로 한다.Meanwhile, the feature classification network 106 may be updated by reflecting a parameter adjusted using a difference between the reconstructed signal X'and the source signal X. Alternatively, the feature classification network 106 may be updated to reflect the parameter adjusted using the difference between the virtual signal and the destination signal. Detailed description of the above parameters will be described in the related section.

이하에서는 전술한 뉴럴 네트워크(NN)를 통해 수행되는 신호 변환 학습 방법의 실시 예들을 상세하게 설명한다. Hereinafter, exemplary embodiments of the method of learning signal transformation performed through the aforementioned neural network (NN) will be described in detail.

도 9는 본 출원의 제4 실시 예에 따른 신호 변환 과정을 개략적으로 설명하기 위한 도면이다. 또한, 도 10은 본 출원의 제4 실시 예에 따른 제1 도메인의 소스 신호(X)를 제2 도메인의 가상 신호(Yv)로 변환하여 제공하기 위한 학습 방법을 예시적으로 설명하기 위한 순서도이다. 9 is a diagram schematically illustrating a signal conversion process according to a fourth embodiment of the present application. In addition, FIG. 10 is a flowchart illustratively illustrating a learning method for converting and providing a source signal X of a first domain into a virtual signal Yv of a second domain according to the fourth embodiment of the present application. .

예를 들어, 본 출원의 제4 실시 예에 따른 학습 방법은 전술한 서버(10) 내에 위치하는 학습 모듈(M)에 의해 수행될 수 있고, 상기 학습 모듈(M)에는 전술한 제1 네트워크 내지 제5 네트워크 중 적어도 하나 이상이 제공될 수 있다. For example, the learning method according to the fourth embodiment of the present application may be performed by the learning module M located in the server 10 described above, and the learning module M includes the first network or At least one or more of the fifth networks may be provided.

도 9를 참조하면, 본 출원의 제4 실시 예에 따른 학습 방법은 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하고, 상기 변환된 가상 신호를 다시 제1 도메인의 복원 신호로 역변환 하는 과정을 반복적으로 수행하도록 구성될 수 있다. 예를 들어, 제1 도메인의 소스 신호는 태아의 초음파 이미지(X)이고, 제2 도메인의 가상 신호는 상기 태아의 초음파 이미지에 신생아의 실제 사진 이미지의 특징들을 합성된 이미지(Yv)일 수 있다. 이때, 상기 소스 신호(X)를 상기 가상 신호(Y)로 변환하는 과정에서 하나 이상의 에러 신호(eo, e1, …, en)들이 식별될 수 있다. Referring to FIG. 9, in the learning method according to the fourth embodiment of the present application, a source signal of a first domain is converted into a virtual signal of a second domain, and the converted virtual signal is inversely transformed into a reconstructed signal of the first domain. It can be configured to repeatedly perform the process of doing. For example, the source signal of the first domain may be an ultrasound image (X) of the fetus, and the virtual signal of the second domain may be an image (Yv) in which features of the actual photographic image of the newborn are combined with the ultrasound image of the fetus. . In this case, in the process of converting the source signal X into the virtual signal Y, one or more error signals e o , e 1 , …, e n may be identified.

이하에서는 도 10을 참조하여 본 출원의 제4 실시 예에 따른 신호 변환 학습이 수행되는 단계들을 상세하게 설명한다. Hereinafter, steps in which signal conversion learning is performed according to the fourth embodiment of the present application will be described in detail with reference to FIG. 10.

도 10을 참조하면, 본 출원의 제4 실시 예에 따른 학습 방법은 적어도 하나의 네트워크를 이용하여 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하는 방법에 있어서, 제1 도메인의 소스 신호로부터 적어도 하나의 제1 에러 특징을 식별하는 단계(S61), 상기 제1 에러 특징이 제거된 제2 도메인의 제1 가상 신호를 산출하는 단계(S62), 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단하는 단계(S63)를 포함할 수 있고, 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단되는 경우, 상기 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환하는 단계(S64), 상기 제1 복원 신호 및 상기 소스 신호의 차이를 이용하여 제1 가중치를 산출하고, 상기 제1 가중치를 상기 네트워크에 공유하는 단계(S65), 상기 제1 가중치를 이용하여 상기 제1 에러 특징이 포함된 제2 도메인의 제2 가상 신호를 생성하는 단계(S66), 상기 제2 가상 신호를 제1 도메인의 제2 복원 신호로 역변환하는 단계(S67), 상기 제2 복원 신호와 상기 소스 신호의 차이를 이용하여 상기 네트워크의 파라미터를 조정하는 단계(S68)를 더 포함할 수 있다. Referring to FIG. 10, in the learning method according to the fourth embodiment of the present application, in a method of converting a source signal of a first domain into a virtual signal of a second domain using at least one network, the source of the first domain Identifying at least one first error characteristic from the signal (S61), calculating a first virtual signal of a second domain from which the first error characteristic has been removed (S62), and the quality of the first virtual signal is It may include determining whether the quality of the first virtual signal does not meet the predetermined level (S63), and when it is determined that the quality of the first virtual signal does not meet the predetermined level, the first virtual signal is converted to the first domain of the first virtual signal. 1 Inverse transforming into a reconstructed signal (S64), calculating a first weight using a difference between the first reconstructed signal and the source signal, and sharing the first weight with the network (S65), the first Generating a second virtual signal of a second domain including the first error characteristic using a weight (S66), inverse transforming the second virtual signal into a second reconstructed signal of the first domain (S67), It may further include a step (S68) of adjusting a parameter of the network by using a difference between the second reconstructed signal and the source signal.

이하에서는, 도 9를 참조하여 설명한 바와 같이, 제1 도메인의 소스 신호가 태아의 초음파 이미지(X)이고, 제2 도메인의 가상 신호는 상기 태아의 초음파 이미지에 신생아의 실제 사진 이미지의 특징들을 합성된 이미지(Y)인 경우를 예로 들어 상세하게 설명한다. Hereinafter, as described with reference to FIG. 9, the source signal of the first domain is the ultrasound image (X) of the fetus, and the virtual signal of the second domain combines the features of the actual photographic image of the newborn to the ultrasound image of the fetus It will be described in detail by taking the case of the image Y as an example.

먼저 전술한 바와 같이 제1 네트워크(101)을 통해 적어도 하나의 초음파 이미지(X)가 입력될 수 있고, 상기 학습 모듈(M)은 상기 초음파 이미지(X)를 입력 데이터로 하여 학습을 수행할 수 있다. First, as described above, at least one ultrasound image X may be input through the first network 101, and the learning module M may perform learning using the ultrasound image X as input data. have.

학습 모듈(M)은 제1 도메인의 소스 신호로부터 적어도 하나의 제1 에러 특징을 식별할 수 있다(S61). The learning module M may identify at least one first error characteristic from the source signal of the first domain (S61).

예를 들어, 학습 모듈(M)은 전술한 바와 같이 제1 네트워크(101)를 통해 제공되는 하나 이상의 특징들을 이용하여 상기 태아의 초음파 이미지(X) 내에 포함된 적어도 하나의 에러 특징(예컨대, 손, 발, 태반 등)을 식별할 수 있다. 예를 들어, 상기 에러 특징은 상기 제1 네트워크(101)에 포함된 복수의 레이어 중 임의의 레이어를 통해 추출될 수 있으며, 에러 특징을 추출하는 단계는 반복적으로 수행될 수 있다. For example, the learning module M uses one or more features provided through the first network 101 as described above, and at least one error feature (eg, hand , Feet, placenta, etc.) can be identified. For example, the error feature may be extracted through an arbitrary layer among a plurality of layers included in the first network 101, and the step of extracting the error feature may be repeatedly performed.

일 예로, 상기 학습 모듈(M)은 상기 제1 네트워크(101)에 포함된 복수의 레이어 중 임의의 제1 레이어를 통해 제1 에러 특징(e1)을 추출할 수 있다. 또한, 상기 학습 모듈(M)은 상기 제1 네트워크(101)에 포함된 복수의 레이어 중 임의의 제2 레이어를 통해 제2 에러 특징(e2)을 추출할 수 있다. 예를 들어, 제1 에러 특징(e1)은 상기 태아의 초음파 이미지(X) 내에 포함된 태아의 손에 관련된 특징을 포함할 수 있다. 또한, 제2 에러 특징(e2)은 상기 태아의 초음파 이미지(X) 내에 포함된 태아의 발에 관련된 특징들을 포함할 수 있다. For example, the learning module M may extract the first error feature e1 through a first layer among a plurality of layers included in the first network 101. In addition, the learning module M may extract the second error feature e2 through an arbitrary second layer among a plurality of layers included in the first network 101. For example, the first error feature e1 may include a feature related to the fetus's hand included in the ultrasound image X of the fetus. In addition, the second error feature e2 may include features related to the fetus's foot included in the ultrasound image X of the fetus.

한편, 상기 학습 모듈(M)에서 에러 특징을 추출하는 과정은 전술한 제1 네트워크(101), 제2 네트워크(102), 제3 네트워크(103) 및/또는 특징 분류 네트워크(106)에서 수행되는 동작에 대응될 수 있다. Meanwhile, the process of extracting the error feature in the learning module M is performed in the first network 101, the second network 102, the third network 103, and/or the feature classification network 106 described above. May correspond to the operation.

학습 모듈(M)은 제1 에러 특징이 제거된 제2 도메인의 제1 가상 신호를 산출할 수 있다(S62). The learning module M may calculate a first virtual signal of the second domain from which the first error feature has been removed (S62).

예를 들어, 학습 모듈(M)은, S61 단계에서 식별된 제1 에러 특징을 반영하여 제2 도메인의 제1 가상 신호(Y)를 생성할 수 있다. 도 9를 참조하면, 상기 학습 모듈(M)은 태아의 손에 관련된 특징이 제거된 가상 이미지(Y)를 합성할 수 있다. 상기 학습 모듈(M)에서 수행되는 가상 신호 산출 과정은 전술한 제2 네트워크(102)에서 수행되는 동작에 대응될 수 있다. For example, the learning module M may generate the first virtual signal Y of the second domain by reflecting the first error characteristic identified in step S61. Referring to FIG. 9, the learning module M may synthesize a virtual image Y from which features related to a fetus's hand have been removed. The process of calculating a virtual signal performed by the learning module M may correspond to an operation performed by the second network 102 described above.

한편, 본 출원의 제4 실시 예에 따른 학습 방법에 있어서, 상기 학습 모듈(M)은S61 단계에서 식별된 에러 특징을 이용하여 제1 에러 신호를 더 생성할 수 있다. 이때 상기 에러 신호를 생성하는 과정은 전술한 제3 네트워크(103)에서 수행되는 동작에 대응될 수 있다. Meanwhile, in the learning method according to the fourth embodiment of the present application, the learning module M may further generate a first error signal by using the error characteristic identified in step S61. In this case, the process of generating the error signal may correspond to an operation performed in the third network 103 described above.

학습 모듈(M)은 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단할 수 있다(S63). The learning module M may determine whether the quality of the first virtual signal meets a predetermined level (S63).

다시 말해, 학습 모듈(M)은 S62 단계에서 산출된 제1 가상 신호의 품질이 미리 정해진 수준에 도달할 때까지 이하의 학습 과정을 반복하고, 가상 신호의 품질이 미리 정해진 수준에 도달한 것으로 판단되는 경우 학습 과정을 종료할 수 있다. In other words, the learning module M repeats the following learning process until the quality of the first virtual signal calculated in step S62 reaches a predetermined level, and determines that the quality of the virtual signal has reached a predetermined level. If so, the learning process can be terminated.

이 때, 가상 신호의 품질이 미리 정해진 수준에 도달하였는지 여부는 다양한 방식으로 판단될 수 있다. In this case, whether or not the quality of the virtual signal has reached a predetermined level may be determined in various ways.

여기서 미리 설정된 종료 조건은 사용자에 의해 미리 입력된 조건일 수 있다. Here, the preset termination condition may be a condition previously input by the user.

예를 들어, 사용자는 학습 모듈(M)이 미리 설정된 횟수만큼 학습 과정을 반복하도록 설정할 수 있다. For example, the user may set the learning module M to repeat the learning process a predetermined number of times.

또는, 예를 들어, 사용자는 상기 뉴럴 네트워크(NN)의 손실함수(loss function)가 감소되지 않을 때까지 학습 과정을 반복하여 수행하도록 설정할 수 있다. Alternatively, for example, the user may set to repeat the learning process until the loss function of the neural network NN is not decreased.

또는, 예를 들어, 상기 학습 모듈(M)은 전술한 제5 네트워크(105)를 통하여 상기 가상 신호와 제2 도메인의 데스티네이션 신호의 유사도(similarity)에 관련된 정보를 획득할 수 있다. 상기 데스티네이션 신호는 전술한 데이터 베이스(20)로부터 획득될 수 있으며, 예를 들어, 상기 데스티네이션 신호는 신생아의 얼굴을 실제로 촬영한 이미지일 수 있다. 상기 유사도에 관련된 정보는 상기 가상 신호가 실제 촬영한 이미지에 해당될 확률을 나타내는 것으로, 이에 관한 설명은 전술하였으므로 이하에서는 상세한 설명은 생략한다. Alternatively, for example, the learning module M may acquire information related to the similarity between the virtual signal and the destination signal of the second domain through the above-described fifth network 105. The destination signal may be obtained from the above-described database 20, and for example, the destination signal may be an image actually photographed of a newborn's face. The information related to the similarity indicates a probability that the virtual signal corresponds to an image actually photographed, and a detailed description thereof is omitted below since the description has been described above.

학습 모듈(M)은 상기 제1 가상 신호의 품질이 미리 정해진 수준에 부합하지 않는 것으로 판단되는 경우, 이하의 학습 과정들을 수행할 수 있다. When it is determined that the quality of the first virtual signal does not meet a predetermined level, the learning module M may perform the following learning processes.

학습 모듈(M)은 상기 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환할 수 있다(S64).The learning module M may inversely transform the first virtual signal into a first reconstructed signal in the first domain (S64).

예를 들어, 학습 모듈(M)은 S62 단계에서 생성된 제1 가상 신호를 제1 도메인의 제1 복원 신호로 역변환할 수 있다. 상기 제1 가상 신호를 제1 복원 신호로 변환하는 과정은 전술한 제4 네트워크(104)에서 수행되는 동작에 대응될 수 있다. For example, the learning module M may inversely transform the first virtual signal generated in step S62 into a first reconstructed signal in the first domain. The process of converting the first virtual signal into a first reconstructed signal may correspond to an operation performed in the fourth network 104 described above.

또한, 학습 모듈(M)은 상기 제1 복원 신호 및 상기 소스 신호의 차이를 이용하여 제1 가중치를 산출하고, 상기 제1 가중치를 상기 네트워크에 공유할 수 있다(S65). Further, the learning module M may calculate a first weight by using a difference between the first reconstructed signal and the source signal, and share the first weight with the network (S65).

예를 들어, 상기 제1 가중치는 상기 제1 복원 신호와 소스 신호의 차이(difference)일 수 있다. For example, the first weight may be a difference between the first reconstructed signal and the source signal.

또는, 예를 들어, 상기 제1 가중치는 가상 이미지 또는 임의의 특징맵에 대하여 상기 제1 복원 신호와 소스 신호(X)의 차이를 미분하여 산출된 기울기(gradient)일 수 있다. 예를 들어, 상기 기울기는 [수학식 3]과 같이 계산될 수 있다. Alternatively, for example, the first weight may be a gradient calculated by differentiating a difference between the first reconstructed signal and the source signal X with respect to a virtual image or an arbitrary feature map. For example, the slope may be calculated as in [Equation 3].

Figure pat00003
Figure pat00003

따라서, 상기 제1 가중치는 상기 제1 가상 신호(Yv)만으로 복원할 수 없는 영역(예컨대, 에러 영역)에 관한 정보를 반영하고 있으므로, 상기 소스 신호에 포함된 에러 영역에 대한 정보를 가이드할 수 있다. Accordingly, since the first weight reflects information on an area that cannot be restored (eg, an error area) only with the first virtual signal Yv, information on an error area included in the source signal can be guided. have.

이때, 상기 소스 신호(X)는 RGB 세 개의 채널이 병합된 3차원 데이터일 수 있고, 각 채널에 대한 기울기(g)는 정규화(normalize)를 통해 조정될 수 있다. 상기 정규화 과정은 다양한 방법에 의해 수행될 수 있으며, 예를 들어 아래의 [수학식 4]과 같이 각 채널 마다 평균 및 표준 편차를 이용한 표준정규분포를 이용하여 계산될 수 있다.In this case, the source signal X may be 3D data in which three RGB channels are merged, and a slope g for each channel may be adjusted through normalization. The normalization process may be performed by various methods, and for example, as shown in Equation 4 below, it may be calculated using a standard normal distribution using an average and a standard deviation for each channel.

Figure pat00004
Figure pat00004

여기서, c는 R, G, B 각 채널을 의미한다.Here, c means each channel of R, G, and B.

또한, [수학식 4]를 이용하여 정규화된 기울기(g) 값에 시그모이드(sigmoid) 함수를 적용하여 가중치(We) 값이 0~1, 예를 들어 0.5~1의 범위를 갖도록 조정할 수 있으며, 아래의 수학식 [5]와 같이 계산될 수 있다.In addition, by applying a sigmoid function to the normalized slope (g) value using [Equation 4], the weight (W e ) value is adjusted to have a range of 0 to 1, for example, 0.5 to 1. It can be, and it can be calculated as in Equation [5] below.

Figure pat00005
Figure pat00005

다시 말해, 상기 소스 신호(X) 내의 에러 영역에 관한 정보는 상기 제1 네트워크 내지 제5 네트워크 중 적어도 하나에 공유될 수 있다.In other words, the information on the error region in the source signal X may be shared with at least one of the first to fifth networks.

학습 모듈(M)은 상기 제1 가중치를 이용하여 상기 제1 에러 특징이 포함된 제2 도메인의 제2 가상 신호를 생성할 수 있고(S66), 상기 제2 가상 신호를 제1 도메인의 제2 복원 신호로 역변환할 수 있다(S67). The learning module M may generate a second virtual signal of the second domain including the first error characteristic using the first weight (S66), and convert the second virtual signal to the second virtual signal of the first domain. It is possible to inverse transform into a restored signal (S67).

예를 들어, 상기 뉴럴 네트워크(NN)를 이용한 학습 과정에 있어서 소스 신호 내의 컨텐츠의 일관성을 유지하기 위하여 제1 가상 신호와 제1 에러 신호를 통합하여 제2 가상 신호를 생성할 수 있고, 상기 제2 가상 신호를 생성하는 과정은 도 7을 참조하여 전술한 타겟 신호(T) 생성 방법에 대응될 수 있다. For example, in the learning process using the neural network (NN), in order to maintain the consistency of the contents in the source signal, a second virtual signal may be generated by integrating a first virtual signal and a first error signal. 2 The process of generating the virtual signal may correspond to the method of generating the target signal T described above with reference to FIG. 7.

또한, 학습 모듈(M)은 전술한 제4 네트워크(104)를 이용하여 상기 제2 가상 신호를 상기 제1 도메인의 제2 복원 신호로 더 역변환할 수 있다. 즉, 상기 제2 가상 신호를 기초로 역변환된 신호와 소스 신호의 차이를 이용하여 상기 역변환된 신호와 상기 소스 신호 내의 컨텐츠의 일관성이 비교될 수 있다. In addition, the learning module M may further inverse transform the second virtual signal into a second reconstructed signal of the first domain using the above-described fourth network 104. That is, the inverse transformed signal and the consistency of the content in the source signal may be compared using the difference between the inverse transformed signal and the source signal based on the second virtual signal.

학습 모듈(M)은 상기 제2 복원 신호와 상기 소스 신호의 차이를 이용하여 상기 네트워크의 파라미터를 조정할 수 있다(S68). The learning module M may adjust the parameters of the network by using the difference between the second reconstructed signal and the source signal (S68).

여기서 파마리터는 상기 제2 복원 신호와 상기 소스 신호의 차이로 산출되는 손실함수에 따라 조정될 수 있다. Here, the parameter may be adjusted according to a loss function calculated as a difference between the second restoration signal and the source signal.

상기 학습 모듈(M)은 상기 파라미터를 전술한 제1 뉴럴 네트워크(101), 제2 뉴럴 네트워크(102), 제3 뉴럴 네트워크(103), 제4 뉴럴 네트워크(104), 제5 뉴럴 네트워크(105) 및/또는 특징분류 네트워크(106)에 역전달할 수 있다. 이에 따라 각 네트워크에 포함된 복수의 레이어에 적용되는 파라미터가 조정될 수 있으며, 복수의 레이어 중 어느 하나의 레이어가 제거될 수도 있다. The learning module (M) is a first neural network 101, a second neural network 102, a third neural network 103, a fourth neural network 104, and a fifth neural network 105 described above. ) And/or back to the classification network 106. Accordingly, a parameter applied to a plurality of layers included in each network may be adjusted, and any one of the plurality of layers may be removed.

즉, 본 출원의 제4 실시 예에 따른 학습 방법에 의하면 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하는 과정을 반복적으로 수행함으로써, 전술한 뉴럴 네트워크(NN)에 포함된 복수의 레이어에 적용되는 최적의 파라미터가 도출될 수 있다. That is, according to the learning method according to the fourth embodiment of the present application, by repeatedly performing the process of converting the source signal of the first domain into the virtual signal of the second domain, a plurality of Optimal parameters applied to the layer can be derived.

따라서, 본 출원의 일 실시 예에 따른 신호 변환 모듈(T)은 상기 학습 모듈(M)로부터 전달되는 파라미터를 이용하여 신호 변환 동작을 수행함으로써 소스 신호에 있는 에러 특징들이 제거된 가상 신호를 제공할 수 있다. Therefore, the signal conversion module T according to the embodiment of the present application performs a signal conversion operation using the parameter transmitted from the learning module M to provide a virtual signal from which error features in the source signal are removed. I can.

이때 상기 서버(10)는 상기 학습 모듈(M)에 의해 수행되는 기계 학습 과정을 지속적으로 다시 수행함으로써, 상기 뉴럴 네트워크(NN)에 적용되는 최적의 파라미터를 업데이트할 수 있다. At this time, the server 10 may update an optimal parameter applied to the neural network NN by continuously performing the machine learning process performed by the learning module M again.

따라서, 본 출원의 실시 예에 따른 신호 변환 제공 시스템(1)에 의하면 가상 신호의 품질이 향상될 수 있다. Accordingly, according to the signal conversion providing system 1 according to the exemplary embodiment of the present application, the quality of a virtual signal may be improved.

도 11은 본 출원의 제5 실시 예에 따른 신호 변환 학습 과정을 개략적으로 설명하기 위한 도면이다. 또한, 도 12는 본 출원의 제5 실시 예에 따른 제1 도메인의 소스 신호(X)를 제2 도메인의 가상 신호(Yv)로 변환하여 제공하기 위한 학습 방법을 예시적으로 설명하기 위한 순서도이다. 11 is a diagram schematically illustrating a signal conversion learning process according to a fifth embodiment of the present application. 12 is a flowchart illustrating a learning method for converting and providing a source signal X of a first domain into a virtual signal Yv of a second domain according to the fifth embodiment of the present application. .

예를 들어, 본 출원의 제2 실시 예에 따른 학습 방법은 전술한 서버(10) 내에 위치하는 학습 모듈(M)에 의해 수행될 수 있고, 상기 학습 모듈(M)에는 전술한 제1 네트워크 내지 제5 네트워크 중 적어도 하나 이상이 제공될 수 있다. For example, the learning method according to the second embodiment of the present application may be performed by the learning module M located in the server 10 described above, and the learning module M includes the first network or At least one or more of the fifth networks may be provided.

도 11을 참조하면, 본 출원의 제5 실시 예에 따른 학습 방법은 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하는 과정에서, 상기 소스 신호 내의 컨텐츠의 일관성을 유지함과 동시에 상기 소스 신호 내의 에러 영역에 관한 특징들을 학습하기 위하여 제1 가상 신호(IA) 및 제2 가상 신호(IB)를 각각 생성하도록 구성될 수 있다. Referring to FIG. 11, in the learning method according to the fifth embodiment of the present application, in a process of converting a source signal of a first domain into a virtual signal of a second domain, the source signal while maintaining the consistency of the content in the source signal It may be configured to generate a first virtual signal I A and a second virtual signal I B , respectively, in order to learn features related to an error region in the signal.

예를 들어, 제1 가상 신호(IA) 는 상기 소스 신호 내의 사용자의 관심 영역(ROI)에 관한 특징들만을 선택하여 변환된 것일 수 있다. 또한, 예를 들어, 제2 가상 신호(IB)는 상기 소스 신호 내의 모든 특징들을 이용하여 변환된 것일 수 있다. For example, the first virtual signal I A may be converted by selecting only features of the user's ROI in the source signal. Also, for example, the second virtual signal I B may be transformed using all features in the source signal.

도 11에 도시된 바와 같이, 제1 도메인의 소스 신호는 태아의 초음파 이미지(IS)이고, 제2 도메인의 제1 가상 신호(IA)는 상기 초음파 이미지 내의 태아의 얼굴 영역에 관련된 특징들에 신생아의 실제 사진 이미지의 특징들이 합성된 이미지일 수 있다. 또한, 제2 도메인의 제2 가상 신호(IB)는 상기 초음파 이미지 내의 에러 특징들을 포함하는 모든 특징들에 신생아의 실제 사진 이미지의 특징들이 합성된 이미지일 수 있다. As shown in FIG. 11, the source signal of the first domain is an ultrasound image (I S ) of the fetus, and the first virtual signal (I A ) of the second domain is features related to the face area of the fetus in the ultrasound image. On the other hand, the characteristics of the actual photographic image of the newborn may be a composite image. In addition, the second virtual signal I B of the second domain may be an image in which features of an actual photograph image of a newborn baby are combined with all features including error features in the ultrasound image.

이하에서는 도 12를 참조하여 본 출원의 제5 실시 예에 따른 신호 변환 학습이 수행되는 단계들을 상세하게 설명한다. Hereinafter, steps in which signal conversion learning is performed according to a fifth embodiment of the present application will be described in detail with reference to FIG. 12.

도 12를 참조하면, 본 출원의 제5 실시 예에 따른 학습 방법은 제1 도메인의 소스 신호로부터 복수 개의 특징을 획득하는 단계(S111), 제1 특징을 이용한 제1 가상 신호 및 복수 개의 특징들을 이용한 제2 가상 신호를 생성하는 단계(S112), 제2 가상 신호를 제1 도메인의 복원 신호로 역변환하고, 역변환된 복원 신호와 소스 신호의 차이를 이용하여 일관성을 비교하는 단계(S113), 제1 가상 신호와 제2 도메인의 데스티네이션 신호의 유사도를 산출하여(S114), 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단하는 단계(S115)를 포함할 수 있다. 이하에 설명되는 단계들은 설명의 편의를 위하여 예시적으로 기재된 것으로써 각 단계들이 순차적 또는 병렬적으로 수행될 수 있다. Referring to FIG. 12, in the learning method according to the fifth embodiment of the present application, the step of acquiring a plurality of features from a source signal of a first domain (S111), a first virtual signal and a plurality of features using the first feature Generating a second virtual signal using (S112), inversely transforming the second virtual signal into a reconstructed signal of the first domain, and comparing the consistency using the difference between the inversely transformed reconstructed signal and the source signal (S113), the first A step (S115) of determining whether the quality of the first virtual signal corresponds to a predetermined level by calculating a similarity between the first virtual signal and the destination signal of the second domain (S114). The steps described below are illustratively described for convenience of description, and each step may be performed sequentially or in parallel.

이하에서는, 도 11을 참조하여 설명한 바와 같이, 제1 도메인의 소스 신호가 태아의 초음파 이미지(IS)이고, 제2 도메인의 제1 가상 신호(IA) 및 제2 가상 신호(IB)는 상기 태아의 초음파 이미지에 신생아의 실제 사진 이미지의 특징들을 합성된 이미지인 경우를 예로 들어 상세하게 설명한다. Hereinafter, as described with reference to FIG. 11, the source signal of the first domain is the ultrasound image (I S ) of the fetus, and the first virtual signal (I A ) and the second virtual signal (I B ) of the second domain Will be described in detail by taking the case where the features of the actual photographic image of the newborn are synthesized with the ultrasound image of the fetus as an example.

먼저, 전술한 바와 같이 제1 네트워크(101)를 통해 적어도 하나의 초음파 이미지(IS)가 입력될 수 있고, 상기 학습 모듈(M)은 상기 초음파 이미지(IS)를 입력 데이터로 하여 학습을 수행할 수 있다. First, as described above, at least one ultrasound image I S may be input through the first network 101, and the learning module M performs learning by using the ultrasound image I S as input data. You can do it.

학습 모듈(M)은 제1 도메인의 소스 신호로부터 복수 개의 특징을 획득할 수 있다(S111). The learning module M may acquire a plurality of features from the source signal of the first domain (S111).

예를 들어, 학습 모듈(M)은 상기 제1 도메인의 초음파 이미지으로부터 복수의 특징들을 추출할 수 있다. 예를 들어, 상기 복수의 특징들은 사용자의 관심 영역(ROI)에 관련된 제1 특징(유효 특징) 및 적어도 하나의 에러 영역에 관련된 제2 특징(에러 특징)들을 포함할 수 있다. For example, the learning module M may extract a plurality of features from the ultrasound image of the first domain. For example, the plurality of features may include a first feature (effective feature) related to a user's region of interest (ROI) and a second feature (error feature) related to at least one error region.

또한, 예를 들어, 상기 복수의 특징들은 상기 제1 네트워크(101)에 포함된 복수의 레이어 중 임의의 레이어를 통해 추출될 수 있으며, 상기 학습 모듈(M)에서 에러 특징을 추출하는 과정은 전술한 제1 네트워크(101)에서 수행되는 동작에 대응될 수 있다. In addition, for example, the plurality of features may be extracted through an arbitrary layer among a plurality of layers included in the first network 101, and the process of extracting an error feature in the learning module M is described above. It may correspond to an operation performed in a first network 101.

학습 모듈(M)은 제1 특징을 이용한 제1 가상 신호 및 복수 개의 특징들을 이용한 제2 가상 신호를 생성할 수 있다(S112). The learning module M may generate a first virtual signal using the first feature and a second virtual signal using a plurality of features (S112).

상기 학습 모듈(M)은 S111 단계에서 획득된 복수의 특징들 중 제1 특징 및/또는 제2 특징들을 구별할 수 있다. 예를 들어, 상기 학습 모듈(M)은 미리 설정된 기준 또는 이전 학습 과정을 통해 전달된 파라미터를 이용하여 상기 복수의 특징들 중 에러 영역에 관련된 특징들을 선택할 수 있다. The learning module M may distinguish between a first feature and/or a second feature among a plurality of features acquired in step S111. For example, the learning module M may select features related to an error region among the plurality of features using a preset reference or a parameter transmitted through a previous learning process.

예를 들어, 상기 제1 특징은 상기 복수의 특징들 중 태아의 얼굴 영역에 관련된 특징들을 포함할 수 있고, 적어도 하나의 제2 특징이 제거된 것일 수 있다. 예컨대, 상기 제 1특징은 태아의 눈, 코, 입, 귀 등 얼굴 영역에 관련된 특징들을 포함할 수 있고, 태아의 손, 발 등 얼굴 영역이 아닌 특징들은 포함하지 않을 수 있다. For example, the first feature may include features related to the face area of the fetus among the plurality of features, and at least one second feature may be removed. For example, the first feature may include features related to facial areas such as eyes, nose, mouth, and ears of the fetus, and may not include features other than facial areas such as hands and feet of the fetus.

따라서, 상기 학습 모듈(M)은 전술한 제2 네트워크(102) 및/또는 제3 네트워크(103)를 이용하여 상기 태의 손 및 발에 관련된 특징이 제거된 제1 가상 신호 및 상기 태아의 손 및 발에 관련된 특징을 포함하는 제2 가상 신호를 각각 생성할 수 있다. 학습 모듈(M)은 제2 가상 신호를 제1 도메인의 복원 신호로 역변환할 수 있고, 상기 복원 신호와 소스 신호의 차이를 이용하여 일관성을 비교할 수 있다(S113). Accordingly, the learning module (M) uses the above-described second network 102 and/or third network 103 to remove the first virtual signal from which features related to the hands and feet of the womb are removed, and the hands and hands of the fetus. Each of the second virtual signals including features related to the foot may be generated. The learning module M may inversely transform the second virtual signal into a reconstructed signal of the first domain, and compare the consistency using a difference between the reconstructed signal and the source signal (S113).

즉, 학습 모듈(M)은 S112 단계에서 생성된 제2 가상 신호를 제1 도메인의 복원 신호로 역변환할 수 있다. 상기 제2 가상 신호를 복원 신호로 변환하는 과정은 전술한 제4 네트워크(104)에서 수행되는 동작에 대응될 수 있으므로, 이하에서는 상세한 설명은 생략한다. That is, the learning module M may inversely transform the second virtual signal generated in step S112 into a reconstructed signal of the first domain. Since the process of converting the second virtual signal into a reconstructed signal may correspond to the operation performed in the above-described fourth network 104, a detailed description will be omitted hereinafter.

예를 들어, 도 11을 참조하면, 상기 학습 모듈(M)은 태아의 손에 관련된 특징을 포함하는 제2 가상 신호(IB)를 복원한 복원 이미지(I's)와 상기 소스 신호(Is)의 차이를 비교할 수 있다. For example, referring to FIG. 11, the learning module M includes a reconstructed image I's and the source signal Is reconstructed from a second virtual signal I B including features related to the fetus's hand. You can compare the differences.

따라서, 상기 학습 모듈(M)은 제2 가상 신호(IB)만을 이용하여 역변환된 복원 신호(I's)와 소스 신호(Is)의 차이를 상기 뉴럴 네트워크(NN)에 역전달함으로써 상기 소스 신호 내의 컨텐츠의 일관성이 유지되도록 할 수 있다. Therefore, the learning module (M) inversely transfers the difference between the reconstructed signal (I's) and the source signal (Is), inversely transformed using only the second virtual signal (I B), to the neural network (NN), Content consistency can be maintained.

또한, 학습 모듈(M)은 제1 가상 신호와 제2 도메인의 데스티네이션 신호를 구별할 수 있다(S114). In addition, the learning module M may distinguish between the first virtual signal and the destination signal of the second domain (S114).

즉, 학습 모듈(M)은 전술한 제5 네트워크(105)를 이용하여 상기 소스 신호에 포함된 적어도 하나의 에러 특징들이 제거된 제1 가상 신호(IA)와 제2 도메인의 데스티네이션(IR) 신호의 유사도(similarity)를 판단할 수 있다. That is, the learning module (M) uses the above-described fifth network 105 to remove the at least one error feature included in the source signal, the first virtual signal (I A ) and the destination (I) of the second domain. R ) It is possible to determine the similarity of the signal.

여기서, 유사도(similarity)라 함은 상기 가상 신호와 데스티네이션 신호의 정성적 특징(qualitative features)들 사이의 유사성을 의미할 수 있다. Here, the similarity may mean similarity between the qualitative features of the virtual signal and the destination signal.

예를 들어, 도 11을 참조하면, 상기 학습 모듈(M)은 상기 태아의 초음파 이미지 내의 손에 관련된 특징이 제거된 제1 가상 이미지(IB)가 신생아의 실제 사진 이미지(IR)에 해당될 확률을 산출할 수 있다. 따라서 상기 뉴럴 네트워크(NN)는 실제 사진 이미지(IR)에 가까운 가상 이미지를 생성하도록 학습을 수행함으로써 가상 이미지의 품질이 더 향상되도록 할 수 있다. For example, referring to FIG. 11, in the learning module M, a first virtual image (I B ) from which a hand-related feature in the ultrasound image of the fetus is removed corresponds to an actual photo image (I R ) of a newborn baby. You can calculate the probability of becoming. Accordingly, the neural network NN may perform training to generate a virtual image close to the actual photographic image I R , so that the quality of the virtual image may be further improved.

또한, 학습 모듈(M)은 제1 가상 신호의 품질이 미리 정해진 수준에 부합하는지 여부를 판단할 수 있다(S115).In addition, the learning module M may determine whether the quality of the first virtual signal meets a predetermined level (S115).

예를 들어, 상기 학습 모듈(M)은 S114 단계에서 판단된 유사도를 이용하여 상기 제1 가상 신호(IA)의 품질이 미리 정해진 수준에 부합하는지 여부를 판단할 수 있고, 상기 제1 가상 신호의 품질이 미리 정해진 수준에 도달할 때까지 전술한 단계들을 반복적으로 수행할 수 있다. For example, the learning module M may determine whether the quality of the first virtual signal IA meets a predetermined level using the similarity determined in step S114, and The above-described steps can be repeatedly performed until the quality reaches a predetermined level.

또는 예를 들어, 상기 학습 모듈(M)은 미리 설정된 종료 조건이 만족될 때까지, 전술한 S111 내지 S114 단계를 반복적으로 수행하도록 함으로써 원하는 품질의 가상 신호를 생성하기 위한 파라미터를 업데이트할 수 있다. Alternatively, for example, the learning module M may update a parameter for generating a virtual signal of a desired quality by repeatedly performing steps S111 to S114 until a preset termination condition is satisfied.

여기서 미리 설정된 종료 조건은 사용자에 의해 미리 입력된 조건일 수 있다. Here, the preset termination condition may be a condition previously input by the user.

또는 예를 들어, 사용자는 학습 모듈(M)이 S111 단계 내지 S114 단계를 미리 설정된 횟수만큼 반복하도록 설정할 수 있다. Or, for example, the user may set the learning module M to repeat steps S111 to S114 a preset number of times.

또는, 예를 들어, 사용자는 상기 뉴럴 네트워크(NN)의 손실함수(loss function)가 감소되지 않을 때까지 S111 단계 내지 S114 단계를 반복하여 수행하도록 설정할 수 있다. Alternatively, for example, the user may set to repeat steps S111 to S114 until a loss function of the neural network NN is not decreased.

이때 학습 모듈(M)은 S115 단계에서 판단 결과 상기 제1 가상 신호의 품질이 미리 정해진 수준에 도달하지 않은 것으로 판단되는 경우, 상기 가상 신호들 및 손실함수에 기반하여 상기 뉴럴 네트워크(NN)의 복수의 레이어에 대한 파라미터가 조정될 수 있다. At this time, when the learning module M determines that the quality of the first virtual signal has not reached a predetermined level as a result of the determination in step S115, the plurality of neural networks NN is based on the virtual signals and the loss function. The parameters for the layer of can be adjusted.

따라서, 상기 학습 모듈(M)은 해당 학습 과정의 S113 및 S114 단계를 통해 도출된 상기 뉴럴 네트워크(NN)의 복수의 레이어에 대한 파라미터를 신호 변환 모듈(T)에 전달할 수 있다. Accordingly, the learning module M may transfer parameters for a plurality of layers of the neural network NN derived through steps S113 and S114 of a corresponding learning process to the signal conversion module T.

반대로, 상기 학습 모듈(M)은 S115 단계에서 판단 결과 상기 제1 가상 신호의 품질이 미리 정해진 수준에 도달한 것으로 판단되는 경우 학습 과정을 종료할 수 있다. Conversely, when it is determined in step S115 that the quality of the first virtual signal has reached a predetermined level, the learning module M may end the learning process.

따라서, 본 출원의 제5 실시 예에 따른 학습 방법에 의하면 제1 도메인의 소스 신호에 포함된 모든 특징들을 이용하여 변환된 제2 가상 신호를 다시 제1 도메인의 신호로 역변환하는 과정을 통해 소스 신호 내의 컨텐츠의 일관성을 학습할 수 있다. 또한, 적어도 하나의 에러 특징들을 식별하고 상기 에러 특징들이 제거된 제1 가상 신호(IA)를 제2 도메인의 데스티네이션 신호(IR)와 구별하도록 함으로써 상기 소스 신호에 포함된 에러 특징들이 제거된 제1 가상 신호를 생성하도록 학습될 수 있다. Therefore, according to the learning method according to the fifth embodiment of the present application, the source signal is converted back to the signal of the first domain by inversely transforming the second virtual signal converted by using all the features included in the source signal of the first domain. You can learn the consistency of the contents within. In addition, error features included in the source signal are removed by identifying at least one error feature and distinguishing the first virtual signal I A from which the error features are removed from the destination signal I R of the second domain. May be learned to generate the first virtual signal.

즉, 본 출원의 제5 실시 예에 따른 학습 방법에 의하면 제1 도메인의 소스 신호를 제2 도메인의 가상 신호로 변환하고 손실 함수를 측정하여 파라미터를 조정하는과정을 반복적으로 수행함으로써, 전술한 뉴럴 네트워크(NN)에 포함된 복수의 레이어에 적용되는 최적의 파라미터가 도출될 수 있다. That is, according to the learning method according to the fifth embodiment of the present application, the above-described neural network is repeatedly performed by converting the source signal of the first domain into a virtual signal of the second domain and measuring the loss function to adjust the parameter. Optimal parameters applied to a plurality of layers included in the network NN may be derived.

따라서, 본 출원의 일 실시 예에 따른 신호 변환 모듈(T)은 상기 학습 모듈(M)로부터 전달되는 파라미터를 이용하여 신호 변환 동작을 수행함으로써 미리 지정된 품질 이상의 가상 신호를 제공할 수 있다. 이때 상기 서버(10)는 상기 학습 모듈(M)에 의해 수행되는 기계 학습 과정을 미리 정해진 주기마다 다시 수행함으로써, 상기 뉴럴 네트워크(NN)에 적용되는 최적의 파라미터를 업데이트할 수 있다.Accordingly, the signal conversion module T according to the exemplary embodiment of the present application may provide a virtual signal having a predetermined quality or higher by performing a signal conversion operation using a parameter transmitted from the learning module M. In this case, the server 10 may update an optimal parameter applied to the neural network NN by re-performing the machine learning process performed by the learning module M every predetermined period.

한편, 전술한 본 출원의 실시 예들에 있어서, 제1 도메인의 소스 신호(IS)를 제2 도메인의 가상 신호(IA, IB)로 변환하는 과정뿐만 아니라, 제2 도메인의 가상 신호(IB)를 제1 도메인의 복원 신호(I's)로 역변환하는 과정에서도 동일한 방식으로 학습이 수행될 수 있다. Meanwhile, in the above-described embodiments of the present application , not only the process of converting the source signal I S of the first domain to the virtual signals I A and I B of the second domain, but also the virtual signal of the second domain ( in the process of the inverse transform I B) to restore the signal (I 's) of the first domain may be a learning carried out in the same manner.

예를 들어, 도 11에 도시된 바와 같이 제2 도메인의 신생아의 실제 사진 이미지(IR)를 제1 도메인의 태아의 초음파 이미지로 변환한 이미지(I's)와 제1 도메인의 태아의 초음파 이미지(Is)를 구별하도록 학습할 수 있다. 또한, 초음파 이미지로 변환한 이미지(I's)를 다시 제2 도메인의 실제 사진 이미지로 역변환한 이미지(I'R)와 신생아의 실제 사진 이미지(IR)를 비교함으로써 상기 역변환한 이미지(I'R)와 상기 실제 사진 이미지(IR) 내의 컨텐츠의 일관성을 유지할 수 있다. For example, as shown in FIG. 11, an image (I's) obtained by converting an actual photo image (I R ) of a newborn baby in a second domain into an ultrasound image of a fetus in the first domain (I's) and an ultrasound image ( Is) can be learned to distinguish. In addition, "the inverse image (I, by comparison of the actual photographic images of (R and newborn (I R) R image is converted into an ultrasonic image (I's) to re-image I) 'inverse to the actual images of the first domain ) And the content in the actual photographic image I R.

결과적으로, 본 출원의 일 실시 예에 따른 신호 변환 제공 시스템(1)은 전술한 학습 과정을 반복적으로 수행함으로써 미리 정해진 품질의 가상 신호를 사용자 장치(30) 상에 제공할 수 있다. As a result, the signal conversion providing system 1 according to the exemplary embodiment of the present application may provide a virtual signal of a predetermined quality on the user device 30 by repeatedly performing the above-described learning process.

예를 들어, 제1 도메인의 입력 신호가 태아의 초음파 이미지인 경우, 사용자는 제1 도메인의 소스 이미지 내의 태아 얼굴이 손, 발, 태반, 양수 중 적어도 하나의 에러 특징에 의해 가려진 경우에도 상기 에러 특징이 제거된 제2 도메인의 가상 이미지를 얻을 수 있다. For example, when the input signal of the first domain is an ultrasound image of a fetus, the user may receive the error even when the fetal face in the source image of the first domain is covered by at least one error feature of hand, foot, placenta, and amniotic fluid. A virtual image of the second domain from which features have been removed may be obtained.

지금까지 설명의 편의를 위하여 신호 변환의 각 기능들이 전술한 서버(10)에서 수행되는 경우를 가정하여 설명하였으나, 전술한 신호 변환의 각 기능들은 컴퓨터 상에서 판독 가능한 매체에 기록되어 제공될 수 있다. Until now, for convenience of explanation, the description has been made on the assumption that each function of signal conversion is performed in the server 10 described above, but each function of the signal conversion may be recorded and provided in a medium readable on a computer.

즉, 본 출원의 일 실시 예에 따른 신호 변환 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.That is, the signal conversion method according to the exemplary embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to limited embodiments and drawings, various modifications and variations are possible from the above description to those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and those equivalent to the claims also fall within the scope of the claims to be described later.

1: 신호 변환 제공 시스템
2: 통신망
10: 서버
11: 신호 송수신부
12: 특징 분석부
13: 가상 신호 생성부
14: 신호 역변환부
15: 제어부
1: signal conversion provision system
2: communication network
10: server
11: signal transmission/reception unit
12: feature analysis unit
13: Virtual signal generator
14: signal inverse transform unit
15: control unit

Claims (1)

제1 도메인의 소스 신호를 입력받는 단계;
상기 소스 신호 내의 에러 특징 및 유효 특징들을 식별하는 단계;
상기 소스 신호에 포함된 적어도 하나의 제1 에러 특징들을 제거한 제2 도메인의 제1 가상 신호를 생성하는 단계; 및
상기 제1 가상 신호를 출력하는 단계;를 포함하는
신호 변환 방법.
Receiving a source signal of a first domain;
Identifying error characteristics and valid characteristics in the source signal;
Generating a first virtual signal of a second domain from which at least one first error characteristic included in the source signal is removed; And
Including; outputting the first virtual signal
Signal conversion method.
KR1020210032325A 2017-10-15 2021-03-11 Signal translation system and signal translation method KR20210032945A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762572507P 2017-10-15 2017-10-15
US62/572,507 2017-10-15

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180120762A Division KR102229218B1 (en) 2017-10-15 2018-10-10 Signal translation system and signal translation method

Publications (1)

Publication Number Publication Date
KR20210032945A true KR20210032945A (en) 2021-03-25

Family

ID=66282171

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020180050390A KR102053527B1 (en) 2017-10-15 2018-05-02 Method for image processing
KR1020180120762A KR102229218B1 (en) 2017-10-15 2018-10-10 Signal translation system and signal translation method
KR1020210032325A KR20210032945A (en) 2017-10-15 2021-03-11 Signal translation system and signal translation method

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020180050390A KR102053527B1 (en) 2017-10-15 2018-05-02 Method for image processing
KR1020180120762A KR102229218B1 (en) 2017-10-15 2018-10-10 Signal translation system and signal translation method

Country Status (2)

Country Link
KR (3) KR102053527B1 (en)
CN (1) CN111226258B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102334666B1 (en) * 2021-05-20 2021-12-07 알레시오 주식회사 A method for creating a face image

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102652117B1 (en) * 2019-07-10 2024-03-27 삼성전자주식회사 Image processing method and image processing system
KR20210032247A (en) * 2019-09-16 2021-03-24 삼성전자주식회사 Display apparatus and image processing method thereof
CN112052818B (en) * 2020-09-15 2024-03-22 浙江智慧视频安防创新中心有限公司 Method, system and storage medium for detecting pedestrians without supervision domain adaptation
KR20220169076A (en) 2021-06-18 2022-12-27 홍소현 Temperance in eating large quantities of insects for food and feed equipment
CN113487641B (en) * 2021-08-03 2024-08-02 青岛海存微电子有限公司 STT-MRAM-based image edge detection method and device
KR102371145B1 (en) * 2021-11-10 2022-03-07 주식회사 스누아이랩 Apparatus for Image Synthesis and Driving Method Thereof

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642591B2 (en) * 1994-11-29 2005-04-27 株式会社日立メディコ Image processing device
KR100497398B1 (en) * 2003-07-16 2005-06-23 삼성전자주식회사 Method and apparatus of video noise reduction
JP5627253B2 (en) * 2009-05-29 2014-11-19 富士通テン株式会社 Image processing apparatus, electronic apparatus, and image processing method
JP5632680B2 (en) * 2010-08-25 2014-11-26 日立アロカメディカル株式会社 Ultrasonic image processing device
KR20130008858A (en) * 2011-07-13 2013-01-23 삼성전자주식회사 Method for image processing and image processing apparatus thereof
KR102054680B1 (en) * 2013-01-23 2020-01-22 삼성전자주식회사 Image processing apparatus, ultrasonic imaging apparatus and method for image processing
JP6230239B2 (en) * 2013-02-14 2017-11-15 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
KR102185726B1 (en) * 2014-01-28 2020-12-02 삼성메디슨 주식회사 Method and ultrasound apparatus for displaying a ultrasound image corresponding to a region of interest
US9892336B2 (en) * 2014-05-16 2018-02-13 Mediatek Inc. Detection devices and methods for detecting regions of interest
US9582753B2 (en) * 2014-07-30 2017-02-28 Mitsubishi Electric Research Laboratories, Inc. Neural networks for transforming signals
JP6412386B2 (en) * 2014-09-26 2018-10-24 キヤノン株式会社 Image processing apparatus, control method therefor, program, and recording medium
KR102328269B1 (en) * 2014-10-23 2021-11-19 삼성전자주식회사 Ultrasound imaging apparatus and control method for the same
JP6543066B2 (en) * 2015-03-30 2019-07-10 株式会社メガチップス Machine learning device
CN106203460A (en) * 2015-05-05 2016-12-07 杜比实验室特许公司 Training signal processes model for the part replacement in signal processing system
KR20160133230A (en) * 2015-05-12 2016-11-22 엘지전자 주식회사 Mobile terminal
US20180322662A1 (en) * 2015-11-06 2018-11-08 Thomson Licensing Method for transfer of a style of a reference visual object to another visual object, and corresponding electronic device, computer readable program products and computer readable storage medium
US10460231B2 (en) * 2015-12-29 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus of neural network based image signal processor
KR101937018B1 (en) * 2016-03-24 2019-01-09 울산대학교 산학협력단 Method and device for automatic inner and outer vessel wall segmentation in intravascular ultrasound images using deep learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102334666B1 (en) * 2021-05-20 2021-12-07 알레시오 주식회사 A method for creating a face image

Also Published As

Publication number Publication date
KR20190042429A (en) 2019-04-24
KR20190042455A (en) 2019-04-24
CN111226258A (en) 2020-06-02
CN111226258B (en) 2023-09-22
KR102229218B1 (en) 2021-03-18
KR102053527B1 (en) 2019-12-06

Similar Documents

Publication Publication Date Title
KR102229218B1 (en) Signal translation system and signal translation method
US11694083B2 (en) Signal translation system and signal translation method
JP7373554B2 (en) Cross-domain image transformation
CN111210382B (en) Image processing method, image processing device, computer equipment and storage medium
KR102063294B1 (en) Method and apparatus for converting ultrasound image into real image
DE112021002965T5 (en) SCENEGRAPH GENERATION FOR UNMARKED DATA
KR102427484B1 (en) Image generation system and image generation method using the system
KR102160390B1 (en) Method and system for artificial intelligence based user medical information analysis
CN113505848B (en) Model training method and device
KR20220147545A (en) Image editing model training method and image editing method
WO2023207266A9 (en) Image registration method, apparatus and device, and storage medium
WO2022194152A1 (en) Image processing method and apparatus based on image processing model, and electronic device, storage medium and computer program product
CN114298997B (en) Fake picture detection method, fake picture detection device and storage medium
Bae et al. Deep multi-view stereo for dense 3D reconstruction from monocular endoscopic video
US20230351566A1 (en) Exemplar-based object appearance transfer driven by correspondence
KR102166016B1 (en) A domain-aware method for image-to-image translations
Cheng et al. Multi-attention mechanism medical image segmentation combined with word embedding technology
US20240054394A1 (en) Generating new data based on class-specific uncertainty information using machine learning
US20230040793A1 (en) Performance of Complex Optimization Tasks with Improved Efficiency Via Neural Meta-Optimization of Experts
Zeng et al. MyStyle++: A Controllable Personalized Generative Prior
JP2024521645A (en) Unsupervised Learning of Object Representations from Video Sequences Using Spatiotemporal Attention
US20230087494A1 (en) Determining image similarity by analysing registrations
CN113298731A (en) Image color migration method and device, computer readable medium and electronic equipment
KR20220135349A (en) Tomography image processing method using single neural network based on unsupervised learning for image standardization and apparatus therefor
CN112463936A (en) Visual question answering method and system based on three-dimensional information

Legal Events

Date Code Title Description
A107 Divisional application of patent