KR20240018125A - Method for providing standard planar information about object and device for performing the same - Google Patents

Method for providing standard planar information about object and device for performing the same Download PDF

Info

Publication number
KR20240018125A
KR20240018125A KR1020220096005A KR20220096005A KR20240018125A KR 20240018125 A KR20240018125 A KR 20240018125A KR 1020220096005 A KR1020220096005 A KR 1020220096005A KR 20220096005 A KR20220096005 A KR 20220096005A KR 20240018125 A KR20240018125 A KR 20240018125A
Authority
KR
South Korea
Prior art keywords
plane
head
standard
ultrasound image
region
Prior art date
Application number
KR1020220096005A
Other languages
Korean (ko)
Inventor
정윤지
조현철
권자영
서진근
권하얀
선시유
장태준
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020220096005A priority Critical patent/KR20240018125A/en
Publication of KR20240018125A publication Critical patent/KR20240018125A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pregnancy & Childbirth (AREA)
  • Gynecology & Obstetrics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

본 발명은, 대상체에 대한 표준 평면 정보 제공 방법으로서, 상기 방법은, 태아에 대한 초음파 영상을 획득하는 단계, 상기 초음파 영상에서 상기 태아의 머리를 결정하는 단계, 머리에 대한 초음파 영상에서 머리 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 머리에 대한 초음파 영상 중 기 설정된 머리 영역 분류 결과를 예측하는 단계, 머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 머리 영역에 대한 초음파 영상을 입력하여 해당 초음파 영상의 표준 평면 확률을 예측하는 단계 및 상기 표준 평면 확률을 기초로 상기 태아의 머리에 대한 표준 평면을 결정하는 단계를 포함하도록 구성된다. The present invention is a method of providing standard planar information about an object, the method comprising the steps of acquiring an ultrasound image of a fetus, determining the head of the fetus in the ultrasound image, and determining the head area in the ultrasound image of the head. Predicting a preset head region classification result among the ultrasound images of the head using a first prediction model learned to classify, a second learning to predict a standard plane probability using the ultrasound image of the head region as input Inputting an ultrasound image for a head region classified according to the classification result into a prediction model to predict a standard plane probability of the ultrasound image, and determining a standard plane for the head of the fetus based on the standard plane probability. It is structured to include steps.

Description

대상체에 대한 표준 평면 정보 제공 방법 및 이를 수행하는 디바이스{METHOD FOR PROVIDING STANDARD PLANAR INFORMATION ABOUT OBJECT AND DEVICE FOR PERFORMING THE SAME}Method for providing standard plan information for an object and device for performing the same {METHOD FOR PROVIDING STANDARD PLANAR INFORMATION ABOUT OBJECT AND DEVICE FOR PERFORMING THE SAME}

본 발명은 대상체에 대한 표준 평면 정보 제공 방법 및 이를 수행하는 디바이스에 관한 것이다. The present invention relates to a method for providing standard plane information to an object and a device for performing the same.

태아의 중추 신경계(Central Nervous System, CNS) 기형은 산전 사망률 및 아동기 이환률(morbidity rate)의 주요 요인 중 하나이다. 그에 따라, 통상 모든 임산부는 태아의 중추 신경계 기형에 대한 초음파 평가를 수행한다. Fetal Central Nervous System (CNS) malformations are one of the major causes of prenatal mortality and childhood morbidity rates. Accordingly, all pregnant women typically undergo ultrasound evaluation of the fetus for central nervous system malformations.

초음파 검사는 태아의 중추 신경계 기형을 평가하기 위해 주로 사용되며, 의료진에 의해 검사 및 평가가 수동으로 수행된다. 그러나, 초음파 검사는 복잡하고 다양한 여러 키 입력과 프로브 동작을 필요로 하기 때문에, 의료진의 숙련도에 따라 평가 정확도 편차가 크다. Ultrasound is mainly used to evaluate central nervous system malformations in the fetus, and examination and evaluation are performed manually by medical staff. However, because ultrasound examination is complicated and requires various key inputs and probe movements, there is a large variation in evaluation accuracy depending on the skill level of the medical staff.

또한, 중추 신경계 기형을 평가하기 위해서는 기본적으로 3가지 표준 평면(transthalamic plane, transventricular plane, transcerebellar plane)을 탐색해야 하는데, 태아의 머리의 위치나 방향이 고정되어 있지 않기 때문에, 원하는 평면을 획득할 때까지 반복적으로 스캔을 수행해야 하며, 그에 따라 숙련된 의료진이라 하더라도 많은 시간이 소요된다. Additionally, in order to evaluate central nervous system malformations, three standard planes (transthalamic plane, transventricular plane, and transcerebellar plane) must be explored. However, since the position or direction of the fetal head is not fixed, it is difficult to obtain the desired plane. Scans must be performed repeatedly, which takes a lot of time even for experienced medical staff.

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The technology behind the invention has been written to facilitate easier understanding of the invention. It should not be understood as an admission that matters described in the technology underlying the invention exist as prior art.

그에 따라, 종래 기계 학습된 모델을 이용하여 진단 대상(예. 대상체의 머리)의 단면을 자동으로 획득하고자 하는 방법이 개시되었으나, 종래의 방법은 그저 초음파 영상의 단일 프레임만으로 적합한 단면을 찾도록 구성되어 있어, 실제 의료진의 검사 결과와 불일치 하는 경우가 존재한다. Accordingly, a method has been disclosed to automatically obtain a cross-section of a diagnostic object (e.g., the subject's head) using a conventional machine-learned model, but the conventional method is configured to find a suitable cross-section using only a single frame of an ultrasound image. Therefore, there are cases where there are discrepancies with the actual test results of medical staff.

이에, 초음파 검사 과정에서 대상체의 표준 평면을 보다 정확하게 결정할 수 있는 방법이 요구된다. Accordingly, there is a need for a method that can more accurately determine the standard plane of an object during an ultrasound examination.

그 결과, 본 발명의 발명자들은 초음파 영상의 단일 프레임에서 단적으로 보여지는 해부학적 구조 외에도 연속적인 프레임을 기초로 획득되는 대상체의 구조적 변화(context 정보)를 고려하여, 대상체의 표준 평면을 결정할 수 있는 방법 및 이를 수행하는 디바이스를 개발하고자 하였다. As a result, the inventors of the present invention have developed a method for determining the standard plane of an object by considering structural changes (context information) of the object obtained based on successive frames in addition to the anatomical structure clearly visible in a single frame of an ultrasound image. and attempted to develop a device that performs this.

특히, 본 발명의 발명자들은 초음파 검사를 통해 대상체의 초음파 영상이 촬영되는 동안, 프로브의 촬영 방향에 따른 대상체의 구조적 특징을 학습하여, 대상체의 표준 평면을 정확하게 결정할 수 있는 방법을 개발하기에 이르렀다. In particular, the inventors of the present invention have developed a method that can accurately determine the standard plane of an object by learning the structural characteristics of the object according to the imaging direction of the probe while an ultrasound image of the object is captured through ultrasound examination.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 대상체에 대한 표준 평면 정보 제공 방법이 제공된다. 상기 방법은, 태아에 대한 초음파 영상을 획득하는 단계, 상기 초음파 영상에서 상기 태아의 머리를 결정하는 단계, 머리에 대한 초음파 영상에서 머리 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 머리에 대한 초음파 영상 중 기 설정된 머리 영역 분류 결과를 예측하는 단계, 머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 머리 영역에 대한 초음파 영상을 입력하여 해당 초음파 영상의 표준 평면 확률을 예측하는 단계 및 상기 표준 평면 확률을 기초로 상기 태아의 머리에 대한 표준 평면을 결정하는 단계를 포함하도록 구성된다. In order to solve the problems described above, a method of providing standard plane information about an object according to an embodiment of the present invention is provided. The method includes obtaining an ultrasound image of the fetus, determining the head of the fetus in the ultrasound image, using a first prediction model learned to classify the head region in the ultrasound image of the head, Predicting a preset head region classification result among ultrasound images for the head region, using the ultrasound image for the head region as input to a second prediction model trained to predict a standard plane probability, and applying the head region classified according to the classification result to the second prediction model. It is configured to include a step of predicting a standard plane probability of the ultrasound image by inputting an ultrasound image, and determining a standard plane for the head of the fetus based on the standard plane probability.

본 발명의 특징에 따르면, 상기 머리를 결정하는 단계는, 초음파 영상을 입력으로 하여 머리를 검출하도록 학습된 제3 예측 모델에, 상기 태아에 대한 초음파 영상을 입력하여 상기 태아의 머리를 검출하는 단계와 검출된 머리의 경계선에 대한 타원 피팅(Ellipse fitting) 또는 커브 피팅(Curve fitting) 결과를 이용하여 상기 태아의 머리에 대응되는 타원을 결정하는 단계를 더 포함할 수 있다. According to a feature of the present invention, the step of determining the head includes detecting the head of the fetus by inputting the ultrasound image of the fetus into a third prediction model learned to detect the head by inputting the ultrasound image. It may further include determining an ellipse corresponding to the head of the fetus using the results of ellipse fitting or curve fitting for the boundary line of the detected head.

본 발명의 다른 특징에 따르면, 상기 머리를 결정하는 단계는, 상기 초음파 영상에서 결정된 타원을 포함하는 패치(patch)를 추출하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the step of determining the head may further include extracting a patch including the determined ellipse from the ultrasound image.

본 발명의 또 다른 특징에 따르면, 상기 머리 영역 분류 결과를 예측하는 단계는, 상기 머리에 대한 초음파 영상을 구성하는 복수의 프레임을 기초로 상기 머리의 구조적 변화를 나타내는 인덱스 맵(Structured Dissimilarity Index Measure Map, DISSM Map)을 획득하는 단계와 상기 머리에 대한 초음파 영상 및 상기 인덱스 맵을 상기 제1 예측 모델에 입력하여 상기 태아의 머리 영역 분류 결과를 예측하는 단계를 더 포함할 수 있다. According to another feature of the present invention, the step of predicting the head region classification result includes an index map (Structured Dissimilarity Index Measure Map) indicating structural changes in the head based on a plurality of frames constituting the ultrasound image of the head. , DISSM Map) and inputting the ultrasound image of the head and the index map into the first prediction model to predict a classification result of the head region of the fetus.

본 발명의 또 다른 특징에 따르면, 상기 제1 예측 모델은, 상기 머리에 대한 초음파 영상 및 상기 인덱스 맵 각각으로부터 특징 맵(feature map)을 추출하도록 구성된 서로 다른 두 개의 특징 추출 레이어, 상기 두 개의 특징 추출 레이어로부터 추출되는 서로 다른 두 개의 특징 맵을 통합하도록 구성된 통합 레이어 및 상기 통합 레이어로부터 출력된 결과를 기초로 상기 태아의 머리 영역을 분류하기 위한 분류 벡터를 출력하도록 구성된 분류 레이어를 포함할 수 있다. According to another feature of the present invention, the first prediction model includes two different feature extraction layers configured to extract feature maps from each of the ultrasound image of the head and the index map, the two features It may include an integration layer configured to integrate two different feature maps extracted from the extraction layer and a classification layer configured to output a classification vector for classifying the head region of the fetus based on the results output from the integration layer. .

본 발명의 또 다른 특징에 따르면, 상기 머리 영역 분류 결과는, 표준 TV 평면(Transventricular plane) 및 표준 TT 평면(Transthalamic plane)을 포함하는 제1 영역, 표준 TC 평면(Transcerebella plane)을 포함하는 제2 영역 및 상기 제1 영역과 상기 제2 영역을 제외한 나머지 제3 영역 중 적어도 하나의 영역에 대한 분류 결과를 포함할 수 있다. According to another feature of the present invention, the head region classification result includes a first region including a standard TV plane (Transventricular plane) and a standard TT plane (Transthalamic plane), and a second region including a standard TC plane (Transcerebella plane). It may include a classification result for at least one area among the area and a third area excluding the first area and the second area.

본 발명의 또 다른 특징에 따르면, 상기 표준 평면 확률을 예측하는 단계는, 상기 분류 결과에 따라 복수 개로 분류된 머리 영역에 대한 초음파 영상을 기초로 서로 다른 지점을 중심으로 하는 표준 평면 확률을 예측하는 단계일 수 있다. According to another feature of the present invention, the step of predicting the standard plane probability includes predicting the standard plane probability centered on different points based on ultrasound images of head regions classified into a plurality according to the classification result. It may be a step.

본 발명의 또 다른 특징에 따르면, 상기 표준 평면 확률을 예측하는 단계는, 표준 TV 평면(Transventricular plane), 표준 TT 평면(Transthalamic plane) 및 표준 TC 평면(Transcerebella plane) 중 둘 이상의 표준 평면에 대한 확률을 예측하는 단계일 수 있다. According to another feature of the present invention, the step of predicting the standard plane probability includes probabilities for two or more standard planes among the standard TV plane (Transventricular plane), the standard TT plane (Transthalamic plane), and the standard TC plane (Transcerebella plane). It may be a step to predict.

본 발명의 또 다른 특징에 따르면, 상기 제2 예측 모델은, 상기 분류된 머리 영역에 대한 초음파 영상으로부터 특징 맵을 추출하도록 구성된 특징 추출 레이어, 상기 특징 추출 레이어로부터 추출되는 특징 맵의 순방향 및 역방향 출력 결과를 통합하도록 구성된 통합 레이어, 상기 통합 레이어로부터 출력된 결과를 기초로 상기 태아의 구조적 특징점을 추출하도록 구성된 어텐션 레이어 및 상기 출력된 결과 및 상기 특징점을 기초로 상기 표준 평면에 대한 확률을 출력하도록 구성된 분류 레이어를 포함할 수 있다. According to another feature of the present invention, the second prediction model includes a feature extraction layer configured to extract a feature map from an ultrasound image for the classified head region, and forward and reverse outputs of the feature map extracted from the feature extraction layer. An integration layer configured to integrate the results, an attention layer configured to extract structural feature points of the fetus based on the results output from the integration layer, and configured to output a probability for the standard plane based on the output results and the feature points. May include a classification layer.

본 발명의 또 다른 특징에 따르면, 상기 통합 레이어는, 순환 신경망을 포함하며, 상기 순환 신경망은, 양방향 GRU(bi-directional gated recurrent unit) 또는 양방향 LSTM(bi-directional long short term memory)로 구성될 수 있다. According to another feature of the present invention, the integration layer includes a recurrent neural network, and the recurrent neural network may be composed of a bi-directional gated recurrent unit (GRU) or a bi-directional long short term memory (LSTM). You can.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 다른 실시예에 따른 표준 평면 정보 제공용 디바이스가 제공된다. 상기 디바이스는, 통신 인터페이스, 메모리 및 상기 통신 인터페이스 및 상기 메모리와 동작 가능하게 연결된 프로세서를 포함하고, 상기 프로세서는, 태아에 대한 초음파 영상을 획득하고, 상기 초음파 영상에서 상기 태아의 머리를 결정하고, 머리에 대한 초음파 영상에서 머리 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 머리에 대한 초음파 영상 중 기 설정된 머리 영역 분류 결과를 예측하고, 머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 머리 영역에 대한 초음파 영상을 입력하여 해당 초음파 영상의 표준 평면 확률을 예측하고, 상기 표준 평면 확률을 기초로 상기 태아의 머리에 대한 표준 평면을 결정하도록 구성된다. In order to solve the problems described above, a device for providing standard planar information according to another embodiment of the present invention is provided. The device includes a communication interface, a memory, and a processor operably connected to the communication interface and the memory, wherein the processor acquires an ultrasound image of the fetus, determines the head of the fetus from the ultrasound image, and Predict a preset head region classification result among the ultrasound images of the head using a first prediction model learned to classify the head region in the ultrasound image of the head, and use the ultrasound image of the head region as an input to create a standard plane An ultrasound image for the head region classified according to the classification result is input to a second prediction model trained to predict the probability, the standard plane probability of the ultrasound image is predicted, and the fetal head is based on the standard plane probability. It is configured to determine the standard plane for .

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 또 다른 실시예에 따른 대상체에 대한 표준 평면 정보 제공 방법이 제공된다. 상기 방법은, 개체 일 영역에 대한 초음파 영상을 획득하는 단계, 상기 초음파 영상에서 진단 대상을 결정하는 단계, 진단 대상에 대한 초음파 영상에서 진단 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 진단 대상에 대한 초음파 영상 중 기 설정된 진단 영역 분류 결과를 예측하는 단계, 진단 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 진단 영역에 대한 초음파 영상을 입력하여 상기 진단 대상의 표준 평면 확률을 예측하는 단계 및 상기 표준 평면 확률을 기초로 상기 진단 대상에 대한 표준 평면을 결정하는 단계를 포함하도록 구성된다. In order to solve the problems described above, a method of providing standard plane information about an object according to another embodiment of the present invention is provided. The method includes obtaining an ultrasound image for an area of an object, determining a diagnosis object in the ultrasound image, and using a first prediction model learned to classify a diagnosis region in an ultrasound image for the diagnosis object. Predicting the result of classifying a preset diagnostic area among ultrasound images for a diagnosis object, a diagnosis classified according to the classification result to a second prediction model learned to predict a standard plane probability using the ultrasound image for the diagnosis area as input. It is configured to include predicting a standard plane probability of the diagnostic object by inputting an ultrasound image for a region, and determining a standard plane for the diagnostic object based on the standard plane probability.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

본 발명은 동적인 대상체의 움직임에 따른 구조적 특징 변화를 학습함으로써, 단순히 초음파 영상의 단일 프레임만으로 표준 평면을 예측하는 방법보다 정확하게 대상체의 표준 평면을 예측할 수 있다. The present invention can predict the standard plane of an object more accurately than a method of predicting the standard plane simply using a single frame of an ultrasound image by learning changes in structural characteristics according to the dynamic movement of the object.

또한, 본 발명은 학습된 예측 모델을 통해 어느 하나의 프레임이 표준 평면에 해당할 확률 정보를 제공함으로써, 의료진의 빠른 평가(진단)에 도움을 줄 수 있다. 특히, 의료진의 숙련도에 따른 평가 정확도 편차를 최소화할 수 있다. Additionally, the present invention can assist medical staff in quick evaluation (diagnosis) by providing probability information that one frame corresponds to a standard plane through a learned prediction model. In particular, it is possible to minimize the deviation in evaluation accuracy depending on the skill level of the medical staff.

또한, 본 발명은 태아 장기의 장애/기형/예상 질환을 산전에 조기 발견할 수 있도록 정확도 높은 표준 평면 정보를 제공할 수 있으며, 이 외에도 초음파 장치를 통해 검사 가능한 다양한 신체 부위, 진단 영역에 대한 표준 평면 정보를 제공할 수 있다. In addition, the present invention can provide highly accurate standard plane information for early prenatal detection of disorders/deformities/expected diseases of fetal organs, and in addition, standards for various body parts and diagnostic areas that can be examined through an ultrasound device. Can provide planar information.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effects according to the present invention are not limited to the details exemplified above, and further various effects are included within the present invention.

도 1은 본 발명의 일 실시예에 따른 표준 평면 정보 제공 방법의 개요를 나타낸 개략도이다.
도 2는 본 발명의 일 실시예에 따른 표준 평면 정보 제공 시스템의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 의료진 디바이스의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 표준 평면 정보 제공용 디바이스의 구성을 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법에 대한 개략적인 순서도이다.
도 6은 본 발명의 일 실시예에 따른 태아의 머리 영역을 결정하는 방법을 예시적으로 나타낸 개략도이다.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법에 이용되는 제1 예측 모델의 구조를 예시적으로 나타낸 개략도이다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법에 이용되는 제2 예측 모델의 구조를 예시적으로 나타낸 개략도이다.
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법의 결과를 예시적으로 나타낸 개략도이다.
1 is a schematic diagram illustrating an outline of a method for providing standard plane information according to an embodiment of the present invention.
Figure 2 is a schematic diagram of a standard plan information providing system according to an embodiment of the present invention.
Figure 3 is a block diagram showing the configuration of a medical staff device according to an embodiment of the present invention.
Figure 4 is a block diagram showing the configuration of a device for providing standard planar information according to an embodiment of the present invention.
Figure 5 is a schematic flowchart of a method for providing standard plane information of an object according to an embodiment of the present invention.
Figure 6 is a schematic diagram illustrating a method for determining the head area of a fetus according to an embodiment of the present invention.
7A and 7B are schematic diagrams exemplarily showing the structure of a first prediction model used in a method of providing standard plane information of an object according to an embodiment of the present invention.
8A and 8B are schematic diagrams exemplarily showing the structure of a second prediction model used in a method of providing standard plane information of an object according to an embodiment of the present invention.
9A and 9B are schematic diagrams exemplarily showing the results of a method for providing standard plane information of an object according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms, but the present embodiments only serve to ensure that the disclosure of the present invention is complete and are within the scope of common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, similar reference numbers may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as “have,” “may have,” “includes,” or “may include” refer to the existence of the corresponding feature (e.g., a numerical value, function, operation, or component such as a part). , and does not rule out the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A or/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document can modify various components regardless of order and/or importance, and can refer to one component. It is only used to distinguish from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, the first component may be renamed as the second component without departing from the scope of rights described in this document, and similarly, the second component may also be renamed as the first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is “(operatively or communicatively) coupled with/to” another component (e.g., a second component). When referred to as being “connected to,” it should be understood that any component may be directly connected to the other component or may be connected through another component (e.g., a third component). On the other hand, when a component (e.g., a first component) is said to be “directly connected” or “directly connected” to another component (e.g., a second component), It may be understood that no other component (e.g., a third component) exists between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression “configured to” depends on the situation, for example, “suitable for,” “having the capacity to.” ," can be used interchangeably with "designed to," "adapted to," "made to," or "capable of." The term “configured (or set to)” may not necessarily mean “specifically designed to” in hardware. Instead, in some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components. For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as generally understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this document, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or fully combined or combined with each other, and as can be fully understood by those skilled in the art, various technical interconnections and operations are possible, and each embodiment may be implemented independently of each other. It may be possible to conduct them together due to a related relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of this specification, terms used in this specification will be defined below.

본 명세서 사용되는 용어, "개체"는 초음파 검사를 통해 진단 영역에 대한 정보를 제공받고자 하는 모든 대상을 의미할 수 있다. 예를 들어, 개체는, 산모일 수 있으며, 진단 영역은 자궁일 수 있다. 다른 예를 들어, 개체는, 환자일 수 있으며, 진단 영역은 복부, 다리 관절일 수도 있다. 한편, 본 명세서 내에 개시된 개체는, 인간을 제외한 모든 포유 동물일 수 있으나, 이에 제한되는 것은 아니다.As used herein, the term “subject” may refer to any subject who wishes to receive information about a diagnostic area through ultrasound examination. For example, the subject may be a mother and the diagnostic area may be the uterus. For another example, the subject may be a patient, and the diagnostic area may be the abdomen or leg joints. Meanwhile, the entity disclosed in this specification may be any mammal except human, but is not limited thereto.

본 명세서에서 사용되는 용어, “초음파 영상”은 복수 개의 컷(프레임)으로 구성된 동영상일 수 있다. 그에 따라, 본 발명은 표준 평면 정보 제공용 디바이스로부터 초음파 영상의 수신과 동시에 표준 평면 정보 예측 결과를 스트리밍 서비스 형태로 제공할 수 있다. The term “ultrasound image” used in this specification may be a video consisting of a plurality of cuts (frames). Accordingly, the present invention can provide standard planar information prediction results in the form of a streaming service at the same time as receiving an ultrasound image from a device for providing standard planar information.

본 명세서 사용되는 용어, “제1 예측 모델”은 머리에 대한 초음파 영상 및 인덱스 맵을 입력으로 하여 기 설정된 머리 영역 분류 결과를 예측하도록 학습된 모델일 수 있다. 예를 들어, 머리 영역 분류 결과는 초음파 영상을 구성하는 어느 하나의 프레임이 제1 내지 제3 영역 중 어느 하나의 영역에 해당하는지 예측한 결과일 수 있다. 다만, 여기서 기 설정된 영역 분류 결과는 대상체와 진단 영역에 따라 상이할 수 있다. As used herein, the term “first prediction model” may be a model learned to predict a preset head region classification result using an ultrasound image of the head and an index map as input. For example, the head region classification result may be the result of predicting whether any one frame constituting the ultrasound image corresponds to any one of the first to third regions. However, the preset region classification results here may differ depending on the object and diagnosis region.

본 명세서 사용되는 용어, “제2 예측 모델”은 머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 모델일 수 있다. 예를 들어, 제2 예측 모델은 기 설정된 머리 영역 별로 표준 평면 확률을 예측할 수 있으며, 확률 값이 가장 높은 하나의 프레임이 머리에 대한 표준 평면으로 결정될 수 있다. As used herein, the term “second prediction model” may be a model learned to predict the standard plane probability using an ultrasound image of the head region as input. For example, the second prediction model may predict the standard plane probability for each preset head region, and one frame with the highest probability value may be determined as the standard plane for the head.

본 명세서 사용되는 용어, “제3 예측 모델”은 초음파 영상을 입력으로 하여 머리를 검출하도록 학습된 모델일 수 있다. 예를 들어, 제3 예측 모델은 초음파 영상을 구성하는 프레임 내에서 타원형의 태아 머리를 분할할 수 있다. The term “third prediction model” used herein may be a model learned to detect the head using ultrasound images as input. For example, the third prediction model can segment the oval-shaped fetal head within the frames that make up the ultrasound image.

한편, 제1 및 제2 예측 모델은 양방향 GRU(bi-directional gated recurrent unit) 또는 양방향 LSTM(bi-directional long short term memory)와 같은 순환 신경망을 포함하는 모델일 수 있다. 또한, 제3 예측 모델은 이미지에서 객체를 추론(검출)하도록 학습된 모델, U-net일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 예측 모델들은 VGG net, DenseNet 및, encoder-decoder structure를 갖는 FCN (Fully Convolutional Network), SegNet, DeconvNet, DeepLAB V3+와 같은 DNN (deep neural network), SqueezeNet, Alexnet, ResNet18, MobileNet-v2, GoogLeNet, Resnet-v2, Resnet50, RetinaNet, Resnet101, Inception-v3 중 선택된 적어도 하나의 네트워크 모델에 기초할 수 있다. 나아가, 제1 내지 제3 예측 모델들은 전술한 알고리즘 중 적어도 두 개의 네트워크 모델에 기초한 앙상블 모델일 수 도 있다.Meanwhile, the first and second prediction models may be models including a recurrent neural network such as a bi-directional gated recurrent unit (GRU) or a bi-directional long short term memory (LSTM). Additionally, the third prediction model may be U-net, a model learned to infer (detect) objects in images, but is not limited thereto. For example, prediction models include VGG net, DenseNet, FCN (Fully Convolutional Network) with encoder-decoder structure, SegNet, DeconvNet, deep neural networks (DNN) such as DeepLAB V3+, SqueezeNet, Alexnet, ResNet18, MobileNet-v2 It may be based on at least one network model selected from , GoogLeNet, Resnet-v2, Resnet50, RetinaNet, Resnet101, and Inception-v3. Furthermore, the first to third prediction models may be ensemble models based on at least two network models among the above-described algorithms.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 표준 평면 정보 제공 방법의 개요를 나타낸 개략도이다. 1 is a schematic diagram illustrating an outline of a method for providing standard plane information according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 표준 평면 제공 방법은 크게 3가지 단계로 구분될 수 있다. 구체적으로, 본 발명의 표준 평면 제공 방법은 대상체에 대한 초음파 영상을 구성하는 복수의 프레임(input frames)에서 진단 영역만을 추출해낼 수 있다(step 1). 여기서, 진단 영역만을 추출한다는 것은 이미지 프레임에서 관심 영역(ROI, Region of interest)에 대응되는 진단 영역을 검출하여, 해당 영역만을 잘라내어 하나의 패치(patch)를 생성하는 것으로 이해될 수 있다. Referring to FIG. 1, the method for providing a standard plane according to an embodiment of the present invention can be largely divided into three steps. Specifically, the method for providing a standard plane of the present invention can extract only the diagnostic area from a plurality of frames (input frames) constituting an ultrasound image of an object (step 1). Here, extracting only the diagnostic area can be understood as detecting a diagnostic area corresponding to a region of interest (ROI) in an image frame and cutting out only the corresponding area to create a patch.

진단 영역을 토대로 초음파 영상을 복수의 영역(zone)으로 분류할 수 있으며(step 2), 이 과정에서 대상체에 대한 맥락적 단서(supplementary contextual information)(DSSIM map)가 적용될 수 있다. 맥락적 단서란 초음파 검사를 진행하는 동안 대상체의 움직임과 프로브의 움직임을 고려하여, 대상체의 구조가 어떻게 변화하는지 예측되는 정보를 의미할 수 있다. 즉, 본 발명은 의료진이 초음파 검사를 실제로 진행하는 동안, 태아의 머리가 예를 들어, Falx/Cranium, Lateral ventricle/Choroid plexus, Glomus/Lateral ventricle, Ambient cistern/Thalamus, Ambient cistern/Cerebellum, Cerebellum/Cisterna magna를 포함하는 영역 내에서 어떻게 전환이 진행되었는지, 그 전환 양상을 맵 형태로 생성하여 영역을 분류할 수 있다. Based on the diagnostic area, the ultrasound image can be classified into multiple zones (step 2), and in this process, supplementary contextual information (DSSIM map) about the object can be applied. Contextual clues may refer to information that predicts how the structure of an object changes by considering the movement of the object and the movement of the probe during an ultrasound examination. In other words, the present invention allows medical staff to actually perform an ultrasound examination while the head of the fetus, for example, Falx/Cranium, Lateral ventricle/Choroid plexus, Glomus/Lateral ventricle, Ambient cistern/Thalamus, Ambient cistern/Cerebellum, Cerebellum/ It is possible to classify the area by creating a map of how the conversion occurred within the area containing Cisterna magna and the aspects of the conversion.

그리고 최종적으로, 본 발명은 영역 별 프레임들이 표준 평면에 해당할 확률을 계산하고, 확률 값을 기초로 표준 평면을 결정할 수 있다(step 3). 본 발명의 일 실시예에서, 표준 평면은 표준 TV 평면(Transventricular plane), 표준 TT 평면(Transthalamic plane) 및 표준 TC 평면(Transcerebella plane)을 포함하나, 이 외에도 대상체 및 진단 영역에 따라 표준 평면은 다양한 축을 기준으로 결정될 수 있다. And finally, the present invention can calculate the probability that the frames for each region correspond to the standard plane and determine the standard plane based on the probability value (step 3). In one embodiment of the present invention, the standard plane includes a standard TV plane (Transventricular plane), a standard TT plane (Transthalamic plane), and a standard TC plane (Transcerebella plane). In addition, the standard plane includes various planes depending on the object and diagnostic area. It can be determined based on the axis.

지금까지 본 발명의 일 실시예에 따른 표준 평면 정보 제공 방법의 개요를 개략적으로 설명하였으며, 이하 이를 수행하는 시스템에 대하여 설명하도록 한다. So far, the outline of the method for providing standard plane information according to an embodiment of the present invention has been briefly described, and the system that performs this will now be described.

도 2는 본 발명의 일 실시예에 따른 표준 평면 정보 제공 시스템의 개략도이다.Figure 2 is a schematic diagram of a standard plan information providing system according to an embodiment of the present invention.

도 2를 참조하면, 표준 평면 정보 제공 시스템(1000)(이하, “평면 제공 시스템”이라 함)은 대상체에 대한 표준 평면 정보를 제공하도록 구성된 시스템일 수 있다. 평면 제공 시스템(1000)은 표준 평면 정보를 수신 및 출력하는 의료진 디바이스(100), 진단 영역에 대한 초음파 영상을 획득하는 초음파 디바이스(200) 및 초음파 영상을 기초로 표준 평면 정보를 생성하는 표준 평면 정보 제공용 디바이스(300)를 포함할 수 있다. Referring to FIG. 2, the standard plane information providing system 1000 (hereinafter referred to as the “plane providing system”) may be a system configured to provide standard plane information about an object. The plane providing system 1000 includes a medical staff device 100 that receives and outputs standard plane information, an ultrasound device 200 that acquires an ultrasound image of the diagnostic area, and a standard plane information that generates standard plane information based on the ultrasound image. It may include a provision device 300.

의료진 디바이스(100)는 진단 영역과 관련된 정보를 확인하고, 대상체에 대한 진단을 수행하는 의료진이 소지한 디바이스로, 스마트폰, 태블릿 PC, PC, 노트북 등을 포함할 수 있다. 구체적으로, 의료진 디바이스(100)는 대상체의 진단 영역과 관련된 정보를 출력하는 사용자 인터페이스를 제공할 수 있다. The medical staff device 100 is a device owned by a medical staff who checks information related to the diagnostic area and performs a diagnosis on an object, and may include a smartphone, tablet PC, PC, laptop, etc. Specifically, the medical staff device 100 may provide a user interface that outputs information related to the diagnostic area of the subject.

초음파 디바이스(200)는 대상체의 진단 영역에 대한 의료 영상을 획득할 수 있는 장치일 수 있다. 본 발명에서는 설명의 편의를 위해 대상체가 산모이고, 진단 영역이 자궁-태아인 것으로 가정한다. The ultrasound device 200 may be a device that can acquire a medical image of a diagnostic area of an object. In the present invention, for convenience of explanation, it is assumed that the subject is a mother and the diagnosis area is the uterus-fetus.

표준 평면 정보 제공용 디바이스(300)는 초음파 디바이스(200)로부터 제공된 초음파 영상을 기초로 태아의 머리에 대한 표준 평면을 예측할 수 있다. 예를 들어, 표준 평면 정보 제공용 디바이스(300)는 이미지를 입력 받아 머리 영역 검출, 영역 분류 및 표준 평면 확률 예측 중 어느 하나의 추론을 수행할 수 있는 범용 컴퓨터, 랩탑 및 데이터 서버 등을 포함할 수 있다. The device 300 for providing standard plane information may predict the standard plane for the head of the fetus based on the ultrasound image provided from the ultrasound device 200. For example, the device 300 for providing standard plane information may include a general-purpose computer, a laptop, and a data server that can receive an image and perform inference on any one of head region detection, region classification, and standard plane probability prediction. You can.

다양한 실시예에서, 표준 평면 정보 제공용 디바이스(300)는 태아에 대한 초음파 영상을 획득하고, 초음파 영상에서 태아의 머리를 결정하고, 제1 예측 모델을 이용하여 기 설정된 머리 영역 분류 결과를 예측하고, 제2 예측 모델을 이용하여 초음파 영상의 표준 평면 확률을 예측한 뒤, 표준 평면 확률을 기초로 태아의 머리에 대한 표준 평면을 결정할 수 있다. In various embodiments, the device 300 for providing standard planar information acquires an ultrasound image of the fetus, determines the head of the fetus from the ultrasound image, predicts a preset head region classification result using a first prediction model, and , the standard plane probability of the ultrasound image can be predicted using the second prediction model, and then the standard plane for the fetal head can be determined based on the standard plane probability.

아울러, 표준 평면 정보 제공용 디바이스(300)와 의료진 디바이스(100)는 각각 클라이언트-서비스 제공 서버에 대응되며, 그에 따라 표준 평면 정보 제공용 디바이스(300)는 웹 또는 모바일 어플리케이션 또는 프로그램을 통해 의료진 디바이스(100)로 표준 평면 정보를 제공할 수 있다. In addition, the standard flat information providing device 300 and the medical staff device 100 each correspond to a client-service providing server, and accordingly, the standard flat information providing device 300 is connected to the medical staff device through a web or mobile application or program. (100) can provide standard plane information.

다양한 실시예에서, 표준 평면 정보 제공용 디바이스(300)에서 수행하는 기능은 의료진 디바이스(100)에서 수행될 수 있다. 즉, 평면 제공 시스템(1000)은 의료진 디바이스(100)와 초음파 디바이스(200)만으로 구성되어, 의료진 디바이스(100)가 초음파 영상 및 태아의 검사에 대한 맥락적 단서를 기초로 태아의 머리에 대한 표준 평면 정보를 결정할 수도 있다. In various embodiments, functions performed by the standard planar information providing device 300 may be performed by the medical staff device 100. That is, the planar provision system 1000 consists only of the medical staff device 100 and the ultrasound device 200, and the medical staff device 100 provides a standard for the fetal head based on the ultrasound image and contextual clues for the examination of the fetus. Plane information can also be determined.

지금까지 본 발명의 일 실시예에 따른 평면 제공 시스템(1000)에 대하여 설명하였으며, 이하에서는 도 3 및 도 4를 참조하여 대상체에 대한 표준 평면 정보를 획득 및 제공하는 디바이스에 대하여 설명하도록 한다. So far, the plane providing system 1000 according to an embodiment of the present invention has been described, and hereinafter, a device for obtaining and providing standard plane information about an object will be described with reference to FIGS. 3 and 4.

도 3은 본 발명의 일 실시예에 따른 의료진 디바이스의 구성을 나타낸 블록도이다.Figure 3 is a block diagram showing the configuration of a medical staff device according to an embodiment of the present invention.

도 3을 참조하면, 의료진 디바이스(100)는 메모리 인터페이스(110), 하나 이상의 프로세서(120) 및 주변 인터페이스(130)를 포함할 수 있다. 식별자 디바이스(100) 내의 다양한 컴포넌트들은 하나 이상의 통신 버스 또는 신호 라인에 의해 연결될 수 있다.Referring to FIG. 3 , the medical staff device 100 may include a memory interface 110, one or more processors 120, and a peripheral interface 130. The various components within identifier device 100 may be connected by one or more communication buses or signal lines.

메모리 인터페이스(110)는 메모리(150)에 연결되어 프로세서(120)로 다양한 데이터를 전할 수 있다. 여기서, 메모리(150)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory interface 110 is connected to the memory 150 and can transmit various data to the processor 120. Here, the memory 150 is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage, and cloud. , It may include at least one type of storage medium among the blockchain database.

다양한 실시예에서, 메모리(150)는 머리에 대한 초음파 영상을 구성하는 복수의 프레임 각각을 기 설정된 영역 별로 분류하기 위한 제1 예측 모델, 초음파 영상을 구성하는 일부의 프레임이 표준 평면에 해당할 확률을 예측하기 위한 제2 예측 모델, 초음파 영상에서 태아의 머리를 검출하기 위한 제3 예측 모델을 저장할 수 있다. 또한, 메모리(150)는 제1 내지 제3 모델의 학습 데이터 및 초음파 디바이스(200)로부터 수신된 초음파 영상을 저장할 수 있다. In various embodiments, the memory 150 may include a first prediction model for classifying each of a plurality of frames constituting an ultrasound image of the head into preset regions, and a probability that some frames constituting the ultrasound image correspond to a standard plane. A second prediction model for predicting and a third prediction model for detecting the fetal head in an ultrasound image can be stored. Additionally, the memory 150 may store training data for the first to third models and ultrasound images received from the ultrasound device 200.

다양한 실시예에서, 메모리(150)는 운영 체제(151), 통신 모듈(152), 그래픽 사용자 인터페이스 모듈(GUI)(153), 센서 처리 모듈(154), 전화 모듈(155) 및 애플리케이션 모듈(156) 중 적어도 하나 이상을 저장할 수 있다. 구체적으로, 운영 체제(151)는 기본 시스템 서비스를 처리하기 위한 명령어 및 하드웨어 작업들을 수행하기 위한 명령어를 포함할 수 있다. 통신 모듈(152)은 다른 하나 이상의 디바이스, 컴퓨터 및 서버 중 적어도 하나와 통신할 수 있다. 그래픽 사용자 인터페이스 모듈(GUI)(153)은 그래픽 사용자 인터페이스를 처리할 수 있다. 센서 처리 모듈(154)은 센서 관련 기능(예를 들어, 하나 이상의 마이크(192)를 통해 수신된 음성 입력을 처리함)을 처리할 수 있다. 전화 모듈(155)은 전화 관련 기능을 처리할 수 있다. 애플리케이션 모듈(156)은 사용자 애플리케이션의 다양한 기능들, 예컨대 전자 메시징, 웹 브라우징, 미디어 처리, 탐색, 이미징, 기타 프로세스 기능을 수행할 수 있다. 아울러, 식별자 디바이스(100)는 메모리(150)에 어느 한 종류의 서비스와 연관된 하나 이상의 소프트웨어 애플리케이션(156-1, 156-2)(예. 표준 평면 정보 제공 어플리케이션)을 저장할 수 있다.In various embodiments, memory 150 includes operating system 151, communications module 152, graphical user interface module (GUI) 153, sensor processing module 154, telephony module 155, and application module 156. ) can be stored. Specifically, the operating system 151 may include instructions for processing basic system services and instructions for performing hardware tasks. The communication module 152 may communicate with at least one of one or more other devices, computers, and servers. The graphical user interface module (GUI) 153 can process a graphical user interface. Sensor processing module 154 may process sensor-related functions (e.g., processing voice input received through one or more microphones 192). The phone module 155 can process phone-related functions. Application module 156 may perform various functions of a user application, such as electronic messaging, web browsing, media processing, navigation, imaging, and other processing functions. In addition, the identifier device 100 may store one or more software applications 156-1 and 156-2 (eg, a standard flat information providing application) associated with one type of service in the memory 150.

다양한 실시예에서, 메모리(150)는 디지털 어시스턴트 클라이언트 모듈(157)(이하, DA 클라이언트 모듈)을 저장할 수 있으며, 그에 따라 디지털 어시스턴트의 클라이언트 측의 기능을 수행하기 위한 명령어 및 다양한 사용자 데이터(158)(예. 사용자 맞춤형 어휘 데이터, 선호도 데이터, 사용자의 전자 주소록 등과 같은 기타 데이터)를 저장할 수 있다. In various embodiments, memory 150 may store a digital assistant client module 157 (hereinafter referred to as DA client module), thereby storing various user data 158 and instructions for performing client-side functions of the digital assistant. (e.g. user-customized vocabulary data, preference data, other data such as the user's electronic address book, etc.) may be stored.

한편, DA 클라이언트 모듈(157)은 의료진 디바이스(100)에 구비된 다양한 사용자 인터페이스(예. I/O 서브시스템(140))를 통해 사용자의 음성 입력, 텍스트 입력, 터치 입력 및/또는 제스처 입력을 획득할 수 있다. Meanwhile, the DA client module 157 uses the user's voice input, text input, touch input, and/or gesture input through various user interfaces (e.g., I/O subsystem 140) provided in the medical staff device 100. It can be obtained.

또한, DA 클라이언트 모듈(157)은 시청각적, 촉각적 형태의 데이터를 출력할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 음성, 소리, 알림, 텍스트 메시지, 메뉴, 그래픽, 비디오, 애니메이션 및 진동 중 적어도 둘 하나 이상의 조합으로 이루어진 데이터를 출력할 수 있다. 아울러, DA 클라이언트 모듈(157)은 통신 서브시스템(180)을 이용하여 디지털 어시스턴트 서버(미도시)와 통신할 수 있다.Additionally, the DA client module 157 can output data in audiovisual and tactile forms. For example, the DA client module 157 may output data consisting of a combination of at least two or more of voice, sound, notification, text message, menu, graphics, video, animation, and vibration. In addition, the DA client module 157 can communicate with a digital assistant server (not shown) using the communication subsystem 180.

다양한 실시예에서, DA 클라이언트 모듈(157)은 사용자 입력과 연관된 상황(context)을 구성하기 위하여 다양한 센서, 서브시스템 및 주변 디바이스로부터 의료진 디바이스(100)의 주변 환경에 대한 추가 정보를 수집할 수 있다. 예를 들어, DA 클라이언트 모듈(157)은 사용자 입력과 함께 상황 정보를 디지털 어시스턴트 서버에 제공하여 사용자의 의도를 추론할 수 있다. 여기서, 사용자 입력에 동반될 수 있는 상황 정보는 센서 정보, 예를 들어, 광(lighting), 주변 소음, 주변 온도, 주변 환경의 이미지, 비디오 등을 포함할 수 있다. 다른 예를 들어, 상황 정보는 의료진 디바이스(100)의 물리적 상태(예. 디바이스 배향, 디바이스 위치, 디바이스 온도, 전력 레벨, 속도, 가속도, 모션 패턴, 셀룰러 신호 강도 등)을 포함할 수 있다. 또 다른 예를 들어, 상황 정보는 의료진 디바이스(100)의 소프트웨어 상태에 관련된 정보(예. 의료진 디바이스(100)에서 실행 중인 프로세스, 설치된 프로그램, 과거 및 현재 네트워크 활동성, 백그라운드 서비스, 오류 로그, 리소스 사용 등)를 포함할 수 있다. In various embodiments, the DA client module 157 may collect additional information about the surrounding environment of the medical staff device 100 from various sensors, subsystems, and peripheral devices to construct a context associated with user input. . For example, the DA client module 157 may infer the user's intention by providing context information along with user input to the digital assistant server. Here, context information that may accompany the user input may include sensor information, for example, lighting, ambient noise, ambient temperature, images of the surrounding environment, video, etc. As another example, the situation information may include the physical state of the medical staff device 100 (e.g., device orientation, device location, device temperature, power level, speed, acceleration, motion pattern, cellular signal strength, etc.). As another example, the context information may include information related to the software status of the medical staff device 100 (e.g., processes running on the medical staff device 100, installed programs, past and present network activity, background services, error logs, resource usage). etc.) may be included.

다양한 실시예에서, 메모리(150)는 추가 또는 삭제된 명령어를 포함할 수 있으며, 나아가 의료진 디바이스(100)도 도 3에 도시된 구성 외에 추가 구성을 포함하거나, 일부 구성을 제외할 수도 있다. In various embodiments, the memory 150 may include added or deleted instructions, and further, the medical staff device 100 may also include additional components other than those shown in FIG. 3 or exclude some components.

프로세서(120)는 의료진 디바이스(100)의 전반적인 동작을 제어할 수 있으며, 메모리(150)에 저장된 어플리케이션 또는 프로그램을 구동하여 표준 평면과 연관된 정보를 제공하는 사용자 인터페이스를 구현하기 위한 다양한 명령들을 수행할 수 있다. The processor 120 can control the overall operation of the medical staff device 100 and executes various commands to implement a user interface that provides information related to the standard plane by running an application or program stored in the memory 150. You can.

프로세서(120)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(120)는 NPU(Neural Processing Unit)과 같이 기계 학습을 수행하는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. The processor 120 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). In addition, the processor 120 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) that integrates various computing devices that perform machine learning, such as a neural processing unit (NPU). .

다양한 실시예에서, 프로세서(120)는 태아에 대한 초음파 영상을 획득하고, 초음파 영상에서 태아의 머리를 결정하고, 제1 예측 모델을 이용하여 기 설정된 머리 영역 분류 결과를 예측하고, 제2 예측 모델을 이용하여 초음파 영상의 표준 평면 확률을 예측한 뒤, 표준 평면 확률을 기초로 태아의 머리에 대한 표준 평면을 결정할 수 있다. In various embodiments, the processor 120 acquires an ultrasound image of the fetus, determines the head of the fetus from the ultrasound image, predicts a preset head region classification result using a first prediction model, and uses a second prediction model. After predicting the standard plane probability of the ultrasound image, the standard plane for the fetal head can be determined based on the standard plane probability.

주변 인터페이스(130)는 다양한 센서, 서브 시스템 및 주변 디바이스와 연결되어, 의료진 디바이스(100)가 다양한 기능을 수행할 수 있도록 데이터를 제공해 줄 수 있다. 여기서, 의료진 디바이스(100)가 어떠한 기능을 수행한다는 것은 프로세서(120)에 의해 수행되는 것으로 이해될 수 있다. The peripheral interface 130 is connected to various sensors, subsystems, and peripheral devices, and can provide data so that the medical staff device 100 can perform various functions. Here, any function performed by the medical staff device 100 may be understood as being performed by the processor 120.

주변 인터페이스(130)는 모션 센서(160), 조명 센서(광 센서)(161) 및 근접 센서(162)로부터 데이터를 제공받을 수 있으며, 이를 통해, 의료진 디바이스(100)는 배향, 광, 및 근접 감지 기능 등을 수행할 수 있다. 다른 예를 들어, 주변 인터페이스(130)는 기타 센서들(163)(포지셔닝 시스템-GPS 수신기, 온도 센서, 생체인식 센서)로부터 데이터를 제공받을 수 있으며, 이를 통해 의료진 디바이스(100)가 기타 센서들(163)과 관련된 기능들을 수행할 수 있다.The peripheral interface 130 may receive data from the motion sensor 160, the light sensor (light sensor) 161, and the proximity sensor 162, through which the medical staff device 100 can determine orientation, light, and proximity. It can perform detection functions, etc. For another example, the peripheral interface 130 may receive data from other sensors 163 (positioning system-GPS receiver, temperature sensor, biometric sensor), through which the medical staff device 100 may use other sensors. Functions related to (163) can be performed.

다양한 실시예에서, 의료진 디바이스(100)는 주변 인터페이스(130)와 연결된 카메라 서브시스템(170) 및 이와 연결된 광학 센서(171)를 포함할 수 있으며, 이를 통해 의료진 디바이스(100)는 사진 촬영 및 비디오 클립 녹화 등의 다양한 촬영 기능을 수행할 수 있다. In various embodiments, the medical staff device 100 may include a camera subsystem 170 connected to the peripheral interface 130 and an optical sensor 171 connected thereto, through which the medical staff device 100 can take pictures and video. You can perform various shooting functions such as clip recording.

다양한 실시예에서, 의료진 디바이스(100)는 주변 인터페이스(130)와 연결된 통신 서브 시스템(180)을 포함할 수 있다. 통신 서브 시스템(180)은 하나 이상의 유/무선 네트워크로 구성되며, 다양한 통신 포트, 무선 주파수 송수신기, 광학 송수신기를 포함할 수 있다.In various embodiments, medical staff device 100 may include a communication subsystem 180 coupled to a peripheral interface 130 . The communication subsystem 180 consists of one or more wired/wireless networks and may include various communication ports, radio frequency transceivers, and optical transceivers.

다양한 실시예에서, 의료진 디바이스(100)는 주변 인터페이스(130)와 연결된 오디오 서브 시스템(190)을 포함하며, 이러한 오디오 서브 시스템(190)은 하나 이상의 스피커(191) 및 하나 이상의 마이크(192)를 포함함으로써, 의료진 디바이스(100)는 음성 작동형 기능, 예컨대 음성 인식, 음성 복제, 디지털 녹음, 및 전화 기능 등을 수행할 수 있다.In various embodiments, medical staff device 100 includes an audio subsystem 190 coupled to a peripheral interface 130, which includes one or more speakers 191 and one or more microphones 192. By including them, medical staff device 100 can perform voice-activated functions, such as voice recognition, voice duplication, digital recording, and telephony functions.

다양한 실시예에서, 의료진 디바이스(100)는 주변 인터페이스(130)와 연결된 I/O 서브시스템(140)을 포함할 수 있다. 예를 들어, I/O 서브시스템(140)은 터치 스크린 제어기(141)를 통해 식별자 디바이스(100)에 포함된 터치 스크린(143)을 제어할 수 있다. In various embodiments, medical staff device 100 may include an I/O subsystem 140 coupled with a peripheral interface 130. For example, the I/O subsystem 140 may control the touch screen 143 included in the identifier device 100 through the touch screen controller 141.

예를 들어, 터치 스크린 제어기(141)는 정전용량형, 저항형, 적외형, 표면 탄성파 기술, 근접 센서 어레이 등과 같은 복수의 터치 감지 기술 중 어느 하나의 기술을 사용하여 사용자의 접촉 및 움직임 또는 접촉 및 움직임의 중단을 검출할 수 있다. 다른 예를 들어, I/O 서브시스템(140)은 기타 입력 제어기(들)(142)를 통해 식별자 디바이스(100)에 포함된 기타 입력/제어 디바이스(144)를 제어할 수 있다. 일 예로서, 기타 입력 제어기(들)(142)은 하나 이상의 버튼, 로커 스위치(rocker switches), 썸 휠(thumb-wheel), 적외선 포트, USB 포트 및 스타일러스 등과 같은 포인터 디바이스를 제어할 수 있다.For example, the touch screen controller 141 uses any one of a plurality of touch sensing technologies such as capacitive, resistive, infrared, surface acoustic wave technology, proximity sensor array, etc. to detect the user's touch and movement or contact. and cessation of movement can be detected. As another example, the I/O subsystem 140 may control other input/control devices 144 included in the identifier device 100 through other input controller(s) 142. As an example, other input controller(s) 142 may control one or more buttons, rocker switches, thumb-wheels, infrared ports, USB ports, and pointer devices such as a stylus.

도 4는 본 발명의 일 실시예에 따른 표준 평면 정보 제공용 디바이스의 구성을 나타낸 블록도이다. Figure 4 is a block diagram showing the configuration of a device for providing standard planar information according to an embodiment of the present invention.

도 4를 참조하면, 표준 평면 정보 제공용 디바이스(300)는 통신 인터페이스(310), 메모리(320), I/O 인터페이스(330) 및 프로세서(340)를 포함할 수 있으며, 각 구성은 하나 이상의 통신 버스 또는 신호 라인을 통해 서로 통신할 수 있다.Referring to FIG. 4, the device 300 for providing standard flat information may include a communication interface 310, a memory 320, an I/O interface 330, and a processor 340, and each component includes one or more They can communicate with each other through communication buses or signal lines.

통신 인터페이스(310)는 유/무선 통신 네트워크를 통해 의료진 디바이스(100) 및 초음파 디바이스(200)와 연결되어 데이터를 주고받을 수 있다. 예를 들어, 통신 인터페이스(310)는 의료진 디바이스(100)로 태아의 머리에 대한 표준 평면 정보를 송신할 수 있다. 다른 예를 들어, 통신 인터페이스(310)는 초음파 디바이스(200)로부터 산모의 자궁에 대한 초음파 영상을 실시간으로 수신할 수 있다. The communication interface 310 can be connected to the medical staff device 100 and the ultrasound device 200 through a wired/wireless communication network to exchange data. For example, the communication interface 310 may transmit standard plane information about the fetal head to the medical staff device 100 . For another example, the communication interface 310 may receive an ultrasound image of the mother's uterus from the ultrasound device 200 in real time.

한편, 이러한 데이터의 송수신을 가능하게 하는 통신 인터페이스(310)는 유선 통신 포트(311) 및 무선 회로(312)를 포함하며, 여기서 유선 통신 포트(311)는 하나 이상의 유선 인터페이스, 예를 들어, 이더넷, 범용 직렬 버스(USB), 파이어와이어 등을 포함할 수 있다. 또한, 무선 회로(312)는 RF 신호 또는 광학 신호를 통해 외부 디바이스와 데이터를 송수신할 수 있다. 아울러, 무선 통신은 복수의 통신 표준, 프로토콜 및 기술, 예컨대 GSM, EDGE, CDMA, TDMA, 블루투스, Wi-Fi, VoIP, Wi-MAX, 또는 임의의 기타 적합한 통신 프로토콜 중 적어도 하나를 사용할 수 있다. Meanwhile, the communication interface 310 that enables transmission and reception of such data includes a wired communication port 311 and a wireless circuit 312, where the wired communication port 311 is one or more wired interfaces, for example, Ethernet. , Universal Serial Bus (USB), Firewire, etc. Additionally, the wireless circuit 312 can transmit and receive data with an external device through RF signals or optical signals. Additionally, wireless communications may use at least one of a plurality of communication standards, protocols and technologies, such as GSM, EDGE, CDMA, TDMA, Bluetooth, Wi-Fi, VoIP, Wi-MAX, or any other suitable communication protocol.

메모리(320)는 표준 평면 정보 제공용 디바이스(300)에서 사용되는 다양한 데이터를 저장할 수 있다. 예를 들어, 메모리(320)는 대상체에 대한 정보, 학습 데이터로 사용되는 초음파 영상의 이미지 프레임, 표준 평면 예측 결과 등을 저장할 수 있다. 예를 들어, 메모리(320)는 머리에 대한 초음파 영상을 구성하는 복수의 프레임 각각을 기 설정된 영역 별로 분류하기 위한 제1 예측 모델, 초음파 영상을 구성하는 일부의 프레임이 표준 평면에 해당할 확률을 예측하기 위한 제2 예측 모델, 초음파 영상에서 태아의 머리를 검출하기 위한 제3 예측 모델을 저장할 수 있다. 또한, 메모리(150)는 제1 내지 제3 모델의 학습 데이터 및 초음파 디바이스(200)로부터 수신된 초음파 영상을 저장할 수 있다.The memory 320 can store various data used in the device 300 for providing standard planar information. For example, the memory 320 may store information about the object, image frames of ultrasound images used as learning data, standard plane prediction results, etc. For example, the memory 320 may include a first prediction model for classifying each of the plurality of frames constituting the ultrasound image of the head into preset regions, and a probability that some frames constituting the ultrasound image correspond to a standard plane. A second prediction model for prediction and a third prediction model for detecting the fetal head in an ultrasound image may be stored. Additionally, the memory 150 may store training data for the first to third models and ultrasound images received from the ultrasound device 200.

다양한 실시예에서, 메모리(320)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 메모리(320)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.In various embodiments, memory 320 may include volatile or non-volatile recording media capable of storing various data, instructions, and information. For example, the memory 320 may be a flash memory type, hard disk type, multimedia card micro type, card type memory (e.g. SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage storage. , cloud, or blockchain database may include at least one type of storage medium.

다양한 실시예에서, 메모리(320)는 운영 체제(321), 통신 모듈(322), 사용자 인터페이스 모듈(323) 및 하나 이상의 애플리케이션(324) 중 적어도 하나의 구성을 저장할 수 있다. In various embodiments, memory 320 may store configuration of at least one of operating system 321, communication module 322, user interface module 323, and one or more applications 324.

운영 체제(321)(예. LINUX, UNIX, MAC OS, WINDOWS, VxWorks 등의 내장형 운영 체제)는 일반적인 시스템 작업(예. 메모리 관리, 저장 디바이스 제어, 전력 관리 등)를 제어하고 관리하기 위한 다양한 소프트웨어 컴포넌트 및 드라이버를 포함할 수 있으며, 다양한 하드웨어, 펌웨어, 및 소프트웨어 컴포넌트 간의 통신을 지원할 수 있다.Operating system 321 (e.g., embedded operating system such as LINUX, UNIX, MAC OS, WINDOWS, VxWorks, etc.) is a variety of software to control and manage common system tasks (e.g., memory management, storage device control, power management, etc.) It may contain components and drivers and may support communication between various hardware, firmware, and software components.

통신 모듈(323)은 통신 인터페이스(310)를 통해 다른 디바이스와 통신을 지원할 수 있다. 통신 모듈(220)은 통신 인터페이스(310)의 유선 통신 포트(311) 또는 무선 회로(312)에 의해 수신되는 데이터를 처리하기 위한 다양한 소프트웨어 구성 요소들을 포함할 수 있다.The communication module 323 may support communication with other devices through the communication interface 310. The communication module 220 may include various software components for processing data received by the wired communication port 311 or the wireless circuit 312 of the communication interface 310.

사용자 인터페이스 모듈(323)은 I/O 인터페이스(330)를 통해 키보드, 터치 스크린, 키보드, 마우스, 마이크 등으로부터 사용자의 요청 또는 입력을 수신하고, 디스플레이 상에 사용자 인터페이스를 제공할 수 있다.The user interface module 323 may receive a user's request or input from a keyboard, touch screen, keyboard, mouse, microphone, etc. through the I/O interface 330 and provide a user interface on the display.

애플리케이션(324)은 하나 이상의 프로세서(340)에 의해 실행되도록 구성되는 프로그램 또는 모듈을 포함할 수 있다. 여기서, 태아의 머리에 대한 표준 평면 정보를 제공하기 위한 애플리케이션은 서버 팜(server farm) 상에서 구현될 수 있다.Applications 324 may include programs or modules configured to be executed by one or more processors 340 . Here, an application for providing standard planar information about the fetal head can be implemented on a server farm.

I/O 인터페이스(330)는 표준 평면 정보 제공용 디바이스(300)의 입출력 디바이스(미도시), 예컨대 디스플레이, 키보드, 터치 스크린 및 마이크 중 적어도 하나를 사용자 인터페이스 모듈(323)과 연결할 수 있다. I/O 인터페이스(330)는 사용자 인터페이스 모듈(323)과 함께 사용자 입력(예. 음성 입력, 키보드 입력, 터치 입력 등)을 수신하고, 수신된 입력에 따른 명령을 처리할 수 있다. The I/O interface 330 may connect at least one of input/output devices (not shown) of the standard flat information providing device 300, such as a display, keyboard, touch screen, and microphone, to the user interface module 323. The I/O interface 330 may receive user input (eg, voice input, keyboard input, touch input, etc.) together with the user interface module 323 and process commands according to the received input.

프로세서(340)는 통신 인터페이스(310), 메모리(320) 및 I/O 인터페이스(330)와 연결되어 표준 평면 정보 제공용 디바이스(300)의 전반적인 동작을 제어할 수 있으며, 메모리(320)에 저장된 애플리케이션 또는 프로그램을 통해 초음파 영상에서 표준 평면 정보를 추출하기 위한 다양한 명령들을 수행할 수 있다. The processor 340 is connected to the communication interface 310, the memory 320, and the I/O interface 330 to control the overall operation of the device 300 for providing standard planar information, and stores the information stored in the memory 320. Various commands can be executed to extract standard plane information from ultrasound images through an application or program.

프로세서(340)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(340)는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. 또는 프로세서(340)는 NPU(Neural Processing Unit)과 같이 인공 신경망 모델을 계산하기 위한 모듈을 포함할 수 있다.The processor 340 may correspond to a computing device such as a Central Processing Unit (CPU) or an Application Processor (AP). Additionally, the processor 340 may be implemented in the form of an integrated chip (IC) such as a system on chip (SoC) in which various computing devices are integrated. Alternatively, the processor 340 may include a module for calculating an artificial neural network model, such as a Neural Processing Unit (NPU).

이하에서는, 도 5 내지 도 9b를 참조하여, 표준 평면 정보 제공용 디바이스(300)의 프로세서(340)가 초음파 영상에서 태아의 머리에 대한 표준 평면에 대한 정보를 제공하는 방법에 대하여 설명하도록 한다. Hereinafter, with reference to FIGS. 5 to 9B, a method by which the processor 340 of the standard plane information providing device 300 provides information about the standard plane of the fetal head in an ultrasound image will be described.

도 5는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법에 대한 개략적인 순서도이다. Figure 5 is a schematic flowchart of a method for providing standard plane information of an object according to an embodiment of the present invention.

도 5를 참조하면, 프로세서(340)는 태아에 대한 초음파 영상을 획득할 수 있다(S110). 예를 들어, 프로세서(340)는 통신 인터페이스(310)를 통해 초음파 디바이스(200)로부터 산모의 자궁에 대한 초음파 영상을 수신할 수 있다. Referring to FIG. 5, the processor 340 may acquire an ultrasound image of the fetus (S110). For example, the processor 340 may receive an ultrasound image of the mother's uterus from the ultrasound device 200 through the communication interface 310.

다양한 실시예에서, 프로세서(340)는 유선 통신 포트(311)를 통해 초음파 디바이스(200)의 프로브(미도시)와 연결되어, 산모의 자궁에 대한 초음파 영상을 실시간으로 수신할 수도 있다. In various embodiments, the processor 340 may be connected to a probe (not shown) of the ultrasound device 200 through the wired communication port 311 to receive ultrasound images of the mother's uterus in real time.

S110 단계 이후, 프로세서(340)는 초음파 영상에서 태아의 머리를 결정할 수 있다(S120). 구체적으로, 프로세서(340)는 초음파 영상에서 태아의 머리를 포함하는 관심 영역(ROI, region of interest)을 결정할 수 있다.After step S110, the processor 340 may determine the head of the fetus from the ultrasound image (S120). Specifically, the processor 340 may determine a region of interest (ROI) including the head of the fetus in the ultrasound image.

관련하여, 도 6은 본 발명의 일 실시예에 따른 태아의 머리 영역을 결정하는 방법을 예시적으로 나타낸 개략도이다. In relation to this, Figure 6 is a schematic diagram illustrating a method for determining the head area of a fetus according to an embodiment of the present invention.

도 6을 참조하면, 프로세서(340)는 초음파 영상을 입력으로 하여 머리를 검출하도록 학습된 예측 모델에 태아에 대한 초음파 영상을 입력하여, 태아의 머리를 검출할 수 있다. 프로세서(340)는 초음파 영상을 구성하는 복수의 프레임(11)을 예측 모델에 입력할 수 있다. 그리고, 프로세서(340)는 검출된 머리의 경계선에 대한 타원 피팅(Ellipse fitting) 또는 커브 피팅(Curve fitting)을 수행할 수 있다(step 1-1). Referring to FIG. 6, the processor 340 may detect the head of the fetus by inputting the ultrasound image of the fetus into a prediction model learned to detect the head using the ultrasound image as input. The processor 340 may input a plurality of frames 11 constituting the ultrasound image into a prediction model. Additionally, the processor 340 may perform ellipse fitting or curve fitting on the detected boundary line of the head (step 1-1).

그에 따라, 프로세서(340)는 타원형으로 이루어진 태아 머리 경계선(12)을 결정할 수 있다. 여기서, 타원의 장축과 단축 각각은 태아 머리의 전후 직경(occipitofrontal diameter, OFD)과 태아 머리의 좌우 직경(biparietal diameter, BPD)에 대응될 수 있다. Accordingly, the processor 340 may determine the borderline 12 of the fetal head having an oval shape. Here, each of the long axis and short axis of the ellipse may correspond to the anteroposterior diameter (occipitofrontal diameter, OFD) and the biparietal diameter (BPD) of the fetal head.

프로세서(340)는 타원의 장축을 기준으로 프레임(11)을 수평 정렬하고, 예를 들어, 태아의 머리 앞쪽이 좌측에 배치되도록 프레임(11)을 회전시킬 수 있다(step 1-2). The processor 340 can horizontally align the frame 11 based on the long axis of the ellipse and, for example, rotate the frame 11 so that the front of the fetus' head is placed on the left (step 1-2).

프로세서(340)는 태아의 머리, 즉 타원을 포함하는 직사각 영역(13)만을 획득하여, 패치(patch)(14)를 추출할 수 있다(step 1-3). 즉, 프로세서(340)는 태아의 머리를 포함하는 프레임을 제1, 제2 예측 모델에 입력 가능한 형태의 균일한 크기의 패치(IROI)(14)로 추출할 수 있다. The processor 340 can obtain only the rectangular area 13 containing the head of the fetus, that is, an oval, and extract the patch 14 (steps 1-3). That is, the processor 340 may extract a frame including the fetal head into a uniformly sized patch (I ROI ) 14 that can be input to the first and second prediction models.

다시 도 5를 참조하면, S120 단계 이후, 프로세서(340)는 머리에 대한 초음파 영상에서 머리 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 머리에 대한 초음파 영상 중 기 설정된 머리 영역 분류 결과를 예측할 수 있다. 구체적으로, 본 발명에서는 단순히 초음파 영상의 프레임만을 활용하는 것에서 나아가 초음파 검사 과정에서 고려되는 머리의 구조적 전환 양상을 고려하여 머리 영역을 분류할 수 있다. 예를 들어, 머리 영역 분류 결과는 표준 TV 평면(Transventricular plane) 및 표준 TT 평면(Transthalamic plane)을 포함하는 제1 영역, 표준 TC 평면(Transcerebella plane)을 포함하는 제2 영역, 그리고 제1 영역과 제2 영역을 제외한 나머지 제3 영역 중 적어도 하나의 영역에 대한 분류 결과를 포함할 수 있다. Referring again to FIG. 5, after step S120, the processor 340 uses a first prediction model learned to classify the head region in the ultrasound image of the head to classify a preset head region classification result among the ultrasound images of the head. It is predictable. Specifically, in the present invention, it is possible to classify the head region by taking into account the structural transition aspect of the head that is considered during the ultrasound examination process, beyond simply using only the frames of the ultrasound image. For example, the head region classification result may be a first region containing the standard TV plane (Transventricular plane) and a standard TT plane (Transthalamic plane), a second region including the standard TC plane (Transcerebella plane), and It may include classification results for at least one of the remaining third areas excluding the second area.

이를 위해, 프로세서(340)는 머리에 대한 초음파 영상을 구성하는 복수의 프레임을 기초로 태아 머리의 구조적 변화를 나타내는 인덱스 맵(Structured Dissimilarity Index Measure Map, DISSM Map)을 획득할 수 있다. 구체적으로, 인덱스 맵(DISSM Map)은 프레임(I1 ROI)(I1+s ROI),,,(I1+(L-1)s ROI) 간의 차이점을 픽셀 별로 표시한 맵으로, 태아 머리의 연속적인 단면 이미지에서 구조적 전환점(구조적 전환이 두드러지는 영역)을 검출하기 위한 데이터로 활용될 수 있다. 예를 들어, 인덱스 맵(DISSM Map)은 순차적인 프레임 길이(L)가 10인 초음파 영상에서 10초, 20초 간격의 인덱스 맵을 획득할 수 있으며, 인덱스 맵 각각은 DSM1,1, DSM1, 2, …DSM1, L-1로 정의될 수 있다. To this end, the processor 340 may obtain an index map (Structured Dissimilarity Index Measure Map, DISSM Map) indicating structural changes in the fetal head based on a plurality of frames constituting the ultrasound image of the head. Specifically, the index map (DISSM Map) is a map that displays the differences between frames (I 1 ROI )(I 1+s ROI ),,,(I 1+(L-1)s ROI ) by pixel, It can be used as data to detect structural turning points (areas where structural transitions are prominent) in continuous cross-sectional images. For example, the DISSM Map can acquire index maps at intervals of 10 and 20 seconds from ultrasound images with a sequential frame length (L) of 10, and the index maps are DSM 1,1 and DSM 1, respectively. , 2 , … It can be defined as DSM 1, L-1 .

관련하여, 도 7 a 및 도 7b는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법에 이용되는 제1 예측 모델의 구조를 예시적으로 나타낸 개략도이다.In relation to this, FIGS. 7A and 7B are schematic diagrams exemplarily showing the structure of a first prediction model used in a method of providing standard plane information of an object according to an embodiment of the present invention.

도 7a를 참조하면, 프로세서(340)는 초음파 영상을 구성하는 하나의 프레임(14)(예. I1 ROI)과 해당 프레임(14)을 기준으로 하는 인덱스 맵(16)(예. DSM1,1) 을 제1 예측 모델(15)에 입력하여, 머리 영역 분류 결과를 예측할 수 있다. 예를 들어, 프로세서(340)는 프레임(14)(예. I1 ROI)이 제1 영역(z1)에 해당하는 프레임인 것으로 예측할 수 있다. Referring to FIG. 7A, the processor 340 processes one frame 14 (e.g., I 1 ROI ) constituting an ultrasound image and an index map 16 (e.g., DSM 1, 1 ) can be input into the first prediction model 15 to predict the head region classification result. For example, the processor 340 may predict that the frame 14 (eg, I 1 ROI ) is a frame corresponding to the first region (z 1 ).

아울러, 제1 예측 모델(15)은 도 7b과 같은 다중 네트워크로 구성될 수 있다. 구체적으로, 제1 예측 모델(15)은 머리에 대한 초음파 영상 및 인덱스 맵 각각을 입력으로 하여 서로 다른 특징 맵()()을 추출하도록 구성된 특징 추출 레이어(1511, fCNN1)(1512, fCNN2), 두 개의 특징 추출 레이어(1511)(1512)로부터 추출되는 서로 다른 두 개의 특징 맵()()을 통합하도록 구성된 통합 레이어(152) 및 통합 레이어(152)로부터 출력된 결과(Ot)(두 개의 특징 맵을 연결시킨 하나의 맵)를 기초로 태아의 머리 영역을 분류하기 위한 분류 벡터를 출력하도록 구성된 분류 레이어(153)를 포함할 수 있다. In addition, the first prediction model 15 may be composed of multiple networks as shown in FIG. 7B. Specifically, the first prediction model 15 uses each of the ultrasound image and index map for the head as input to generate different feature maps ( )( ), a feature extraction layer (1511, f CNN1 ) (1512, f CNN2 ) configured to extract two different feature maps (1511, f CNN2), and two different feature maps ( )( ) and a classification vector for classifying the head region of the fetus based on the result (O t ) (one map connecting two feature maps) output from the integration layer 152 and the integration layer 152 configured to integrate the It may include a classification layer 153 configured to output.

이때, 두 개의 특징 맵을 통합시키는 통합 레이어(152)는 순환 신경망을 포함하며, 예를 들어, 순환 신경망은 양방향 GRU(bi-directional gated recurrent unit) 또는 양방향 LSTM(bi-directional long short term memory)로 구성될 수 있다. 예를 들어, 통합 레이어(152)는 아래의 [수학식 1], [수학식 2]와 같은 순방향 ConvLSTM(f+ ConvLSTM)과 역방향 ConvLSTM(f- ConvLSTM)으로 구성되며, 각 네트워크 모델에 서로 다른 두 개의 특징 맵()() 각각을 입력 데이터로 활용할 수 있다. At this time, the integration layer 152 that integrates the two feature maps includes a recurrent neural network. For example, the recurrent neural network may be a bi-directional gated recurrent unit (GRU) or a bi-directional long short term memory (LSTM). It can be composed of: For example, the integration layer 152 is composed of a forward ConvLSTM (f + ConvLSTM ) and a reverse ConvLSTM (f - ConvLSTM ) as shown in [Equation 1] and [Equation 2] below, and each network model has different Two feature maps ( )( ) Each can be used as input data.

여기서, ht +, ht -는 각각 순방향 및 역방향 LSTM의 히든 스테이트(hidden state)이고, ct +, ct -는 각각 순방향 및 역방향 LSTM의 셀 스테이트(cell state)임.Here, h t + and h t - are the hidden state of the forward and reverse LSTM, respectively, and c t + and c t - are the cell state of the forward and reverse LSTM, respectively.

이와 같이, 초음파 영상을 통해 획득된 특징 맵을 양방향으로 입력함에 따라, 초음파 검사를 진행하는 동안의 구조적 전환 양상을 고려할 수 있으며, 분류 레이어(153)는 초음파 영상을 구성하는 복수의 프레임 각각이 어느 영역(zt)에 해당하는 지, 머리 영역 분류 결과를 출력할 수 있다. In this way, as the feature map acquired through the ultrasound image is input bidirectionally, the structural transition aspect during the ultrasound examination can be taken into consideration, and the classification layer 153 determines which of the plurality of frames constituting the ultrasound image. Whether it corresponds to the region (z t ), the head region classification results can be output.

아울러, 제1 예측 모델(15)은 학습 과정에서 [수학식 3]과 같이 손실 함수에 의한 가중치(weight)가 분류 레이어(153)에 적용될 수 있으며, 그에 따라 영역을 분류하는 과정이 최적화될 수 있다. In addition, during the learning process of the first prediction model 15, a weight based on a loss function can be applied to the classification layer 153 as shown in [Equation 3], and the process of classifying the region can be optimized accordingly. there is.

여기서, 은 영역 별로 라벨링된 학습 데이터이고, M은 학습 데이터의 개수임. here, is the training data labeled for each region, and M is the number of training data.

다시 도 5를 참조하면, S130 단계 이후, 프로세서(340)는 머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 분류 결과에 따라 분류된 머리 영역에 대한 초음파 영상을 입력하여 해당 초음파 영상의 표준 평면 확률을 예측할 수 있다(S140). 구체적으로, 프로세서(340)는 분류 결과에 따라 복수 개로 분류된 머리 영역에 대한 초음파 영상을 기초로 서로 다른 지점을 중심으로 하는 표준 평면을 예측할 수 있다. Referring again to FIG. 5, after step S130, the processor 340 inputs the ultrasound image of the head region into a second prediction model that has been trained to predict the standard plane probability, and the head region classified according to the classification result. By inputting an ultrasound image, the standard plane probability of the ultrasound image can be predicted (S140). Specifically, the processor 340 may predict a standard plane centered on different points based on ultrasound images of head regions classified into a plurality of head regions according to the classification result.

관련하여, 도 8a 및 도 8b는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법에 이용되는 제2 예측 모델의 구조를 예시적으로 나타낸 개략도이다.In relation to this, FIGS. 8A and 8B are schematic diagrams illustrating the structure of a second prediction model used in a method of providing standard plane information of an object according to an embodiment of the present invention.

도 8a를 참조하면, 프로세서(340)는 제1 영역으로 분류된 초음파 영상 내 복수의 프레임(patch)(17)을 제2 예측 모델(18)에 입력하여 복수의 프레임 각각이 예를 들어, 뇌실을 통과하는 TV 평면(Transventricular plane)에 해당할 확률(y1)을 예측할 수 있다. 즉, 프로세서(340)는 제1 영역으로 분류된 복수의 패치가 표준 TV 평면에 해당할 각각의 확률, 제2 영역으로 분류된 복수의 패치가 시상을 통과하는 TT 평면(Transthalamic plane)에 해당할 각각의 확률, 제3 영역으로 분류된 복수의 패치가 소뇌를 통과하는 TC 평면(Transcerebella plane)에 해당할 각각의 확률을 예측할 수 있다. Referring to FIG. 8A, the processor 340 inputs a plurality of frames (patch) 17 in the ultrasound image classified into the first region into the second prediction model 18, so that each of the plurality of frames is, for example, a ventricle. The probability (y 1 ) corresponding to the TV plane (transventricular plane) passing through can be predicted. That is, the processor 340 calculates the respective probabilities that a plurality of patches classified into the first region correspond to the standard TV plane, and a plurality of patches classified into the second region correspond to the TT plane (transthalamic plane) passing through the thalamus. Each probability that a plurality of patches classified into the third region correspond to the TC plane (Transcerebella plane) passing through the cerebellum can be predicted.

이와 같이, 프로세서(340)는 뇌실을 통과하는 표준 TV 평면(Transventricular plane), 시상을 통과하는 표준 TT 평면(Transthalamic plane) 및 소뇌를 통과하는 표준 TC 평면(Transcerebella plane) 중 둘 이상의 표준 평면에 대한 확률을 예측할 수 있다. 다만, 이 외에도, 프로세서(340)는 대상체를 통과하는 다양한 기준 평면에 대한 확률을 예측할 수 있다. In this way, the processor 340 is configured to provide information about two or more standard planes among the standard TV plane (Transventricular plane) passing through the ventricle, the standard TT plane (Transthalamic plane) passing through the thalamus, and the standard TC plane (Transcerebella plane) passing through the cerebellum. Probabilities can be predicted. However, in addition to this, the processor 340 can predict probabilities for various reference planes passing through the object.

아울러, 제2 예측 모델(18)은 도 8b와 같은 다중 네트워크로 구성될 수 있다 구체적으로, 제2 예측 모델(18)은 제1 예측 모델(15)과 유사한 네트워크 구조를 가지며, 앞서 분류된 머리 영역에 대한 초음파 영상(패치)으로부터 특징 맵을 추출하도록 구성된 특징 추출 레이어(181), 특징 추출 레이어(181)로부터 추출되는 특징 맵의 순방향 및 역방향 출력 결과를 통합하도록 구성된 통합 레이어(182), 통합 레이어로부터 출력된 결과를 기초로 태아의 구조적 특징점을 추출하도록 구성된 어텐션 레이어(183) 및 출력된 결과 및 특징점을 기초로 표준 평면에 대한 확률을 출력하도록 구성된 분류 레이어(184)를 포함할 수 있다. In addition, the second prediction model 18 may be composed of multiple networks as shown in Figure 8b. Specifically, the second prediction model 18 has a network structure similar to the first prediction model 15, and the previously classified head A feature extraction layer 181 configured to extract a feature map from an ultrasound image (patch) for a region, an integration layer 182 configured to integrate the forward and reverse output results of the feature map extracted from the feature extraction layer 181, integration It may include an attention layer 183 configured to extract structural feature points of the fetus based on the results output from the layer, and a classification layer 184 configured to output a probability for the standard plane based on the output results and feature points.

이 때, 통합 레이어(182)는 순환 신경망을 포함하며, 예를 들어, 순환 신경망은 양방향 GRU(bi-directional gated recurrent unit) 또는 양방향 LSTM(bi-directional long short term memory)로 구성될 수 있다. At this time, the integration layer 182 includes a recurrent neural network. For example, the recurrent neural network may be composed of a bi-directional gated recurrent unit (GRU) or a bi-directional long short term memory (LSTM).

아울러, 제2 예측 모델(18)은 학습 과정에서 [수학식 4]와 같이 손실 함수에 의한 가중치(weight)가 분류 레이어(184)에 적용될 수 있으며, 그에 따라 영역을 분류하는 과정이 최적화될 수 있다. In addition, during the learning process of the second prediction model 18, a weight based on a loss function can be applied to the classification layer 184, as shown in [Equation 4], and the process of classifying the region can be optimized accordingly. there is.

여기서, M은 학습 데이터의 개수이고, A = {A1, .., AL}는 해부학적 주의 맵(anatomical attention heat maps), A*는 A에 해당하는 데이터 라벨이 붙은 정답을 의미함. Here, M is the number of learning data, A = {A 1 , .., A L } is anatomical attention heat maps, and A * means the correct answer with the data label corresponding to A.

다시, 도 5를 참조하면, 프로세서(340)는 제2 예측 모델(18)을 통해 영역에 포함된 복수의 패치들에 대한 표준 평면 확률을 출력할 수 있으며, 표준 평면 확률을 기초로 태아의 머리에 대한 표준 평면을 결정할 수 있다(S150). Again, referring to FIG. 5, the processor 340 may output standard plane probabilities for a plurality of patches included in the region through the second prediction model 18, and based on the standard plane probabilities, the fetal head The standard plane for can be determined (S150).

관련하여, 도 9a 및 도 9b는 본 발명의 일 실시예에 따른 대상체의 표준 평면 정보 제공 방법의 결과를 예시적으로 나타낸 개략도이다.In relation to this, FIGS. 9A and 9B are schematic diagrams exemplarily showing the results of a method for providing standard plane information of an object according to an embodiment of the present invention.

도 9a를 참조하면, 프로세서(340)는 영역 별로 분류된 수십 장의 프레임(패치) 각각이 표준 TT 평면, 표준 TV 평면 및 표준 TC 평면 중 어느 하나에 해당할 확률을 출력할 수 있다. 아울러, 프로세서(340)는 통신 인터페이스(310)를 통해 의료진 디바이스(100)로 다음과 같은 그래프 형태의 확률 값을 제공할 수 있다. Referring to FIG. 9A, the processor 340 can output the probability that each of dozens of frames (patches) classified by region corresponds to any one of the standard TT plane, standard TV plane, and standard TC plane. In addition, the processor 340 may provide probability values in the following graph form to the medical staff device 100 through the communication interface 310.

또한, 도 9b를 참조하면, 프로세서(340)는 수십 장의 프레임(패치) 중 확률 값이 가장 높은 프레임(패치)을 표준 TT 평면, 표준 TV 평면 및 표준 TC 평면에 해당하는 프레임(패치)으로 간주하고, 이에 강조 표시를 할 수 있다. 예를 들어, 의료진 디바이스(100)는 도 9b와 같이 수십 장의 프레임(패치) 중에서 표준 평면에 해당하여 강조 표시된 프레임(패치)를 출력할 수 있다. Additionally, referring to FIG. 9B, the processor 340 considers the frame (patch) with the highest probability value among dozens of frames (patches) as the frame (patch) corresponding to the standard TT plane, standard TV plane, and standard TC plane. and you can highlight it. For example, the medical staff device 100 may output a highlighted frame (patch) corresponding to a standard plane among dozens of frames (patches), as shown in FIG. 9B.

한편, 상기와 같은 방법으로 결정된 표준 평면 예측 결과는 모의 테스트 결과, 아래의 [표 1]과 같이 단순히 초음파 영상만을 입력 데이터로 활용한 종래 방법보다 더 높은 정확도(Accuracy)(Acc), 정밀도(Precision)(Pre), 재현율(recall factor)(Rec) 및 조화 평균 값(F1-Score)(F1)을 가짐을 확인할 수 있다. 여기서, 비교예 1, 2, 3은 각각 단일 CNN 기반 모델, CNN-RNN 기반 모델들을 활용한 평면 예측 방법일 수 있다. Meanwhile, the standard plane prediction results determined by the method above are simulation test results, and have higher accuracy (Acc) and precision than the conventional method that simply uses ultrasound images as input data, as shown in [Table 1] below. ) (Pre), recall factor (Rec), and harmonic mean value (F1-Score) (F1). Here, Comparative Examples 1, 2, and 3 may be planar prediction methods using a single CNN-based model and CNN-RNN-based models, respectively.

이러한 결과를 통해 본 발명의 일 실시예에 따른 표준 평면 정보 제공 방법이 초음파 영상 과정에서 해부학적 구조에 대한 변화를 학습에 고려함으로써, 평면 예측 능력을 가지는 것으로 이해될 수 있다. Through these results, it can be understood that the method for providing standard plane information according to an embodiment of the present invention has plane prediction capabilities by considering changes in anatomical structures in learning during the ultrasound imaging process.

실시예 Example 비교예 1Comparative Example 1 비교예 2Comparative Example 2 비교예 3Comparative Example 3 TVTV PrePre 0.9060.906 0.6910.691 0.8600.860 0.9280.928 RecRec 0.9800.980 0.6530.653 0.9000.900 0.8190.819 F1F1 0.9420.942 0.6710.671 0.8800.880 0.8750.875 TTTT PrePre 0.9650.965 0.8130.813 0.7210.721 0.7520.752 RecRec 0.8750.875 0.7270.727 0.8160.816 0.8750.875 F1F1 0.9180.918 0.7680.768 0.7660.766 0.8090.809 TCTC PrePre 0.8600.860 0.6640.664 0.8450.845 0.8810.881 RecRec 0.9100.910 0.8180.818 0.7010.701 0.8850.885 F1F1 0.8840.884 0.7330.733 0.8390.839 0.8830.883 Nstdnstd PrePre 0.9010.901 0.7870.787 0.7830.783 0.8130.813 RecRec 0.8440.844 0.7360.736 0.7010.701 0.8530.853 F1F1 0.8720.872 0.7610.761 0.7400.740 0.8530.853 Aver-ageAverage-age AccACC 0.8990.899 0.7410.741 0.8060.806 0.8510.851 PrePre 0.9080.908 0.7390.739 0.8030.803 0.8530.853 RecRec 0.9020.902 0.7340.734 0.8460.846 0.8130.813 F1F1 0.9040.904 0.7330.733 0.8060.806 0.8490.849

지금까지 본 발명의 일 실시예에 따른 표준 평면 정보 제공용 디바이스(300) 및 표준 평면 정보 제공용 디바이스(300)의 프로세서(340)에 의해 수행되는 대상체에 대한 표준 평면 정보 제공 방법에 대하여 개략적으로 설명하였다. 본 발명에 따르면, 동적인 대상체의 움직임에 따른 구조적 특징 변화를 학습함으로써, 단순히 초음파 영상의 단일 프레임만으로 표준 평면을 예측하는 방법보다 정확하게 대상체의 표준 평면을 예측할 수 있다.So far, we have outlined the standard plane information providing device 300 and the standard plane information providing method for an object performed by the processor 340 of the standard plane information providing device 300 according to an embodiment of the present invention. explained. According to the present invention, by learning changes in structural characteristics according to the movement of a dynamic object, the standard plane of the object can be predicted more accurately than a method of predicting the standard plane simply with a single frame of an ultrasound image.

이상 첨부된 도면을 참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be modified and implemented in various ways without departing from the technical spirit of the present invention. there is. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

1000: 표준 평면 정보 제공 시스템
100: 의료진 디바이스
200: 초음파 디바이스
110: 메모리 인터페이스 120: 프로세서
130: 주변 인터페이스 140: I/O 서브 시스템
141: 터치 스크린 제어기 142: 기타 입력 제어기
143: 터치 스크린
144: 기타 입력 제어 디바이스
150: 메모리 151: 운영 체제
152: 통신 모듈 153: GUI 모듈
154: 센서 처리 모듈 155: 전화 모듈
156: 애플리케이션들
156-1, 156-2: 애플리케이션
157: 디지털 어시스턴트 클라이언트 모듈
158: 사용자 데이터
160: 모션 센서 161: 조명 센서
162: 근접 센서 163: 기타 센서
170: 카메라 서브 시스템 171: 광학 센서
180: 통신 서브 시스템
190: 오디오 서브 시스템
191: 스피커 192: 마이크
300: 표준 평면 정보 제공용 디바이스
310: 통신 인터페이스
311: 유선 통신 포트 312: 무선 회로
320: 메모리
321: 운영 체제 322: 통신 모듈
323: 사용자 인터페이스 모듈 324: 애플리케이션
330: I/O 인터페이스 340: 프로세서
1000: Standard flat information provision system
100: Medical staff device
200: Ultrasound device
110: memory interface 120: processor
130: peripheral interface 140: I/O subsystem
141: Touch screen controller 142: Other input controller
143: touch screen
144: Other input control devices
150: Memory 151: Operating system
152: Communication module 153: GUI module
154: sensor processing module 155: phone module
156: Applications
156-1, 156-2: Application
157: Digital assistant client module
158: User data
160: motion sensor 161: light sensor
162: Proximity sensor 163: Other sensors
170: Camera subsystem 171: Optical sensor
180: Communication subsystem
190: Audio subsystem
191: Speaker 192: Microphone
300: Device for providing standard flat information
310: communication interface
311: wired communication port 312: wireless circuit
320: memory
321: operating system 322: communication module
323: user interface module 324: application
330: I/O interface 340: Processor

Claims (21)

태아에 대한 초음파 영상을 획득하는 단계;
상기 초음파 영상에서 상기 태아의 머리를 결정하는 단계;
머리에 대한 초음파 영상에서 머리 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 머리에 대한 초음파 영상 중 기 설정된 머리 영역 분류 결과를 예측하는 단계;
머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 머리 영역에 대한 초음파 영상을 입력하여 해당 초음파 영상의 표준 평면 확률을 예측하는 단계; 및
상기 표준 평면 확률을 기초로 상기 태아의 머리에 대한 표준 평면을 결정하는 단계; 를 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
Obtaining an ultrasound image of the fetus;
determining the head of the fetus from the ultrasound image;
predicting a preset head region classification result among the ultrasound images of the head using a first prediction model learned to classify the head region in the ultrasound images of the head;
Predicting the standard plane probability of the ultrasound image by inputting the ultrasound image of the head region classified according to the classification result into a second prediction model learned to predict the standard plane probability by inputting the ultrasound image of the head region. step; and
determining a standard plane for the fetal head based on the standard plane probability; A method of providing standard plane information about an object including.
제1항에 있어서,
상기 머리를 결정하는 단계는,
초음파 영상을 입력으로 하여 머리를 검출하도록 학습된 제3 예측 모델에, 상기 태아에 대한 초음파 영상을 입력하여 상기 태아의 머리를 검출하는 단계, 와
검출된 머리의 경계선에 대한 타원 피팅(Ellipse fitting) 또는 커브 피팅(Curve fitting) 결과를 이용하여 상기 태아의 머리에 대응되는 타원을 결정하는 단계, 를 더 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 1,
The step of determining the head is,
Detecting the head of the fetus by inputting the ultrasound image of the fetus into a third prediction model learned to detect the head by inputting the ultrasound image, and
A method of providing standard plane information for an object further comprising determining an ellipse corresponding to the head of the fetus using ellipse fitting or curve fitting results for the detected boundary line of the head.
제2항에 있어서,
상기 머리를 결정하는 단계는,
상기 초음파 영상에서 결정된 타원을 포함하는 패치(patch)를 추출하는 단계, 를 더 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 2,
The step of determining the head is,
A method of providing standard plane information about an object further comprising extracting a patch including an ellipse determined from the ultrasound image.
제1항에 있어서,
상기 머리 영역 분류 결과를 예측하는 단계는,
상기 머리에 대한 초음파 영상을 구성하는 복수의 프레임을 기초로 상기 머리의 구조적 변화를 나타내는 인덱스 맵(Structured Dissimilarity Index Measure Map, DISSM Map)을 획득하는 단계, 와
상기 머리에 대한 초음파 영상 및 상기 인덱스 맵을 상기 제1 예측 모델에 입력하여 상기 태아의 머리 영역 분류 결과를 예측하는 단계, 를 더 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 1,
The step of predicting the head region classification result is,
Obtaining an index map (Structured Dissimilarity Index Measure Map, DISSM Map) indicating structural changes in the head based on a plurality of frames constituting the ultrasound image of the head, and
Predicting a head region classification result of the fetus by inputting the ultrasound image of the head and the index map into the first prediction model.
제4항에 있어서,
상기 제1 예측 모델은,
상기 머리에 대한 초음파 영상 및 상기 인덱스 맵 각각으로부터 특징 맵(feature map)을 추출하도록 구성된 서로 다른 두 개의 특징 추출 레이어;
상기 두 개의 특징 추출 레이어로부터 추출되는 서로 다른 두 개의 특징 맵을 통합하도록 구성된 통합 레이어; 및
상기 통합 레이어로부터 출력된 결과를 기초로 상기 태아의 머리 영역을 분류하기 위한 분류 벡터를 출력하도록 구성된 분류 레이어; 를 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 4,
The first prediction model is,
Two different feature extraction layers configured to extract feature maps from each of the ultrasound image of the head and the index map;
an integration layer configured to integrate two different feature maps extracted from the two feature extraction layers; and
a classification layer configured to output a classification vector for classifying the head region of the fetus based on the results output from the integrated layer; A method of providing standard plane information about an object including.
제4항에 있어서,
상기 머리 영역 분류 결과는,
표준 TV 평면(Transventricular plane) 및 표준 TT 평면(Transthalamic plane)을 포함하는 제1 영역, 표준 TC 평면(Transcerebella plane)을 포함하는 제2 영역 및 상기 제1 영역과 상기 제2 영역을 제외한 나머지 제3 영역 중 적어도 하나의 영역에 대한 분류 결과를 포함하는, 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 4,
The head region classification result is,
A first region including a standard TV plane (Transventricular plane) and a standard TT plane (Transthalamic plane), a second region including a standard TC plane (Transcerebella plane), and a third region excluding the first region and the second region. A method of providing standard planar information about an object, including a classification result for at least one of the regions.
제1항에 있어서,
상기 표준 평면 확률을 예측하는 단계는,
상기 분류 결과에 따라 복수 개로 분류된 머리 영역에 대한 초음파 영상을 기초로 서로 다른 지점을 중심으로 하는 표준 평면 확률을 예측하는 단계인, 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 1,
The step of predicting the standard plane probability is,
A method of providing standard plane information about an object, which is a step of predicting standard plane probabilities centered on different points based on ultrasound images of head regions classified into a plurality of head regions according to the classification results.
제7항에 있어서,
상기 표준 평면 확률을 예측하는 단계는,
표준 TV 평면(Transventricular plane), 표준 TT 평면(Transthalamic plane) 및 표준 TC 평면(Transcerebella plane) 중 둘 이상의 표준 평면에 대한 확률을 예측하는 단계인, 대상체에 대한 표준 평면 정보 제공 방법.
In clause 7,
The step of predicting the standard plane probability is,
A method of providing standard plane information for an object, which is a step of predicting the probability of two or more standard planes among the standard TV plane (Transventricular plane), the standard TT plane (Transthalamic plane), and the standard TC plane (Transcerebella plane).
제1항에 있어서,
상기 제2 예측 모델은,
상기 분류된 머리 영역에 대한 초음파 영상으로부터 특징 맵을 추출하도록 구성된 특징 추출 레이어;
상기 특징 추출 레이어로부터 추출되는 특징 맵의 순방향 및 역방향 출력 결과를 통합하도록 구성된 통합 레이어;
상기 통합 레이어로부터 출력된 결과를 기초로 상기 태아의 구조적 특징점을 추출하도록 구성된 어텐션 레이어; 및
상기 출력된 결과 및 상기 특징점을 기초로 상기 표준 평면에 대한 확률을 출력하도록 구성된 분류 레이어; 를 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
According to paragraph 1,
The second prediction model is,
a feature extraction layer configured to extract a feature map from the ultrasound image for the classified head region;
an integration layer configured to integrate forward and backward output results of the feature map extracted from the feature extraction layer;
an attention layer configured to extract structural feature points of the fetus based on the results output from the integration layer; and
a classification layer configured to output a probability for the standard plane based on the output result and the feature points; A method of providing standard plane information about an object including.
제5항 또는 제9항에 있어서,
상기 통합 레이어는, 순환 신경망을 포함하며,
상기 순환 신경망은, 양방향 GRU(bi-directional gated recurrent unit) 또는 양방향 LSTM(bi-directional long short term memory)로 구성되는, 대상체에 대한 표준 평면 정보 제공 방법.
According to clause 5 or 9,
The integration layer includes a recurrent neural network,
The recurrent neural network is comprised of a bi-directional gated recurrent unit (GRU) or a bi-directional long short term memory (LSTM).
통신 인터페이스;
메모리; 및
상기 통신 인터페이스, 상기 메모리와 동작 가능하게 연결된 프로세서; 를 포함하고,
상기 프로세서는,
태아에 대한 초음파 영상을 획득하고, 상기 초음파 영상에서 상기 태아의 머리를 결정하고, 머리에 대한 초음파 영상에서 머리 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 머리에 대한 초음파 영상 중 기 설정된 머리 영역 분류 결과를 예측하고, 머리 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 머리 영역에 대한 초음파 영상을 입력하여 해당 초음파 영상의 표준 평면 확률을 예측하고, 상기 표준 평면 확률을 기초로 상기 태아의 머리에 대한 표준 평면을 결정하도록 구성된, 대상체에 대한 표준 평면 정보 제공용 디바이스.
communication interface;
Memory; and
a processor operably connected to the communication interface and the memory; Including,
The processor,
Obtaining an ultrasound image of the fetus, determining the head of the fetus from the ultrasound image, and using a first prediction model learned to classify the head region in the ultrasound image of the head, Predict the set head region classification result and input the ultrasound image of the head region classified according to the classification result into a second prediction model that has been trained to predict the standard plane probability using the ultrasound image of the head region as input. A device for providing standard plane information for a subject, configured to predict a standard plane probability of an ultrasound image and determine a standard plane for the head of the fetus based on the standard plane probability.
제11항에 있어서,
상기 프로세서는,
초음파 영상을 입력으로 하여 머리를 검출하도록 학습된 제3 예측 모델에, 상기 태아에 대한 초음파 영상을 입력하여 상기 태아의 머리를 검출하고, 검출된 머리의 경계선에 대한 타원 피팅(Ellipse fitting) 또는 커브 피팅(Curve fitting) 결과를 이용하여 상기 태아의 머리에 대응되는 타원을 결정하도록 구성되는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 11,
The processor,
The head of the fetus is detected by inputting the ultrasound image of the fetus into a third prediction model learned to detect the head using the ultrasound image as input, and an ellipse fitting or curve is performed on the boundary line of the detected head. A device for providing standard plane information about an object, configured to determine an ellipse corresponding to the head of the fetus using a curve fitting result.
제12항에 있어서,
상기 프로세서는,
상기 초음파 영상에서 결정된 타원을 포함하는 패치(patch)를 추출하도록 구성되는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 12,
The processor,
A device for providing standard plane information about an object, configured to extract a patch including an ellipse determined from the ultrasound image.
제11항에 있어서,
상기 프로세서는,
상기 머리에 대한 초음파 영상을 구성하는 복수의 프레임을 기초로 상기 머리의 구조적 변화를 나타내는 인덱스 맵(Structured Dissimilarity Index Measure Map, DISSM Map)을 획득하고, 상기 머리에 대한 초음파 영상 및 상기 인덱스 맵을 상기 제1 예측 모델에 입력하여 상기 태아의 머리 영역 분류 결과를 예측하도록 구성되는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 11,
The processor,
An index map (Structured Dissimilarity Index Measure Map, DISSM Map) indicating structural changes in the head is obtained based on a plurality of frames constituting the ultrasound image of the head, and the ultrasound image of the head and the index map are obtained. A device for providing standard planar information about an object, configured to predict a head region classification result of the fetus by inputting it into a first prediction model.
제14항에 있어서,
상기 제1 예측 모델은,
상기 머리에 대한 초음파 영상 및 상기 인덱스 맵 각각으로부터 특징 맵(feature map)을 추출하도록 구성된 서로 다른 두 개의 특징 추출 레이어;
상기 두 개의 특징 추출 레이어로부터 추출되는 서로 다른 두 개의 특징 맵을 통합하도록 구성된 통합 레이어; 및
상기 통합 레이어로부터 출력된 결과를 기초로 상기 태아의 머리 영역을 분류하기 위한 분류 벡터를 출력하도록 구성된 분류 레이어; 를 포함하는 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 14,
The first prediction model is,
Two different feature extraction layers configured to extract feature maps from each of the ultrasound image of the head and the index map;
an integration layer configured to integrate two different feature maps extracted from the two feature extraction layers; and
a classification layer configured to output a classification vector for classifying the head region of the fetus based on the results output from the integrated layer; A device for providing standard flat information about an object including a.
제14항에 있어서,
상기 머리 영역 분류 결과는,
표준 TV 평면(Transventricular plane) 및 표준 TT 평면(Transthalamic plane)을 포함하는 제1 영역, 표준 TC 평면(Transcerebella plane)을 포함하는 제2 영역 및 상기 제1 영역과 상기 제2 영역을 제외한 나머지 제3 영역 중 적어도 하나의 영역에 대한 분류 결과를 포함하는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 14,
The head region classification result is,
A first region including a standard TV plane (Transventricular plane) and a standard TT plane (Transthalamic plane), a second region including a standard TC plane (Transcerebella plane), and a third region excluding the first region and the second region. A device for providing standard planar information about an object, including a classification result for at least one of the regions.
제11항에 있어서,
상기 프로세서는,
상기 분류 결과에 따라 복수 개로 분류된 머리 영역에 대한 초음파 영상을 기초로 서로 다른 지점을 중심으로 하는 표준 평면 확률을 예측하도록 구성되는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 11,
The processor,
A device for providing standard plane information about an object, configured to predict standard plane probabilities centered on different points based on ultrasound images of head regions classified into a plurality of head regions according to the classification results.
제17항에 있어서,
상기 프로세서는,
표준 TV 평면(Transventricular plane), 표준 TT 평면(Transthalamic plane) 및 표준 TC 평면(Transcerebella plane) 중 둘 이상의 표준 평면에 대한 확률을 예측하도록 구성되는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 17,
The processor,
A device for providing standard plane information about a subject, configured to predict probabilities for two or more standard planes among a standard TV plane (Transventricular plane), a standard TT plane (Transthalamic plane), and a standard TC plane (Transcerebella plane).
제11항에 있어서,
상기 제2 예측 모델은,
상기 분류된 머리 영역에 대한 초음파 영상으로부터 특징 맵을 추출하도록 구성된 특징 추출 레이어;
상기 특징 추출 레이어로부터 추출되는 특징 맵의 순방향 및 역방향 출력 결과를 통합하도록 구성된 통합 레이어;
상기 통합 레이어로부터 출력된 결과를 기초로 상기 태아의 구조적 특징점을 추출하도록 구성된 어텐션 레이어; 및
상기 출력된 결과 및 상기 특징점을 기초로 상기 표준 평면에 대한 확률을 출력하도록 구성된 분류 레이어; 를 포함하는 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to clause 11,
The second prediction model is,
a feature extraction layer configured to extract a feature map from the ultrasound image for the classified head region;
an integration layer configured to integrate forward and backward output results of the feature map extracted from the feature extraction layer;
an attention layer configured to extract structural feature points of the fetus based on the results output from the integration layer; and
a classification layer configured to output a probability for the standard plane based on the output result and the feature points; A device for providing standard flat information about an object including a.
제15항 또는 제19항에 있어서,
상기 통합 레이어는, 순환 신경망을 포함하며,
상기 순환 신경망은, 양방향 GRU(bi-directional gated recurrent unit) 또는 양방향 LSTM(bi-directional long short term memory)로 구성되는, 대상체에 대한 표준 평면 정보 제공용 디바이스.
According to claim 15 or 19,
The integration layer includes a recurrent neural network,
The recurrent neural network is a device for providing standard planar information about an object, consisting of a bi-directional gated recurrent unit (GRU) or a bi-directional long short term memory (LSTM).
개체 일 영역에 대한 초음파 영상을 획득하는 단계;
상기 초음파 영상에서 진단 대상을 결정하는 단계;
진단 대상에 대한 초음파 영상에서 진단 영역을 분류하도록 학습된 제1 예측 모델을 이용하여, 상기 진단 대상에 대한 초음파 영상 중 기 설정된 진단 영역 분류 결과를 예측하는 단계;
진단 영역에 대한 초음파 영상을 입력으로 하여 표준 평면 확률을 예측하도록 학습된 제2 예측 모델에, 상기 분류 결과에 따라 분류된 진단 영역에 대한 초음파 영상을 입력하여 상기 진단 대상의 표준 평면 확률을 예측하는 단계; 및
상기 표준 평면 확률을 기초로 상기 진단 대상에 대한 표준 평면을 결정하는 단계; 를 포함하는 대상체에 대한 표준 평면 정보 제공 방법.
Obtaining an ultrasound image of an area of an object;
determining a diagnosis target from the ultrasound image;
Predicting a preset diagnostic area classification result among the ultrasound images of the diagnostic object using a first prediction model learned to classify the diagnostic region in the ultrasound image of the diagnostic object;
Predicting the standard plane probability of the diagnosis object by inputting the ultrasound image of the diagnostic region classified according to the classification result into a second prediction model learned to predict the standard plane probability by inputting the ultrasound image of the diagnostic region. step; and
determining a standard plane for the diagnostic object based on the standard plane probability; A method of providing standard plane information about an object including.
KR1020220096005A 2022-08-02 2022-08-02 Method for providing standard planar information about object and device for performing the same KR20240018125A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220096005A KR20240018125A (en) 2022-08-02 2022-08-02 Method for providing standard planar information about object and device for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220096005A KR20240018125A (en) 2022-08-02 2022-08-02 Method for providing standard planar information about object and device for performing the same

Publications (1)

Publication Number Publication Date
KR20240018125A true KR20240018125A (en) 2024-02-13

Family

ID=89899591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220096005A KR20240018125A (en) 2022-08-02 2022-08-02 Method for providing standard planar information about object and device for performing the same

Country Status (1)

Country Link
KR (1) KR20240018125A (en)

Similar Documents

Publication Publication Date Title
WO2021036695A1 (en) Method and apparatus for determining image to be marked, and method and apparatus for training model
US9881125B2 (en) Ultrasound measurement of biometrics of fetus
US20200234444A1 (en) Systems and methods for the analysis of skin conditions
US10123747B2 (en) Retinal scan processing for diagnosis of a subject
US10249040B2 (en) Digital data processing for diagnosis of a subject
CN113569984B (en) Brain perfusion state classification device, method, equipment and storage medium
US20180144471A1 (en) Ovarian Image Processing for Diagnosis of a Subject
TW202022713A (en) Method and system for evaluating cardiac status, electronic device and ultrasonic scanning device
US11923090B2 (en) Early skin condition diagnostics using sonic sensors
US10398385B2 (en) Brain wave processing for diagnosis of a subject
JP2022533685A (en) Neural network-based C/D ratio determination method, apparatus, equipment, and storage medium
US20200311933A1 (en) Processing fundus images using machine learning models to generate blood-related predictions
KR20200017261A (en) System for biomedical image diagnosis, method for biomedical image diagnosis and terminal performing the same
Zahnd et al. Dynamic block matching to assess the longitudinal component of the dense motion field of the carotid artery wall in B‐mode ultrasound sequences—Association with coronary artery disease
KR20240018125A (en) Method for providing standard planar information about object and device for performing the same
KR20240017487A (en) Method for providing information of doppler ultrasound images and device usinng the same
KR102558551B1 (en) Method for providing information of in vitro fertilization and device using the same
KR20230149260A (en) Method for guiding echocardiography and device usinng the same
KR20230168168A (en) Method for providing information of sonogram view and device usinng the same
KR20230150761A (en) Method for providing information of vascula ultrasound and device usinng the same
KR20240057761A (en) Method for providing information of echocardiography images and device usinng the same
CN111696085A (en) Rapid ultrasonic assessment method and device for lung impact injury scene
KR20230150623A (en) Method for providing information of m-mode ultrasound images and device usinng the same
KR20230110986A (en) Method for providing information of the cervix and device using the same
US20240095938A1 (en) Privacy preservation system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal