KR102631689B1 - Apparatus and method for measuring amniotic fluid index based on ultrasound images - Google Patents

Apparatus and method for measuring amniotic fluid index based on ultrasound images Download PDF

Info

Publication number
KR102631689B1
KR102631689B1 KR1020210154711A KR20210154711A KR102631689B1 KR 102631689 B1 KR102631689 B1 KR 102631689B1 KR 1020210154711 A KR1020210154711 A KR 1020210154711A KR 20210154711 A KR20210154711 A KR 20210154711A KR 102631689 B1 KR102631689 B1 KR 102631689B1
Authority
KR
South Korea
Prior art keywords
area
reverberation
input image
amniotic fluid
scale
Prior art date
Application number
KR1020210154711A
Other languages
Korean (ko)
Other versions
KR20230069287A (en
Inventor
서진근
조현철
권자영
박예진
선시유
현창민
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020210154711A priority Critical patent/KR102631689B1/en
Publication of KR20230069287A publication Critical patent/KR20230069287A/en
Application granted granted Critical
Publication of KR102631689B1 publication Critical patent/KR102631689B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo

Abstract

본 발명은 양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 초음파 이미지 입력부, 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 제1 영역 추정부, 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 제2 영역 추정부 및 상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 양수 주머니 추출부를 포함하여, 초음파 이미지에 발생되는 잔향 아티팩트에도 강건하게 양수 주머니를 정확하게 검출할 수 있는 AFI 측정 장치 및 방법을 제공한다.The present invention includes an ultrasound image input unit that acquires an input image, which is an ultrasound image taken of an amniotic fluid sac, and a neural network operation is performed on the input image using a pre-trained artificial neural network to detect the amniotic fluid sac area and extract it as a first area. A first area estimation unit, detects the abdominal wall area by performing a neural network operation on the input image using a pre-trained artificial neural network, and an area where reverberation artifacts occur in the input image based on the detected abdominal wall area and the direction of ultrasound movement. It includes a second area estimation unit that detects and extracts as a second area, and an amniotic sac extraction unit that merges the first area and the second area to obtain a complementary amniotic fluid sac area, and is robust even to reverberation artifacts generated in ultrasound images. Provides an AFI measurement device and method that can accurately detect an amniotic fluid sac.

Description

초음파 이미지 기반 양수 지표 측정 장치 및 방법{Apparatus and method for measuring amniotic fluid index based on ultrasound images}Apparatus and method for measuring amniotic fluid index based on ultrasound images}

본 발명은 양수 지표 측정 장치 및 방법에 관한 것으로, 초음파 이미지 기반 양수 지표 측정 장치 및 방법에 관한 것이다.The present invention relates to an amniotic fluid index measuring device and method, and to an ultrasound image-based amniotic fluid index measuring device and method.

양수(Amniotic Fluid: AF)는 양막강(amniotic cavity)에 들어있는 보호액으로 임신 중 태아의 발달과 성숙에 필수적인 성분이다. 양수량(AF volume: 이하 AFV)은 임신 진행과 태아 발달을 반영하는 중요한 지표로서, 출산 전 임신부에 대한 초음파 검사 시에 AFV 평가는 필수적이며, AFV는 일반적으로 AF 지수(AF index: 이하 AFI)를 측정하여 추정된다. 기존에는 의사와 같은 측정자가 초음파 검사를 수행하면서 수작업으로 AFI를 측정하였다.Amniotic Fluid (AF) is a protective fluid contained in the amniotic cavity and is an essential component for the development and maturation of the fetus during pregnancy. Amniotic fluid volume (AF volume: AFV) is an important indicator that reflects the progress of pregnancy and fetal development. AFV evaluation is essential during ultrasound examination of pregnant women before childbirth, and AFV is generally measured by AF index (AF index). It is estimated by measurement. Previously, AFI was measured manually while an operator, such as a doctor, performed an ultrasound examination.

도 1은 기존에 수작업에 따른 AFI 지수 측정 방식을 설명하기 위한 도면이다.Figure 1 is a diagram for explaining the existing manual AFI index measurement method.

도 1에 도시된 바와 같이, AFI 측정은 일반적으로 양수 주머니(Amniotic Fluid Pocket) 영역을 4분면(four quadrant)(Q1, Q2, Q3, Q4)으로 구분하고, 우측에 도시된 바와 같이 구분된 4개의 영역 각각에서 측정되는 양수 주머니의 깊이, 즉 사분면 양수 지표(four quadrant amniotic fluid index)(yQ1, yQ2, yQ3, yQ4)를 합산하여 AFI(AFI = yQ1 + yQ2 + yQ3 + yQ4)를 획득한다. 그러나 이와 같은 수작업 측정은 시간이 많이 소요될 뿐만 아니라 측정자의 숙련도에 따라 오차가 크게 발생하는 문제가 있으며, AFI의 오측정은 태아 상태에 대해 잘못된 진단을 유발하여, 조기 대응을 어렵게 하는 요인이 된다.As shown in Figure 1, AFI measurement generally divides the amniotic fluid pocket area into four quadrants (Q1, Q2, Q3, Q4), divided into four quadrants as shown on the right. The depth of the amniotic fluid sac measured in each region, that is, the four quadrant amniotic fluid index (y Q1 , y Q2 , y Q3 , y Q4 ) is summed to obtain AFI (AFI = y Q1 + y Q2 + y Q3) . + y Q4 ) is obtained. However, such manual measurement not only takes a lot of time, but also has the problem of large errors depending on the skill of the measurer, and mismeasurement of AFI causes incorrect diagnosis of the fetal condition, making early response difficult.

이러한 문제를 극복하기 위해 최근에는 딥러닝 기법을 이용하여 초음파 이미지로부터 AFI를 자동으로 측정하는 방법에 대한 연구가 계속되어 왔다. 그러나 양수 주머니의 비정질 특성과 초음파의 잔향, AF 모방 영역, 부유 물질 및 초음파 이미지의 불완전 또는 누락된 경계 등과 같은 요인으로 인해 여전히 임상에 적용할 수 있는 수준으로 정확도가 높지 않다는 한계가 있다.To overcome these problems, research has recently continued on methods to automatically measure AFI from ultrasound images using deep learning techniques. However, due to factors such as the amorphous nature of the amniotic fluid sac, ultrasound reverberation, AF mimic area, suspended matter, and incomplete or missing boundaries of the ultrasound image, there are still limitations in that the accuracy is not high enough to be applied clinically.

특히 산모 비만 및 고령 임신 연령 등에서 자주 나타나는 초음파의 잔향 아티팩트(reverberation artifact)는 양수 주머니의 구분을 어렵게 하여 AFI의 측정을 방해하는 주된 요인이 된다.In particular, the reverberation artifact of ultrasound, which frequently appears in maternal obesity and advanced gestational age, makes it difficult to distinguish between amniotic fluid sacs and is a major factor that interferes with the measurement of AFI.

한국 공개 특허 제10-2021-0002198호 (2021.01.07 공개)Korean Patent Publication No. 10-2021-0002198 (published on January 7, 2021)

본 발명의 목적은 자동으로 정확하게 AFI를 측정할 수 있는 AFI 측정 장치 및 방법을 제공하는데 있다.The purpose of the present invention is to provide an AFI measurement device and method that can automatically and accurately measure AFI.

본 발명의 다른 목적은 잔향 아티팩트에도 불구하고 초음파 이미지에서 양수 주머니 영역을 정확하게 추정하여 AFI 측정 성능을 향상시킬 수 있는 AFI 측정 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide an AFI measurement device and method that can improve AFI measurement performance by accurately estimating the amniotic fluid sac area in ultrasound images despite reverberation artifacts.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 AFI 측정 장치는 양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 초음파 이미지 입력부; 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 제1 영역 추정부; 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 제2 영역 추정부; 및 상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 양수 주머니 추출부를 포함한다.An AFI measurement device according to an embodiment of the present invention for achieving the above object includes an ultrasound image input unit that acquires an input image that is an ultrasound image taken of an amniotic fluid sac; a first area estimation unit that performs a neural network operation on the input image using a pre-trained artificial neural network to detect the amniotic fluid sac area and extract it as a first area; A neural network operation is performed on the input image using a pre-trained artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound, the area where reverberation artifacts occur in the input image is detected to create a second area. a second region estimation unit that extracts; and an amniotic fluid sac extraction unit that merges the first region and the second region to obtain a complementary amniotic fluid sac region.

상기 제2 영역 추정부는 미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지에 대해 신경망 연산을 수행하여 상기 복벽 영역을 검출하는 복벽 영역 추정부; 추정된 상기 복벽 영역의 경계로부터 상기 초음파의 진행 방향으로 상기 복벽 영역의 두께만큼의 범위를 잔향 아티팩트가 발생 가능한 잔향 아티팩트 가능 영역으로 설정하는 잔향 범위 설정부; 상기 잔향 아티팩트의 발생 특성에 따라 상기 입력 이미지의 상기 잔향 아티팩트 가능 영역에 대응하는 영역에서 잔향 아티팩트가 강조된 잔향 특징맵을 획득하는 잔향 특징맵 획득부; 및 미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지와 상기 잔향 특징맵에 대해 신경망 연산을 수행하여 상기 제2 영역을 검출하는 제2 영역 검출부를 포함할 수 있다.The second area estimation unit includes an abdominal wall area estimation unit implemented with a pre-trained artificial neural network to detect the abdominal wall area by performing a neural network operation on the input image; a reverberation range setting unit that sets a range corresponding to the thickness of the abdominal wall area from the estimated boundary of the abdominal wall area in the direction in which the ultrasonic wave travels as a reverberation artifact possible area where reverberation artifacts can occur; a reverberation feature map acquisition unit that acquires a reverberation feature map in which reverberation artifacts are emphasized in a region corresponding to the reverberation artifact possible region of the input image according to the occurrence characteristics of the reverberation artifact; and a second area detection unit implemented with a pre-trained artificial neural network to detect the second area by performing a neural network operation on the input image and the reverberation feature map.

상기 잔향 특징맵 획득부는 상기 입력 이미지와 상기 잔향 아티팩트 가능 영역을 아다마르 곱(Hadamard product)하고, 초음파의 진행 방향을 따라 미분하여 상기 잔향 특징맵을 획득할 수 있다.The reverberation feature map acquisition unit may obtain the reverberation feature map by performing a Hadamard product on the input image and the reverberation artifact possible area and differentiating the result along the direction of ultrasonic waves.

상기 제2 영역 검출부는 상기 입력 이미지와 상기 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득하는 스케일 변환 입력부; 상기 입력 이미지와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 상기 입력 이미지에서 추출된 특징을 풀링하여 스케일 다운하면서, 대응하는 하위 스케일의 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출하며, 하위에서 추출된 특징을 상위의 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역을 검출하는 잔향 강조 특징 추출부; 및 상기 입력 이미지에서 상기 잔향 아티팩트 영역을 구분하여 상기 제2 영역을 획득하는 제2 영역 획득부를 포함할 수 있다.The second area detection unit includes a scale conversion input unit that receives the input image and the reverberation feature map and downscales the applied reverberation feature map to different sizes to obtain a plurality of scale reverberation feature maps; Features are extracted by encoding each of the input image and the scaled reverberation feature map, the features extracted from the input image are pooled and scaled down, and re-encoded by combining them with the features extracted from the scaled reverberation feature map of the corresponding subscale. a reverberation emphasis feature extraction unit that extracts features and detects a reverberation artifact area by decoding the features extracted at the lower level together with the features extracted at each upper scale; and a second area acquisition unit configured to obtain the second area by distinguishing the reverberation artifact area from the input image.

상기 제1 영역 추정부는 상기 입력 이미지를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지를 획득하는 다중 스케일링부; 상기 입력 이미지와 상기 다수의 스케일 입력 이미지 각각에 대해 학습된 방식에 따라 신경망 연산을 수행하여 인코딩하되, 하위 스케일에서는 상위 스케일에서 인코딩된 특징을 풀링 및 결합하여 인코딩하여 각 스케일에 따른 다수의 스케일 특징을 획득하고, 인코딩된 특징을 신경망 연산하여 디코딩하되 상위 스케일에서는 하위 스케일에서 디코딩되어 획득된 특징맵을 결합하여 디코딩하여 각 스케일에 따른 다수의 스케일 특징맵을 획득하는 특징맵 추출부; 상기 다수의 스케일 특징맵을 상기 입력 이미지의 크기로 업 샘플링하여 다수의 서브 AF 맵을 획득하는 스케일 복원부; 및 상기 다수의 서브 AF 맵을 결합하여 상기 제1 영역을 획득하는 특징맵 결합부를 포함할 수 있다.The first area estimation unit includes a multi-scaling unit that receives the input image and downscales it to different sizes to obtain multiple scale input images; A neural network operation is performed and encoded according to a learned method for each of the input image and the multiple scale input images, and at the lower scale, the features encoded at the higher scale are pooled and combined to encode the multiple scale features for each scale. A feature map extraction unit that acquires and decodes the encoded features by performing a neural network operation, but combines and decodes the feature maps obtained by decoding the lower scale at the higher scale to obtain a plurality of scale feature maps according to each scale; a scale restoration unit configured to obtain a plurality of sub-AF maps by up-sampling the plurality of scale feature maps to the size of the input image; and a feature map combining unit that combines the plurality of sub-AF maps to obtain the first area.

상기 양수 주머니 추출부는 상기 제1 영역과 상기 제2 영역을 병합하여 상기 보완 양수 주머니 영역을 획득하는 추정 영역 병합부; 및 양수 주머니의 형태학적 폐구조를 기반으로 상기 보완 양수 주머니 영역에 포함된 미세 오류를 제거하는 후처리부를 포함할 수 있다.The amniotic fluid sac extraction unit includes an estimated area merging unit that merges the first area and the second area to obtain the complementary amniotic fluid sac area; and a post-processing unit that removes microscopic errors contained in the supplementary amniotic fluid sac area based on the morphological closed structure of the amniotic fluid sac.

상기 AFI 측정 장치는 상기 보완 양수 주머니 영역의 두께를 측정하여 상기 AFI를 획득할 수 있다.The AFI measurement device may obtain the AFI by measuring the thickness of the complementary amniotic fluid sac area.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 AFI 측정 방법은 양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 단계; To achieve the above object, an AFI measurement method according to another embodiment of the present invention includes the steps of acquiring an input image, which is an ultrasound image taken of an amniotic sac;

미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 단계; 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 단계; 및 상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 단계를 포함한다.performing a neural network operation on the input image using a pre-trained artificial neural network to detect the amniotic fluid sac area and extract it as a first area; A neural network operation is performed on the input image using a pre-trained artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound movement, the area where reverberation artifacts occur in the input image is detected to create a second area. Extracting with; and merging the first region and the second region to obtain a complementary amniotic fluid sac region.

따라서, 본 발명의 실시예에 따른 AFI 측정 장치 및 방법은 초음파 이미지로부터 AFI 측정을 위한 양수 주머니 영역 판별 시에, 이중 경로 네트워크를 구성하여 잔향 아티팩트가 발생한 영역을 포함한 양수 주머니 영역을 정확하게 추정함으로써 AFI를 정확하게 추정할 수 있도록 한다.Therefore, the AFI measurement device and method according to an embodiment of the present invention constructs a dual path network when determining the amniotic fluid sac area for AFI measurement from an ultrasound image, thereby accurately estimating the amniotic fluid sac area including the area where the reverberation artifact occurred, thereby measuring the AFI Allows for accurate estimation.

도 1은 기존에 수작업에 따른 AFI 지수 측정 방식을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 AFI 측정 장치의 개략적 구조를 나타낸다.
도 3은 도 2의 AFI 측정 장치의 각 구성별 개략적 동작을 설명하기 위한 도면이다.
도 4는 도 2의 제1 영역 추정부의 상세 구성의 일 예를 나타낸다.
도 5는 도 4의 제1 영역 추정부의 구현 예를 나타낸다.
도 6은 단일 신경망을 이용하여 초음파 이미지로부터 양수 주머니 검출시 오검출 요인을 설명하기 위한 도면이다.
도 7은 잔향 아티팩트에 의해 오검출된 양수 주머니 영역의 일 예를 나타낸다.
도 8 및 도 9는 초음파 빔의 잔향 특성에 따라 잔향 아티팩트가 발생하는 영역을 설명하기 위한 도면이다.
도 10은 도 2의 제2 영역 추정부의 상세 구성의 일 예를 나타낸다.
도 11은 도 6의 제2 영역 추정부의 각 구성별 개략적 동작을 설명하기 위한 도면이다.
도 12는 도 10의 제2 영역 검출부의 상세 구성의 일 예를 나타낸다.
도 13은 도 12의 제2 영역 검출부의 구현예를 나타낸다.
도 14는 도 2의 양수 주머니 추출부의 상세 구성의 일 예를 나타낸다.
도 15는 도 14의 양수 주머니 추출부의 각 구성별 동작을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 AFI 측정 방법을 나타낸다.
Figure 1 is a diagram for explaining the existing manual AFI index measurement method.
Figure 2 shows a schematic structure of an AFI measurement device according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining the schematic operation of each component of the AFI measurement device of FIG. 2.
FIG. 4 shows an example of the detailed configuration of the first region estimation unit of FIG. 2.
FIG. 5 shows an implementation example of the first region estimation unit of FIG. 4.
Figure 6 is a diagram illustrating the factors of misdetection when detecting an amniotic fluid sac from an ultrasound image using a single neural network.
Figure 7 shows an example of an amniotic fluid sac area misdetected due to reverberation artifacts.
Figures 8 and 9 are diagrams for explaining areas where reverberation artifacts occur according to the reverberation characteristics of an ultrasonic beam.
FIG. 10 shows an example of the detailed configuration of the second region estimation unit of FIG. 2.
FIG. 11 is a diagram illustrating a schematic operation of each component of the second region estimation unit of FIG. 6.
FIG. 12 shows an example of the detailed configuration of the second area detection unit of FIG. 10.
FIG. 13 shows an implementation example of the second area detection unit of FIG. 12.
Figure 14 shows an example of the detailed configuration of the amniotic fluid bag extractor of Figure 2.
Figure 15 is a diagram for explaining the operation of each component of the amniotic fluid bag extractor of Figure 14.
Figure 16 shows an AFI measurement method according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, its operational advantages, and the objectives achieved by practicing the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be implemented in many different forms and is not limited to the described embodiments. In order to clearly explain the present invention, parts that are not relevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" a certain element, this does not mean excluding other elements, unless specifically stated to the contrary, but rather means that it may further include other elements. In addition, terms such as "... unit", "... unit", "module", and "block" used in the specification refer to a unit that processes at least one function or operation, which is hardware, software, or hardware. and software.

도 2는 본 발명의 일 실시예에 따른 AFI 측정 장치의 개략적 구조를 나타내고, 도 3은 도 2의 AFI 측정 장치의 각 구성별 개략적 동작을 설명하기 위한 도면이다.FIG. 2 shows a schematic structure of an AFI measurement device according to an embodiment of the present invention, and FIG. 3 is a diagram for explaining the schematic operation of each component of the AFI measurement device of FIG. 2.

도 2를 참조하면, 본 실시예에 따른 AFI 측정 장치는 초음파 이미지 입력부(100), 제1 영역 추정부(200), 제2 영역 추정부(300), 양수 주머니 추출부(400) 및 AFI 획득부(500)를 포함할 수 있다.Referring to FIG. 2, the AFI measurement device according to this embodiment includes an ultrasound image input unit 100, a first area estimation unit 200, a second area estimation unit 300, an amniotic fluid sac extraction unit 400, and AFI acquisition. It may include unit 500.

초음파 이미지 입력부(100)는 임신부에 대한 초음파 검사를 통해 초음파 이미지를 입력 이미지(I)로서 획득하여, 제1 영역 추정부(200) 및 제2 영역 추정부(300) 각각으로 입력한다.The ultrasound image input unit 100 acquires an ultrasound image as an input image (I) through an ultrasound examination of a pregnant woman, and inputs it to the first area estimation unit 200 and the second area estimation unit 300, respectively.

초음파 이미지 입력부(100)는 초음파 검사 장치로 구현될 수 있으나, 초음파 검사 장치에서 획득된 초음파 이미지가 미리 저장된 저장 장치 또는 초음파 이미지를 전송받는 통신 모듈 등으로 구현될 수도 있다.The ultrasonic image input unit 100 may be implemented as an ultrasonic inspection device, but may also be implemented as a storage device that pre-stores ultrasonic images obtained from the ultrasonic inspection device or a communication module that receives the ultrasonic images.

이때 초음파 이미지 입력부(100)는 획득된 초음파 이미지에서 불필요한 영역을 제거하거나, 크기 변환하여 제1 및 제2 영역 추정부(200, 300)에서 처리하기 용이한 크기의 입력 이미지(I)로 변환하는 전처리 작업을 수행할 수도 있다. 일 예로 도 3에 도시된 바와 같이, 초음파 이미지 입력부(100)는 600 X 1000 크기의 초음파 이미지를 인가받아 512 X 512 크기의 입력 이미지(I)를 획득할 수 있다.At this time, the ultrasound image input unit 100 removes unnecessary areas from the acquired ultrasound image or converts the size into an input image (I) of a size that is easy to process in the first and second area estimation units 200 and 300. Preprocessing tasks can also be performed. As an example, as shown in FIG. 3, the ultrasound image input unit 100 may receive an ultrasound image with a size of 600

제1 및 제2 영역 추정부(200, 300)는 각각은 미리 학습된 인공 신경망으로 구현되어 초음파 이미지 입력부(100)에서 전달되는 입력 이미지(I)에서 양수 주머니에 해당하는 영역을 추정하여 검출하는 양수 주머니 검출부로 동작한다.The first and second area estimation units 200 and 300 are each implemented with a pre-trained artificial neural network to estimate and detect the area corresponding to the amniotic fluid sac in the input image I transmitted from the ultrasound image input unit 100. It operates as an amniotic fluid sac detection unit.

제1 영역 추정부(200)는 학습된 방식에 따라 입력 이미지(I)에 대해 신경망 연산을 수행하여, 양수 주머니의 전체 영역에 해당하는 제1 영역(ΩD)을 검출한다. 그리고 제2 영역 추정부(200)는 양수 주머니의 전체 영역에서 제1 영역 추정부(200)가 검출하기 어려운 잔향 아티팩트 영역에 해당하는 제2 영역()을 검출한다. 즉 본 실시예의 AFI 측정 장치는 입력 이미지(I)로부터 양수 주머니 영역을 검출하기 위한 이중 신경망 경로(dual path network)로 구현된다. 여기서는 제1 영역 추정부(200)는 입력 이미지(I)에서 양수 주머니 전체 영역을 추정하는 주경로(Primary path: f*)라 하고, 제2 영역 추정부(300)는 제1 영역 추정부(200)에서 추정한 양수 주머니 영역에서 누락된 영역을 보완하기 위한 2차 경로(Secondary path: f**) 또는 보조 경로(auxiliary path)라 할 수 있다.The first area estimation unit 200 performs a neural network operation on the input image I according to a learned method and detects the first area Ω D corresponding to the entire area of the amniotic sac. And the second area estimation unit 200 selects a second area corresponding to a reverberation artifact area that is difficult for the first area estimation unit 200 to detect in the entire area of the amniotic fluid sac ( ) is detected. That is, the AFI measurement device of this embodiment is implemented with a dual path network for detecting the amniotic fluid sac area from the input image (I). Here, the first area estimation unit 200 is referred to as a primary path (f * ) that estimates the entire area of the amniotic fluid sac in the input image (I), and the second area estimation unit 300 is referred to as the first area estimation unit ( It can be called a secondary path (f ** ) or auxiliary path to make up for the missing area in the amniotic fluid sac area estimated in 200).

한편, 양수 주머니 추출부(400)는 제1 영역 추정부(200)가 추정한 제1 영역(ΩD)과 제2 영역 추정부(300)가 추정한 제2 영역()을 병합함으로써, 입력 이미지(I)에서 양수 주머니에 해당하는 양수 주머니 영역을 추출한다. 그리고 AFI 획득부(500)는 양수 주머니 추출부(400)가 획득한 양수 주머니 영역에서 AFI를 기지정된 방식으로 측정하여 획득한다.Meanwhile, the amniotic fluid sac extractor 400 uses the first area (Ω D ) estimated by the first area estimation unit 200 and the second area estimated by the second area estimation unit 300 ( ), extract the amniotic fluid sac area corresponding to the amniotic fluid sac from the input image (I). Additionally, the AFI acquisition unit 500 measures and obtains the AFI in the amniotic fluid sac area obtained by the amniotic fluid sac extraction unit 400 in a predetermined manner.

도 4는 도 2의 제1 영역 추정부의 상세 구성의 일 예를 나타내고, 도 5는 도 4의 제1 영역 추정부의 구현 예를 나타낸다.FIG. 4 shows an example of the detailed configuration of the first area estimation unit of FIG. 2, and FIG. 5 shows an example of implementation of the first area estimation unit of FIG. 4.

제1 영역 추정부(200)는 다양한 인공 신경망으로 구현될 수 있으나, 여기서는 일 예로 기존의 U-net을 변형하여 양수 주머니 영역을 구분하기 위해 고안된 AF-net(H. C. Cho, S. Sun, C. M. Hyun, J.-Y. Kwon, B. Kim, Y. Park, and J. K. Seo, "Automated ultrasound assessment of amniotic fluid index using deep learning," Medical Image Analysis, vol. 69, p. 101951, 2021.)을 이용하는 것으로 가정하며 이에 도 5는 구현 예로서 AF-net을 도시하였다.The first area estimation unit 200 may be implemented with various artificial neural networks, but here, as an example, AF-net (H. C. Cho, S. Sun, C. M. Hyun) is designed to distinguish the amniotic fluid sac area by modifying the existing U-net. , J.-Y. Kwon, B. Kim, Y. Park, and J. K. Seo, "Automated ultrasound assessment of amniotic fluid index using deep learning," Medical Image Analysis, vol. 69, p. 101951, 2021.) It is assumed that this is the case, and Figure 5 shows AF-net as an implementation example.

제1 영역 추정부(200)가 AF-net로 구현되는 경우, 제1 영역 추정부(200)는 도 4에 도시된 바와 같이, 다중 스케일링부(210), 특징맵 추출부(220), 스케일 복원부(230) 및 특징맵 결합부(240)를 포함할 수 있다.When the first region estimation unit 200 is implemented as AF-net, the first region estimation unit 200 includes a multi-scaling unit 210, a feature map extraction unit 220, and a scale, as shown in FIG. 4. It may include a restoration unit 230 and a feature map combination unit 240.

도 5를 참조하여 도 4의 제1 영역 추정부(200)의 각 구성을 설명하면, 우선 다중 스케일링부(210)는 입력 이미지(I)를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지(η1(I), η2(I), η3(I))를 획득한다. 다중 스케일링부(210)는 일 예로 평균값 풀링(average pooling)을 수행하여 다운 스케링을 수행할 수 있다.When explaining each configuration of the first region estimation unit 200 of FIG. 4 with reference to FIG. 5, first, the multi-scaling unit 210 receives the input image (I) and downscales it to different sizes to generate multiple scales. Obtain input images (η 1 (I), η 2 (I), η 3 (I)). For example, the multi-scaling unit 210 may perform downscaling by performing average pooling.

그리고 특징맵 추출부(220)는 입력 이미지(I)와 다수의 스케일 입력 이미지(η1(I), η2(I), η3(I))을 인가받고, 인가된 입력 이미지(I)와 다수의 스케일 입력 이미지(η1(I), η2(I), η3(I)) 각각에 대해 학습된 방식에 따라 아트러스 컨볼루션(atrous convolution)으로 신경망 연산을 수행한다. 아트러스 컨볼루션은 도 5의 왼쪽 하단에 도시된 바와 같이, 인공 신경망에서 컨볼루션 커널의 가중치 행렬에서 서로 인접한 가중치 원소 사이에 지정된 비율(rate)에 따른 개수의 0을 삽입하여 컨볼루션 연산을 수행하는 기법이다. 도 5에서는 일 예로 3 X 3 크기의 가중치 행렬을 이용하여 비율 4의 아트러스 컨볼루션 연산을 수행하는 것으로 가정하여, 컨볼루션 커널이 행 및 열 방향 각각으로 4번째 행 및 4번째 열 마다 가중치가 배치되고 나머지 행 및 열의 원소에서는 모두 0으로 채워져 있음을 알 수 있다. 여기서 특징맵 추출부(220)는 U-net에 기반하는 구조를 가져 다수의 스케일 인코더와 다수의 스케일 디코더로 구성되고, 다수의 스케일 인코더 중 입력 이미지(I)를 인가받는 최상위의 스케일 인코더는 입력 이미지(I)에 대해서만 신경망 연산을 수행하여 특징을 추출한다. 그리고 나머지 스케일 인코더는 대응하는 스케일에 따른 스케일 입력 이미지(η1(I), η2(I), η3(I))와 상위의 스케일에서 획득된 특징에 대해 최대값 풀링(Max pooling)을 수행하여 크기를 일치시킨 특징을 함께 인가받아 특징을 추출한다. 한편 다수의 스케일 디코더 중 가장 작은 크기의 최하위 스케일 디코더는 대응하는 최하위 스케일 인코더에서 인가되는 특징을 디코딩하여 최하위의 스케일 특징맵을 출력한다. 그리고 나머지 스케일 디코더 각각은 대응하는 스케일 인코더에서 인가되는 특징과 하위의 스케일 디코더에서 인가되는 특징을 평균값 언풀링(Average unpooling)하여 크기를 일치시킨 언풀링 특징을 함께 디코딩하여 대응하는 스케일 특징맵을 획득한다.And the feature map extractor 220 receives the input image (I) and a plurality of scale input images (η 1 (I), η 2 (I), η 3 (I)), and receives the applied input image (I) A neural network operation is performed using atrous convolution according to the learned method for each of the multiple scale input images (η 1 (I), η 2 (I), η 3 (I)). As shown in the lower left corner of Figure 5, Atrus convolution performs a convolution operation by inserting a number of 0s according to a specified rate between adjacent weight elements in the weight matrix of the convolution kernel in an artificial neural network. This is a technique. In Figure 5, as an example, assuming that an atrus convolution operation with a ratio of 4 is performed using a weight matrix of size 3 It can be seen that all elements of the remaining rows and columns are filled with 0. Here, the feature map extractor 220 has a U-net-based structure and is composed of multiple scale encoders and multiple scale decoders, and the highest scale encoder that receives the input image (I) among the multiple scale encoders is the input image (I). Features are extracted by performing a neural network operation only on the image (I). And the remaining scale encoder performs maximum value pooling on the scale input image (η 1 (I), η 2 (I), η 3 (I)) according to the corresponding scale and the features obtained at the upper scale. The features of the same size are received together and the features are extracted. Meanwhile, the smallest scale decoder among the plurality of scale decoders decodes the features applied from the corresponding lowest scale encoder and outputs the lowest scale feature map. And each of the remaining scale decoders performs average unpooling on the features applied from the corresponding scale encoder and the features applied from the lower scale decoder, and decodes the unpooled features with matching sizes to obtain the corresponding scale feature map. do.

스케일 복원부(230)는 특징맵 추출부(220)의 다수의 스케일 디코더 각각에서 서로 다른 스케일로 획득된 특징맵 각각이 동일한 크기를 갖도록 업 샘플링(Up sampling)한다. 여기서 업 샘플링되는 특징맵은 입력 이미지(I)의 크기로 업 샘플링될 수 있다. 그리고 스케일 복원부(230)는 업 샘플링된 특징맵 각각에 기지정된 활성화 함수(activation funtion)를 적용하여 서브 AF 맵()(여기서 k는 스케일 인덱스이며 도 5의 예에서는 k = {1, …, 4})을 획득한다. 여기서 활성화 함수는 일 예로 시그모이드(sigmoid) 함수가 이용될 수 있다.The scale restoration unit 230 up-samples the feature maps obtained at different scales from each of the multiple scale decoders of the feature map extraction unit 220 so that each of them has the same size. Here, the up-sampled feature map may be up-sampled to the size of the input image (I). And the scale restoration unit 230 applies a predetermined activation function to each of the up-sampled feature maps to map the sub-AF map ( ) (where k is the scale index, and in the example of Figure 5, k = {1, ..., 4}) is obtained. Here, as an example, a sigmoid function may be used as the activation function.

특징맵 결합부(240)는 다수의 서브 AF 맵()을 결합하여 입력 이미지(I)에서 양수 주머니에 해당하는 영역을 구분함으로써 제1 영역(ΩD)을 획득한다.The feature map combining unit 240 includes a plurality of sub AF maps ( ) is combined to obtain the first area (Ω D ) by distinguishing the area corresponding to the amniotic fluid sac in the input image (I).

상기한 바와 같이, AF-net로 구현되어 입력 이미지(I)로부터 양수 주머니 영역을 추출하는 제1 영역 추정부(200)의 동작(f*)에 대한 학습은 수학식 1로 수행될 수 있다.As described above, learning about the operation (f * ) of the first region estimation unit 200, which is implemented as AF-net and extracts the amniotic fluid sac region from the input image (I), can be performed using Equation 1.

여기서 는 실제 양수 주머니 영역()이 레이블된 입력 이미지(I)인 학습 데이터에서 획득된 서브 AF 맵()과 실제 양수 주머니 영역() 사이에 계산되는 교차 엔트로피 손실 함수로서, 수학식 2로 계산된다.here is the actual amniotic fluid sac area ( ) is the sub-AF map ( ) and the actual amniotic fluid sac area ( ) is a cross-entropy loss function calculated between Equation 2.

여기서 Ω는 입력 이미지(I)에서의 픽셀(I(j)) 집합을 나타낸다.Here, Ω represents the set of pixels (I (j) ) in the input image (I).

AF-net는 공지된 기술이므로 여기서는 상세하게 설명하지 않는다. Since AF-net is a known technology, it will not be described in detail here.

한편, 제2 영역 추정부(300)는 상기한 바와 같이, 제1 영역 추정부(200)가 검출하기 어려운 잔향 아티팩트 영역에 해당하는 제2 영역()을 검출한다. 본 실시예에서 AFI 측정 장치가 제1 영역 추정부(200)뿐만 아니라 제2 영역 추정부(300)를 더 구비하여 양수 주머니 영역을 추정하는 것은, 양수 주머니 영역 전체를 검출하도록 학습된 제1 영역 추정부(200)만으로는 입력 이미지(I)인 초음파 이미지에 포함된 아티팩트(artifact)로 인해 정확한 양수 주머니 영역을 추정할 수 없기 때문이다.Meanwhile, as described above, the second area estimation unit 300 generates a second area corresponding to a reverberation artifact area that is difficult for the first area estimation unit 200 to detect. ) is detected. In this embodiment, the AFI measurement device further includes not only the first area estimation unit 200 but also the second area estimation unit 300 to estimate the amniotic fluid sac area. The first area learned to detect the entire amniotic fluid sac area This is because the estimation unit 200 alone cannot accurately estimate the amniotic fluid sac area due to artifacts included in the ultrasound image, which is the input image (I).

이로 인해 비록 제1 영역 추정부(200)가 양수 주머니 영역을 검출하도록 특화된 AF-net 으로 구현되고, 양수 주머니 영역을 검출하도록 사전에 미리 학습될 지라도, 입력 이미지(I)에 포함된 다양한 아티팩트로 인해 제1 영역 추정부(200)가 양수 주머니 영역을 정확하게 추정하는 데는 한계가 있음이 기존의 연구로 잘 알려져 있다. 즉 단일 신경망 경로만으로는 아티팩트에 의한 양수 주머니 영역 오검출을 방지하기 매우 어렵다.Because of this, even though the first region estimation unit 200 is implemented as an AF-net specialized for detecting the amniotic fluid sac region and is trained in advance to detect the amniotic fluid sac region, various artifacts included in the input image (I) Therefore, it is well known from existing research that the first area estimation unit 200 has limitations in accurately estimating the amniotic fluid sac area. In other words, it is very difficult to prevent misdetection of the amniotic fluid sac area due to artifacts using only a single neural network path.

도 6은 단일 신경망을 이용하여 초음파 이미지로부터 양수 주머니 검출시 오검출 요인을 설명하기 위한 도면이다.Figure 6 is a diagram illustrating the factors causing misdetection when detecting an amniotic fluid sac from an ultrasound image using a single neural network.

도 6에 도시된 바와 같이, 초음파 이미지에는 다양한 아티팩트가 포함될 수 있다. 도 6에서 (a)는 초음파 특성에 따른 잔향 아티팩트(reverberation artifacts)를 나타내고, (b)는 양수 모방 영역(AF mimicking region)에 따른 아티팩트를 나타내며, (c)는 부유 물질(floating matters)에 의한 아티팩트를 나타낸다. 그리고 (d)는 초음파 이미지의 불완전성(incomplete) 또는 경계 누락(missing boundary)에 의한 아티팩트를 나타낸다.As shown in FIG. 6, ultrasound images may include various artifacts. In Figure 6, (a) shows reverberation artifacts according to ultrasound characteristics, (b) shows artifacts according to the AF mimicking region, and (c) shows artifacts due to floating matters. Represents an artifact. And (d) represents artifacts caused by incompleteness or missing boundaries of the ultrasound image.

그리고 도 6에 도시된 다양한 아티팩트 중 특히 초음파 검사의 특성에 다른 잔향 아티팩트가 양수 주머니 영역을 정확하게 검출하기 어렵게 하는 가장 큰 장애 요인이 되고 있다.Among the various artifacts shown in FIG. 6, reverberation artifacts that are different from the characteristics of ultrasound examination are the biggest obstacle that makes it difficult to accurately detect the amniotic fluid sac area.

도 7은 잔향 아티팩트에 의해 오검출된 양수 주머니 영역의 일 예를 나타낸다.Figure 7 shows an example of an amniotic fluid sac area misdetected due to reverberation artifacts.

도 7은 2개의 입력 이미지(I)에 대한 케이스(Case 1, Case 2)에서 오검출된 양수 주머니 영역을 나타낸다. 도 7에서 (a)는 입력 이미지(I)를 나타내고, (b)는 양수 주머니의 실제 영역과 잔향 아티팩트로 인해 오검출되는 잔향 아티팩트 영역을 나타내고, (c)는 제1 영역 추정부(200)가 추정한 양수 주머니 영역을 나타낸다. 도 7의 (b)에서 주황색 윤곽선은 실제 양수 주머니 영역을 나타내고, 청록색 점선은 잔향 아티팩트가 발생한 영역을 나타내며, (c)에서 녹색 영역이 제1 영역 추정부(200)가 추정한 양수 주머니 영역을 나타낸다.Figure 7 shows the amniotic fluid sac area incorrectly detected in cases (Case 1 and Case 2) for two input images (I). In Figure 7, (a) represents the input image (I), (b) represents the actual area of the amniotic fluid sac and the reverberation artifact area misdetected due to the reverberation artifact, and (c) represents the first area estimation unit 200. represents the estimated amniotic fluid sac area. In (b) of Figure 7, the orange outline represents the actual amniotic fluid sac area, the cyan dotted line represents the area where reverberation artifacts occurred, and the green area in (c) represents the amniotic fluid sac area estimated by the first area estimation unit 200. indicates.

도 7의 (b)와 (c)를 비교하면, 인공 신경망으로 구현된 제1 영역 추정부(200)가 양수 주머니를 추정하도록 학습될지라도 잔향 아티팩트가 발생된 영역은 양수 주머니 영역으로 검출할 수 없다는 것을 알 수 있다.Comparing (b) and (c) of FIG. 7, even though the first area estimation unit 200 implemented with an artificial neural network is trained to estimate the amniotic fluid sac, the area where the reverberation artifact occurred can be detected as the amniotic fluid sac area. You can see that there is no.

이에 본 실시예에서는 제1 영역 추정부(200)의 제1 신경망 경로와 별도로 양수 주머니에서 잔향 아티팩트가 발생한 영역인 제2 영역()을 검출하는 제2 신경망 경로인 제2 영역 추정부(300)가 더 구비된다.Accordingly, in this embodiment, separately from the first neural network path of the first area estimation unit 200, a second area (which is an area where reverberation artifacts occurred in the amniotic fluid sac) is used. ) is further provided with a second region estimation unit 300, which is a second neural network path that detects .

도 8 및 도 9는 초음파 빔의 잔향 특성에 따라 잔향 아티팩트가 발생하는 영역을 설명하기 위한 도면이다.Figures 8 and 9 are diagrams for explaining areas where reverberation artifacts occur according to the reverberation characteristics of an ultrasonic beam.

도 8에서 (a)은 잔향 아티팩트가 발생하는 원인을 설명하기 위한 도면이도, (b)는 실제 초음파 이미지에서 복벽(abdominal wall) 영역과 잔향 아티팩트 영역 사이의 관계를 나타내며, 도 9는 잔향 아티팩트에 의해 오염이 발생할 가능성이 높은 영역을 나타낸다.In Figure 8, (a) is a diagram for explaining the cause of reverberation artifacts, (b) shows the relationship between the abdominal wall area and the reverberation artifact area in an actual ultrasound image, and Figure 9 shows the reverberation artifact area. Indicates areas where contamination is likely to occur.

심각한 잔향 아티팩트는 초음파 빔이 빔 전파 방향에 대략 직교하는 복벽의 지방-근육 경계(fat-muscle interface)와 같은 강한 반사체를 만날 때 발생한다. 이러한 잔향 아티팩트는 도 8의 (a)에 도시된 바와 같이, 초음파 전파 방향에 수직인 균일 간격(d)의 다수의 평행곡선(rev1 ~ rev3) 형태로 형성된다. 따라서 잔향 아티팩트는 도 8의 (b)에 도시된 바와 같이, 복벽에서 초음파의 인가되는 방향의 반대측, 즉 초음파의 진행 방향 측에 나타나게 된다.Significant reverberation artifacts occur when the ultrasound beam encounters a strong reflector, such as the fat-muscle interface of the abdominal wall, approximately orthogonal to the direction of beam propagation. As shown in (a) of FIG. 8, these reverberation artifacts are formed in the form of a plurality of parallel curves (rev1 to rev3) at uniform intervals (d) perpendicular to the ultrasonic propagation direction. Therefore, as shown in (b) of FIG. 8, the reverberation artifact appears on the abdominal wall opposite to the direction in which the ultrasound waves are applied, that is, on the side in the direction in which the ultrasound waves travel.

도 9에서는 여러 초음파 이미지에서 잔향 아티팩트나 나타난 영역을 점선으로 표시하였다. 잔향 아티팩트가 지방-근육 경계에 의해 발생하게 되므로, 도 9의 (a) 내지 (d)에 도시된 바와 같이, 초음파 이미지가 상이하면 잔향 아티팩트가 발생하는 영역도 서로 상이하게 나타나게 됨을 알 수 있다.In Figure 9, areas where reverberation artifacts appear in several ultrasound images are indicated with dotted lines. Since reverberation artifacts are generated by the fat-muscle boundary, as shown in Figures 9 (a) to (d), it can be seen that when the ultrasound images are different, the area where the reverberation artifacts occur also appears differently.

다만 상기한 바와 같이, 잔향 아티팩트가 초음파 전파 방향에 수직인 균일 간격(d)의 다수의 평행곡선(rev1 ~ rev3) 형태로 형성되므로, 잔향 아티팩트는 복벽 영역(Ωabw)의 두께(dabw)와 거의 동일한 두께(drvb)의 범위에서 나타나게 된다(drvb ≒ dabw). 따라서 복벽 영역(Ωabw)을 검출하여 두께(dabw)를 확인하면, 복벽의 경계로부터 복벽 두께(dabw)에 대응하는 두께(drvb)의 범위 내에서 잔향 아티팩트가 발생하게 됨을 알 수 있다. 즉 잔향 아티팩트가 발생할 수 있는 잔향 아티팩트 가능 영역(Ωrvb)을 설정할 수 있다. 도 8의 (b)에서 자주색 화살표와 흰색 화살표 및 파란색 화살표는 각각 근막과 양수 주머니 및 복막-근막층의 잔향 아티팩트를 나타낸다.However, as described above, since the reverberation artifact is formed in the form of multiple parallel curves (rev1 to rev3) at uniform intervals (d) perpendicular to the ultrasound propagation direction, the reverberation artifact is the thickness (d abw ) of the abdominal wall region (Ω abw ). It appears in a range of thickness (d rvb ) that is almost the same as (d rvb ≒ d abw ). Therefore, if the thickness (d abw ) is confirmed by detecting the abdominal wall area (Ω abw ), it can be seen that reverberation artifacts occur within the range of the thickness (d rvb ) corresponding to the abdominal wall thickness (d abw ) from the boundary of the abdominal wall. . In other words, a reverberation artifact possible area (Ω rvb ) in which reverberation artifacts may occur can be set. In Figure 8(b), the purple arrows, white arrows, and blue arrows represent reverberation artifacts of the fascia, amniotic sac, and peritoneal-fascial layer, respectively.

이에 본 실시예에서는 제2 영역 추정부(300)가 복벽 영역을 검출하고, 검출된 복벽 영역을 기반으로 잔향 아티팩트 영역을 용이하게 검출하도록 한다.Accordingly, in this embodiment, the second area estimation unit 300 detects the abdominal wall area and easily detects the reverberation artifact area based on the detected abdominal wall area.

도 10은 도 2의 제2 영역 추정부의 상세 구성의 일 예를 나타내고, 도 11은 도 6의 제2 영역 추정부의 각 구성별 개략적 동작을 설명하기 위한 도면이다.FIG. 10 shows an example of the detailed configuration of the second area estimation unit of FIG. 2, and FIG. 11 is a diagram for explaining the schematic operation of each component of the second area estimation unit of FIG. 6.

도 10을 참조하면 제2 영역 추정부(300)는 복벽 영역 추정부(310), 잔향 범위 설정부(320), 잔향 특징맵 획득부(330) 및 제2 영역 검출부(340)를 포함할 수 있다.Referring to FIG. 10, the second area estimation unit 300 may include an abdominal wall area estimation unit 310, a reverberation range setting unit 320, a reverberation feature map acquisition unit 330, and a second area detection unit 340. there is.

복벽 영역 추정부(310)는 입력 이미지(I)를 인가받아 미리 학습된 방식에 따라 신경망 연산을 수행하여, 복벽 영역(Ωabw)을 검출한다. 제2 영역 추정부(300)가 복벽 영역 추정부(310)를 구비하여 복벽 영역(Ωabw)을 검출하는 것은 상기한 바와 같이 잔향 아티팩트 가능 영역(Ωrvb)보다 복벽 영역(Ωabw)이 뚜렷한 형태적 특징을 갖고 있어 추출하기 용이하기 때문이다.The abdominal wall area estimation unit 310 receives the input image (I) and performs a neural network operation according to a previously learned method to detect the abdominal wall area (Ω abw ). As described above, the second area estimation unit 300 is provided with the abdominal wall area estimation unit 310 to detect the abdominal wall area (Ω abw ) because the abdominal wall area (Ω abw ) is clearer than the reverberation artifact possible area (Ω rvb ). This is because it has morphological characteristics and is easy to extract.

복벽 영역 추정부(310)는 다양한 인공 신경망으로 구현될 수 있으나, 여기서는 일 예로 복벽 영역을 검출하도록 미리 학습된 U-net으로 구현되는 것으로 가정한다. U-net은 상기한 제1 영역 추정부(200)의 AF-net와 유사하게 입력 이미지(I)를 다양한 스케일로 변환하고 스케일별 특징을 추출하여 결합함으로써, 정확하게 복벽 영역(Ωabw)을 추출한다.The abdominal wall area estimation unit 310 may be implemented with various artificial neural networks, but here, for example, it is assumed to be implemented with a U-net that has been previously trained to detect the abdominal wall area. Similar to the AF-net of the first area estimation unit 200 described above, U-net accurately extracts the abdominal wall area (Ω abw ) by converting the input image (I) to various scales and extracting and combining features for each scale. do.

여기서 U-net로 구현된 복벽 영역 추정부(310)의 동작()은 수학식 3에 따라 미리 학습될 수 있다.Here, the operation of the abdominal wall area estimation unit 310 implemented in U-net ( ) can be learned in advance according to Equation 3.

여기서 는 입력 이미지(I)에 실제 복벽 영역()이 레이블된 학습 데이터와 추정된 복벽 영역( = Ωabw) 사이에 계산되는 교차 엔트로피 손실 함수이다.here is the actual abdominal wall area in the input image (I) ( ) labeled training data and the estimated abdominal wall area ( = Ω abw ) is the cross-entropy loss function calculated between

잔향 범위 설정부(320)는 복벽 영역 추정부(310)에서 추정된 복벽 영역(Ωabw)의 두께(dabw)를 측정하고, 복벽 영역(Ωabw)의 경계로부터 초음파의 진행 방향(r) 방향으로 측정된 복벽 두께(dabw)와 동일한 두께(Ωrvb)의 범위를 잔향 아티팩트 가능 영역(Ωrvb)으로 설정한다. 여기서 잔향 아티팩트 가능 영역(Ωrvb)은 일종의 미스크로서, 잔향 아티팩트 가능 영역(Ωrvb)을 제외한 나머지 영역의 픽셀값은 0으로 설정될 수 있다.The reverberation range setting unit 320 measures the thickness (d abw ) of the abdominal wall area (Ω abw ) estimated by the abdominal wall area estimation unit 310, and determines the direction (r) of ultrasonic waves from the boundary of the abdominal wall area (Ω abw ). The range of thickness (Ω rvb ) equal to the abdominal wall thickness (d abw ) measured in the direction is set as the reverberation artifact possible area (Ω rvb ). Here, the reverberation artifact possible area (Ω rvb ) is a kind of misk, and the pixel values of the remaining areas excluding the reverberation artifact possible area (Ω rvb ) may be set to 0.

잔향 특징맵 획득부(330)는 입력 이미지(I)와 설정된 파생 잔향 아티팩트 가능 영역(Ωrvb)을 기반으로 잔향 아티팩트가 잔향 특징맵을 획득한다. 잔향 특징맵 획득부(330)는 입력 이미지(I)와 설정된 잔향 아티팩트 가능 영역(Ωrvb)을 아다마르 곱(Hadamard product)( )하고, 초음파의 진행 방향(r)을 따라 미분()하여 잔향 특징맵을 획득할 수 있다.The reverberation feature map acquisition unit 330 acquires a reverberation feature map containing reverberation artifacts based on the input image (I) and the set derived reverberation artifact possible area (Ω rvb ). The reverberation feature map acquisition unit 330 converts the input image (I) and the set reverberation artifact possible area (Ω rvb ) into a Hadamard product ( ), and differentiate along the direction (r) of ultrasonic waves ( ) to obtain a reverberation feature map.

잔향 아티팩트 가능 영역(Ωrvb)은 단순히 잔향 아티팩트가 발생 가능한 영역을 나타낼 뿐으로 실제 양수 주머니에서 잔향 아티팩트가 발생된 영역을 나타내지는 못한다. 이에 잔향 특징맵 획득부(330)는 잔향 아티팩트의 특성상 초음파의 진행 방향(r) 방향으로 미분함으로써, 실제 양수 주머니에서 잔향 아티팩트가 발생한 영역을 강조하여 표시한 잔향 특징맵을 획득한다.The reverberation artifact possible area (Ω rvb ) simply represents an area where reverberation artifacts can occur and does not represent the area where reverberation artifacts are actually generated in the amniotic fluid sac. Accordingly, the reverberation feature map acquisition unit 330 obtains a reverberation feature map that highlights and displays the area where the reverberation artifact occurs in the actual amniotic fluid sac by differentiating it in the direction (r) of the ultrasound due to the nature of the reverberation artifact.

제2 영역 검출부(340)는 입력 이미지(I)와 잔향 특징맵을 인가받고, 인가된 잔향 특징맵에 기반하여 입력 이미지(I)에서 잔향 아티팩트가 발생한 잔향 아티팩트 영역()을 검출하고, 검출된 잔향 아티팩트 영역()을 입력 이미지로부터 분할하여 제2 영역()을 획득한다.The second area detector 340 receives the input image (I) and the reverberation feature map, and based on the applied reverberation feature map, determines the reverberation artifact area ( ) is detected, and the detected reverberation artifact area ( ) is divided from the input image into a second region ( ) to obtain.

도 12는 도 10의 제2 영역 검출부의 상세 구성의 일 예를 나타내고, 도 13은 도 12의 제2 영역 검출부의 구현예를 나타낸다.FIG. 12 shows an example of the detailed configuration of the second area detection unit of FIG. 10, and FIG. 13 shows an implementation example of the second area detection unit of FIG. 12.

도 12를 참조하면, 본 실시예에 따른 제2 영역 검출부(340)는 스케일 변환 입력부(341), 잔향 강조 특징 추출부(342) 및 제2 영역 획득부(343)를 포함할 수 있다.Referring to FIG. 12 , the second area detection unit 340 according to this embodiment may include a scale conversion input unit 341, a reverberation enhancement feature extraction unit 342, and a second area acquisition unit 343.

도 13을 참조하여, 제2 영역 검출부(340)의 각 구성의 동작을 설명하면, 우선 스케일 변환 입력부(341)는 입력 이미지(I)와 함께 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득한다.Referring to FIG. 13, when explaining the operation of each component of the second area detection unit 340, first, the scale conversion input unit 341 receives the input image (I) and the reverberation feature map, and receives the applied reverberation feature map. Multiple scale reverberation feature maps are obtained by downscaling to different sizes.

잔향 강조 특징 추출부(342)는 인공 신경망으로 구현되어 학습된 방식에 따라 입력 이미지(I)에서 잔향 아티팩트 영역을 식별하여 검출한다. 잔향 강조 특징 추출부(342)는 일 예로 U-net를 기반으로 잔향 아티팩트 영역()을 검출하도록 수정된 인공 신경망으로 구현될 수 있으며, 여기서는 이를 RVB-net라고 한다.The reverberation emphasis feature extractor 342 is implemented as an artificial neural network and identifies and detects the reverberation artifact area in the input image (I) according to a learned method. As an example, the reverberation emphasis feature extraction unit 342 extracts a reverberation artifact area ( ) can be implemented as an artificial neural network modified to detect ), herein referred to as RVB-net.

잔향 강조 특징 추출부(342)는 도 13에 도시된 바와 같이, 입력 이미지(I)와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 입력 이미지(I)에서 추출된 특징에 대해 최대값 풀링을 적용하여 스케일 다운하면서, 대응하는 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출한다. 즉 상위 스케일에서 추출될 특징을 하위 스케일로 전달하여 결합하여 특징을 추출한다. 그리고 하위에서 추출된 특징을 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역()을 검출한다. 이때 디코딩 과정에서 도 13에 도시된 바와 같은 주의 게이트(attention gate: AG)를 적용하여, 잔향 강조 특징 추출부(342)가 잔향 특징맵의 영역에만 집중하여 잔향 아티팩트 영역()을 검출하도록 할 수 있다.As shown in FIG. 13, the reverberation emphasis feature extraction unit 342 extracts features by encoding each of the input image (I) and the scaled reverberation feature map, and performs maximum value pooling on the features extracted from the input image (I). While scaling down by applying , the features are extracted by combining them with the features extracted from the corresponding scale reverberation feature map and re-encoding them. In other words, the features to be extracted from the upper scale are transferred to the lower scale and combined to extract the features. Then, the features extracted at the lower level are decoded together with the features extracted at each scale to determine the reverberation artifact area ( ) is detected. At this time, by applying an attention gate (AG) as shown in FIG. 13 during the decoding process, the reverberation emphasis feature extractor 342 focuses only on the area of the reverberation feature map and creates a reverberation artifact area ( ) can be detected.

U-net 기반 RVB-net로 구현되는 잔향 강조 특징 추출부(342)의 동작()은 수학식 4에 따라 학습될 수 있다.Operation of the reverberation emphasis feature extraction unit 342 implemented with U-net-based RVB-net ( ) can be learned according to Equation 4.

여기서 는 실제 잔향 아티팩트 영역()이 레이블된 입력 이미지(Irvb)의 학습 데이터와 스케일(k)에 따라 추출된 잔향 아티팩트 영역() 사이에 계산되는 교차 엔트로피 손실 함수이다.here is the actual reverberation artifact area ( ) is the training data of the labeled input image (I rvb ) and the reverberation artifact area ( ) is a cross-entropy loss function calculated between

잔향 강조 특징 추출부(342)는 다른 인공 신경망으로도 구성될 수 있으며, 주의 게이트(AG)의 구현 예 또한 도 13에 도시되어 있으므로 여기서는 상세한 설명을 생략한다.The reverberation emphasis feature extraction unit 342 may be composed of another artificial neural network, and an implementation example of the attention gate (AG) is also shown in FIG. 13, so detailed description is omitted here.

제2 영역 획득부(343)는 잔향 강조 특징 추출부(342)가 입력 이미지(I)로부터 잔향 아티팩트 영역()을 검출하면, 검출된 잔향 아티팩트 영역()을 구분하여 제2 영역()을 획득한다.The second area acquisition unit 343 allows the reverberation emphasis feature extraction unit 342 to extract the reverberation artifact area (I) from the input image (I). ), the detected reverberation artifact area ( ) is divided into a second area ( ) to obtain.

도 14는 도 2의 양수 주머니 추출부의 상세 구성의 일 예를 나타내고, 도 15는 도 14의 양수 주머니 추출부의 각 구성별 동작을 설명하기 위한 도면이다.FIG. 14 shows an example of the detailed configuration of the amniotic fluid bag extractor of FIG. 2, and FIG. 15 is a diagram for explaining the operation of each component of the amniotic fluid bag extractor of FIG. 14.

양수 주머니 추출부(400)는 추정 영역 병합부(410), 후처리부(420) 및 크기 조절부(430)를 포함할 수 있다. 추정 영역 병합부(410)는 제1 영역 추정부(200)에서 양수 주머니로 추정된 영역을 구분하여 획득한 제1 영역(ΩD)과 제2 영역 추정부(300)에 양수 주머니 중 잔향 아티팩트가 발생한 영역으로 구분하여 획득한 제2 영역()을 병합하여, 도 15의 왼쪽과 같이, 보완 양수 주머니 영역을 획득한다.The amniotic fluid sac extraction unit 400 may include an estimated region merging unit 410, a post-processing unit 420, and a size adjusting unit 430. The estimated area merge unit 410 divides the area estimated to be the amniotic fluid sac in the first area estimation unit 200 and obtains a first region (Ω D ) and a reverberation artifact among the amniotic fluid sac in the second area estimation unit 300. The second area obtained by dividing into the area where occurred ( ) are merged to obtain a complementary amniotic fluid sac area, as shown on the left of Figure 15.

그리고 후처리부(420)는 양수 주머니의 형태학적 폐구조를 기반으로 도 15에서 주황색 화살표로 표시된 홀과 노란색 화살표로 표시된 가양성 오류(false positive errors) 등을 제거한다. (a)와 (b)를 비교하면 제1 영역(ΩD)과 제2 영역()의 병합에도 발생한 미세한 오류가 제거되었음을 알 수 있다.And the post-processing unit 420 removes holes indicated by orange arrows and false positive errors indicated by yellow arrows in FIG. 15 based on the morphological closed structure of the amniotic fluid sac. Comparing (a) and (b), the first area (Ω D ) and the second area ( It can be seen that minor errors that occurred even in the merge of ) have been removed.

크기 조절부(430)는 오류가 제거된 보완 양수 주머니 영역에 대한 이미지를 원본 초음파 이미지의 크기로 변환하여 출력한다.The size adjustment unit 430 converts the image of the complementary amniotic fluid sac area from which the error has been removed to the size of the original ultrasound image and outputs it.

그리고 AFI 획득부(500)는 도 15에서 오른쪽 그림과 같이, 양수 주머니 영역의 폭, 즉 두께를 측정함으로써, 도 1과 마찬가지로 해당 사분면에서의 양수 깊이를 나타내는 AFI를 측정하여 AFV를 획득한다.And the AFI acquisition unit 500 acquires the AFV by measuring the width, that is, the thickness, of the amniotic fluid sac area, as shown on the right in FIG. 15, and measuring the AFI indicating the amniotic fluid depth in the corresponding quadrant, as in FIG. 1.

결과적으로 본 실시예에 따른 AFI 측정 방법은 양수 주머니 영역 전체를 추정하는 제1 영역 추정부(200)와 더불어 초음파 이미지에서 잔향 아티팩트가 발생하는 원리에 기초하여 복벽을 기반으로 잔향 아티팩트 발생 가능 영역을 검출하고, 검출된 잔향 아티팩트 발생 가능 영역 내에서 실제 잔향 아티팩트가 발생하는 영역을 추정하는 제2 추정부(300)를 구비하여 제1 및 제2 영역 추정부(200, 300)가 추정한 영역을 병합함으로써 매우 정확하게 초음파 이미지에서 양수 주머니 영역을 추출할 수 있으며, 추출된 양수 주머니 영역으로부터 AFI를 측정할 수 있다.As a result, the AFI measurement method according to this embodiment includes a first area estimation unit 200 that estimates the entire amniotic fluid sac area, and an area in which reverberation artifacts can occur based on the abdominal wall based on the principle that reverberation artifacts occur in ultrasound images. It is provided with a second estimation unit 300 that detects and estimates the area where the actual reverberation artifact occurs within the detected area where the reverberation artifact can occur, and the area estimated by the first and second area estimation units 200 and 300 is provided. By merging, the amniotic fluid sac area can be extracted from the ultrasound image with high accuracy, and AFI can be measured from the extracted amniotic fluid sac area.

도 16은 본 발명의 일 실시예에 따른 AFI 측정 방법을 나타낸다.Figure 16 shows an AFI measurement method according to an embodiment of the present invention.

도 1 내지 도 15를 참조하여, 도 16의 AFI 측정 방법을 설명하면, 우선 AFI를 측정하기 위해 임신부에 대한 초음파 이미지를 기반으로 입력 이미지(I)를 획득한다(S10). 그리고 양수 주머니 영역을 검출하도록 미리 학습된 인공 신경망을 이용하여 획득된 입력 이미지(I)에 대해 신경망 연산을 수행하여 제1 영역(ΩD)을 추출한다(S20). 제1 영역을 검출하는 단계와 함께 제2 영역()을 추출하는 단계(S30)를 수행한다.Referring to FIGS. 1 to 15 , the AFI measurement method of FIG. 16 will be described. First, in order to measure AFI, an input image (I) is acquired based on an ultrasound image of a pregnant woman (S10). Then, a neural network operation is performed on the input image (I) obtained using an artificial neural network previously trained to detect the amniotic fluid sac area to extract the first area (Ω D ) (S20). Along with the step of detecting the first area, the second area ( ) is performed (S30).

제2 영역을 추출하는 단계(S30)는 우선 입력 이미지(I)에서 복벽 영역을 추출하도록 미리 학습된 인공 신경망을 이용하여 입력 이미지(I)에 대해 신경망 연산을 수행하여 복벽 영역(Ωabw)을 검출한다(S31). 그리고 검출된 복벽 영역(Ωabw)의 경계로부터 초음파의 진행 방향(r)으로 복벽 영역(Ωabw)의 두께(dabw)만큼의 영역을 잔향 아티팩트 가능 영역(Ωrvb)으로 설정한다(S32). 이후 입력 이미지(I)와 잔향 아티팩트 가능 영역(Ωrvb)을 아다마르 곱( )하고, 초음파의 진행 방향(r)에 따라 미분()하여 잔향 아티팩트가 강조된 잔향 특징맵을 획득한다(S33). 입력 이미지(I)와 잔향 특징맵에 대해 학습된 방식에 따라 신경망 연산을 수행하여 입력 이미지(I)에서 잔향 특징맵에 의해 강조된 잔향 아티팩트 영역을 검출함으로써 제2 영역()을 검출한다.In the step of extracting the second area (S30), first, a neural network operation is performed on the input image (I) using an artificial neural network previously trained to extract the abdominal wall area from the input image (I) to extract the abdominal wall area (Ω abw ). Detect (S31). Then, an area equal to the thickness (d abw ) of the abdominal wall area (Ω abw ) in the direction (r) of the ultrasound from the boundary of the detected abdominal wall area (Ω abw ) is set as the reverberation artifact possible area (Ω rvb ) (S32) . Afterwards, the input image (I) and the possible reverberation artifact area (Ω rvb ) are combined with the Hadamard product ( ), and differentiated according to the direction (r) of ultrasonic waves ( ) to obtain a reverberation feature map in which reverberation artifacts are emphasized (S33). A neural network operation is performed according to a method learned for the input image (I) and the reverberation feature map to detect the reverberation artifact area emphasized by the reverberation feature map in the input image (I), thereby creating a second area ( ) is detected.

제1 영역(ΩD)과 제2 영역()이 추출되면, 추출된 제1 영역(ΩD)과 제2 영역()을 병합하여 보완 양수 주머니 영역(Ω)을 획득한다. 그리고 획득된 양수 주머니 영역(Ω)의 두께, 즉 양수 주머니의 깊이를 나타내는 AFI를 측정함으로써 AFV를 계산한다(S50).The first region (Ω D ) and the second region ( ) is extracted, the extracted first area (Ω D ) and the second area (Ω D) are extracted. ) are merged to obtain the complementary amniotic fluid sac area (Ω). Then, the AFV is calculated by measuring the thickness of the acquired amniotic fluid sac area (Ω), that is, the AFI indicating the depth of the amniotic fluid sac (S50).

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention can be implemented as a computer program stored on a medium for execution on a computer. Here, computer-readable media may be any available media that can be accessed by a computer, and may also include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data, including read-only memory (ROM). It may include dedicated memory), RAM (random access memory), CD (compact disk)-ROM, DVD (digital video disk)-ROM, magnetic tape, floppy disk, optical data storage device, etc.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

100: 초음파 이미지 입력부 200: 제1 영역 추정부
210: 다중 스케일링부 220: 특징맵 추출부
230: 스케일 복원부 240: 특징맵 결합부
300: 제2 영역 추정부 310: 복벽 영역 추정부
320: 잔향 범위 설정부 330: 잔향 특징맵 획득부
340: 제2 영역 검출부 341: 스케일 변환 입력부
342: 잔향 강조 특징 추출부 343: 제2 영역 획득부
400: 양수 주머니 추출부 410: 추정 영역 병합부
420: 후처리부 430: 크기 조절부
500: AFI 획득부
100: Ultrasound image input unit 200: First area estimation unit
210: Multi-scaling unit 220: Feature map extraction unit
230: scale restoration unit 240: feature map coupling unit
300: Second area estimation unit 310: Abdominal wall area estimation unit
320: Reverberation range setting unit 330: Reverberation feature map acquisition unit
340: Second area detection unit 341: Scale conversion input unit
342: Reverberation emphasis feature extraction unit 343: Second area acquisition unit
400: Amniotic fluid sac extraction unit 410: Estimated area merging unit
420: Post-processing unit 430: Size control unit
500: AFI Acquisition Department

Claims (19)

양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 초음파 이미지 입력부;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 제1 영역 추정부;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 제2 영역 추정부; 및
상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 양수 주머니 추출부를 포함하는 AFI(Amniotic Fluid Index) 측정 장치.
An ultrasound image input unit that acquires an input image that is an ultrasound image taken of the amniotic fluid sac;
a first area estimation unit that performs a neural network operation on the input image using a pre-trained artificial neural network to detect the amniotic fluid sac area and extract it as a first area;
A neural network operation is performed on the input image using a pre-trained artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound movement, the area where reverberation artifacts occur in the input image is detected to create a second area. a second region estimation unit extracted by; and
An amniotic fluid index (AFI) measuring device comprising an amniotic fluid sac extraction unit that merges the first area and the second area to obtain a complementary amniotic fluid sac area.
제1항에 있어서, 상기 제2 영역 추정부는
미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지에 대해 신경망 연산을 수행하여 상기 복벽 영역을 검출하는 복벽 영역 추정부;
추정된 상기 복벽 영역의 경계로부터 상기 초음파의 진행 방향으로 상기 복벽 영역의 두께만큼의 범위를 잔향 아티팩트가 발생 가능한 잔향 아티팩트 가능 영역으로 설정하는 잔향 범위 설정부;
상기 잔향 아티팩트의 발생 특성에 따라 상기 입력 이미지의 상기 잔향 아티팩트 가능 영역에 대응하는 영역에서 잔향 아티팩트가 강조된 잔향 특징맵을 획득하는 잔향 특징맵 획득부; 및
미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지와 상기 잔향 특징맵에 대해 신경망 연산을 수행하여 상기 제2 영역을 검출하는 제2 영역 검출부를 포함하는 AFI 측정 장치.
The method of claim 1, wherein the second area estimation unit
an abdominal wall area estimation unit implemented with a pre-trained artificial neural network to detect the abdominal wall area by performing a neural network operation on the input image;
a reverberation range setting unit that sets a range corresponding to the thickness of the abdominal wall area from the estimated boundary of the abdominal wall area in the direction in which the ultrasonic wave travels as a reverberation artifact possible area where reverberation artifacts can occur;
a reverberation feature map acquisition unit that acquires a reverberation feature map in which reverberation artifacts are emphasized in a region corresponding to the reverberation artifact possible region of the input image according to the occurrence characteristics of the reverberation artifact; and
An AFI measurement device including a second area detection unit implemented with a pre-trained artificial neural network and detecting the second area by performing a neural network operation on the input image and the reverberation feature map.
제2항에 있어서, 상기 잔향 특징맵 획득부는
상기 입력 이미지와 상기 잔향 아티팩트 가능 영역을 아다마르 곱(Hadamard product)하고, 초음파의 진행 방향을 따라 미분하여 상기 잔향 특징맵을 획득하는 AFI 측정 장치.
The method of claim 2, wherein the reverberation feature map acquisition unit
An AFI measurement device that obtains the reverberation feature map by performing a Hadamard product on the input image and the reverberation artifact possible area and differentiating it along the direction of ultrasonic waves.
제2항에 있어서, 상기 복벽 영역 추정부는
수학식

(여기서 는 입력 이미지(I)에 실제 복벽 영역()이 레이블된 학습 데이터와 추정된 복벽 영역( = Ωabw) 사이에 계산되는 교차 엔트로피 손실 함수이다.)
에 따라 학습되는 AFI 측정 장치.
The method of claim 2, wherein the abdominal wall area estimation unit
math equation

(here is the actual abdominal wall area in the input image (I) ( ) labeled training data and the estimated abdominal wall area ( = Ω abw ) is the cross-entropy loss function calculated between
AFI measurement device trained according to.
제2항에 있어서, 상기 제2 영역 검출부는
상기 입력 이미지와 상기 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득하는 스케일 변환 입력부;
상기 입력 이미지와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 상기 입력 이미지에서 추출된 특징을 풀링하여 스케일 다운하면서, 대응하는 하위 스케일의 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출하며, 하위에서 추출된 특징을 상위의 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역을 검출하는 잔향 강조 특징 추출부; 및
상기 입력 이미지에서 상기 잔향 아티팩트 영역을 구분하여 상기 제2 영역을 획득하는 제2 영역 획득부를 포함하는 AFI 측정 장치.
The method of claim 2, wherein the second area detection unit
a scale conversion input unit that receives the input image and the reverberation feature map and downscales the applied reverberation feature map to different sizes to obtain a plurality of scale reverberation feature maps;
Features are extracted by encoding each of the input image and the scaled reverberation feature map, the features extracted from the input image are pooled and scaled down, and re-encoded by combining them with the features extracted from the scaled reverberation feature map of the corresponding subscale. a reverberation emphasis feature extraction unit that extracts features and detects a reverberation artifact area by decoding the features extracted at the lower level together with the features extracted at each upper scale; and
An AFI measurement device comprising a second area acquisition unit configured to obtain the second area by distinguishing the reverberation artifact area from the input image.
제5항에 있어서, 상기 잔향 강조 특징 추출부는
수학식

(여기서 는 실제 잔향 아티팩트 영역()이 레이블된 입력 이미지(Irvb)의 학습 데이터와 스케일(k)에 따라 추출된 잔향 아티팩트 영역() 사이에 계산되는 교차 엔트로피 손실 함수이다.)
에 따라 학습되는 AFI 측정 장치.
The method of claim 5, wherein the reverberation enhancement feature extractor
math equation

(here is the actual reverberation artifact area ( ) is the training data of the labeled input image (I rvb ) and the reverberation artifact area ( ) is a cross-entropy loss function calculated between ).
AFI measurement device trained according to.
제1항에 있어서, 상기 제1 영역 추정부는
상기 입력 이미지를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지를 획득하는 다중 스케일링부;
상기 입력 이미지와 상기 다수의 스케일 입력 이미지 각각에 대해 학습된 방식에 따라 신경망 연산을 수행하여 인코딩하되, 하위 스케일에서는 상위 스케일에서 인코딩된 특징을 풀링 및 결합하여 인코딩하여 각 스케일에 따른 다수의 스케일 특징을 획득하고, 인코딩된 특징을 신경망 연산하여 디코딩하되 상위 스케일에서는 하위 스케일에서 디코딩되어 획득된 특징맵을 결합하여 디코딩하여 각 스케일에 따른 다수의 스케일 특징맵을 획득하는 특징맵 추출부;
상기 다수의 스케일 특징맵을 상기 입력 이미지의 크기로 업 샘플링하여 다수의 서브 AF 맵을 획득하는 스케일 복원부; 및
상기 다수의 서브 AF 맵을 결합하여 상기 제1 영역을 획득하는 특징맵 결합부를 포함하는 AFI 측정 장치.
The method of claim 1, wherein the first area estimation unit
a multi-scaling unit that receives the input image and downscales it to different sizes to obtain multiple scale input images;
A neural network operation is performed and encoded according to a learned method for each of the input image and the multiple scale input images, and at the lower scale, the features encoded at the higher scale are pooled and combined to encode the multiple scale features for each scale. A feature map extraction unit that acquires and decodes the encoded features by performing a neural network operation, but combines and decodes the feature maps obtained by decoding the lower scale at the higher scale to obtain a plurality of scale feature maps according to each scale;
a scale restoration unit configured to obtain a plurality of sub-AF maps by up-sampling the plurality of scale feature maps to the size of the input image; and
An AFI measurement device including a feature map combining unit that combines the plurality of sub AF maps to obtain the first area.
제7항에 있어서, 상기 제1 영역 추정부는
수학식

(여기서 는 실제 양수 주머니 영역()이 레이블된 입력 이미지(I)인 학습 데이터에서 획득된 서브 AF 맵()과 실제 양수 주머니 영역() 사이에 계산되는 교차 엔트로피 손실 함수이다.)
에 따라 학습되는 AFI 측정 장치.
The method of claim 7, wherein the first area estimation unit
math equation

(here is the actual amniotic fluid sac area ( ) is the sub-AF map ( ) and the actual amniotic fluid sac area ( ) is a cross-entropy loss function calculated between ).
AFI measurement device trained according to.
제1항에 있어서, 상기 양수 주머니 추출부는
상기 제1 영역과 상기 제2 영역을 병합하여 상기 보완 양수 주머니 영역을 획득하는 추정 영역 병합부; 및
양수 주머니의 형태학적 폐구조를 기반으로 상기 보완 양수 주머니 영역에 포함된 미세 오류를 제거하는 후처리부를 포함하는 AFI 측정 장치.
The method of claim 1, wherein the amniotic fluid bag extractor
an estimated area merging unit that merges the first area and the second area to obtain the complementary amniotic fluid sac area; and
An AFI measurement device including a post-processing unit that removes microscopic errors contained in the supplementary amniotic fluid sac area based on the morphological lung structure of the amniotic fluid sac.
제9항에 있어서, 상기 초음파 이미지 입력부는
상기 초음파 이미지를 인가받아 미리 지정된 크기로 조절하여 상기 입력 이미지를 획득하고,
상기 양수 주머니 추출부는
후처리된 보완 양수 주머니 영역을 상기 초음파 이미지의 크기로 복원하는 크기 조절부를 더 포함하는 AFI 측정 장치.
The method of claim 9, wherein the ultrasound image input unit
Obtaining the input image by receiving the ultrasound image and adjusting it to a predetermined size,
The amniotic fluid sac extraction unit
An AFI measurement device further comprising a size adjustment unit that restores the post-processed complementary amniotic fluid sac area to the size of the ultrasound image.
제1항에 있어서, 상기 AFI 측정 장치는
상기 보완 양수 주머니 영역의 두께를 측정하여 상기 AFI를 획득하는 AFI 측정 장치.
The method of claim 1, wherein the AFI measurement device
An AFI measurement device that obtains the AFI by measuring the thickness of the complementary amniotic fluid sac area.
양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 단계;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 단계;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 단계; 및
상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 단계를 포함하는 AFI(Amniotic Fluid Index) 측정 방법.
Acquiring an input image, which is an ultrasound image taken of the amniotic sac;
performing a neural network operation on the input image using a pre-trained artificial neural network to detect the amniotic fluid sac area and extract it as a first area;
A neural network operation is performed on the input image using a pre-trained artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound, the area where reverberation artifacts occur in the input image is detected to create a second area. Extracting with; and
Amniotic Fluid Index (AFI) measuring method comprising the step of merging the first area and the second area to obtain a complementary amniotic fluid sac area.
제12항에 있어서, 상기 제2 영역으로 추출하는 단계는
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 상기 복벽 영역을 추정하는 단계;
추정된 상기 복벽 영역의 경계로부터 상기 초음파의 진행 방향으로 상기 복벽 영역의 두께만큼의 범위를 잔향 아티팩트가 발생 가능한 잔향 아티팩트 가능 영역으로 설정하는 단계;
상기 잔향 아티팩트의 발생 특성에 따라 상기 입력 이미지의 상기 잔향 아티팩트 가능 영역에 대응하는 영역에서 잔향 아티팩트가 강조된 잔향 특징맵을 획득하는 단계; 및
미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지와 상기 잔향 특징맵에 대해 신경망 연산을 수행하여 상기 제2 영역을 검출하는 단계를 포함하는 AFI 측정 방법.
The method of claim 12, wherein the step of extracting to the second area is
Estimating the abdominal wall area by performing a neural network operation on the input image using a pre-trained artificial neural network;
Setting a range equal to the thickness of the abdominal wall region from the estimated boundary of the abdominal wall region in the direction of travel of the ultrasound as a reverberation artifact possible region where reverberation artifacts can occur;
Obtaining a reverberation feature map in which reverberation artifacts are emphasized in a region corresponding to the reverberation artifact possible region of the input image according to the occurrence characteristics of the reverberation artifacts; and
An AFI measurement method implemented with a pre-trained artificial neural network and comprising detecting the second area by performing a neural network operation on the input image and the reverberation feature map.
제13항에 있어서, 상기 잔향 특징맵을 획득하는 단계는
상기 입력 이미지와 상기 잔향 아티팩트 가능 영역을 아다마르 곱(Hadamard product)하는 단계;
상기 잔향 특징맵을 획득하기 위해 아다마르 곱한 결과를 초음파의 진행 방향을 따라 미분하는 단계를 포함하는 AFI 측정 방법.
The method of claim 13, wherein the step of acquiring the reverberation feature map is
performing a Hadamard product between the input image and the possible reverberation artifact area;
AFI measurement method comprising differentiating the Hadamard multiplication result along the direction of ultrasonic waves to obtain the reverberation feature map.
제14항에 있어서, 상기 제2 영역을 검출하는 단계는
상기 입력 이미지와 상기 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득하는 단계;
상기 입력 이미지와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 상기 입력 이미지에서 추출된 특징을 풀링하여 스케일 다운하면서, 대응하는 하위 스케일의 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출하며, 하위에서 추출된 특징을 상위의 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역을 검출하는 단계; 및
상기 제2 영역을 획득하기 위해 상기 입력 이미지에서 상기 잔향 아티팩트 영역을 구분하는 단계를 포함하는 AFI 측정 방법.
The method of claim 14, wherein detecting the second area includes
Obtaining a plurality of scaled reverberation feature maps by receiving the input image and the reverberation feature map and downscaling the applied reverberation feature map to different sizes;
Features are extracted by encoding each of the input image and the scaled reverberation feature map, the features extracted from the input image are pooled and scaled down, and re-encoded by combining them with the features extracted from the scaled reverberation feature map of the corresponding subscale. Extracting features and decoding the features extracted at the lower level together with the features extracted at each upper scale to detect a reverberation artifact area; and
AFI measurement method comprising dividing the reverberation artifact area in the input image to obtain the second area.
제12항에 있어서, 상기 제1 영역으로 추출하는 단계는
상기 입력 이미지를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지를 획득하는 단계;
상기 입력 이미지와 상기 다수의 스케일 입력 이미지 각각에 대해 학습된 방식에 따라 신경망 연산을 수행하여 인코딩하되, 하위 스케일에서는 상위 스케일에서 인코딩된 특징을 풀링 및 결합하여 인코딩하여 각 스케일에 따른 다수의 스케일 특징을 획득하고, 인코딩된 특징을 신경망 연산하여 디코딩하되 상위 스케일에서는 하위 스케일에서 디코딩되어 획득된 특징맵을 결합하여 디코딩하여 각 스케일에 따른 다수의 스케일 특징맵을 획득하는 단계;
상기 다수의 스케일 특징맵을 상기 입력 이미지의 크기로 업 샘플링하여 다수의 서브 AF 맵을 획득하는 단계; 및
상기 다수의 서브 AF 맵을 결합하여 상기 제1 영역을 획득하는 단계를 포함하는 AFI 측정 방법.
The method of claim 12, wherein the step of extracting into the first area is
Obtaining a plurality of scaled input images by receiving the input image and downscaling it to different sizes;
A neural network operation is performed and encoded according to a learned method for each of the input image and the multiple scale input images, and at the lower scale, the features encoded at the higher scale are pooled and combined to encode the multiple scale features for each scale. Obtaining and decoding the encoded features by performing a neural network operation, but combining and decoding the feature maps obtained by decoding at the lower scale at the higher scale to obtain a plurality of scale feature maps according to each scale;
Upsampling the plurality of scale feature maps to the size of the input image to obtain a plurality of sub AF maps; and
AFI measurement method comprising obtaining the first area by combining the plurality of sub AF maps.
제12항에 있어서, 상기 보완 양수 주머니 영역을 획득하는 단계는
상기 제1 영역과 상기 제2 영역을 병합하여 상기 보완 양수 주머니 영역을 획득하는 단계; 및
양수 주머니의 형태학적 폐구조를 기반으로 상기 보완 양수 주머니 영역에 포함된 미세 오류를 제거하는 단계를 포함하는 AFI 측정 방법.
The method of claim 12, wherein obtaining the complementary amniotic fluid sac area comprises:
Obtaining the complementary amniotic fluid sac area by merging the first area and the second area; and
A method of measuring AFI comprising the step of removing microscopic errors contained in the complementary amniotic fluid sac area based on the morphological lung structure of the amniotic fluid sac.
제17항에 있어서, 상기 입력 이미지를 획득하는 단계는
상기 초음파 이미지를 인가받아 미리 지정된 크기로 조절하여 상기 입력 이미지를 획득하고,
상기 보완 양수 주머니 영역을 획득하는 단계는
후처리된 보완 양수 주머니 영역을 상기 초음파 이미지의 크기로 복원하는 단계를 더 포함하는 AFI 측정 방법.
The method of claim 17, wherein the step of acquiring the input image is
Obtaining the input image by receiving the ultrasound image and adjusting it to a predetermined size,
The step of obtaining the complementary amniotic fluid sac area is
AFI measurement method further comprising restoring the post-processed complementary amniotic fluid sac area to the size of the ultrasound image.
제12항에 있어서, 상기 AFI 측정 방법은
상기 보완 양수 주머니 영역의 두께를 측정하여 상기 AFI를 획득하는 단계를 더 포함하는 AFI 측정 방법.
The method of claim 12, wherein the AFI measurement method is
AFI measurement method further comprising obtaining the AFI by measuring the thickness of the complementary amniotic fluid sac area.
KR1020210154711A 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images KR102631689B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210154711A KR102631689B1 (en) 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210154711A KR102631689B1 (en) 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images

Publications (2)

Publication Number Publication Date
KR20230069287A KR20230069287A (en) 2023-05-19
KR102631689B1 true KR102631689B1 (en) 2024-01-31

Family

ID=86546681

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210154711A KR102631689B1 (en) 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images

Country Status (1)

Country Link
KR (1) KR102631689B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5536025B2 (en) 1999-09-24 2014-07-02 コーニンクレッカ フィリップス エヌ ヴェ Ultrasound diagnostic imaging system with customized measurements and calculations
JP5538997B2 (en) 2002-08-02 2014-07-02 ベラソン インコーポレイテッド Three-dimensional ultrasonic-based instrument for non-invasive measurement of structures filled with liquid and structures not filled with liquid
JP2015062570A (en) 2013-09-25 2015-04-09 株式会社東芝 Ultrasonic diagnostic equipment, medical image processor, and medical image processing program
JP2016083192A (en) 2014-10-27 2016-05-19 日立アロカメディカル株式会社 Ultrasonic diagnostic equipment
JP2023530883A (en) 2020-06-19 2023-07-20 ウルトラサウンド エイアイ インコーポレイテッド premature birth prediction

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5538997B2 (en) * 1973-01-22 1980-10-07
JPS5839016B2 (en) * 1978-09-04 1983-08-26 本田技研工業株式会社 Box-shaped body flange forming method
JPS63288148A (en) * 1987-05-20 1988-11-25 Olympus Optical Co Ltd Ultrasonic treatment apparatus
KR102318155B1 (en) 2019-06-27 2021-10-28 고려대학교 산학협력단 Method for automatic measurement of amniotic fluid volume with camera angle correction function
KR20210114281A (en) * 2020-03-10 2021-09-23 삼성메디슨 주식회사 Ultrasound imaging apparatus, method for controlling the same, and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5536025B2 (en) 1999-09-24 2014-07-02 コーニンクレッカ フィリップス エヌ ヴェ Ultrasound diagnostic imaging system with customized measurements and calculations
JP5538997B2 (en) 2002-08-02 2014-07-02 ベラソン インコーポレイテッド Three-dimensional ultrasonic-based instrument for non-invasive measurement of structures filled with liquid and structures not filled with liquid
JP2015062570A (en) 2013-09-25 2015-04-09 株式会社東芝 Ultrasonic diagnostic equipment, medical image processor, and medical image processing program
JP2016083192A (en) 2014-10-27 2016-05-19 日立アロカメディカル株式会社 Ultrasonic diagnostic equipment
JP2023530883A (en) 2020-06-19 2023-07-20 ウルトラサウンド エイアイ インコーポレイテッド premature birth prediction

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Automated ultrasound assessment of amniotic fluid index using deep learning", Medical Image Analysis, Volume 69, 2021, 101951
"U-Net Tuning Hyperparameter for Segmentation in Amniotic Fluid Ultrasonography Image," 2022 4th International Conference on Cybernetics and Intelligent System (ICORIS), Prapat, Indonesia, 2022
Amniotic Fluid Classification and Artificial Intelligence: Challenges and Opportunities. Sensors. 2022; 22(12):4570
Deep Learning-Based Computer-Aided Classification of Amniotic Fluid Using Ultrasound Images from Saudi Arabia. Big Data Cogn. Comput. 2022, 6, 107

Also Published As

Publication number Publication date
KR20230069287A (en) 2023-05-19

Similar Documents

Publication Publication Date Title
CN109949309B (en) Liver CT image segmentation method based on deep learning
CN111784671B (en) Pathological image focus region detection method based on multi-scale deep learning
CN108764286B (en) Classification and identification method of feature points in blood vessel image based on transfer learning
KR101121396B1 (en) System and method for providing 2-dimensional ct image corresponding to 2-dimensional ultrasound image
den Bieman et al. Deep learning video analysis as measurement technique in physical models
CN114782694B (en) Unsupervised anomaly detection method, system, device and storage medium
CN103839281A (en) Method for measuring blood flow velocity by utilization of radiography microbubbles
CN116630323B (en) Automatic calculation method, system, medium and equipment for corrosion depth of dense metal
CN116524313A (en) Defect detection method and related device based on deep learning and multi-mode image
CN110163907B (en) Method and device for measuring thickness of transparent layer of fetal neck and storage medium
KR102631689B1 (en) Apparatus and method for measuring amniotic fluid index based on ultrasound images
CN109003280A (en) Inner membrance dividing method in a kind of blood vessel of binary channels intravascular ultrasound image
CN116664590A (en) Automatic segmentation method and device based on dynamic contrast enhancement magnetic resonance image
Chaudhari et al. Ultrasound image based fully-automated nuchal translucency segmentation and thickness measurement
CN116109812A (en) Target detection method based on non-maximum suppression threshold optimization
CN111325756A (en) Three-dimensional image artery and vein segmentation method and system based on deep learning network
CN116168029A (en) Method, device and medium for evaluating rib fracture
CN115375925A (en) Underwater sonar image matching algorithm based on phase information and deep learning
CN114376603A (en) Two-dimensional spectrum Doppler ultrasonic cardiogram image processing method and device
Dindoyal et al. Level set snake algorithms on the fetal heart
CN110033848B (en) Three-dimensional medical image z-axis interpolation method based on unsupervised learning
US20220028067A1 (en) Systems and Methods for Quantifying Vessel Features in Ultrasound Doppler Images
CN112651960A (en) Image processing method, device, equipment and storage medium
CN116012283B (en) Full-automatic ultrasonic image measurement method, equipment and storage medium
Domingos et al. Local phase-based fast ray features for automatic left ventricle apical view detection in 3D echocardiography

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant