KR20230069287A - Apparatus and method for measuring amniotic fluid index based on ultrasound images - Google Patents

Apparatus and method for measuring amniotic fluid index based on ultrasound images Download PDF

Info

Publication number
KR20230069287A
KR20230069287A KR1020210154711A KR20210154711A KR20230069287A KR 20230069287 A KR20230069287 A KR 20230069287A KR 1020210154711 A KR1020210154711 A KR 1020210154711A KR 20210154711 A KR20210154711 A KR 20210154711A KR 20230069287 A KR20230069287 A KR 20230069287A
Authority
KR
South Korea
Prior art keywords
area
reverberation
input image
scale
neural network
Prior art date
Application number
KR1020210154711A
Other languages
Korean (ko)
Other versions
KR102631689B1 (en
Inventor
서진근
조현철
권자영
박예진
선시유
현창민
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020210154711A priority Critical patent/KR102631689B1/en
Publication of KR20230069287A publication Critical patent/KR20230069287A/en
Application granted granted Critical
Publication of KR102631689B1 publication Critical patent/KR102631689B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0866Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Vascular Medicine (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pregnancy & Childbirth (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention provides an apparatus and method for measuring an AFI, which can accurately detect amniotic fluid sacs robustly even against reverberation artifacts that occur in an ultrasound image, wherein the apparatus comprises: an ultrasound image input unit which acquires an input image that is an ultrasound image taken of an amniotic fluid sac; a first area estimation unit which performs a neural network operation on the input image using a pre-trained artificial neural network to detect an area of the amniotic fluid sac and extract the same as a first area; a second area estimation unit which performs a neural network operation on the input image using a pre-trained artificial neural network to detect an abdominal wall area, detects an area where reverberation artifacts occur in the input image based on the detected abdominal wall area and the direction of ultrasound movement, and extracts the same as a second area; and an amniotic fluid sac extraction unit which merges the first area and the second area to obtain a complementary amniotic fluid sac area.

Description

초음파 이미지 기반 양수 지표 측정 장치 및 방법{Apparatus and method for measuring amniotic fluid index based on ultrasound images}Apparatus and method for measuring amniotic fluid index based on ultrasound images}

본 발명은 양수 지표 측정 장치 및 방법에 관한 것으로, 초음파 이미지 기반 양수 지표 측정 장치 및 방법에 관한 것이다.The present invention relates to an amniotic fluid indicator measuring device and method, and more particularly to an ultrasound image-based amniotic fluid indicator measuring device and method.

양수(Amniotic Fluid: AF)는 양막강(amniotic cavity)에 들어있는 보호액으로 임신 중 태아의 발달과 성숙에 필수적인 성분이다. 양수량(AF volume: 이하 AFV)은 임신 진행과 태아 발달을 반영하는 중요한 지표로서, 출산 전 임신부에 대한 초음파 검사 시에 AFV 평가는 필수적이며, AFV는 일반적으로 AF 지수(AF index: 이하 AFI)를 측정하여 추정된다. 기존에는 의사와 같은 측정자가 초음파 검사를 수행하면서 수작업으로 AFI를 측정하였다.Amniotic fluid (AF) is a protective fluid contained in the amniotic cavity and is an essential component for fetal development and maturation during pregnancy. AF volume (hereafter referred to as AFV) is an important index that reflects pregnancy progress and fetal development, and AFV evaluation is essential during ultrasound examination of pregnant women before childbirth. estimated by measuring Conventionally, a measurer such as a doctor manually measured AFI while performing an ultrasound examination.

도 1은 기존에 수작업에 따른 AFI 지수 측정 방식을 설명하기 위한 도면이다.1 is a diagram for explaining an AFI index measurement method according to the existing manual work.

도 1에 도시된 바와 같이, AFI 측정은 일반적으로 양수 주머니(Amniotic Fluid Pocket) 영역을 4분면(four quadrant)(Q1, Q2, Q3, Q4)으로 구분하고, 우측에 도시된 바와 같이 구분된 4개의 영역 각각에서 측정되는 양수 주머니의 깊이, 즉 사분면 양수 지표(four quadrant amniotic fluid index)(yQ1, yQ2, yQ3, yQ4)를 합산하여 AFI(AFI = yQ1 + yQ2 + yQ3 + yQ4)를 획득한다. 그러나 이와 같은 수작업 측정은 시간이 많이 소요될 뿐만 아니라 측정자의 숙련도에 따라 오차가 크게 발생하는 문제가 있으며, AFI의 오측정은 태아 상태에 대해 잘못된 진단을 유발하여, 조기 대응을 어렵게 하는 요인이 된다.As shown in FIG. 1, the AFI measurement generally divides the amniotic fluid pocket area into four quadrants (Q1, Q2, Q3, Q4), and as shown on the right, divided into four quadrants. AFI (AFI = y Q1 + y Q2 + y Q3 ) by summing the amniotic fluid index (y Q1 , y Q2 , y Q3 , y Q4 ) + y Q4 ). However, such manual measurement is not only time consuming, but also has a problem in that errors occur greatly depending on the skill level of the measurer, and erroneous measurement of AFI causes an erroneous diagnosis of the condition of the fetus, making it difficult to respond early.

이러한 문제를 극복하기 위해 최근에는 딥러닝 기법을 이용하여 초음파 이미지로부터 AFI를 자동으로 측정하는 방법에 대한 연구가 계속되어 왔다. 그러나 양수 주머니의 비정질 특성과 초음파의 잔향, AF 모방 영역, 부유 물질 및 초음파 이미지의 불완전 또는 누락된 경계 등과 같은 요인으로 인해 여전히 임상에 적용할 수 있는 수준으로 정확도가 높지 않다는 한계가 있다.In order to overcome these problems, research on a method for automatically measuring AFI from ultrasound images using deep learning techniques has been conducted recently. However, due to factors such as the amorphous nature of the amniotic sac, ultrasound reverberation, AF mimic area, suspended matter, and incomplete or missing borders of the ultrasound image, the accuracy is still not high enough to be applied clinically.

특히 산모 비만 및 고령 임신 연령 등에서 자주 나타나는 초음파의 잔향 아티팩트(reverberation artifact)는 양수 주머니의 구분을 어렵게 하여 AFI의 측정을 방해하는 주된 요인이 된다.In particular, reverberation artifacts of ultrasound, which frequently appear in maternal obesity and advanced gestational age, make it difficult to distinguish the amniotic sac and become a major factor hindering the measurement of AFI.

한국 공개 특허 제10-2021-0002198호 (2021.01.07 공개)Korean Patent Publication No. 10-2021-0002198 (published on January 7, 2021)

본 발명의 목적은 자동으로 정확하게 AFI를 측정할 수 있는 AFI 측정 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an AFI measuring device and method capable of automatically and accurately measuring AFI.

본 발명의 다른 목적은 잔향 아티팩트에도 불구하고 초음파 이미지에서 양수 주머니 영역을 정확하게 추정하여 AFI 측정 성능을 향상시킬 수 있는 AFI 측정 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide an AFI measurement apparatus and method capable of improving AFI measurement performance by accurately estimating an amniotic sac area in an ultrasound image despite reverberation artifacts.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 AFI 측정 장치는 양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 초음파 이미지 입력부; 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 제1 영역 추정부; 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 제2 영역 추정부; 및 상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 양수 주머니 추출부를 포함한다.An AFI measuring device according to an embodiment of the present invention for achieving the above object includes an ultrasound image input unit for obtaining an input image that is an ultrasound image taken of an amniotic sac; a first area estimator for performing a neural network operation on the input image using a pre-learned artificial neural network to detect an area of the amniotic sac and extract it as a first area; A neural network operation is performed on the input image using a pre-learned artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound waves, an area in which reverberation artifacts occur in the input image is detected to detect the second area. a second area estimator for extracting as; and an amniotic fluid bag extraction unit configured to obtain a supplementary amniotic bag region by merging the first region and the second region.

상기 제2 영역 추정부는 미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지에 대해 신경망 연산을 수행하여 상기 복벽 영역을 검출하는 복벽 영역 추정부; 추정된 상기 복벽 영역의 경계로부터 상기 초음파의 진행 방향으로 상기 복벽 영역의 두께만큼의 범위를 잔향 아티팩트가 발생 가능한 잔향 아티팩트 가능 영역으로 설정하는 잔향 범위 설정부; 상기 잔향 아티팩트의 발생 특성에 따라 상기 입력 이미지의 상기 잔향 아티팩트 가능 영역에 대응하는 영역에서 잔향 아티팩트가 강조된 잔향 특징맵을 획득하는 잔향 특징맵 획득부; 및 미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지와 상기 잔향 특징맵에 대해 신경망 연산을 수행하여 상기 제2 영역을 검출하는 제2 영역 검출부를 포함할 수 있다.an abdominal wall area estimating unit implemented as a pre-learned artificial neural network and detecting the abdominal wall area by performing a neural network operation on the input image; a reverberation range setting unit configured to set a range corresponding to the thickness of the abdominal wall region from the boundary of the estimated abdominal wall region in the traveling direction of the ultrasonic waves as a reverberation artifact possible region where reverberation artifacts may occur; a reverberation feature map acquisition unit acquiring a reverberation feature map in which reverberation artifacts are emphasized in a region corresponding to the reverberation artifact possible region of the input image according to the generation characteristics of the reverberation artifact; and a second area detection unit implemented as a pre-learned artificial neural network and detecting the second area by performing a neural network operation on the input image and the reverberation feature map.

상기 잔향 특징맵 획득부는 상기 입력 이미지와 상기 잔향 아티팩트 가능 영역을 아다마르 곱(Hadamard product)하고, 초음파의 진행 방향을 따라 미분하여 상기 잔향 특징맵을 획득할 수 있다.The reverberation feature map obtaining unit may acquire the reverberation feature map by performing a Hadamard product of the input image and the reverberation artifact possible region, and differentiating the reverberation feature map along a traveling direction of ultrasonic waves.

상기 제2 영역 검출부는 상기 입력 이미지와 상기 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득하는 스케일 변환 입력부; 상기 입력 이미지와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 상기 입력 이미지에서 추출된 특징을 풀링하여 스케일 다운하면서, 대응하는 하위 스케일의 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출하며, 하위에서 추출된 특징을 상위의 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역을 검출하는 잔향 강조 특징 추출부; 및 상기 입력 이미지에서 상기 잔향 아티팩트 영역을 구분하여 상기 제2 영역을 획득하는 제2 영역 획득부를 포함할 수 있다.The second region detection unit may include a scale conversion input unit configured to receive the input image and the reverberation feature map, and down-scaling the applied reverberation feature map to different sizes to obtain a plurality of scaled reverberation feature maps; Features are extracted by encoding each of the input image and the scaled reverberation feature map, and the features extracted from the input image are pooled and scaled down, combined with the features extracted from the scaled reverberation feature map of the corresponding lower scale, and re-encoded a reverberation enhancement feature extraction unit that extracts a feature and decodes a feature extracted at a lower level together with a feature extracted at an upper level to detect a reverberation artifact region; and a second area obtaining unit configured to acquire the second area by dividing the reverberation artifact area from the input image.

상기 제1 영역 추정부는 상기 입력 이미지를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지를 획득하는 다중 스케일링부; 상기 입력 이미지와 상기 다수의 스케일 입력 이미지 각각에 대해 학습된 방식에 따라 신경망 연산을 수행하여 인코딩하되, 하위 스케일에서는 상위 스케일에서 인코딩된 특징을 풀링 및 결합하여 인코딩하여 각 스케일에 따른 다수의 스케일 특징을 획득하고, 인코딩되어 특징을 신경망 연산하여 디코딩하되 상위 스케일에서는 하위 스케일에서 디코딩되어 획득된 특징맵을 결합하여 디코딩하여 각 스케일에 따른 다수의 스케일 특징맵을 획득하는 특징맵 추출부; 상기 다수의 스케일 특징맵을 상기 입력 이미지의 크기로 업 샘플링하여 다수의 서브 AF 맵을 획득하는 스케일 복원부; 및 상기 다수의 서브 AF 맵을 결합하여 상기 제1 영역을 획득하는 특징맵 결합부를 포함할 수 있다.The first region estimator may include a multi-scaling unit configured to obtain a plurality of scaled input images by down-scaling the input image to different sizes; The input image and each of the plurality of scaled input images are encoded by performing a neural network operation according to the learned method, but at a lower scale, a plurality of scale features according to each scale are encoded by pooling and combining features encoded at the upper scale. A feature map extractor that obtains and decodes the encoded features by neural network operation, but obtains a plurality of scale feature maps according to each scale by combining and decoding the feature maps obtained by decoding at the upper scale and the lower scale; a scale restorer configured to obtain a plurality of sub AF maps by upsampling the plurality of scale feature maps to the size of the input image; and a feature map combiner configured to obtain the first area by combining the plurality of sub AF maps.

상기 양수 주머니 추출부는 상기 제1 영역과 상기 제2 영역을 병합하여 상기 보완 양수 주머니 영역을 획득하는 추정 영역 병합부; 및 양수 주머니의 형태학적 폐구조를 기반으로 상기 보완 양수 주머니 영역에 포함된 미세 오류를 제거하는 후처리부를 포함할 수 있다.The amniotic bag extraction unit may include an estimated region merging unit that merges the first region and the second region to obtain the supplementary amniotic bag region; and a post-processing unit that removes minute errors included in the supplementary amniotic bag area based on the morphological lung structure of the amniotic bag.

상기 AFI 측정 장치는 상기 보완 양수 주머니 영역의 두께를 측정하여 상기 AFI를 획득할 수 있다.The AFI measuring device may obtain the AFI by measuring the thickness of the supplementary amniotic sac region.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 AFI 측정 방법은 양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 단계; An AFI measurement method according to another embodiment of the present invention for achieving the above object includes acquiring an input image that is an ultrasound image taken of an amniotic sac;

미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 단계; 미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 단계; 및 상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 단계를 포함한다.detecting an area of the amniotic sac by performing a neural network operation on the input image using a pre-learned artificial neural network and extracting the area as a first area; A neural network operation is performed on the input image using a pre-learned artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound waves, an area in which reverberation artifacts occur in the input image is detected to detect the second area. Extracting with; and merging the first area and the second area to obtain a supplementary amniotic bag area.

따라서, 본 발명의 실시예에 따른 AFI 측정 장치 및 방법은 초음파 이미지로부터 AFI 측정을 위한 양수 주머니 영역 판별 시에, 이중 경로 네트워크를 구성하여 잔향 아티팩트가 발생한 영역을 포함한 양수 주머니 영역을 정확하게 추정함으로써 AFI를 정확하게 추정할 수 있도록 한다.Therefore, the AFI measuring apparatus and method according to an embodiment of the present invention, when determining the amniotic sac area for AFI measurement from an ultrasound image, constructs a dual-path network to accurately estimate the area of the amniotic sac including the area where reverberation artifacts occur, thereby providing AFI to be able to estimate accurately.

도 1은 기존에 수작업에 따른 AFI 지수 측정 방식을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 AFI 측정 장치의 개략적 구조를 나타낸다.
도 3은 도 2의 AFI 측정 장치의 각 구성별 개략적 동작을 설명하기 위한 도면이다.
도 4는 도 2의 제1 영역 추정부의 상세 구성의 일 예를 나타낸다.
도 5는 도 4의 제1 영역 추정부의 구현 예를 나타낸다.
도 6은 단일 신경망을 이용하여 초음파 이미지로부터 양수 주머니 검출시 오검출 요인을 설명하기 위한 도면이다.
도 7은 잔향 아티팩트에 의해 오검출된 양수 주머니 영역의 일 예를 나타낸다.
도 8 및 도 9는 초음파 빔의 잔향 특성에 따라 잔향 아티팩트가 발생하는 영역을 설명하기 위한 도면이다.
도 10은 도 2의 제2 영역 추정부의 상세 구성의 일 예를 나타낸다.
도 11은 도 6의 제2 영역 추정부의 각 구성별 개략적 동작을 설명하기 위한 도면이다.
도 12는 도 10의 제2 영역 검출부의 상세 구성의 일 예를 나타낸다.
도 13은 도 12의 제2 영역 검출부의 구현예를 나타낸다.
도 14는 도 2의 양수 주머니 추출부의 상세 구성의 일 예를 나타낸다.
도 15는 도 14의 양수 주머니 추출부의 각 구성별 동작을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 AFI 측정 방법을 나타낸다.
1 is a diagram for explaining an AFI index measurement method according to the existing manual work.
2 shows a schematic structure of an AFI measuring device according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining a schematic operation of each component of the AFI measuring device of FIG. 2 .
FIG. 4 shows an example of a detailed configuration of the first area estimation unit of FIG. 2 .
FIG. 5 shows an implementation example of the first area estimator of FIG. 4 .
6 is a diagram for explaining misdetection factors when detecting an amniotic fluid sac from an ultrasound image using a single neural network.
7 shows an example of an amniotic sac area incorrectly detected due to reverberation artifacts.
8 and 9 are diagrams for explaining regions where reverberation artifacts occur according to reverberation characteristics of an ultrasound beam.
FIG. 10 shows an example of a detailed configuration of the second area estimation unit of FIG. 2 .
FIG. 11 is a diagram for explaining a schematic operation of each component of the second area estimation unit of FIG. 6 .
FIG. 12 shows an example of a detailed configuration of the second area detection unit of FIG. 10 .
FIG. 13 illustrates an implementation example of the second area detection unit of FIG. 12 .
14 shows an example of a detailed configuration of the amniotic bag extraction unit of FIG. 2 .
FIG. 15 is a diagram for explaining the operation of each component of the amniotic bag extractor of FIG. 14 .
16 shows an AFI measurement method according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention and its operational advantages and objectives achieved by the practice of the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the described embodiments. And, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated. In addition, terms such as "... unit", "... unit", "module", and "block" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware. And it can be implemented as a combination of software.

도 2는 본 발명의 일 실시예에 따른 AFI 측정 장치의 개략적 구조를 나타내고, 도 3은 도 2의 AFI 측정 장치의 각 구성별 개략적 동작을 설명하기 위한 도면이다.2 shows a schematic structure of an AFI measuring device according to an embodiment of the present invention, and FIG. 3 is a diagram for explaining a schematic operation of each component of the AFI measuring device of FIG. 2 .

도 2를 참조하면, 본 실시예에 따른 AFI 측정 장치는 초음파 이미지 입력부(100), 제1 영역 추정부(200), 제2 영역 추정부(300), 양수 주머니 추출부(400) 및 AFI 획득부(500)를 포함할 수 있다.Referring to FIG. 2 , the AFI measuring device according to the present embodiment includes an ultrasound image input unit 100, a first area estimation unit 200, a second area estimation unit 300, an amniotic sac extraction unit 400, and an AFI acquisition unit. It may include section 500 .

초음파 이미지 입력부(100)는 임신부에 대한 초음파 검사를 통해 초음파 이미지를 입력 이미지(I)로서 획득하여, 제1 영역 추정부(200) 및 제2 영역 추정부(300) 각각으로 입력한다.The ultrasound image input unit 100 acquires an ultrasound image as an input image I through ultrasound examination of a pregnant woman, and inputs the ultrasound image to the first region estimator 200 and the second region estimator 300, respectively.

초음파 이미지 입력부(100)는 초음파 검사 장치로 구현될 수 있으나, 초음파 검사 장치에서 획득된 초음파 이미지가 미리 저장된 저장 장치 또는 초음파 이미지를 전송받는 통신 모듈 등으로 구현될 수도 있다.The ultrasound image input unit 100 may be implemented as an ultrasound examination device, but may also be implemented as a storage device in which an ultrasound image obtained from the ultrasound examination device is previously stored or a communication module that receives ultrasound images.

이때 초음파 이미지 입력부(100)는 획득된 초음파 이미지에서 불필요한 영역을 제거하거나, 크기 변환하여 제1 및 제2 영역 추정부(200, 300)에서 처리하기 용이한 크기의 입력 이미지(I)로 변환하는 전처리 작업을 수행할 수도 있다. 일 예로 도 3에 도시된 바와 같이, 초음파 이미지 입력부(100)는 600 ㅧ 1000 크기의 초음파 이미지를 인가받아 512 ㅧ 512 크기의 입력 이미지(I)를 획득할 수 있다.At this time, the ultrasound image input unit 100 removes an unnecessary area from the obtained ultrasound image or converts the size into an input image I having a size that is easy to be processed by the first and second area estimation units 200 and 300. You can also do preprocessing. For example, as shown in FIG. 3 , the ultrasound image input unit 100 may obtain an input image I having a size of 512×512 by receiving an ultrasound image having a size of 600 × 1000.

제1 및 제2 영역 추정부(200, 300)는 각각은 미리 학습된 인공 신경망으로 구현되어 초음파 이미지 입력부(100)에서 전달되는 입력 이미지(I)에서 양수 주머니에 해당하는 영역을 추정하여 검출하는 양수 주머니 검출부로 동작한다.The first and second area estimators 200 and 300 are each implemented as a pre-learned artificial neural network to estimate and detect an area corresponding to the amniotic sac in the input image I transmitted from the ultrasound image input unit 100. It works as an amniotic sac detection unit.

제1 영역 추정부(200)는 학습된 방식에 따라 입력 이미지(I)에 대해 신경망 연산을 수행하여, 양수 주머니의 전체 영역에 해당하는 제1 영역(ΩD)을 검출한다. 그리고 제2 영역 추정부(200)는 양수 주머니의 전체 영역에서 제1 영역 추정부(200)가 검출하기 어려운 잔향 아티팩트 영역에 해당하는 제2 영역(

Figure pat00001
)을 검출한다. 즉 본 실시예의 AFI 측정 장치는 입력 이미지(I)로부터 양수 주머니 영역을 검출하기 위한 이중 신경망 경로(dual path network)로 구현된다. 여기서는 제1 영역 추정부(200)는 입력 이미지(I)에서 양수 주머니 전체 영역을 추정하는 주경로(Primary path: f*)라 하고, 제2 영역 추정부(300)는 제1 영역 추정부(200)에서 추정한 양수 주머니 영역에서 누락된 영역을 보완하기 위한 2차 경로(Secondary path: f**) 또는 보조 경로(auxiliary path)라 할 수 있다.The first area estimator 200 performs a neural network operation on the input image I according to the learned method, and detects the first area Ω D corresponding to the entire area of the amniotic sac. In addition, the second area estimator 200 includes a second area corresponding to a reverberation artifact area that is difficult for the first area estimator 200 to detect in the entire area of the amniotic bag (
Figure pat00001
) is detected. That is, the AFI measuring device of this embodiment is implemented as a dual path network for detecting the amniotic sac area from the input image I. Here, the first area estimating unit 200 is referred to as a primary path (f * ) for estimating the entire area of the amniotic bag in the input image I, and the second area estimating unit 300 is the first area estimating unit ( 200), it can be referred to as a secondary path (f ** ) or an auxiliary path to compensate for the missing area in the amniotic sac area.

한편, 양수 주머니 추출부(400)는 제1 영역 추정부(200)가 추정한 제1 영역(ΩD)과 제2 영역 추정부(300)가 추정한 제2 영역(

Figure pat00002
)을 병합함으로써, 입력 이미지(I)에서 양수 주머니에 해당하는 양수 주머니 영역을 추출한다. 그리고 AFI 획득부(500)는 양수 주머니 추출부(400)가 획득한 양수 주머니 영역에서 AFI를 기지정된 방식으로 측정하여 획득한다.Meanwhile, the amniotic bag extractor 400 determines the first area Ω D estimated by the first area estimating unit 200 and the second area Ω D estimated by the second area estimating unit 300 (
Figure pat00002
), the amniotic sac region corresponding to the amniotic sac is extracted from the input image I. The AFI obtaining unit 500 obtains the AFI by measuring the AFI in the amniotic bag area acquired by the amniotic bag extracting unit 400 in a predetermined manner.

도 4는 도 2의 제1 영역 추정부의 상세 구성의 일 예를 나타내고, 도 5는 도 4의 제1 영역 추정부의 구현 예를 나타낸다.FIG. 4 shows an example of a detailed configuration of the first area estimation unit of FIG. 2 , and FIG. 5 shows an implementation example of the first area estimation unit of FIG. 4 .

제1 영역 추정부(200)는 다양한 인공 신경망으로 구현될 수 있으나, 여기서는 일 예로 기존의 U-net을 변형하여 양수 주머니 영역을 구분하기 위해 고안된 AF-net(H. C. Cho, S. Sun, C. M. Hyun, J.-Y. Kwon, B. Kim, Y. Park, and J. K. Seo, "Automated ultrasound assessment of amniotic fluid index using deep learning," Medical Image Analysis, vol. 69, p. 101951, 2021.)을 이용하는 것으로 가정하며 이에 도 5는 구현 예로서 AF-net을 도시하였다.The first area estimator 200 may be implemented with various artificial neural networks, but here, as an example, the AF-net (H. C. Cho, S. Sun, C. M. Hyun) designed to distinguish the amniotic sac area by modifying the existing U-net , J.-Y. Kwon, B. Kim, Y. Park, and J. K. Seo, "Automated ultrasound assessment of amniotic fluid index using deep learning," Medical Image Analysis, vol. 69, p. 101951, 2021.) 5 shows AF-net as an implementation example.

제1 영역 추정부(200)가 AF-net로 구현되는 경우, 제1 영역 추정부(200)는 도 4에 도시된 바와 같이, 다중 스케일링부(210), 특징맵 추출부(220), 스케일 복원부(230) 및 특징맵 결합부(240)를 포함할 수 있다.When the first area estimator 200 is implemented as an AF-net, the first area estimator 200 includes a multiple scaling unit 210, a feature map extraction unit 220, and a scale as shown in FIG. A restoration unit 230 and a feature map combination unit 240 may be included.

도 5를 참조하여 도 4의 제1 영역 추정부(200)의 각 구성을 설명하면, 우선 다중 스케일링부(210)는 입력 이미지(I)를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지(η1(I), η2(I), η3(I))를 획득한다. 다중 스케일링부(210)는 일 예로 평균값 풀링(average pooling)을 수행하여 다운 스케링을 수행할 수 있다.Referring to FIG. 5, each component of the first area estimator 200 of FIG. 4 will be described. First, the multi-scaling unit 210 receives an input image I, down-scales it to different sizes, and multi-scales it. Acquire input images η 1 (I), η 2 (I), η 3 (I). For example, the multi-scaling unit 210 may perform downscaling by performing average pooling.

그리고 특징맵 추출부(220)는 입력 이미지(I)와 다수의 스케일 입력 이미지(η1(I), η2(I), η3(I))을 인가받고, 인가된 입력 이미지(I)와 다수의 스케일 입력 이미지(η1(I), η2(I), η3(I)) 각각에 대해 학습된 방식에 따라 아트러스 컨볼루션(atrous convolution)으로 신경망 연산을 수행한다. 아트러스 컨볼루션은 도 5의 왼쪽 하단에 도시된 바와 같이, 인공 신경망에서 컨볼루션 커널의 가중치 행렬에서 서로 인접한 가중치 원소 사이에 지정된 비율(rate)에 따른 개수의 0을 삽입하여 컨볼루션 연산을 수행하는 기법이다. 도 5에서는 일 예로 3 ㅧ 3 크기의 가중치 행렬을 이용하여 비율 4의 아트러스 컨볼루션 연산을 수행하는 것으로 가정하여, 컨볼루션 커널이 행 및 열 방향 각각으로 4번째 행 및 4번째 열 마다 가중치가 배치되고 나머지 행 및 열의 원소에서는 모두 0으로 채워져 있음을 알 수 있다. 여기서 특징맵 추출부(220)는 U-net에 기반하는 구조를 가져 다수의 스케일 인코더와 다수의 스케일 디코더로 구성되고, 다수의 스케일 인코더 중 입력 이미지(I)를 인가받는 최상위의 스케일 인코더는 입력 이미지(I)에 대해서만 신경망 연산을 수행하여 특징을 추출한다. 그리고 나머지 스케일 인코더는 대응하는 스케일에 따른 스케일 입력 이미지(η1(I), η2(I), η3(I))와 상위의 스케일에서 획득된 특징에 대해 최대값 풀링(Max pooling)을 수행하여 크기를 일치시킨 특징을 함께 인가받아 특징을 추출한다. 한편 다수의 스케일 디코더 중 가장 작은 크기의 최하위 스케일 디코더는 대응하는 최하위 스케일 인코더에서 인가되는 특징을 디코딩하여 최하위의 스케일 특징맵을 출력한다. 그리고 나머지 스케일 디코더 각각은 대응하는 스케일 인코더에서 인가되는 특징과 하위의 스케일 디코더에서 인가되는 특징을 평균값 언풀링(Average unpooling)하여 크기를 일치시킨 언풀링 특징을 함께 디코딩하여 대응하는 스케일 특징맵을 획득한다.Further, the feature map extractor 220 receives the input image I and a plurality of scaled input images η 1 (I), η 2 (I), and η 3 (I), and converts the applied input image (I) to and a plurality of scaled input images (η 1 (I), η 2 (I), η 3 (I)), and performs neural network operation by atrous convolution according to the learned method. As shown in the lower left of FIG. 5, the atrus convolution performs a convolution operation by inserting the number of 0s according to a specified rate between adjacent weight elements in the weight matrix of the convolution kernel in the artificial neural network. It is a technique to In FIG. 5, as an example, assuming that an atrus convolution operation with a ratio of 4 is performed using a weight matrix having a size of 3 × 3, the convolution kernel has a weight for every 4th row and 4th column in the row and column directions, respectively. It can be seen that all elements of the remaining rows and columns are filled with 0. Here, the feature map extractor 220 has a structure based on U-net and is composed of a plurality of scale encoders and a plurality of scale decoders, and the highest scale encoder receiving the input image (I) among the plurality of scale encoders is an input A feature is extracted by performing a neural network operation only on the image (I). In addition, the remaining scale encoder performs maximum pooling on the scale input image (η 1 (I), η 2 (I), η 3 (I)) according to the corresponding scale and the features obtained in the upper scale. The features that match the size are applied together and the features are extracted. Meanwhile, the lowest scale decoder having the smallest size among the plurality of scale decoders decodes the feature applied from the corresponding lowest scale encoder and outputs the lowest scale feature map. Then, each of the remaining scale decoders performs average unpooling of the features applied from the corresponding scale encoder and the features applied from the lower scale decoder to obtain the corresponding scale feature map by decoding the unpooling features of which sizes match together. do.

스케일 복원부(230)는 특징맵 추출부(220)의 다수의 스케일 디코더 각각에서 서로 다른 스케일로 획득된 특징맵 각각이 동일한 크기를 갖도록 업 샘플링(Up sampling)한다. 여기서 업 샘플링되는 특징맵은 입력 이미지(I)의 크기로 업 샘플링될 수 있다. 그리고 스케일 복원부(230)는 업 샘플링된 특징맵 각각에 기지정된 활성화 함수(activation funtion)를 적용하여 서브 AF 맵(

Figure pat00003
)(여기서 k는 스케일 인덱스이며 도 5의 예에서는 k = {1, …, 4})을 획득한다. 여기서 활성화 함수는 일 예로 시그모이드(sigmoid) 함수가 이용될 수 있다.The scale restoration unit 230 performs up-sampling so that feature maps obtained with different scales from each of the plurality of scale decoders of the feature map extraction unit 220 have the same size. Here, the up-sampled feature map may be up-sampled to the size of the input image I. In addition, the scale restoration unit 230 applies a predetermined activation function to each of the upsampled feature maps to sub AF map (
Figure pat00003
) (where k is a scale index and in the example of FIG. 5 k = {1, ..., 4}) is obtained. Here, as an example, a sigmoid function may be used as the activation function.

특징맵 결합부(240)는 다수의 서브 AF 맵(

Figure pat00004
)을 결합하여 입력 이미지(I)에서 양수 주머니에 해당하는 영역을 구분함으로써 제1 영역(ΩD)을 획득한다.The feature map combining unit 240 includes a plurality of sub AF maps (
Figure pat00004
) to obtain the first region Ω D by dividing the region corresponding to the amniotic sac in the input image I.

상기한 바와 같이, AF-net로 구현되어 입력 이미지(I)로부터 양수 주머니 영역을 추출하는 제1 영역 추정부(200)의 동작(f*)에 대한 학습은 수학식 1로 수행될 수 있다.As described above, learning about the operation (f * ) of the first area estimator 200 that is implemented as AF-net and extracts the amniotic sac area from the input image I may be performed using Equation 1.

Figure pat00005
Figure pat00005

여기서

Figure pat00006
는 실제 양수 주머니 영역(
Figure pat00007
)이 레이블된 입력 이미지(I)인 학습 데이터에서 획득된 서브 AF 맵(
Figure pat00008
)과 실제 양수 주머니 영역(
Figure pat00009
) 사이에 계산되는 교차 엔트로피 손실 함수로서, 수학식 2로 계산된다.here
Figure pat00006
is the actual amniotic sac area (
Figure pat00007
) is the sub-AF map (
Figure pat00008
) and the actual amniotic sac area (
Figure pat00009
) as the cross entropy loss function calculated between Equation 2.

Figure pat00010
Figure pat00010

여기서 Ω는 입력 이미지(I)에서의 픽셀(I(j)) 집합을 나타낸다.Here, Ω represents a set of pixels (I (j) ) in the input image (I).

AF-net는 공지된 기술이므로 여기서는 상세하게 설명하지 않는다. Since AF-net is a well-known technology, it is not described in detail here.

한편, 제2 영역 추정부(300)는 상기한 바와 같이, 제1 영역 추정부(200)가 검출하기 어려운 잔향 아티팩트 영역에 해당하는 제2 영역(

Figure pat00011
)을 검출한다. 본 실시예에서 AFI 측정 장치가 제1 영역 추정부(200)뿐만 아니라 제2 영역 추정부(300)를 더 구비하여 양수 주머니 영역을 추정하는 것은, 양수 주머니 영역 전체를 검출하도록 학습된 제1 영역 추정부(200)만으로는 입력 이미지(I)인 초음파 이미지에 포함된 아티팩트(artifact)로 인해 정확한 양수 주머니 영역을 추정할 수 없기 때문이다.Meanwhile, as described above, the second area estimator 300 includes a second area (which corresponds to a reverberation artifact area that is difficult for the first area estimator 200 to detect).
Figure pat00011
) is detected. In this embodiment, the AFI measuring device further includes the first area estimating unit 200 and the second area estimating unit 300 to estimate the amniotic bag area, which is the first area learned to detect the entire amniotic bag area. This is because the estimation unit 200 alone cannot accurately estimate the amniotic sac area due to artifacts included in the ultrasound image that is the input image I.

이로 인해 비록 제1 영역 추정부(200)가 양수 주머니 영역을 검출하도록 특화된 AF-net 으로 구현되고, 양수 주머니 영역을 검출하도록 사전에 미리 학습될 지라도, 입력 이미지(I)에 포함된 다양한 아티팩트로 인해 제1 영역 추정부(200)가 양수 주머니 영역을 정확하게 추정하는 데는 한계가 있음이 기존의 연구로 잘 알려져 있다. 즉 단일 신경망 경로만으로는 아티팩트에 의한 양수 주머니 영역 오검출을 방지하기 매우 어렵다.For this reason, although the first area estimator 200 is implemented as an AF-net specialized for detecting the amniotic sac area and learned in advance to detect the amniotic sac area, various artifacts included in the input image I Therefore, it is well known from previous studies that the first area estimator 200 has limitations in accurately estimating the amniotic sac area. That is, it is very difficult to prevent erroneous detection of the amniotic sac area due to artifacts using only a single neural network path.

도 6은 단일 신경망을 이용하여 초음파 이미지로부터 양수 주머니 검출시 오검출 요인을 설명하기 위한 도면이다.6 is a diagram for explaining misdetection factors when detecting an amniotic fluid sac from an ultrasound image using a single neural network.

도 6에 도시된 바와 같이, 초음파 이미지에는 다양한 아티팩트가 포함될 수 있다. 도 6에서 (a)는 초음파 특성에 따른 잔향 아티팩트(reverberation artifacts)를 나타내고, (b)는 양수 모방 영역(AF mimicking region)에 따른 아티팩트를 나타내며, (c)는 부유 물질(floating matters)에 의한 아티팩트를 나타낸다. 그리고 (d)는 초음파 이미지의 불완전성(incomplete) 또는 경계 누락(missing boundary)에 의한 아티팩트를 나타낸다.As shown in FIG. 6 , an ultrasound image may include various artifacts. In FIG. 6, (a) shows reverberation artifacts according to ultrasonic characteristics, (b) shows artifacts according to AF mimicking region, and (c) shows artifacts according to floating matters. Indicates an artifact. And (d) represents an artifact due to an incomplete or missing boundary of the ultrasound image.

그리고 도 6에 도시된 다양한 아티팩트 중 특히 초음파 검사의 특성에 다른 잔향 아티팩트가 양수 주머니 영역을 정확하게 검출하기 어렵게 하는 가장 큰 장애 요인이 되고 있다.Among the various artifacts shown in FIG. 6 , in particular, reverberation artifacts, which are different from the characteristics of ultrasound examination, become the biggest obstacle that makes it difficult to accurately detect the amniotic sac area.

도 7은 잔향 아티팩트에 의해 오검출된 양수 주머니 영역의 일 예를 나타낸다.7 shows an example of an amniotic sac area incorrectly detected due to reverberation artifacts.

도 7은 2개의 입력 이미지(I)에 대한 케이스(Case 1, Case 2)에서 오검출된 양수 주머니 영역을 나타낸다. 도 7에서 (a)는 입력 이미지(I)를 나타내고, (b)는 양수 주머니의 실제 영역과 잔향 아티팩트로 인해 오검출되는 잔향 아티팩트 영역을 나타내고, (c)는 제1 영역 추정부(200)가 추정한 양수 주머니 영역을 나타낸다. 도 7의 (b)에서 주황색 윤곽선은 실제 양수 주머니 영역을 나타내고, 청록색 점선은 잔향 아티팩트가 발생한 영역을 나타내며, (c)에서 녹색 영역이 제1 영역 추정부(200)가 추정한 양수 주머니 영역을 나타낸다.7 shows amniotic sac regions incorrectly detected in cases (Case 1 and Case 2) for two input images (I). In FIG. 7, (a) shows the input image (I), (b) shows the real area of the amniotic bag and the reverberation artifact area incorrectly detected due to the reverberation artifact, and (c) shows the first area estimation unit 200 represents the estimated amniotic sac area. In (b) of FIG. 7, the orange outline represents the actual amniotic bag area, the cyan dotted line represents the area where reverberation artifacts occur, and the green area in (c) represents the amniotic bag area estimated by the first area estimator 200. indicate

도 7의 (b)와 (c)를 비교하면, 인공 신경망으로 구현된 제1 영역 추정부(200)가 양수 주머니를 추정하도록 학습될지라도 잔향 아티팩트가 발생된 영역은 양수 주머니 영역으로 검출할 수 없다는 것을 알 수 있다.Comparing (b) and (c) of FIG. 7 , even if the first area estimator 200 implemented as an artificial neural network is trained to estimate the amniotic sac, the area where reverberation artifacts are generated cannot be detected as the area of the amniotic sac. It can be seen that there is no

이에 본 실시예에서는 제1 영역 추정부(200)의 제1 신경망 경로와 별도로 양수 주머니에서 잔향 아티팩트가 발생한 영역인 제2 영역(

Figure pat00012
)을 검출하는 제2 신경망 경로인 제2 영역 추정부(300)가 더 구비된다.Accordingly, in the present embodiment, a second region (a region in which reverberation artifacts occur in the amniotic sac) separate from the first neural network path of the first region estimator 200 (
Figure pat00012
) is further provided with a second area estimator 300 that is a second neural network path for detecting.

도 8 및 도 9는 초음파 빔의 잔향 특성에 따라 잔향 아티팩트가 발생하는 영역을 설명하기 위한 도면이다.8 and 9 are diagrams for explaining regions where reverberation artifacts occur according to reverberation characteristics of an ultrasound beam.

도 8에서 (a)은 잔향 아티팩트가 발생하는 원인을 설명하기 위한 도면이도, (b)는 실제 초음파 이미지에서 복벽(abdominal wall) 영역과 잔향 아티팩트 영역 사이의 관계를 나타내며, 도 9는 잔향 아티팩트에 의해 오염이 발생할 가능성이 높은 영역을 나타낸다.In FIG. 8, (a) is a diagram for explaining the cause of reverberation artifacts, (b) shows the relationship between an abdominal wall area and a reverberation artifact area in an actual ultrasound image, and FIG. 9 shows a reverberation artifact represents an area with a high probability of contamination by

심각한 잔향 아티팩트는 초음파 빔이 빔 전파 방향에 대략 직교하는 복벽의 지방-근육 경계(fat-muscle interface)와 같은 강한 반사체를 만날 때 발생한다. 이러한 잔향 아티팩트는 도 8의 (a)에 도시된 바와 같이, 초음파 전파 방향에 수직인 균일 간격(d)의 다수의 평행곡선(rev1 ~ rev3) 형태로 형성된다. 따라서 잔향 아티팩트는 도 8의 (b)에 도시된 바와 같이, 복벽에서 초음파의 인가되는 방향의 반대측, 즉 초음파의 진행 방향 측에 나타나게 된다.Severe reverberation artifacts occur when the ultrasound beam encounters a strong reflector, such as the fat-muscle interface of the abdominal wall, approximately orthogonal to the direction of beam propagation. As shown in (a) of FIG. 8, these reverberation artifacts are formed in the form of a plurality of parallel curves (rev1 to rev3) at regular intervals (d) perpendicular to the ultrasonic propagation direction. Therefore, as shown in (b) of FIG. 8 , the reverberation artifact appears on the opposite side of the direction in which the ultrasonic wave is applied, that is, on the side of the ultrasonic wave propagation direction.

도 9에서는 여러 초음파 이미지에서 잔향 아티팩트나 나타난 영역을 점선으로 표시하였다. 잔향 아티팩트가 지방-근육 경계에 의해 발생하게 되므로, 도 9의 (a) 내지 (d)에 도시된 바와 같이, 초음파 이미지가 상이하면 잔향 아티팩트가 발생하는 영역도 서로 상이하게 나타나게 됨을 알 수 있다.In FIG. 9 , areas where reverberation artifacts or appeared in several ultrasound images are indicated by dotted lines. Since reverberation artifacts are generated by the fat-muscle boundary, it can be seen that, as shown in (a) to (d) of FIG. 9 , if the ultrasound images are different, the regions where reverberation artifacts occur also appear differently.

다만 상기한 바와 같이, 잔향 아티팩트가 초음파 전파 방향에 수직인 균일 간격(d)의 다수의 평행곡선(rev1 ~ rev3) 형태로 형성되므로, 잔향 아티팩트는 복벽 영역(Ωabw)의 두께(dabw)와 거의 동일한 두께(drvb)의 범위에서 나타나게 된다(drvb ≒ dabw). 따라서 복벽 영역(Ωabw)을 검출하여 두께(dabw)를 확인하면, 복벽의 경계로부터 복벽 두께(dabw)에 대응하는 두께(drvb)의 범위 내에서 잔향 아티팩트가 발생하게 됨을 알 수 있다. 즉 잔향 아티팩트가 발생할 수 있는 잔향 아티팩트 가능 영역(Ωrvb)을 설정할 수 있다. 도 8의 (b)에서 자주색 화살표와 흰색 화살표 및 파란색 화살표는 각각 근막과 양수 주머니 및 복막-근막층의 잔향 아티팩트를 나타낸다.However, as described above, since the reverberation artifact is formed in the form of a plurality of parallel curves (rev1 to rev3) at uniform intervals (d) perpendicular to the ultrasonic propagation direction, the reverberation artifact is the thickness (d abw ) of the abdominal wall area (Ω abw ) It appears in the range of thickness (d rvb ) almost equal to (d rvb ≒ d abw ). Therefore, when the thickness (d abw ) is confirmed by detecting the abdominal wall area (Ω abw ), it can be seen that reverberation artifacts are generated within the range of the thickness (d rvb ) corresponding to the abdominal wall thickness (d abw ) from the boundary of the abdominal wall. . That is, a reverberation artifact possible region (Ω rvb ) in which reverberation artifacts may occur may be set. In (b) of FIG. 8 , purple arrows, white arrows, and blue arrows indicate reverberation artifacts of fascia, amniotic sac, and peritoneum-fascia layer, respectively.

이에 본 실시예에서는 제2 영역 추정부(300)가 복벽 영역을 검출하고, 검출된 복벽 영역을 기반으로 잔향 아티팩트 영역을 용이하게 검출하도록 한다.Therefore, in this embodiment, the second area estimator 300 detects the abdominal wall area and easily detects the reverberation artifact area based on the detected abdominal wall area.

도 10은 도 2의 제2 영역 추정부의 상세 구성의 일 예를 나타내고, 도 11은 도 6의 제2 영역 추정부의 각 구성별 개략적 동작을 설명하기 위한 도면이다.FIG. 10 shows an example of a detailed configuration of the second area estimation unit of FIG. 2 , and FIG. 11 is a diagram for explaining a schematic operation of each configuration of the second area estimation unit of FIG. 6 .

도 10을 참조하면 제2 영역 추정부(300)는 복벽 영역 추정부(310), 잔향 범위 설정부(320), 잔향 마스크 획득부(330) 및 제2 영역 검출부(340)를 포함할 수 있다.Referring to FIG. 10 , the second area estimation unit 300 may include an abdominal wall area estimation unit 310, a reverberation range setting unit 320, a reverberation mask acquisition unit 330, and a second area detection unit 340. .

복벽 영역 추정부(310)는 입력 이미지(I)를 인가받아 미리 학습된 방식에 따라 신경망 연산을 수행하여, 복벽 영역(Ωabw)을 검출한다. 제2 영역 추정부(300)가 복벽 영역 추정부(310)를 구비하여 복벽 영역(Ωabw)을 검출하는 것은 상기한 바와 같이 잔향 아티팩트 가능 영역(Ωrvb)보다 복벽 영역(Ωabw)이 뚜렷한 형태적 특징을 갖고 있어 추출하기 용이하기 때문이다.The abdominal wall area estimator 310 receives the input image I and performs a neural network operation according to a previously learned method to detect the abdominal wall area Ω abw . When the second area estimator 300 includes the abdominal wall area estimator 310 to detect the abdominal wall area Ω abw , the abdominal wall area Ω abw is more distinct than the reverberation artifact possible area Ω rvb , as described above. This is because it has morphological characteristics and is easy to extract.

복벽 영역 추정부(310)는 다양한 인공 신경망으로 구현될 수 있으나, 여기서는 일 예로 복벽 영역을 검출하도록 미리 학습된 U-net으로 구현되는 것으로 가정한다. U-net은 상기한 제1 영역 추정부(200)의 AF-net와 유사하게 입력 이미지(I)를 다양한 스케일로 변환하고 스케일별 특징을 추출하여 결합함으로써, 정확하게 복벽 영역(Ωabw)을 추출한다.The abdominal wall area estimator 310 may be implemented with various artificial neural networks, but here it is assumed that it is implemented with a U-net pretrained to detect the abdominal wall area as an example. Similar to AF-net of the first area estimator 200, U-net accurately extracts the abdominal wall area (Ω abw ) by converting the input image (I) into various scales and extracting and combining features for each scale. do.

여기서 U-net로 구현된 복벽 영역 추정부(310)의 동작(

Figure pat00013
)은 수학식 3에 따라 미리 학습될 수 있다.Here, the operation of the abdominal wall area estimation unit 310 implemented by U-net (
Figure pat00013
) may be learned in advance according to Equation 3.

Figure pat00014
Figure pat00014

여기서

Figure pat00015
는 입력 이미지(I)에 실제 복벽 영역(
Figure pat00016
)이 레이블된 학습 데이터와 추정된 복벽 영역(
Figure pat00017
= Ωabw) 사이에 계산되는 교차 엔트로피 손실 함수이다.here
Figure pat00015
Is the actual abdominal wall area in the input image (I) (
Figure pat00016
) is the labeled training data and the estimated abdominal wall area (
Figure pat00017
= Ω abw ) is the cross-entropy loss function calculated between

잔향 범위 설정부(320)는 복벽 영역 추정부(310)에서 추정된 복벽 영역(Ωabw)의 두께(dabw)를 측정하고, 복벽 영역(Ωabw)의 경계로부터 초음파의 진행 방향(r) 방향으로 측정된 복벽 두께(dabw)와 동일한 두께(Ωrvb)의 범위를 잔향 아티팩트 가능 영역(Ωrvb)으로 설정한다. 여기서 잔향 아티팩트 가능 영역(Ωrvb)은 일종의 미스크로서, 잔향 아티팩트 가능 영역(Ωrvb)을 제외한 나머지 영역의 픽셀값은 0으로 설정될 수 있다.The reverberation range setting unit 320 measures the thickness (d abw ) of the abdominal wall area (Ω abw ) estimated by the abdominal wall area estimating unit 310, and measures the direction (r) of the ultrasonic wave from the boundary of the abdominal wall area (Ω abw ). A range of the thickness (Ω rvb ) equal to the abdominal wall thickness (d abw ) measured in the direction is set as the reverberation artifact possible region (Ω rvb ). Here, the reverberation artifact possible region Ω rvb is a kind of mask, and pixel values of the remaining region except for the reverberation artifact possible region Ω rvb may be set to 0.

잔향 특징맵 획득부(330)는 입력 이미지(I)와 설정된 파생 잔향 아티팩트 가능 영역(Ωrvb)을 기반으로 잔향 아티팩트가 잔향 특징맵을 획득한다. 잔향 특징맵 획득부(330)는 입력 이미지(I)와 설정된 잔향 아티팩트 가능 영역(Ωrvb)을 아다마르 곱(Hadamard product)(

Figure pat00018
)하고, 초음파의 진행 방향(r)을 따라 미분(
Figure pat00019
)하여 잔향 특징맵을 획득할 수 있다.The reverberation feature map acquisition unit 330 obtains a reverberation artifact feature map based on the input image I and the set possible region for derived reverberation artifacts (Ω rvb ). The reverberation feature map acquisition unit 330 calculates the Hadamard product (Hadamard product) of the input image (I) and the set reverberation artifact possible region (Ω rvb ).
Figure pat00018
), and differentiated along the direction (r) of the ultrasonic wave (
Figure pat00019
) to obtain a reverberation feature map.

잔향 아티팩트 가능 영역(Ωrvb)은 단순히 잔향 아티팩트가 발생 가능한 영역을 나타낼 뿐으로 시제 양수 주머니에서 잔향 아티팩트가 발생된 영역을 나타내지는 못한다. 이에 잔향 특징맵 획득부(330)는 잔향 아티팩트의 특성상 초음파의 진행 방향(r) 방향으로 미분함으로써, 실제 양수 주머니에서 잔향 아티팩트가 발생한 영역을 강조하여 표시한 잔향 특징맵을 획득한다.The area where reverberation artifacts are possible (Ω rvb ) merely represents a region where reverberation artifacts can occur, but does not represent a region where reverberation artifacts occur in the amniotic fluid bag. Accordingly, the reverberation feature map acquisition unit 330 acquires a reverberation feature map that highlights and displays a region where a reverberation artifact occurs in an actual amniotic sac by differentiating the reverberation artifact in the traveling direction (r) of the ultrasonic waves due to the nature of the reverberation artifact.

제2 영역 검출부(340)는 입력 이미지(I)와 잔향 특징맵을 인가받고, 인가된 잔향 특징맵에 기반하여 입력 이미지(I)에서 잔향 아티팩트가 발생한 잔향 아티팩트 영역(

Figure pat00020
)을 검출하고, 검출된 잔향 아티팩트 영역(
Figure pat00021
)을 입력 이미지로부터 분할하여 제2 영역(
Figure pat00022
)을 획득한다.The second region detector 340 receives the input image I and the reverberation feature map, and determines a reverberation artifact region in which a reverberation artifact occurs in the input image I based on the applied reverberation feature map (
Figure pat00020
) is detected, and the detected reverberation artifact area (
Figure pat00021
) is divided from the input image to form a second region (
Figure pat00022
) to obtain

도 12는 도 10의 제2 영역 검출부의 상세 구성의 일 예를 나타내고, 도 13은 도 12의 제2 영역 검출부의 구현예를 나타낸다.FIG. 12 shows an example of a detailed configuration of the second area detection unit of FIG. 10 , and FIG. 13 shows an implementation example of the second area detection unit of FIG. 12 .

도 12를 참조하면, 본 실시예에 따른 제2 영역 검출부(340)는 스케일 변환 입력부(341), 잔향 강조 특징 추출부(342) 및 제2 영역 획득부(343)를 포함할 수 있다.Referring to FIG. 12 , the second area detector 340 according to the present embodiment may include a scale conversion input unit 341 , a reverberation enhancement feature extractor 342 and a second area obtainer 343 .

도 13을 참조하여, 제2 영역 검출부(340)의 각 구성의 동작을 설명하면, 우선 스케일 변환 입력부(341)는 입력 이미지(I)와 함께 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득한다.Referring to FIG. 13, the operation of each component of the second area detection unit 340 will be described. First, the scale conversion input unit 341 receives an input image I and a reverberation feature map, and converts the applied reverberation feature map into By down-scaling to different sizes, multiple scale reverberation feature maps are obtained.

잔향 강조 특징 추출부(342)는 인공 신경망으로 구현되어 학습된 방식에 따라 입력 이미지(I)에서 잔향 아티팩트 영역을 식별하여 검출한다. 잔향 강조 특징 추출부(342)는 일 예로 U-net를 기반으로 잔향 아티팩트 영역(

Figure pat00023
)을 검출하도록 수정된 인공 신경망으로 구현될 수 있으며, 여기서는 이를 RVB-net라고 한다.The reverberation enhancement feature extractor 342 is implemented as an artificial neural network and identifies and detects a reverberation artifact region in the input image I according to a learned method. The reverberation enhancement feature extractor 342 extracts, for example, a reverberation artifact area based on U-net (
Figure pat00023
) can be implemented as an artificial neural network modified to detect , which is referred to herein as RVB-net.

잔향 강조 특징 추출부(342)는 도 13에 도시된 바와 같이, 입력 이미지(I)와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 입력 이미지(I)에서 추출된 특징에 대해 최대값 풀링을 적용하여 스케일 다운하면서, 대응하는 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출한다. 즉 상위 스케일에서 추출될 특징을 하위 스케일로 전달하여 결합하여 특징을 추출한다. 그리고 하위에서 추출된 특징을 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역(

Figure pat00024
)을 검출한다. 이때 디코딩 과정에서 도 13에 도시된 바와 같은 주의 게이트(attention gate: AG)를 적용하여, 잔향 강조 특징 추출부(342)가 잔향 특징맵의 영역에만 집중하여 잔향 아티팩트 영역(
Figure pat00025
)을 검출하도록 할 수 있다.As shown in FIG. 13, the reverberation enhancement feature extractor 342 encodes the input image I and the scaled reverberation feature map to extract features, and pools the maximum value for the features extracted from the input image I. While scaling down by applying , the feature is extracted by encoding again by combining with the feature extracted from the corresponding scaled reverberation feature map. That is, the features to be extracted at the upper scale are transferred to the lower scale and combined to extract the features. And the features extracted from the lower part are decoded together with the features extracted from each scale to obtain a reverberation artifact area (
Figure pat00024
) is detected. At this time, in the decoding process, by applying an attention gate (AG) as shown in FIG. 13, the reverberation enhancement feature extractor 342 concentrates only on the region of the reverberation feature map,
Figure pat00025
) can be detected.

U-net 기반 RVB-net로 구현되는 잔향 강조 특징 추출부(342)의 동작(

Figure pat00026
)은 수학식 4에 따라 학습될 수 있다.Operation of the reverberation enhancement feature extraction unit 342 implemented as U-net based RVB-net (
Figure pat00026
) can be learned according to Equation 4.

Figure pat00027
Figure pat00027

여기서

Figure pat00028
는 실제 잔향 아티팩트 영역(
Figure pat00029
)이 레이블된 입력 이미지(Irvb)의 학습 데이터와 스케일(k)에 따라 추출된 잔향 아티팩트 영역(
Figure pat00030
) 사이에 계산되는 교차 엔트로피 손실 함수이다.here
Figure pat00028
is the actual reverberation artifact area (
Figure pat00029
) is extracted according to the training data and scale (k) of the labeled input image (I rvb ).
Figure pat00030
) is the cross-entropy loss function calculated between

잔향 강조 특징 추출부(342)는 다른 인공 신경망으로도 구성될 수 있으며, 주의 게이트(AG)의 구현 예 또한 도 13에 도시되어 있으므로 여기서는 상세한 설명을 생략한다.The reverberation enhancement feature extractor 342 may also be configured with other artificial neural networks, and since an implementation example of the attention gate AG is also shown in FIG. 13 , a detailed description thereof will be omitted here.

제2 영역 획득부(343)는 잔향 강조 특징 추출부(342)가 입력 이미지(I)로부터 잔향 아티팩트 영역(

Figure pat00031
)을 검출하면, 검출된 잔향 아티팩트 영역(
Figure pat00032
)을 구분하여 제2 영역(
Figure pat00033
)을 획득한다.The reverberation enhancement feature extractor 342 obtains a reverberation artifact area (
Figure pat00031
), the detected reverberation artifact area (
Figure pat00032
) by dividing the second area (
Figure pat00033
) to obtain

도 14는 도 2의 양수 주머니 추출부의 상세 구성의 일 예를 나타내고, 도 15는 도 14의 양수 주머니 추출부의 각 구성별 동작을 설명하기 위한 도면이다.FIG. 14 shows an example of a detailed configuration of the amniotic bag extractor of FIG. 2 , and FIG. 15 is a diagram for explaining the operation of each component of the amniotic bag extractor of FIG. 14 .

양수 주머니 추출부(400)는 추정 영역 병합부(410), 후처리부(420) 및 크기 조절부(430)를 포함할 수 있다. 추정 영역 병합부(410)는 제1 영역 추정부(200)에서 양수 주머니로 추정된 영역을 구분하여 획득한 제1 영역(ΩD)과 제2 영역 추정부(300)에 양수 주머니 중 잔향 아티팩트가 발생한 영역으로 구분하여 획득한 제2 영역(

Figure pat00034
)을 병합하여, 도 15의 왼쪽과 같이, 보완 양수 주머니 영역을 획득한다.The amniotic bag extraction unit 400 may include an estimated region merging unit 410, a post-processing unit 420, and a size adjustment unit 430. The estimated area merging unit 410 divides the area estimated as the amniotic sac by the first area estimating unit 200 to obtain the first area Ω D and the second area estimating unit 300 to generate reverberation artifacts among the amniotic sacs. The second area obtained by dividing into the area where
Figure pat00034
) are merged to obtain a complementary amniotic sac area, as shown on the left of FIG. 15 .

그리고 후처리부(420)는 양수 주머니의 형태학적 폐구조를 기반으로 도 15에서 주황색 화살표로 표시된 홀과 노란색 화살표로 표시된 가양성 오류(false positive errors) 등을 제거한다. (a)와 (b)를 비교하면 제1 영역(ΩD)과 제2 영역(

Figure pat00035
)의 병합에도 발생한 미세한 오류가 제거되었음을 알 수 있다.Further, the post-processing unit 420 removes holes indicated by orange arrows and false positive errors indicated by yellow arrows in FIG. 15 based on the morphological closed structure of the amniotic sac. Comparing (a) and (b), the first region (Ω D ) and the second region (
Figure pat00035
), it can be seen that the subtle errors that occurred in the merge were removed.

크기 조절부(430)는 오류가 제거된 보완 양수 주머니 영역에 대한 이미지를 원본 초음파 이미지의 크기로 변환하여 출력한다.The size adjusting unit 430 converts the image of the supplementary amniotic sac area from which errors are removed into the size of the original ultrasound image and outputs the converted image.

그리고 AFI 획득부(500)는 도 15에서 오른쪽 그림과 같이, 양수 주머니 영역의 폭, 즉 두께를 측정함으로써, 도 1과 마찬가지로 해당 사분면에서의 양수 깊이를 나타내는 AFI를 측정하여 AFV를 획득한다.Further, the AFI acquisition unit 500 obtains the AFV by measuring the AFI representing the amniotic fluid depth in the corresponding quadrant as in FIG. 1 by measuring the width or thickness of the amniotic bag region, as shown in the right figure in FIG. 15 .

결과적으로 본 실시예에 따른 AFI 측정 방법은 양수 주머니 영역 전체를 추정하는 제1 영역 추정부(200)와 더불어 초음파 이미지에서 잔향 아티팩트가 발생하는 원리에 기초하여 복벽을 기반으로 잔향 아티팩트 발생 가능 영역을 검출하고, 검출된 잔향 아티팩트 발생 가능 영역 내에서 실제 잔향 아티팩트가 발생하는 영역을 추정하는 제2 추정부(300)를 구비하여 제1 및 제2 영역 추정부(200, 300)가 추정한 영역을 병합함으로써 매우 정확하게 초음파 이미지에서 양수 주머니 영역을 추출할 수 있으며, 추출된 양수 주머니 영역으로부터 AFI를 측정할 수 있다.As a result, the AFI measurement method according to the present embodiment determines the area where reverberation artifacts can occur based on the abdominal wall based on the principle that reverberation artifacts occur in ultrasound images together with the first area estimator 200 that estimates the entire amniotic sac area. A second estimator 300 for detecting and estimating an area in which reverberation artifacts actually occur within the detected reverberation artifact possibility area is provided, and the area estimated by the first and second area estimators 200 and 300 is By merging, the amniotic sac area can be extracted from the ultrasound image with high accuracy, and the AFI can be measured from the extracted amniotic sac area.

도 16은 본 발명의 일 실시예에 따른 AFI 측정 방법을 나타낸다.16 shows an AFI measurement method according to an embodiment of the present invention.

도 1 내지 도 15를 참조하여, 도 16의 AFI 측정 방법을 설명하면, 우선 AFI를 측정하기 위해 임신부에 대한 초음파 이미지를 기반으로 입력 이미지(I)를 획득한다(S10). 그리고 양수 주머니 영역을 검출하도록 미리 학습된 인공 신경망을 이용하여 획득된 입력 이미지(I)에 대해 신경망 연산을 수행하여 제1 영역(ΩD)을 추출한다(S20). 제1 영역을 검출하는 하는 단계와 함께 제2 영역(

Figure pat00036
)을 추출하는 단계(S30)를 수행한다.Referring to the AFI measurement method of FIG. 16 with reference to FIGS. 1 to 15, first, an input image I is obtained based on an ultrasound image of a pregnant woman in order to measure AFI (S10). Then, a neural network operation is performed on the acquired input image I using an artificial neural network pretrained to detect the amniotic sac region, and a first region Ω D is extracted (S20). The second area (with the step of detecting the first area)
Figure pat00036
) Performs the step (S30) of extracting.

제2 영역을 추출하는 단계(S30)는 우선 입력 이미지(I)에서 복벽 영역을 추출하도록 미리 학습된 인공 신경망을 이용하여 입력 이미지(I)에 대해 신경망 연산을 수행하여 복벽 영역(Ωabw)을 검출한다(S31). 그리고 검출된 복벽 영역(Ωabw)의 경계로부터 초음파의 진행 방향(r)으로 복벽 영역(Ωabw)의 두께(dabw)만큼의 영역을 잔향 아티팩트 가능 영역(Ωrvb)으로 설정한다(S32). 이후 입력 이미지(I)와 잔향 아티팩트 가능 영역(Ωrvb)을 아다마르 곱(

Figure pat00037
)하고, 초음파의 진행 방향(r)에 따라 미분(
Figure pat00038
)하여 잔향 아티팩트가 강조된 잔향 특징맵을 획득한다(S33). 입력 이미지(I)와 잔향 특징맵에 대해 학습된 방식에 따라 신경망 연산을 수행하여 입력 이미지(I)에서 잔향 특징맵에 의해 강조된 잔향 아티팩트 영역을 검출함으로써 제2 영역(
Figure pat00039
)을 검출한다.In the step of extracting the second region (S30), a neural network operation is performed on the input image (I) using an artificial neural network pretrained to extract the abdominal wall region from the input image (I) to obtain the abdominal wall region (Ω abw ). Detect (S31). Then, an area equal to the thickness (d abw ) of the abdominal wall area (Ω abw ) in the traveling direction (r) of the ultrasound from the boundary of the detected abdominal wall area (Ω abw ) is set as a reverberation artifact possible area (Ω rvb ) (S32). . Then, the Hadamard product of the input image (I) and the possible region for reverberation artifacts (Ω rvb ) (
Figure pat00037
), and differentiated according to the traveling direction (r) of the ultrasonic wave (
Figure pat00038
) to obtain a reverberation feature map in which reverberation artifacts are emphasized (S33). The second area (
Figure pat00039
) is detected.

제1 영역(ΩD)과 제2 영역(

Figure pat00040
)이 추출되면, 추출된 제1 영역(ΩD)과 제2 영역(
Figure pat00041
)을 병합하여 보완 양수 주머니 영역(Ω)을 획득한다. 그리고 획득된 양수 주머니 영역(Ω)의 두께, 즉 양수 주머니의 깊이를 나타내는 AFI를 측정함으로써 AFV를 계산한다(S50).The first region (Ω D ) and the second region (
Figure pat00040
) is extracted, the extracted first region (Ω D ) and the second region (
Figure pat00041
) to obtain the complementary amniotic sac area (Ω). Then, AFV is calculated by measuring the thickness of the obtained amniotic sac area (Ω), that is, AFI representing the depth of the amniotic sac (S50).

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention may be implemented as a computer program stored in a medium for execution on a computer. Here, computer readable media may be any available media that can be accessed by a computer, and may also include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data, including read-only memory (ROM) dedicated memory), random access memory (RAM), compact disk (CD)-ROM, digital video disk (DVD)-ROM, magnetic tape, floppy disk, optical data storage device, and the like.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

100: 초음파 이미지 입력부 200: 제1 영역 추정부
210: 다중 스케일링부 220: 특징맵 추출부
230: 스케일 복원부 240: 특징맵 결합부
300: 제2 영역 추정부 310: 복벽 영역 추정부
320: 잔향 범위 설정부 330: 잔향 특징맵 획득부
340: 제2 영역 검출부 341: 스케일 변환 입력부
342: 잔향 강조 특징 추출부 343: 제2 영역 획득부
400: 양수 주머니 추출부 410: 추정 영역 병합부
420: 후처리부 430: 크기 조절부
500: AFI 획득부
100: ultrasound image input unit 200: first area estimation unit
210: multi-scaling unit 220: feature map extraction unit
230: scale restoration unit 240: feature map combining unit
300: second area estimation unit 310: abdominal wall area estimation unit
320: reverberation range setting unit 330: reverberation feature map acquisition unit
340: second area detection unit 341: scale conversion input unit
342: reverberation enhancement feature extraction unit 343: second area acquisition unit
400: amniotic sac extraction unit 410: estimation area merging unit
420: post-processing unit 430: size adjustment unit
500: AFI acquisition unit

Claims (19)

양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 초음파 이미지 입력부;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 제1 영역 추정부;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 제2 영역 추정부; 및
상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 양수 주머니 추출부를 포함하는 AFI 측정 장치.
an ultrasound image input unit that obtains an input image that is an ultrasound image of the amniotic sac;
a first area estimator for performing a neural network operation on the input image using a pre-learned artificial neural network to detect an area of the amniotic sac and extract it as a first area;
A neural network operation is performed on the input image using a pre-learned artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound waves, an area in which reverberation artifacts occur in the input image is detected to detect the second area. a second area estimator for extracting as; and
and an amniotic sac extractor configured to merge the first area and the second area to obtain a supplementary amniotic bag area.
제1항에 있어서, 상기 제2 영역 추정부는
미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지에 대해 신경망 연산을 수행하여 상기 복벽 영역을 검출하는 복벽 영역 추정부;
추정된 상기 복벽 영역의 경계로부터 상기 초음파의 진행 방향으로 상기 복벽 영역의 두께만큼의 범위를 잔향 아티팩트가 발생 가능한 잔향 아티팩트 가능 영역으로 설정하는 잔향 범위 설정부;
상기 잔향 아티팩트의 발생 특성에 따라 상기 입력 이미지의 상기 잔향 아티팩트 가능 영역에 대응하는 영역에서 잔향 아티팩트가 강조된 잔향 특징맵을 획득하는 잔향 특징맵 획득부; 및
미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지와 상기 잔향 특징맵에 대해 신경망 연산을 수행하여 상기 제2 영역을 검출하는 제2 영역 검출부를 포함하는 AFI 측정 장치.
The method of claim 1, wherein the second area estimation unit
an abdominal wall area estimator implemented with a pre-learned artificial neural network and performing a neural network operation on the input image to detect the abdominal wall area;
a reverberation range setting unit configured to set a range corresponding to the thickness of the abdominal wall region from the boundary of the estimated abdominal wall region in the traveling direction of the ultrasonic waves as a reverberation artifact possible region where reverberation artifacts may occur;
a reverberation feature map acquisition unit acquiring a reverberation feature map in which reverberation artifacts are emphasized in a region corresponding to the reverberation artifact possible region of the input image according to the generation characteristics of the reverberation artifact; and
AFI measuring device comprising a second area detection unit implemented as a pre-learned artificial neural network and detecting the second area by performing a neural network operation on the input image and the reverberation feature map.
제2항에 있어서, 상기 잔향 특징맵 획득부는
상기 입력 이미지와 상기 잔향 아티팩트 가능 영역을 아다마르 곱(Hadamard product)하고, 초음파의 진행 방향을 따라 미분하여 상기 잔향 특징맵을 획득하는 AFI 측정 장치.
The method of claim 2, wherein the reverberation feature map obtaining unit
An AFI measurement device for acquiring the reverberation feature map by performing a Hadamard product of the input image and the reverberation artifact possible region, and differentiating along a traveling direction of ultrasonic waves.
제2항에 있어서, 상기 복벽 영역 추정부는
수학식
Figure pat00042

(여기서
Figure pat00043
는 입력 이미지(I)에 실제 복벽 영역(
Figure pat00044
)이 레이블된 학습 데이터와 추정된 복벽 영역(
Figure pat00045
= Ωabw) 사이에 계산되는 교차 엔트로피 손실 함수이다.)
에 따라 학습되는 AFI 측정 장치.
The method of claim 2, wherein the abdominal wall area estimation unit
math formula
Figure pat00042

(here
Figure pat00043
Is the actual abdominal wall area in the input image (I) (
Figure pat00044
) is the labeled training data and the estimated abdominal wall area (
Figure pat00045
= Ω abw ) is the cross-entropy loss function calculated between.)
An AFI measurement device that learns according to
제2항에 있어서, 상기 제2 영역 검출부는
상기 입력 이미지와 상기 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득하는 스케일 변환 입력부;
상기 입력 이미지와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 상기 입력 이미지에서 추출된 특징을 풀링하여 스케일 다운하면서, 대응하는 하위 스케일의 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출하며, 하위에서 추출된 특징을 상위의 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역을 검출하는 잔향 강조 특징 추출부; 및
상기 입력 이미지에서 상기 잔향 아티팩트 영역을 구분하여 상기 제2 영역을 획득하는 제2 영역 획득부를 포함하는 AFI 측정 장치.
The method of claim 2, wherein the second area detection unit
a scale conversion input unit configured to receive the input image and the reverberation feature map, and obtain multiple scale reverberation feature maps by down-scaling the applied reverberation feature map to different sizes;
Features are extracted by encoding each of the input image and the scaled reverberation feature map, and the features extracted from the input image are pooled and scaled down, combined with the features extracted from the scaled reverberation feature map of the corresponding lower scale, and re-encoded a reverberation enhancement feature extraction unit that extracts a feature and decodes a feature extracted at a lower level together with a feature extracted at an upper level to detect a reverberation artifact region; and
and a second area acquiring unit configured to acquire the second area by dividing the reverberation artifact area from the input image.
제5항에 있어서, 상기 잔향 강조 특징 추출부는
수학식
Figure pat00046

(여기서
Figure pat00047
는 실제 잔향 아티팩트 영역(
Figure pat00048
)이 레이블된 입력 이미지(Irvb)의 학습 데이터와 스케일(k)에 따라 추출된 잔향 아티팩트 영역(
Figure pat00049
) 사이에 계산되는 교차 엔트로피 손실 함수이다.)
에 따라 학습되는 AFI 측정 장치.
The method of claim 5, wherein the reverberation enhancement feature extraction unit
math formula
Figure pat00046

(here
Figure pat00047
is the actual reverberation artifact area (
Figure pat00048
) is extracted according to the training data and scale (k) of the labeled input image (I rvb ).
Figure pat00049
) is the cross-entropy loss function calculated between.)
An AFI measurement device that learns according to
제1항에 있어서, 상기 제1 영역 추정부는
상기 입력 이미지를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지를 획득하는 다중 스케일링부;
상기 입력 이미지와 상기 다수의 스케일 입력 이미지 각각에 대해 학습된 방식에 따라 신경망 연산을 수행하여 인코딩하되, 하위 스케일에서는 상위 스케일에서 인코딩된 특징을 풀링 및 결합하여 인코딩하여 각 스케일에 따른 다수의 스케일 특징을 획득하고, 인코딩되어 특징을 신경망 연산하여 디코딩하되 상위 스케일에서는 하위 스케일에서 디코딩되어 획득된 특징맵을 결합하여 디코딩하여 각 스케일에 따른 다수의 스케일 특징맵을 획득하는 특징맵 추출부;
상기 다수의 스케일 특징맵을 상기 입력 이미지의 크기로 업 샘플링하여 다수의 서브 AF 맵을 획득하는 스케일 복원부; 및
상기 다수의 서브 AF 맵을 결합하여 상기 제1 영역을 획득하는 특징맵 결합부를 포함하는 AFI 측정 장치.
The method of claim 1, wherein the first area estimation unit
a multi-scaling unit receiving the input image and down-scaling it to different sizes to obtain a plurality of scaled input images;
The input image and each of the plurality of scaled input images are encoded by performing a neural network operation according to the learned method, but at a lower scale, a plurality of scale features according to each scale are encoded by pooling and combining features encoded at the upper scale. A feature map extractor that obtains and decodes the encoded features by neural network operation, but obtains a plurality of scale feature maps according to each scale by combining and decoding the feature maps obtained by decoding at the upper scale and the lower scale;
a scale restorer configured to obtain a plurality of sub AF maps by upsampling the plurality of scale feature maps to the size of the input image; and
and a feature map combiner configured to acquire the first area by combining the plurality of sub AF maps.
제7항에 있어서, 상기 제1 영역 추정부는
수학식
Figure pat00050

(여기서
Figure pat00051
는 실제 양수 주머니 영역(
Figure pat00052
)이 레이블된 입력 이미지(I)인 학습 데이터에서 획득된 서브 AF 맵(
Figure pat00053
)과 실제 양수 주머니 영역(
Figure pat00054
) 사이에 계산되는 교차 엔트로피 손실 함수이다.)
에 따라 학습되는 AFI 측정 장치.
8. The method of claim 7, wherein the first area estimation unit
math formula
Figure pat00050

(here
Figure pat00051
is the actual amniotic sac area (
Figure pat00052
) is the sub-AF map (
Figure pat00053
) and the actual amniotic sac area (
Figure pat00054
) is the cross-entropy loss function calculated between.)
An AFI measurement device that learns according to
제1항에 있어서, 상기 양수 주머니 추출부는
상기 제1 영역과 상기 제2 영역을 병합하여 상기 보완 양수 주머니 영역을 획득하는 추정 영역 병합부; 및
양수 주머니의 형태학적 폐구조를 기반으로 상기 보완 양수 주머니 영역에 포함된 미세 오류를 제거하는 후처리부를 포함하는 AFI 측정 장치.
The method of claim 1, wherein the amniotic bag extraction unit
an estimated region merging unit merging the first region and the second region to obtain the supplemental amniotic bag region; and
An AFI measuring device including a post-processing unit that removes minute errors included in the supplementary amniotic bag region based on the morphological lung structure of the amniotic bag.
제9항에 있어서, 상기 초음파 이미지 입력부는
상기 초음파 이미지를 인가받아 미리 지정된 크기로 조절하여 상기 입력 이미지를 획득하고,
상기 양수 주머니 추출부는
후처리된 보완 양수 주머니 영역을 상기 초음파 이미지의 크기로 복원하는 크기 조절부를 더 포함하는 AFI 측정 장치.
The method of claim 9, wherein the ultrasound image input unit
Acquiring the input image by receiving the ultrasound image and adjusting it to a predetermined size;
The amniotic sac extraction unit
AFI measurement device further comprising a size adjusting unit for restoring the post-processed supplementary amniotic sac area to the size of the ultrasound image.
제1항에 있어서, 상기 AFI 측정 장치는
상기 보완 양수 주머니 영역의 두께를 측정하여 상기 AFI를 획득하는 AFI 측정 장치.
The method of claim 1, wherein the AFI measuring device
AFI measurement device for obtaining the AFI by measuring the thickness of the supplementary amniotic sac region.
양수 주머니에 대해 촬영한 초음파 이미지인 입력 이미지를 획득하는 단계;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 양수 주머니 영역 검출하여 제1 영역으로 추출하는 단계;
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 복벽 영역을 검출하고 검출된 복벽 영역과 초음파의 진행 방향을 기반으로 상기 입력 이미지에서 잔향 아티팩트가 발생한 영역을 검출하여 제2 영역으로 추출하는 단계; 및
상기 제1 영역과 상기 제2 영역을 병합하여 보완 양수 주머니 영역을 획득하는 단계를 포함하는 AFI 측정 방법.
acquiring an input image that is an ultrasound image of the amniotic sac;
detecting an area of the amniotic sac by performing a neural network operation on the input image using a pre-learned artificial neural network and extracting the area as a first area;
A neural network operation is performed on the input image using a pre-learned artificial neural network to detect the abdominal wall area, and based on the detected abdominal wall area and the direction of ultrasound waves, an area in which reverberation artifacts occur in the input image is detected to detect the second area. Extracting with; and
and acquiring a supplementary amniotic sac area by merging the first area and the second area.
제12항에 있어서, 상기 제2 영역으로 추출하는 단계는
미리 학습된 인공 신경망을 이용하여 상기 입력 이미지에 대해 신경망 연산을 수행하여 상기 복벽 영역을 추정하는 단계;
추정된 상기 복벽 영역의 경계로부터 상기 초음파의 진행 방향으로 상기 복벽 영역의 두께만큼의 범위를 잔향 아티팩트가 발생 가능한 잔향 아티팩트 가능 영역으로 설정하는 단계;
상기 잔향 아티팩트의 발생 특성에 따라 상기 입력 이미지의 상기 잔향 아티팩트 가능 영역에 대응하는 영역에서 잔향 아티팩트가 강조된 잔향 특징맵을 획득하는 단계; 및
미리 학습된 인공 신경망으로 구현되어 상기 입력 이미지와 상기 잔향 특징맵에 대해 신경망 연산을 수행하여 상기 제2 영역을 검출하는 단계를 포함하는 AFI 측정 방법.
13. The method of claim 12, wherein the step of extracting to the second area
estimating the abdominal wall area by performing a neural network operation on the input image using a pre-learned artificial neural network;
setting a range equal to the thickness of the abdominal wall region from the boundary of the estimated abdominal wall region in the traveling direction of the ultrasonic waves as a reverberation artifact possible region where reverberation artifacts may occur;
obtaining a reverberation feature map in which reverberation artifacts are emphasized in a region corresponding to the reverberation artifact possible region of the input image according to the occurrence characteristic of the reverberation artifact; and
AFI measuring method comprising detecting the second area by performing a neural network operation on the input image and the reverberation feature map by implementing a pre-learned artificial neural network.
제13항에 있어서, 상기 잔향 특징맵을 획득하는 단계는
상기 입력 이미지와 상기 잔향 아티팩트 가능 영역을 아다마르 곱(Hadamard product)하는 단계;
상기 잔향 특징맵을 획득하기 위해 아다마르 곱한 결과를 초음파의 진행 방향을 따라 미분하는 단계를 포함하는 AFI 측정 방법.
14. The method of claim 13, wherein obtaining the reverberation feature map comprises:
performing a Hadamard product of the input image and the possible reverberation artifact area;
AFI measurement method comprising the step of differentiating a result of Hadamard multiplication along a traveling direction of ultrasound to obtain the reverberation feature map.
제14항에 있어서, 상기 제2 영역을 검출하는 단계는
상기 입력 이미지와 상기 잔향 특징맵을 인가받고, 인가된 잔향 특징맵을 서로 다른 크기로 다운 스케일링하여 다수의 스케일 잔향 특징맵을 획득하는 단계;
상기 입력 이미지와 스케일 잔향 특징맵 각각을 인코딩하여 특징을 추출하고, 상기 입력 이미지에서 추출된 특징을 풀링하여 스케일 다운하면서, 대응하는 하위 스케일의 스케일 잔향 특징맵에서 추출된 특징과 결합하여 다시 인코딩하여 특징을 추출하며, 하위에서 추출된 특징을 상위의 각 스케일에서 추출된 특징과 함께 디코딩하여 잔향 아티팩트 영역을 검출하는 단계; 및
상기 제2 영역을 획득하기 위해 상기 입력 이미지에서 상기 잔향 아티팩트 영역을 구분하는 단계를 포함하는 AFI 측정 방법.
15. The method of claim 14, wherein detecting the second area comprises:
receiving the input image and the reverberation feature map and down-scaling the applied reverberation feature map to different sizes to obtain multiple scale reverberation feature maps;
Features are extracted by encoding each of the input image and the scaled reverberation feature map, and the features extracted from the input image are pooled and scaled down, combined with the features extracted from the scaled reverberation feature map of the corresponding lower scale, and re-encoded extracting a feature and decoding a feature extracted at a lower level together with a feature extracted at an upper level to detect a reverberation artifact region; and
and distinguishing the reverberation artifact area from the input image to obtain the second area.
제12항에 있어서, 상기 제1 영역으로 추출하는 단계는
상기 입력 이미지를 인가받아, 서로 다른 크기로 다운 스케일링하여 다수의 스케일 입력 이미지를 획득하는 단계;
상기 입력 이미지와 상기 다수의 스케일 입력 이미지 각각에 대해 학습된 방식에 따라 신경망 연산을 수행하여 인코딩하되, 하위 스케일에서는 상위 스케일에서 인코딩된 특징을 풀링 및 결합하여 인코딩하여 각 스케일에 따른 다수의 스케일 특징을 획득하고, 인코딩되어 특징을 신경망 연산하여 디코딩하되 상위 스케일에서는 하위 스케일에서 디코딩되어 획득된 특징맵을 결합하여 디코딩하여 각 스케일에 따른 다수의 스케일 특징맵을 획득하는 단계;
상기 다수의 스케일 특징맵을 상기 입력 이미지의 크기로 업 샘플링하여 다수의 서브 AF 맵을 획득하는 단계; 및
상기 다수의 서브 AF 맵을 결합하여 상기 제1 영역을 획득하는 단계를 포함하는 AFI 측정 방법.
13. The method of claim 12, wherein the step of extracting to the first area
obtaining a plurality of scaled input images by down-scaling the input image to different sizes;
The input image and each of the plurality of scaled input images are encoded by performing a neural network operation according to the learned method, but at a lower scale, a plurality of scale features according to each scale are encoded by pooling and combining features encoded at the upper scale. Obtaining and decoding the encoded features by neural network operation, but obtaining a plurality of scale feature maps according to each scale by combining and decoding the feature maps obtained by decoding at the upper scale at the lower scale;
obtaining a plurality of sub AF maps by upsampling the plurality of scale feature maps to the size of the input image; and
and acquiring the first area by combining the plurality of sub AF maps.
제12항에 있어서, 상기 보완 양수 주머니 영역을 획득하는 단계는
상기 제1 영역과 상기 제2 영역을 병합하여 상기 보완 양수 주머니 영역을 획득하는 단계; 및
양수 주머니의 형태학적 폐구조를 기반으로 상기 보완 양수 주머니 영역에 포함된 미세 오류를 제거하는 단계를 포함하는 AFI 측정 방법.
13. The method of claim 12, wherein the obtaining of the supplementary amniotic sac area comprises:
merging the first area and the second area to obtain the supplementary amniotic bag area; and
An AFI measurement method comprising the step of removing minute errors included in the supplementary amniotic sac area based on the morphological pulmonary structure of the amniotic sac.
제17항에 있어서, 상기 입력 이미지를 획득하는 단계는
상기 초음파 이미지를 인가받아 미리 지정된 크기로 조절하여 상기 입력 이미지를 획득하고,
상기 보완 양수 주머니 영역을 획득하는 단계는
후처리된 보완 양수 주머니 영역을 상기 초음파 이미지의 크기로 복원하는 단계를 더 포함하는 AFI 측정 방법.
18. The method of claim 17, wherein acquiring the input image comprises:
Acquiring the input image by receiving the ultrasound image and adjusting it to a predetermined size;
The step of acquiring the supplementary amniotic sac area
The AFI measurement method further comprising restoring the post-processed supplementary amniotic sac region to the size of the ultrasound image.
제12항에 있어서, 상기 AFI 측정 방법은
상기 보완 양수 주머니 영역의 두께를 측정하여 상기 AFI를 획득하는 단계를 더 포함하는 AFI 측정 방법.
The method of claim 12, wherein the AFI measurement method
The AFI measurement method further comprising obtaining the AFI by measuring a thickness of the supplementary amniotic sac region.
KR1020210154711A 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images KR102631689B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210154711A KR102631689B1 (en) 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210154711A KR102631689B1 (en) 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images

Publications (2)

Publication Number Publication Date
KR20230069287A true KR20230069287A (en) 2023-05-19
KR102631689B1 KR102631689B1 (en) 2024-01-31

Family

ID=86546681

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210154711A KR102631689B1 (en) 2021-11-11 2021-11-11 Apparatus and method for measuring amniotic fluid index based on ultrasound images

Country Status (1)

Country Link
KR (1) KR102631689B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5536025A (en) * 1978-09-04 1980-03-13 Honda Motor Co Ltd Molding method of flange of box shape body
JPS5538997B2 (en) * 1973-01-22 1980-10-07
JPS63288148A (en) * 1987-05-20 1988-11-25 Olympus Optical Co Ltd Ultrasonic treatment apparatus
JP2015062570A (en) * 2013-09-25 2015-04-09 株式会社東芝 Ultrasonic diagnostic equipment, medical image processor, and medical image processing program
JP2016083192A (en) * 2014-10-27 2016-05-19 日立アロカメディカル株式会社 Ultrasonic diagnostic equipment
KR20210002198A (en) 2019-06-27 2021-01-07 고려대학교 산학협력단 Method for automatic measurement of amniotic fluid volume with camera angle correction function
KR20210114281A (en) * 2020-03-10 2021-09-23 삼성메디슨 주식회사 Ultrasound imaging apparatus, method for controlling the same, and computer program
JP2023530883A (en) * 2020-06-19 2023-07-20 ウルトラサウンド エイアイ インコーポレイテッド premature birth prediction

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6306089B1 (en) 1999-09-24 2001-10-23 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system with customized measurements and calculations
US7004904B2 (en) 2002-08-02 2006-02-28 Diagnostic Ultrasound Corporation Image enhancement and segmentation of structures in 3D ultrasound images for volume measurements

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5538997B2 (en) * 1973-01-22 1980-10-07
JPS5536025A (en) * 1978-09-04 1980-03-13 Honda Motor Co Ltd Molding method of flange of box shape body
JPS63288148A (en) * 1987-05-20 1988-11-25 Olympus Optical Co Ltd Ultrasonic treatment apparatus
JP2015062570A (en) * 2013-09-25 2015-04-09 株式会社東芝 Ultrasonic diagnostic equipment, medical image processor, and medical image processing program
JP2016083192A (en) * 2014-10-27 2016-05-19 日立アロカメディカル株式会社 Ultrasonic diagnostic equipment
KR20210002198A (en) 2019-06-27 2021-01-07 고려대학교 산학협력단 Method for automatic measurement of amniotic fluid volume with camera angle correction function
KR20210114281A (en) * 2020-03-10 2021-09-23 삼성메디슨 주식회사 Ultrasound imaging apparatus, method for controlling the same, and computer program
JP2023530883A (en) * 2020-06-19 2023-07-20 ウルトラサウンド エイアイ インコーポレイテッド premature birth prediction

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Automated ultrasound assessment of amniotic fluid index using deep learning", Medical Image Analysis, Volume 69, 2021, 101951 *
"U-Net Tuning Hyperparameter for Segmentation in Amniotic Fluid Ultrasonography Image," 2022 4th International Conference on Cybernetics and Intelligent System (ICORIS), Prapat, Indonesia, 2022 *
Amniotic Fluid Classification and Artificial Intelligence: Challenges and Opportunities. Sensors. 2022; 22(12):4570 *
Deep Learning-Based Computer-Aided Classification of Amniotic Fluid Using Ultrasound Images from Saudi Arabia. Big Data Cogn. Comput. 2022, 6, 107 *

Also Published As

Publication number Publication date
KR102631689B1 (en) 2024-01-31

Similar Documents

Publication Publication Date Title
CN109949309B (en) Liver CT image segmentation method based on deep learning
CN111784671B (en) Pathological image focus region detection method based on multi-scale deep learning
US9186062B2 (en) System and method for providing 2-dimensional computerized- tomography image corresponding to 2-dimensional ultrasound image
WO2017071160A1 (en) Sea-land segmentation method and system for large-size remote-sensing image
KR101121396B1 (en) System and method for providing 2-dimensional ct image corresponding to 2-dimensional ultrasound image
Balakrishna et al. Automatic detection of lumen and media in the IVUS images using U-Net with VGG16 Encoder
den Bieman et al. Deep learning video analysis as measurement technique in physical models
CN111476159A (en) Method and device for training and detecting detection model based on double-angle regression
CN110648331B (en) Detection method for medical image segmentation, medical image segmentation method and device
CN112102259A (en) Image segmentation algorithm based on boundary guide depth learning
CN115546605A (en) Training method and device based on image labeling and segmentation model
CN117036715A (en) Deformation region boundary automatic extraction method based on convolutional neural network
CN113012127A (en) Cardiothoracic ratio measuring method based on chest medical image
KR102631689B1 (en) Apparatus and method for measuring amniotic fluid index based on ultrasound images
CN116725563B (en) Eyeball salience measuring device
CN117291835A (en) Denoising network model based on image content perception priori and attention drive
CN116862885A (en) Segmentation guide denoising knowledge distillation method and device for ultrasonic image lesion detection
CN111325756A (en) Three-dimensional image artery and vein segmentation method and system based on deep learning network
CN113706684A (en) Three-dimensional blood vessel image reconstruction method, system, medical device and storage medium
CN114120129A (en) Three-dimensional identification method for landslide slip surface based on unmanned aerial vehicle image and deep learning
CN115239962B (en) Target segmentation method and device based on deep large receptive field space attention
CN111047595A (en) Real-time sea wave segmentation method and device based on self-adaptive threshold frame difference method
CN116777893B (en) Segmentation and identification method based on characteristic nodules of breast ultrasound transverse and longitudinal sections
CN116012283B (en) Full-automatic ultrasonic image measurement method, equipment and storage medium
CN112614118B (en) CT image prediction method based on deep learning and computer readable storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant