KR20220122540A - Method and apparatus for detecting medical indices in medical image - Google Patents

Method and apparatus for detecting medical indices in medical image Download PDF

Info

Publication number
KR20220122540A
KR20220122540A KR1020220024651A KR20220024651A KR20220122540A KR 20220122540 A KR20220122540 A KR 20220122540A KR 1020220024651 A KR1020220024651 A KR 1020220024651A KR 20220024651 A KR20220024651 A KR 20220024651A KR 20220122540 A KR20220122540 A KR 20220122540A
Authority
KR
South Korea
Prior art keywords
line
area
region
generating
point
Prior art date
Application number
KR1020220024651A
Other languages
Korean (ko)
Inventor
맹신희
심학준
김세근
Original Assignee
주식회사 온택트헬스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 온택트헬스 filed Critical 주식회사 온택트헬스
Publication of KR20220122540A publication Critical patent/KR20220122540A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Abstract

The present invention is to detect medical indices in a medical image. A method for acquiring information from the medical image may include: a step of performing segmentation for sections of a heart in the medical image; a step of generating at least one reference line based on the segmentation; and a step of determining at least one medical index based on the at least one reference line.

Description

의료 영상에서 임상 지표를 검출하기 위한 방법 및 장치{METHOD AND APPARATUS FOR DETECTING MEDICAL INDICES IN MEDICAL IMAGE}Method and apparatus for detecting clinical indicators in medical images

본 발명은 의료 영상의 처리에 대한 것으로, 특히, 의료 영상에서 임상 지표(medical indices)를 검출하기 위한 방법 및 장치에 대한 것이다.The present invention relates to processing of a medical image, and more particularly, to a method and an apparatus for detecting medical indices in a medical image.

질병은 인간의 심신에 장애를 일으켜서 정상적인 기능을 저해하는 상태를 의미하는 것으로, 질병에 따라 인간은 고통을 받고 심지어 생을 유지하지 못할 수 있다. 따라서, 질병을 진단하고, 치료하고 나아가 예방하기 위한 다양한 사회적 시스템 및 기술들이 인류의 역사와 함께 발전해왔다. 질병의 진단 및 치료에 있어서, 기술의 눈부신 발전에 따라 다양한 도구들 및 방식들이 개발되어 왔지만, 아직까지, 종국적으로는 의사의 판단에 의존하고 있는 현실이다.A disease refers to a condition in which a normal function is impaired by causing a disorder in the mind and body of a human being, and depending on the disease, a person may suffer and even be unable to sustain life. Accordingly, various social systems and technologies for diagnosing, treating, and further preventing diseases have been developed along with the history of mankind. In the diagnosis and treatment of diseases, various tools and methods have been developed according to the remarkable development of technology, but it is a reality that ultimately depends on the judgment of a doctor.

한편, 최근 인공지능(artificial intelligence, AI) 기술이 크게 발전하면서 다양한 분야에서 주목되고 있다. 특히, 방대한 양의 누적된 의료 데이터와, 영상 위주의 진단 데이터 등의 환경으로 인해, 의료 분야에 인공지능 알고리즘을 접목하려는 다양한 시도와 연구가 진행 중이다. 구체적으로, 질병을 진단, 예측하는 등 종래의 임상적 판단에 머물러 있던 작업들을 인공지능 알고리즘을 이용하여 해결하려는 다양한 연구가 이루어지고 있다. 또한, 진단 등을 위한 중간 과정으로서 의료 데이터를 처리하고 분석하는 작업을 인공지능 알고리즘을 이용하여 해결하려는 다양한 연구가 이루어지고 있다. On the other hand, as artificial intelligence (AI) technology has developed significantly in recent years, it is attracting attention in various fields. In particular, due to the vast amount of accumulated medical data and the environment of image-oriented diagnostic data, various attempts and studies to apply artificial intelligence algorithms to the medical field are underway. Specifically, various studies are being conducted to solve tasks that have remained in the conventional clinical judgment, such as diagnosing and predicting a disease, using an artificial intelligence algorithm. In addition, as an intermediate process for diagnosis, etc., various studies are being conducted to solve the task of processing and analyzing medical data using artificial intelligence algorithms.

본 발명은 인공지능(artificial intelligence, AI) 알고리즘을 이용하여 의료 영상으로부터 효과적으로 정보를 획득하기 위한 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide a method and apparatus for effectively acquiring information from a medical image using an artificial intelligence (AI) algorithm.

본 발명은 의료 영상으로부터 임상 지표(medical indices)를 자동으로 검출하기 위한 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide a method and apparatus for automatically detecting clinical indices from a medical image.

본 발명은 의료 영상에 대한 세그먼테이션(segmentation)을 기반으로 임상 지표를 검출하기 위한 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide a method and apparatus for detecting a clinical indicator based on segmentation of a medical image.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 발명의 일 실시 예에 따른, 의료 영상에서 정보를 획득하기 위한 방법은, 상기 의료 영상에서 심장의 구역들에 대한 세그먼테이션을 수행하는 단계, 상기 세그먼테이션에 기반하여 적어도 하나의 기준선을 생성하는 단계, 상기 적어도 하나의 기준선에 기반하여 적어도 하나의 임상 지표(medical index)를 결정하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method for obtaining information from a medical image includes: performing segmentation on regions of the heart in the medical image; generating at least one reference line based on the segmentation; The method may include determining at least one clinical index based on the at least one baseline.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 임상 지표는, 상기 적어도 하나의 기준선의 길이, 상기 적어도 하나의 기준선의 길이에 기반하여 결정되는 값 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the at least one clinical indicator may include at least one of a length of the at least one baseline and a value determined based on the length of the at least one baseline.

본 발명의 일 실시 예에 따르면, 상기 방법은 상기 세그먼테이션에 기반하여 적어도 하나의 기준점을 생성하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the method may further include generating at least one reference point based on the segmentation.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준점은, 상기 구역들 중 적어도 하나의 중심점에 기반하여 생성될 수 있다.According to an embodiment of the present invention, the at least one reference point may be generated based on at least one central point among the regions.

본 발명의 일 실시 예에 따르면, 상기 구역들은, 제1 영역, 제2 영역, 제3 영역, 제4 영역, 제5 영역, 제6 영역 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the zones may include at least one of a first area, a second area, a third area, a fourth area, a fifth area, and a sixth area.

본 발명의 일 실시 예에 따르면, 상기 제1 영역은, 상기 제2 영역 및 상기 제3 영역 사이에 위치하거나, 상기 제2 영역은, 상기 제4 영역 및 상기 제1 영역 사이에 위치하거나, 상기 제4 영역은, 최상단에 위치하거나, 상기 제5 영역은, 상기 제1 영역의 우측에 인접하거나, 또는 상기 제6 영역은, 상기 제1 영역의 우측에 인접하면서, 상기 제5 영역의 하단에 위치할 수 있다.According to an embodiment of the present disclosure, the first area is located between the second area and the third area, the second area is located between the fourth area and the first area, or the The fourth region is located at the uppermost end, the fifth region is adjacent to the right side of the first region, or the sixth region is adjacent to the right side of the first region and is located at the lower end of the fifth region can be located

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제1 영역의 기준점 및 상기 제1 영역의 좌측 경계선의 중심을 지나고, 상기 제1 영역을 횡단하는 횡단선을 확인하는 단계, 상기 기준점을 지나고, 상기 횡단선과 직교하는 제1 직교선을 확인하는 단계, 및 상기 제1 직교선의 적어도 일부를 포함하도록 제1 기준선을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the generating of the at least one reference line, a transverse line passing through a reference point of the first area and a center of a left boundary line of the first area and crossing the first area is identified. and identifying a first orthogonal line passing through the reference point and orthogonal to the transverse line, and generating a first reference line to include at least a portion of the first orthogonal line.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제1 기준선 및 상기 제2 영역의 세그먼테이션 폐곡선(segmentation contour) 간 접점을 지나고, 상기 제2 영역의 장축과 직교하는 제2 직교선을 확인하는 단계, 및 상기 제2 직교선의 적어도 일부를 포함하도록 제2 기준선을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line includes passing a junction between the first reference line and a segmentation contour of the second region and orthogonal to the long axis of the second region. It may include identifying a second orthogonal line, and generating a second reference line to include at least a portion of the second orthogonal line.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제1 기준선 및 상기 제3 영역의 세그먼테이션 폐곡선 간 접점을 지나고, 상기 제3 영역의 장축과 직교하는 제3 직교선을 확인하는 단계, 및 상기 제3 직교선의 적어도 일부를 포함하도록 제3 기준선을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line includes a third orthogonal line passing through a junction between the first reference line and the segmentation closed curve of the third area and orthogonal to the long axis of the third area. and generating a third reference line to include at least a portion of the third orthogonal line.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제2영역에 대응하는 영역의 단축(short axis)의 중심선을 확인하는 단계, 상기 중심선 및 상기 영역의 경계선이 만나는 점에서 제2영역의 경계선에 대해 수직하는 제1 수직선을 확인하는 단계, 및 상기 제1 수직선의 적어도 일부를 포함하도록 제1 기준선을 생성하는 단계를 포함하며, 상기 제1 기준선은, 상기 제1영역의 지름을 측정하기 위해 사용될 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line may include identifying a center line of a short axis of an area corresponding to the second area, the center line and a boundary line of the area meeting Identifying a first vertical line perpendicular to a boundary line of a second region at a point, and generating a first reference line to include at least a portion of the first vertical line, wherein the first reference line includes the first It can be used to measure the diameter of an area.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제1 기준선 및 상기 제3영역의 경계선이 만나는 점에서 상기 제3영역의 경계선에 대해 수직하는 제2 수직선을 확인하는 단계, 및 상기 제2 수직선의 적어도 일부를 포함하도록 제2 기준선을 생성하는 단계를 더 포함하며, 상기 제2 기준선은, 상기 제3영역의 두께를 측정하기 위해 사용될 수 있다.According to an embodiment of the present invention, in the generating of the at least one reference line, a second vertical line perpendicular to the boundary line of the third area is identified at a point where the boundary line of the first reference line and the boundary line of the third area meet. and generating a second reference line to include at least a portion of the second vertical line, wherein the second reference line may be used to measure the thickness of the third region.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제5영역의 경계선 상에 점들 중 상기 제4영역에 가장 가까운 근접점을 확인하는 단계, 상기 근접점을 포함하고, 상기 제5영역 및 상기 제1영역의 이음부(junction)에 평행하는 평행선을 확인하는 단계, 및 상기 평행선의 적어도 일부를 포함하도록 제3 기준선을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line includes: identifying a point closest to the fourth area among points on the boundary line of the fifth area; , identifying a parallel line parallel to a junction of the fifth region and the first region, and generating a third reference line to include at least a portion of the parallel line.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제5영역의 경계선 상의 사이너스 점(sinus point)을 확인하는 단계, 상기 제6영역에 대응하는 영역의 경계선 상에서 상기 사이너스 점에 가장 가까운 점을 포함하고, 상기 의료 영상의 수직축에 평행하고, 상기 제6영역에 대응하는 영역의 내부를 관통하는 수직선을 확인하는 단계, 및 상기 수직선의 적어도 일부를 포함하도록 제4 기준선을 생성하는 단계를 포함할 수 있다. According to an embodiment of the present invention, the generating of the at least one reference line may include identifying a sinus point on the boundary line of the fifth area, and on the boundary line of the area corresponding to the sixth area. identifying a vertical line that includes a point closest to the sinus point, is parallel to a vertical axis of the medical image, and passes through an inside of an area corresponding to the sixth area, and a second line to include at least a part of the vertical line 4 generating a baseline.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제5영역의 경계선 상의 사이너스 점(sinus point)을 확인하는 단계, 및 상기 제6영역에 대응하는 영역의 경계선 상에서 상기 사이너스 점에 가장 가까운 점을 포함하고, 상기 제6영역에 대응하는 영역의 장축에 수직하고, 상기 제6영역에 대응하는 영역의 내부를 관통하는 수직선을 확인하는 단계, 상기 수직선의 적어도 일부를 포함하도록 제4 기준선을 결정하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line may include identifying a sinus point on a boundary line of the fifth area, and a boundary line of an area corresponding to the sixth area. identifying a vertical line including a point closest to the sinus point on the image, perpendicular to the long axis of the area corresponding to the sixth area, and penetrating the inside of the area corresponding to the sixth area, at least of the vertical line determining a fourth baseline to include a portion.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제5영역 및 상기 제1영역의 이음부 상의 일점을 포함하고, 상기 제4영역의 장축의 중심선에 수직인 수직선을 확인하는 단계, 및 상기 수직선의 적어도 일부를 포함하도록 제5 기준선을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line includes a point on the joint of the fifth region and the first region, and includes a vertical line perpendicular to the center line of the long axis of the fourth region. and generating a fifth reference line to include at least a portion of the vertical line.

본 발명의 일 실시 예에 따르면, 상기 적어도 하나의 기준선을 생성하는 단계는, 상기 제5영역 및 상기 제1영역의 이음부 상의 일점을 포함하고, 상기 의료 영상의 수직축에 평행한 수직선을 확인하는 단계, 및 상기 수직선의 적어도 일부를 포함하도록 제5 기준선을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the generating of the at least one reference line includes a point on the joint of the fifth region and the first region, and identifies a vertical line parallel to the vertical axis of the medical image. and generating a fifth reference line to include at least a portion of the vertical line.

본 발명의 일 실시 예에 따르면, 상기 구역들은, RV(right ventricle), IVS(interventricular septum), 대동맥(aorta), LV(left ventricle), LVPW(LV posterior wall), 또는 LA(left atrium) 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present invention, the zones are one of right ventricle (RV), interventricular septum (IVS), aorta, left ventricle (LV), LV posterior wall (LVPW), or left atrium (LA). It may include at least one.

본 발명의 일 실시 예에 따른, 의료 영상에서 정보를 획득하기 위한 장치는, 상기 장치의 동작을 위한 명령어 집합을 저장하는 저장부, 및 상기 저장부와 연결된 적어도 하나의 프로세서를 포함하며, 상기 적어도 하나의 프로세서는, 상기 의료 영상에서 심장의 구역들에 대한 세그먼테이션을 수행하고, 상기 세그먼테이션에 기반하여 적어도 하나의 기준선을 생성하고, 상기 적어도 하나의 기준선에 기반하여 적어도 하나의 임상 지표(medical index)를 결정하도록 제어할 수 있다.According to an embodiment of the present invention, an apparatus for obtaining information from a medical image includes a storage unit for storing an instruction set for operation of the apparatus, and at least one processor connected to the storage unit, wherein the at least The one processor performs segmentation on regions of the heart in the medical image, generates at least one baseline based on the segmentation, and at least one clinical index based on the at least one baseline. can be controlled to determine

본 발명의 일 실시 예에 따른, 매체에 저장된 프로그램은, 프로세서에 의해 동작되면 전술한 방법을 실행할 수 있다.According to an embodiment of the present invention, when the program stored in the medium is operated by the processor, the above-described method may be executed.

본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the invention are merely exemplary aspects of the detailed description of the invention that follows, and do not limit the scope of the invention.

본 발명에 따르면, 인공지능(artificial intelligence, AI) 알고리즘을 이용하여 의료 영상으로부터 효과적으로 정보가 획득될 수 있다.According to the present invention, information can be effectively obtained from a medical image using an artificial intelligence (AI) algorithm.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art from the following description. will be.

도 1은 본 발명의 일 실시 예에 따른 시스템을 도시한다.
도 2는 본 발명의 일 실시 예에 따른 장치의 구조를 도시한다.
도 3은 본 발명에 적용 가능한 인공지능 모델을 구성하는 퍼셉트론(perceptron)의 예를 도시한다.
도 4는 본 발명에 적용 가능한 인공지능 모델을 구성하는 인공 신경망의 예를 도시한다.
도 5는 본 발명의 일 실시 예에 따라 회귀 모델을 이용하여 랜드마크 검출 방식을 결정하는 매커니즘을 도시한다.
도 6a 내지 도 6c는 랜드마크 검출 방식 별 검출 결과의 예들을 도시한다.
도 7은 본 발명의 일 실시 예에 따라 세그먼테이션에 기반하여 임상 지표를 검출하는 절차의 예를 도시한다.
도 8은 본 발명의 일 실시 예에 따른 의료 영상에 대한 세그먼테이션 결과의 예를 도시한다.
도 9는 본 발명의 일 실시 예에 따른 기준선(reference line)을 결정하는 절차의 예를 도시한다.
도 10은 본 발명의 일 실시 예에 따른 기준선을 결정하는 절차의 다른 예를 도시한다.
도 11은 본 발명의 일 실시 예에 따른 기준선을 결정하는 절차의 또 다른 예를 도시한다.
도 12는 본 발명의 일 실시 예에 따른 기준선을 결정하는 절차의 또 다른 예를 도시한다.
도 13a는 본 발명의 일 실시 예에 따른 ED(end-diastole) 상태의 영상에서 결정된 기준선들의 예를 도시한다.
도 13b는 본 발명의 일 실시 예에 따른 ES(end-systole) 상태의 영상에서 결정된 기준선들의 예를 도시한다.
도 14는 본 발명의 일 실시 예에 따른 세그먼테이션 결과에 기반하여 결정되는 기준점들 및 기준선들의 예를 도시한다.
도 15a 및 도 15b는 본 발명에 적용 가능한 LSTM(long short-term memory) 네트워크의 예를 도시한다.
도 16은 본 발명의 일 실시 예에 따른 세그먼테이션을 위한 훈련 절차의 예를 도시한다.
도 17은 본 발명의 일 실시 예에 따른 심장 이미지 및 전파된 심장 이미지를 도시한다.
도 18은 본 발명의 실시 예에 따른 세그먼테이션 절차의 예를 도시한다.
도 19a 내지 도 19c는 본 발명의 일 실시 예에 따른 데이터 증강의 구체적인 예를 도시한다.
도 20은 본 발명의 일 실시 예에 따른 세그먼테이션을 위한 인공지능 모델의 구체적인 구현 예를 도시한다.
도 21은 본 발명의 일 실시 예에 따른 세그먼테이션을 위한 인공지능 모델의 다른 구체적인 구현 예를 도시한다.
1 shows a system according to an embodiment of the present invention.
2 shows the structure of an apparatus according to an embodiment of the present invention.
3 shows an example of a perceptron constituting an artificial intelligence model applicable to the present invention.
4 shows an example of an artificial neural network constituting an artificial intelligence model applicable to the present invention.
5 illustrates a mechanism for determining a landmark detection method using a regression model according to an embodiment of the present invention.
6A to 6C show examples of detection results for each landmark detection method.
7 illustrates an example of a procedure for detecting a clinical indicator based on segmentation according to an embodiment of the present invention.
8 illustrates an example of a segmentation result for a medical image according to an embodiment of the present invention.
9 illustrates an example of a procedure for determining a reference line according to an embodiment of the present invention.
10 illustrates another example of a procedure for determining a baseline according to an embodiment of the present invention.
11 illustrates another example of a procedure for determining a baseline according to an embodiment of the present invention.
12 illustrates another example of a procedure for determining a baseline according to an embodiment of the present invention.
13A illustrates an example of reference lines determined from an image of an end-diastole (ED) state according to an embodiment of the present invention.
13B illustrates an example of reference lines determined from an image of an end-systole (ES) state according to an embodiment of the present invention.
14 illustrates an example of reference points and reference lines determined based on a segmentation result according to an embodiment of the present invention.
15A and 15B show an example of a long short-term memory (LSTM) network applicable to the present invention.
16 shows an example of a training procedure for segmentation according to an embodiment of the present invention.
17 illustrates a heart image and a propagated heart image according to an embodiment of the present invention.
18 shows an example of a segmentation procedure according to an embodiment of the present invention.
19A to 19C show specific examples of data augmentation according to an embodiment of the present invention.
20 shows a specific implementation example of an artificial intelligence model for segmentation according to an embodiment of the present invention.
21 shows another specific implementation example of an artificial intelligence model for segmentation according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein.

본 발명의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing an embodiment of the present invention, if it is determined that a detailed description of a well-known configuration or function may obscure the gist of the present invention, a detailed description thereof will be omitted. And, in the drawings, parts not related to the description of the present invention are omitted, and similar reference numerals are attached to similar parts.

도 1은 본 발명의 일 실시 예에 따른 시스템을 도시한다.1 shows a system according to an embodiment of the present invention.

도 1을 참고하면, 시스템은 서비스 서버(110), 데이터 서버(120), 적어도 하나의 클라이언트 장치(130)를 포함한다. Referring to FIG. 1 , the system includes a service server 110 , a data server 120 , and at least one client device 130 .

서비스 서버(110)는 인공지능 모델 기반의 서비스를 제공한다. 즉, 서비스 서버(110)는 인공지능 모델을 이용하여 학습 및 예측 동작을 수행한다. 서비스 서버(110)는 네트워크를 통해 데이터 서버(120) 또는 적어도 하나의 클라이언트 장치(130)와 통신을 수행할 수 있다. 예를 들어, 서비스 서버(110)는 데이터 서버(120)로부터 인공지능 모델을 훈련하기 위한 학습 데이터를 수신하고, 훈련을 수행할 수 있다. 서비스 서버(110)는 적어도 하나의 클라이언트 장치(130)로부터 학습 및 예측(prediction) 동작에 필요한 데이터를 수신할 수 있다. 또한, 서비스 서버(110)는 적어도 하나의 클라이언트 장치(130)에게 예측 결과에 대한 정보를 송신할 수 있다. The service server 110 provides an artificial intelligence model-based service. That is, the service server 110 performs learning and prediction operations using the artificial intelligence model. The service server 110 may communicate with the data server 120 or at least one client device 130 through a network. For example, the service server 110 may receive training data for training the artificial intelligence model from the data server 120 and perform training. The service server 110 may receive data required for learning and prediction operations from at least one client device 130 . Also, the service server 110 may transmit information on the prediction result to at least one client device 130 .

데이터 서버(120)는 서비스 서버(110)에 저장된 인공지능 모델의 훈련을 위한 학습 데이터를 제공한다. 다양한 실시 예들에 따라, 데이터 서버(120)는 누구나 접근 가능한 공공 데이터를 제공하거나 또는 허가를 필요로 하는 데이터를 제공할 수 있다. 필요에 따라, 학습 데이터는 데이터 서버(120)에 의해 또는 서비스 서버(120)에 의해 전처리할 수 있다. 다른 실시 예에 따라, 데이터 서버(120)는 생략될 수 있다. 이 경우, 서비스 서버(110)는 외부에서 훈련된 인공지능 모델을 사용하거나 또는 서비스 서버(110)에 오프라인으로 학습 데이터가 제공될 수 있다.The data server 120 provides learning data for training the artificial intelligence model stored in the service server 110 . According to various embodiments, the data server 120 may provide public data that anyone can access or data requiring permission. If necessary, the training data may be pre-processed by the data server 120 or the service server 120 . According to another embodiment, the data server 120 may be omitted. In this case, the service server 110 may use an externally trained artificial intelligence model or may provide the learning data offline to the service server 110 .

적어도 하나의 클라이언트 장치(130)는 서비스 서버(110)에 의해 운용되는 인공지능 모델에 관련된 데이터를 서비스 서버(110)와 송신 및 수신한다. 적어도 하나의 클라이언트 장치(130)는 사용자에 의해 사용되는 장비이며, 사용자에 의해 입력되는 정보를 서비스 서버(110)에게 송신하고, 서비스 서버(110)로부터 수신되는 정보를 저장하거나 사용자에게 제공(예: 표시)할 수 있다. 경우에 따라, 어느 하나의 클라이언트로부터 송신된 데이터에 기반하여 예측 동작이 수행되고, 예측의 결과에 관련된 정보가 다른 클라이언트에게 제공될 수 있다. 적어도 하나의 클라이언트 장치(130)는 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 타블렛, 웨어러블 기기 등 다양한 형태의 컴퓨팅 장치일 수 있다.At least one client device 130 transmits and receives data related to the artificial intelligence model operated by the service server 110 with the service server 110 . At least one client device 130 is equipment used by a user, transmits information input by the user to the service server 110, stores information received from the service server 110, or provides it to the user (eg : can be displayed. In some cases, a prediction operation may be performed based on data transmitted from one client, and information related to the prediction result may be provided to another client. The at least one client device 130 may be a computing device of various types, such as a desktop computer, a laptop computer, a smart phone, a tablet, and a wearable device.

도 1에 도시되지 아니하였으나, 시스템은 서비스 서버(110)를 관리하기 위한 관리 장치를 더 포함할 수 있다. 관리 장치는 서비스를 관리하는 주체에 의해 사용되는 장치로서, 서비스 서버(110)의 상태를 모니터링하거나, 서비스 서버(110)의 설정을 제어한다. 관리 장치는 네트워크를 통해 서비스 서버(110)에 접속하거나 또는 케이블 연결을 통해 직접 연결될 수 있다. 관리 장치의 제어에 따라, 서비스 서버(110)는 동작을 위한 파라미터를 설정할 수 있다.Although not shown in FIG. 1 , the system may further include a management device for managing the service server 110 . The management device is a device used by a subject that manages a service, and monitors the status of the service server 110 or controls settings of the service server 110 . The management device may be connected to the service server 110 through a network or may be directly connected through a cable connection. According to the control of the management device, the service server 110 may set parameters for operation.

도 1을 참고하여 설명한 바와 같이, 서비스 서버(110), 데이터 서버(120), 적어도 하나의 클라이언트 장치(130), 관리 장치 등이 네트워크를 통해 연결되고, 상호작용할 수 있다. 여기서, 네트워크는 유선 네트워크 및 무선 네트워크 중 적어도 하나를 포함할 수 있고, 셀룰러 네트워크, 근거리 네트워크, 광역 네트워크 중 어느 하나 또는 둘 이상의 조합으로 이루어질 수 있다. 예를 들어, 네트워크는 LAN(local area network), WLAN(wireless LAN), 블루투스(bluetooth), LTE(long term evolution), LTE-A(LTE-advanced), 5G(5th generation) 중 적어도 하나에 기반하여 구현될 수 있다.As described with reference to FIG. 1 , the service server 110 , the data server 120 , at least one client device 130 , a management device, etc. may be connected through a network and interact with each other. Here, the network may include at least one of a wired network and a wireless network, and may be formed of any one or a combination of two or more of a cellular network, a local area network, and a wide area network. For example, the network is based on at least one of a local area network (LAN), wireless LAN (WLAN), Bluetooth (bluetooth), long term evolution (LTE), LTE-advanced (LTE-A), and 5th generation (5G). can be implemented.

도 2는 본 발명의 일 실시 예에 따른 장치의 구조를 도시한다. 도 2에 예시된 구조는 도 1의 서비스 서버(110), 데이터 서버(120), 적어도 하나의 클라이언트 장치(130)의 구조로 이해될 수 있다.2 shows the structure of an apparatus according to an embodiment of the present invention. The structure illustrated in FIG. 2 may be understood as a structure of the service server 110 , the data server 120 , and at least one client device 130 of FIG. 1 .

도 2를 참고하면, 장치는, 통신부(210), 저장부(220), 제어부(230)를 포함한다.Referring to FIG. 2 , the device includes a communication unit 210 , a storage unit 220 , and a control unit 230 .

통신부(210)는 네트워크에 접속하고, 다른 장치와 통신을 수행하기 위한 기능을 수행한다. 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나를 지원할 수 있다. 통신을 위해, 통신부(210)는 RF(radio frequency) 처리 회로, 디지털 데이터 처리 회로 중 적어도 하나를 포함할 수 있다. 경우에 따라, 통신부(210)는 케이블을 연결하기 위한 단자를 포함하는 구성요소로 이해될 수 있다. 통신부(210)는 데이터, 신호를 송신 및 수신하기 위한 구성요소이므로, '송수신부(transceiver)'라 지칭될 수 있다.The communication unit 210 performs a function for accessing a network and performing communication with other devices. The communication unit 210 may support at least one of wired communication and wireless communication. For communication, the communication unit 210 may include at least one of a radio frequency (RF) processing circuit and a digital data processing circuit. In some cases, the communication unit 210 may be understood as a component including a terminal for connecting a cable. Since the communication unit 210 is a component for transmitting and receiving data and signals, it may be referred to as a 'transceiver'.

저장부(220)는 장치의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 명령어 집합, 어플리케이션 등을 저장한다. 저장부(220)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(220)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. 예를 들어, 저장부(220)는 콤팩트 플래시(compact flash, CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 중 적어도 하나로 구현될 수 있다.The storage unit 220 stores data, programs, microcodes, instruction sets, applications, etc. necessary for the operation of the device. The storage unit 220 may be implemented as a temporary or non-transitory storage medium. Also, the storage unit 220 may be fixed to the device or implemented in a detachable form. For example, the storage unit 220 may include a compact flash (CF) card, a secure digital (SD) card, a memory stick, a solid-state drive (SSD), and a microSD card. It may be implemented as at least one of a NAND flash memory such as an SD card and a magnetic computer storage device such as a hard disk drive (HDD).

제어부(230)는 장치의 전반적인 동작을 제어한다. 이를 위해, 제어부(230)는 적어도 하나의 프로세서, 적어도 하나의 마이크로 프로세서 등을 포함할 수 있다. 제어부(230)는 저장부(220)에 저장된 프로그램을 실행하고, 통신부(210)를 통해 네트워크에 접속할 수 있다. 특히, 제어부(230)는 후술하는 다양한 실시 예들에 따른 알고리즘들을 수행하고, 후술하는 실시 예들에 따라 장치가 동작하도록 제어할 수 있다.The controller 230 controls the overall operation of the device. To this end, the controller 230 may include at least one processor, at least one microprocessor, and the like. The control unit 230 may execute a program stored in the storage unit 220 , and may access a network through the communication unit 210 . In particular, the controller 230 may perform algorithms according to various embodiments to be described later, and control the device to operate according to embodiments to be described later.

도 1 및 도 2를 참고하여 설명한 구조에 기반하여, 본 발명의 다양한 실시 예들에 따른 인공지능 알고리즘 기반의 서비스가 제공될 수 있다. 여기서, 인공지능 알고리즘을 구현하기 위해 인공 신경망으로 이루어진 인공지능 모델이 사용될 수 있다. 인공 신경망의 구성 단위인 퍼셉트론(perceptron) 및 인공 신경망의 개념은 다음과 같다.Based on the structure described with reference to FIGS. 1 and 2 , an artificial intelligence algorithm-based service according to various embodiments of the present disclosure may be provided. Here, an artificial intelligence model consisting of an artificial neural network may be used to implement an artificial intelligence algorithm. The concept of a perceptron, a structural unit of an artificial neural network, and an artificial neural network is as follows.

퍼셉트론은 생물의 신경 세포를 모델링한 것으로서, 다수의 신호들을 입력으로 삼아 하나의 신호를 출력하는 구조를 가진다. 도 3은 본 발명에 적용 가능한 인공지능 모델을 구성하는 퍼셉트론의 예를 도시한다. 도 3을 참고하면, 퍼셉트론은 입력 값들(예: x1, x2, x3, …, xn) 각각 대하여 가중치들(302-1 내지 302-n)(예: w1j, w2j, w3j, …, wnj)을 곱한 후, 가중치 곱해진(weighted) 입력 값들을 변환 함수(transfer function)(304)을 이용하여 합산한다. 합산 과정에서, 바이어스(bias) 값(예: bk)이 더해질 수 있다. 퍼셉트론은 변환 함수(304)의 출력인 네트(net) 입력 값(예: netj)에 대하여 활성 함수(activation function)(406)을 적용함으로써, 출력 값(예: oj)를 생성한다. 경우에 따라, 활성 함수(406)은 임계치(예: θj)에 기반하여 동작할 수 있다. 활성 함수는 다양하게 정의될 수 있다. 본 발명이 이에 제한되는 것은 아니나, 예를 들어, 활성 함수로서, 스텝 함수(step function), 시그모이드(sigmoid), Relu, Tanh 등이 사용될 수 있다.The perceptron is a model of the nerve cell of an organism, and has a structure that outputs a single signal by taking multiple signals as input. 3 shows an example of a perceptron constituting an artificial intelligence model applicable to the present invention. Referring to FIG. 3 , the perceptron uses weights 302-1 to 302-n (eg, w 1j , w 2j , w for each input value (eg, x 1 , x 2 , x 3 , …, x n )) 3j , ..., w nj ), and then the weighted input values are summed using a transfer function 304 . During the summing process, a bias value (eg, b k ) may be added. The perceptron generates an output value (eg o j ) by applying an activation function 406 to a net input value (eg, net j ) that is an output of the transformation function 304 . In some cases, the activation function 406 may operate based on a threshold (eg, θ j ). The activation function can be defined in various ways. Although the present invention is not limited thereto, for example, as the activation function, a step function, a sigmoid, Relu, Tanh, or the like may be used.

도 3와 같은 퍼셉트론들이 나열되고, 레이어를 이룸으로써 인공 신경망이 설계될 수 있다. 도 4는 본 발명에 적용 가능한 인공지능 모델을 구성하는 인공 신경망의 예를 도시한다. 도 4에서, 원으로 표현된 각 노드는 도 3의 퍼셉트론으로 이해될 수 있다. 도 4를 참고하면, 인공 신경망은 입력 레이어(input layer)(402), 복수의 은닉 레이어(hidden layer)들(404a, 404b), 출력 레이어(output layer)(406)를 포함한다. As perceptrons as shown in FIG. 3 are arranged and layered, an artificial neural network can be designed. 4 shows an example of an artificial neural network constituting an artificial intelligence model applicable to the present invention. In FIG. 4 , each node represented by a circle may be understood as a perceptron of FIG. 3 . Referring to FIG. 4 , the artificial neural network includes an input layer 402 , a plurality of hidden layers 404a and 404b , and an output layer 406 .

예측을 수행하는 경우, 입력 레이어(402)의 각 노드로 입력 데이터가 제공되면, 입력 데이터는 입력 레이어(402), 은닉 레이어들(404a, 404b)을 이루는 퍼셉트론들에 의한 가중치 적용, 변환 함수 연산 및 활성 함수 연산 등을 거쳐 출력 레이어(406)까지 순전파(forward propagation)된다. 반대로, 훈련을 수행하는 경우, 출력 레이어(406)로부터 입력 레이어(402)를 향한 역전파(backward propagation)를 통해 오차가 계산되고, 계산된 오차에 따라 각 퍼셉트론에 정의된 가중치 값들이 갱신될 수 있다.When prediction is performed, when input data is provided to each node of the input layer 402 , the input data is weighted by the perceptrons constituting the input layer 402 and the hidden layers 404a and 404b, and a transform function operation is performed. And it is forward propagated to the output layer 406 through an activation function operation and the like. Conversely, when training is performed, an error is calculated through backward propagation from the output layer 406 toward the input layer 402, and the weight values defined in each perceptron may be updated according to the calculated error. have.

본 발명은 의료 영상으로부터 임상 지표를 검출하기 위한 기술을 제안한다. 구체적으로, 본 발명은 환자의 심장 형태, 구조 또는 기능을 평가 또는 진단하기 위해 사용되는 2D 초음파 영상에서 다중 구조들(예: 좌심방, 좌심실, 우심방, 우심실, 내벽 등)을 보다 강건하게 세그먼테이션(segmentation)하고, 주요한 랜드마크(예: Apex, Annulus 등)을 검출함으로써 임상적으로 중요한 지표들을 도출하는 기술을 제안한다.The present invention proposes a technique for detecting a clinical indicator from a medical image. Specifically, the present invention provides more robust segmentation of multiple structures (eg, left atrium, left ventricle, right atrium, right ventricle, inner wall, etc.) in a 2D ultrasound image used to evaluate or diagnose a patient's heart shape, structure, or function. ), and by detecting major landmarks (eg, Apex, Annulus, etc.), we propose a technique for deriving clinically important indicators.

심장 초음파 검사는 일상적으로 사용되는 일차적인 필수 검사로서, 비침습적이며, 낮은 검사 비용으로 실시 가능하다. 심장 초음파 검사는 심장의 구조적, 기능적 평가를 가능하게 하며, 추가적인 검사가 필요한 경우 이차적 검사가 이어서 시행될 수 있다. 전술한 특징들로 인하여, 심장 초음파 영상으로부터 데이터로 구축하는 것은 다른 의료 장비에 기반하는 방식보다 비교적 수월하다. 그러나, 분석 과정 중 발생하는 의료 전문가의 인력 비용, 시간적 비용이 크게 발생하므로, 심초음파 영상은 유용성을 더욱 높일 수 있는 가능성을 가지고 있는 데이터이다. Echocardiography is a routine, primary, and essential test, which is non-invasive and can be performed at a low cost. Echocardiography enables structural and functional evaluation of the heart, and if additional tests are needed, secondary tests may be performed. Due to the above-described characteristics, it is relatively easier to construct data from an echocardiogram image than a method based on other medical equipment. However, since the manpower cost and time cost of a medical professional occurring during the analysis process are large, the echocardiogram image is data that has the potential to further increase its usefulness.

심장 초음파 데이터의 경우, 미국 심장학회의 권고 기준에 따라 심장을 촬영한 위치에 기초하여 세분화된 명칭이 정해지고, 세분화된 명칭에 따라 심장 초음파 분석 방법 또한 상이하다. 따라서, 심장 초음파 데이터를 정량화 하는데 심장 초음파 분석 전문가가 필수적으로 요구된다. 최근, 이러한 문제점을 해결하기 위해, 심장 초음파 분석 자동화를 위한 연구가 진행되고 있으며, 인공지능 기법을 사용하여 좌심실의 구조적 위치를 세그먼테이션하는 연구들이 보고된 바 있다. In the case of echocardiography data, a subdivided name is determined based on a location at which the heart is photographed according to the criteria recommended by the American Heart Association, and an echocardiography analysis method is also different according to the subdivided name. Therefore, an echocardiographic analysis expert is essential to quantify the echocardiography data. Recently, in order to solve this problem, studies for automating echocardiography analysis have been conducted, and studies of segmenting the structural position of the left ventricle using artificial intelligence techniques have been reported.

인공지능을 사용하여 특정한 심장 구조들을 세그먼테이션하는 기법들은 다수 소개되고 있지만, 실제 임상적으로 의미있는 랜드마크들을 검출하는 기법들은 세그먼테이션 기술에 비해 훨씬 적으며, 특정한 영상 뷰(예: A2CH, A3CH, A4CH, PSAX, PLAX(parasternal long axis) 등)에서 이루어지는 것이 대부분이다. 이로 인해, 같은 구조일지라도 서로 상이하기 보이는 각 영상 뷰를 고려하지 못하며, 이는 성능 저하를 초래할 수 있다.Although many techniques for segmenting specific cardiac structures using artificial intelligence have been introduced, the techniques for detecting actual clinically meaningful landmarks are much less compared to segmentation techniques, and specific image views (eg, A2CH, A3CH, A4CH) , PSAX, PLAX (parasternal long axis), etc.). For this reason, it is not possible to consider each image view that looks different from each other even with the same structure, which may result in performance degradation.

같은 심장 구조를 영상 내에 포함하더라도, 영상 뷰에 따라 다른 특성을 가진다. 예를들어, A2CH는 좌심방과 좌심실만을 포함하고, A4CH는 좌심방과 좌심실뿐만 아니라 우심방과 우심실까지 포함한다. 이와 같이, A2CH 및 A4CH는 동일한 심장 구조를 표현하지만, 서로 다른 장기 기관들을 표현하는 뷰들 각각으로부터 보다 강건한 랜드마크 검출을 위하여 도 5와 같이 회귀 모델(regression model)을 통해 주어진 뷰에 대하여 영상 자체에서 랜드마크를 검출할지 또는 세그먼테이션을 수행한 결과에서 랜드마크를 검출할지가 결정될 수 있다.Even if the same cardiac structure is included in the image, it has different characteristics depending on the image view. For example, A2CH includes only the left atrium and left ventricle, and A4CH includes not only the left atrium and left ventricle, but also the right atrium and right ventricle. As such, A2CH and A4CH express the same cardiac structure, but in the image itself for a view given through a regression model as shown in FIG. 5 for more robust landmark detection from each of the views representing different organ organs. It may be determined whether to detect the landmark or whether to detect the landmark from a result of performing segmentation.

도 5는 본 발명의 일 실시 예에 따라 회귀 모델을 이용하여 랜드마크 검출 방식을 결정하는 매커니즘을 도시한다. 도 5를 참고하면, A2CH(502), A4CH(504), PSAX(506) 등의 뷰에서 촬영된 영상들이 회귀 모델(510)이 입력된다. 회귀 모델(510)에 의해, 영상 기반 검출(image-based detection)(522), 세그먼테이션 기반 검출(segmentation-based detection)(524), 상호보완적 검출(complement detection)(526) 중 하나가 선택될 수 있다. 위와 같이, 회귀 모델(510)의 입력으로서 특정 뷰의 영상이 제공될 때, 어떤 뷰인지 예측될 수 있으며, 이를 통해 어떠한 접근 방식을 사용할지 정해질 수 있다. 각 뷰에 따라 육안으로 잘 보이는 특정 구조가 다르기 때문에, 영상을 보다 효율적으로 처리하기 위해 영상 기반 검출(522), 세그먼테이션 기반 검출(524), 상호보완적 검출(526) 중 하나가 사용된다.5 illustrates a mechanism for determining a landmark detection method using a regression model according to an embodiment of the present invention. Referring to FIG. 5 , a regression model 510 is input to images taken from views such as A2CH 502 , A4CH 504 , and PSAX 506 . One of image-based detection 522 , segmentation-based detection 524 , complement detection 526 may be selected by regression model 510 . can As described above, when an image of a specific view is provided as an input of the regression model 510, which view it is can be predicted, and which approach to use can be determined through this. Since a specific structure visible to the naked eye is different for each view, one of image-based detection 522 , segmentation-based detection 524 , and complementary detection 526 is used to process an image more efficiently.

도 6a 내지 도 6c는 랜드마크 검출 방식 별 검출 결과의 예들을 도시한다. 도 6a를 참고하면, A2CH(602)는 영상 기반 검출(622)에 의해 분석될 수 있다. 영상 기반 검출(622)의 경우, 초음파 영상만을 이용하여 랜드마크(예: Apex(632), Annulus(634a, 634b))가 검출될 수 있다. 영상 기반 검출(622)은 세그먼테이션을 수행하지 아니하고, 영상만으로부터 랜드마크를 검출하기 때문에, 보다 빠르게 랜드마크를 검출할 수 있는 장점을 가진다.6A to 6C show examples of detection results for each landmark detection method. Referring to FIG. 6A , A2CH 602 may be analyzed by image-based detection 622 . In the case of the image-based detection 622 , landmarks (eg, Apex 632 and Annulus 634a and 634b) may be detected using only the ultrasound image. Since the image-based detection 622 does not perform segmentation and detects a landmark from only an image, it has the advantage of being able to detect the landmark more quickly.

도 6b를 참고하면, A2CH(602)는 세그먼테이션 기반 검출(624)에 의해 분석될 수 있다. 세그먼테이션 기반 검출(624)의 경우, 초음파 영상에 대한 세그먼테이션이 수행된 후, 세그먼테이션 결과에서 랜드마크가 검출된다. 따라서, 영상 기반 검출(622)에 비해 비교적 많은 시간이 소요되지만, 최근 인공지능을 통해 시간 소요가 크게 감소되었다. 또한, 인공지능 알고리즘은 임상인이 납득할 만한 수준의 영상 세그먼테이션 결과를 도출하기 때문에, 영상 기반 검출(622)과 같이 단일 영상만을 기반으로 랜드마크를 검출하는 것보다 비교적 높은 정확도로 랜드마크(예: Apex(642), Annulus(644a, 644b))가 검출될 수 있다.Referring to FIG. 6B , A2CH 602 may be analyzed by segmentation-based detection 624 . In the case of the segmentation-based detection 624 , after segmentation is performed on the ultrasound image, a landmark is detected from the segmentation result. Accordingly, it takes a relatively long time compared to the image-based detection 622 , but recently, the time required has been greatly reduced through artificial intelligence. In addition, since the artificial intelligence algorithm derives image segmentation results at a level acceptable to clinicians, landmarks (e.g., Apex (642), Annulus (644a, 644b)) can be detected.

도 6c를 참고하면, A2CH(602)는 상호보완적 검출(626)에 의해 분석될 수 있다. 상호보완적 검출(626)의 경우, 영상 기반 검출(622) 또는 세그먼테이션 기반 검출(624) 중 하나의 방식으로만 랜드마크를 검출하기 어려운 경우에 사용될 수 있다. 상호보완적 검출(626)은 영상 기반 검출(622)에 의해 결정된 확률(예: Apex(632), Annulus(634a, 634b)) 및 세그먼테이션 기반 검출(624)에 의해 결정된 확률(예: Apex(642), Annulus(644a, 644b))을 베이지안 방법으로 정제 및 보완하고, 랜드마크를 검출할 수 있다.Referring to FIG. 6C , A2CH 602 may be analyzed by complementary detection 626 . In the case of the complementary detection 626 , it may be used when it is difficult to detect a landmark by only one of the image-based detection 622 or the segmentation-based detection 624 . Complementary detection 626 includes a probability determined by image-based detection 622 (eg, Apex 632, Annulus 634a, 634b) and a probability determined by segmentation-based detection 624 (eg, Apex 642). ), Annulus (644a, 644b)) can be refined and supplemented by the Bayesian method, and landmarks can be detected.

심장 초음파 영상에서 다양한 임상 지표들을 측정하기 위한 가이드라인은 ASE(the American Society of Echocardiography)에서 정의된다. ASE의 가이드라인을 따라 임상 지표를 측정하기 위해서, ASE에서 정의된 임상적 특정 랜드마크들이 필요하다. 이때, 분석이 필요한 환자의 심장 초음파 영상에서 특정 랜드마크들을 검출하기 위해서, 사람의 개입이 불가피하며, 이로 인해 시간과 비용이 소요되었다. 따라서, 본 발명은 사람의 개입 없이 임상 지표를 측정하는 기술을 제안한다. 본 발명에서 제안되는 기술을 통해, 분석이 필요한 환자의 심초음파 영상에서 특정 랜드마크들이 자동으로 검출될 수 있고, 기존 대비 시간과 비용의 소요가 크게 감소될 것이 기대된다.Guidelines for measuring various clinical indicators in echocardiography are defined by the American Society of Echocardiography (ASE). In order to measure clinical indicators according to the guidelines of the ASE, clinically specific landmarks defined in the ASE are required. In this case, in order to detect specific landmarks in the echocardiography image of a patient requiring analysis, human intervention is inevitable, which consumes time and money. Accordingly, the present invention proposes a technique for measuring clinical indicators without human intervention. Through the technology proposed in the present invention, specific landmarks can be automatically detected in the echocardiography image of a patient requiring analysis, and it is expected that the time and cost requirements will be greatly reduced compared to the existing ones.

도 7은 본 발명의 일 실시 예에 따라 세그먼테이션에 기반하여 임상 지표를 검출하는 절차의 예를 도시한다. 도 7은 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.7 illustrates an example of a procedure for detecting a clinical indicator based on segmentation according to an embodiment of the present invention. 7 exemplifies an operation method of a device having a computing capability (eg, the service server 110 of FIG. 1 ).

도 7을 참고하면, S701 단계에서, 장치는 영상에 대해 구역들로 세그먼테이션을 수행한다. 장치는 세그먼테이션을 위해 설계되고, 훈련된 인공지능 모델을 이용하여 세그먼테이션을 수행할 수 있다. 예를 들어, 영상은 심장 초음파 영상으로서, PLAX 뷰의 영상일 수 있다. 구역들은 심장을 구성하는 공간들, 근육, 혈관 등을 의미한다. 예를 들어, 도 8과 같이, 세그먼테이션에 의해, RV(right ventricle)(802), IVS(interventricular septum)(804), 대동맥(aorta)(806), LV(left ventricle)(808), LVPW(LV posterior wall)(810), LA(left atrium)(812)가 확인될 수 있다.Referring to FIG. 7 , in step S701 , the device performs segmentation on an image into regions. The device is designed for segmentation and may perform segmentation using a trained AI model. For example, the image is an echocardiogram image, and may be a PLAX view image. Zones mean the spaces, muscles, blood vessels, etc. that make up the heart. For example, as shown in Figure 8, by segmentation, RV (right ventricle) 802, IVS (interventricular septum) 804, aorta (aorta) 806, LV (left ventricle) (808), LVPW ( An LV posterior wall 810 and a left atrium (LA) 812 may be identified.

S703 단계에서, 장치는 세그먼테이션 결과에 기반하여 적어도 하나의 기준선을 생성한다. 기준선은 세그먼테이션에 의해 획득된 구역들에 기반하여 생성될 수 있다. 예를 들어, 기준선은 구역들 간 상대적 위치, 구역들의 위치 관계에 기반한 점, 각 구역의 경계선 등에 기반하여 결정될 수 있다.In step S703, the device generates at least one reference line based on the segmentation result. A baseline may be generated based on the regions obtained by segmentation. For example, the reference line may be determined based on a relative position between regions, a point based on a positional relationship between regions, a boundary line of each region, and the like.

S705 단계에서, 장치는 적어도 하나의 기준선에 기반하여 적어도 하나의 임상 지표를 결정한다. 예를 들어, 적어도 하나의 임상 지표는 생성된 적어도 하나의 기준선의 길이, 적어도 하나의 기준선에 기반하여 결정되는 값 등을 포함할 수 있다.In step S705 , the device determines at least one clinical indicator based on the at least one baseline. For example, the at least one clinical indicator may include a length of at least one generated baseline, a value determined based on the at least one baseline, and the like.

도 7에 도시되지 아니하였으나, 적어도 하나의 기준선에 기반하여 결정된 적어도 하나의 임상 지표는 사용자에게 제공될 수 있다. 예를 들어, 장치는 표시 장치를 통해 적어도 하나의 임상 지표를 표시할 수 있다. 이때, 적어도 하나의 임상 지표는 의료 영상에 겹쳐지도록 표시되거나, 별도의 인터페이스를 통해 표시될 수 있다. 의료 영상에 겹쳐지도록 표시되는 경우, 각 임상 지표는 대응하는 기준선으로부터 임계 거리 이내의 영역에 배치될 수 있다. 추가적으로, 각 임상 지표 및 대응하는 기준선 간 관련성을 나타내는 지시자(예: 연결선 등)가 함께 표시될 수 있다. 다른 예로, 장치는 적어도 하나의 임상 지표를 나타내는 데이터를 네트워크를 통해 다른 장치로 송신할 수 있다.Although not shown in FIG. 7 , at least one clinical indicator determined based on at least one baseline may be provided to the user. For example, the device may display at least one clinical indicator through the display device. In this case, the at least one clinical indicator may be displayed to overlap the medical image or may be displayed through a separate interface. When displayed to be superimposed on a medical image, each clinical indicator may be disposed in an area within a threshold distance from a corresponding baseline. Additionally, an indicator (eg, a connecting line, etc.) indicating a relationship between each clinical indicator and a corresponding baseline may be displayed together. As another example, the device may transmit data indicative of at least one clinical indicator to another device via a network.

도 9는 본 발명의 일 실시 예에 따른 기준선(reference line)을 결정하는 절차의 예를 도시한다. 도 9는 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.9 illustrates an example of a procedure for determining a reference line according to an embodiment of the present invention. 9 exemplifies an operation method of a device having computing capability (eg, the service server 110 of FIG. 1 ).

도 9를 참고하면, S901 단계에서, 장치는 IVS의 중심선(center line)을 검출한다. 장치는 IVS에 대응하는 영역의 단축(short axis)을 가로지르는 선을 검출한다. 예를 들어, IVS의 중심선은 도 13a의 선(1314a) 또는 도 13b의 선(1314b)이다.Referring to FIG. 9 , in step S901 , the device detects a center line of the IVS. The device detects a line crossing the short axis of the region corresponding to the IVS. For example, the centerline of the IVS is line 1314a in FIG. 13A or line 1314b in FIG. 13B.

S903 단계에서, 장치는 IVS에 대한 수직선을 검출한다. 장치는 IVS의 중심선 및 IVS의 경계선이 만나는 점에서 IVS의 경계선에 대해 수직하는 선을 검출한다. 다시 말해, 장치는 S901 단계에서 검출된 중심선 및 IVS에 대응하는 영역의 경계선이 만나는 점에서 IVS의 경계선에 대해 수직하는 선을 검출한다. 여기서, 수직선은 LV에 대응하는 영역의 내부를 관통할 수 있다. 예를 들어, IVS에 대한 수직선은 도 13a의 선(1316) 또는 도 13b의 선(1326)이다.In step S903, the device detects a vertical line to the IVS. The device detects a line perpendicular to the boundary line of the IVS at the point where the center line of the IVS and the boundary line of the IVS meet. In other words, the device detects a line perpendicular to the boundary line of the IVS at the point where the center line detected in step S901 and the boundary line of the region corresponding to the IVS meet. Here, the vertical line may penetrate the interior of the region corresponding to the LV. For example, the vertical line for IVS is line 1316 of FIG. 13A or line 1326 of FIG. 13B .

S905 단계에서, 장치는 LV의 지름을 검출한다. 즉, 장치는 S903 단계에서 검출된 수직선의 길이를 측정함으로써 LV의 지름을 검출할 수 있다. 즉, S903 단계에서 검출된 수직선은 임상 지표들 중 하나로서, LV의 지름을 측정하기 위해 사용될 수 있다.In step S905, the device detects the diameter of the LV. That is, the device may detect the diameter of the LV by measuring the length of the vertical line detected in step S903. That is, the vertical line detected in step S903 is one of the clinical indicators and may be used to measure the diameter of the LV.

S907 단계에서, 장치는 LVPW 내에서 수직선을 검출한다. 즉, 장치는 S903 단계에서 검출된 수직선 및 LVPW의 경계선이 만나는 점에서 경계선에 대해 수직하는 선을 검출한다. 수직선은 LVPW에 대응하는 영역의 내부를 관통할 수 있다. 예를 들어, LVPW 내에서의 수직선은 도 13a의 선(1314b) 또는 도 13b의 선(1324b)이다. 여기서, 수직선의 길이는 측정하고자 하는 임상 지표들 중 하나로서, LVPW의 두께를 측정하기 위해 사용될 수 있다.In step S907, the device detects a vertical line in the LVPW. That is, the device detects a line perpendicular to the boundary line at the point where the vertical line detected in step S903 and the boundary line of the LVPW meet. The vertical line may penetrate the interior of the region corresponding to the LVPW. For example, the vertical line within LVPW is line 1314b of FIG. 13A or line 1324b of FIG. 13B. Here, the length of the vertical line is one of the clinical indicators to be measured, and may be used to measure the thickness of the LVPW.

도 10은 본 발명의 일 실시 예에 따른 기준선을 결정하는 절차의 다른 예를 도시한다. 도 10은 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.10 illustrates another example of a procedure for determining a baseline according to an embodiment of the present invention. 10 exemplifies an operation method of a device having a computing capability (eg, the service server 110 of FIG. 1 ).

도 10을 참고하면, S1001 단계에서, 장치는 RV 및 대동맥의 근접점(closest point)를 검출한다. 예를 들어, 근접점은 대동맥의 경계선 상에 점들 중 RV에 가장 가까운 점일 수 있다. 여기서, 근접점은 사이너스 점일 수 있다. 사이너스 점은 대동맥의 경계선 상의 점들 중 미리 정의된 특징을 가지는 점을 의미한다. 예를 들어, 사이너스 점은 PLAX 뷰의 심장 초음파 영상에서 결정된 대동맥의 경계선의 상단에서 위를 향해 볼록한 부분의 고점을 의미할 수 있다.Referring to FIG. 10 , in step S1001, the device detects the closest point between the RV and the aorta. For example, the proximal point may be a point closest to the RV among points on the borderline of the aorta. Here, the proximity point may be a sinus point. The sinus point means a point having a predefined characteristic among points on the borderline of the aorta. For example, the sinus point may mean a high point of a convex portion from the top of the boundary line of the aorta determined in the echocardiography image of the PLAX view.

S1003 단계에서, 장치는 대동맥 및 LV의 이음부(junction)에 대한 평행선을 검출한다. 대동맥 및 LV의 이음부는 세그먼테이션에 의해 획득된 대동맥의 경계선 및 LV의 경계선이 중첩되는 선 또는 적어도 하나의 점을 의미한다. 평행선은 중첩되는 선, 즉, 이음부에 해당하는 선에 평행하면서, S1001 단계에서 확인된 근접점을 포함하는 선이다. 즉, 평행선은 근접점에서 시작하여 대동맥에 대응하는 영역의 내부를 관통한다. 예를 들어, 평행선은 도 13a의 선(1318)일 수 있다.In step S1003, the device detects a parallel line to the junction of the aorta and the LV. The joint of the aorta and the LV means a line or at least one point on which the boundary line of the aorta and the boundary line of the LV obtained by segmentation overlap. The parallel line is a line that is parallel to the overlapping line, that is, a line corresponding to the joint, and includes the adjacent point identified in step S1001. That is, the parallel line starts at the proximal point and penetrates the interior of the region corresponding to the aorta. For example, the parallel line may be line 1318 of FIG. 13A .

S1005 단계에서, 장치는 대동맥 선을 결정한다. 여기서, 대동맥 선은 S1003 단계에서 검출된 평행선을 의미한다. 대동맥 선의 길이는 측정하고자 하는 임상 지표들 중 하나일 수 있다.In step S1005, the device determines the aortic line. Here, the aortic line means a parallel line detected in step S1003. The length of the aortic line may be one of the clinical indicators to be measured.

도 11은 본 발명의 일 실시 예에 따른 기준선을 결정하는 절차의 또 다른 예를 도시한다. 도 11은 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.11 illustrates another example of a procedure for determining a baseline according to an embodiment of the present invention. 11 exemplifies an operation method of a device having a computing capability (eg, the service server 110 of FIG. 1 ).

S1101 단계에서, 장치는 대동맥에서 사이너스 점(sinus point)을 검출한다. 즉, 장치는 대동맥의 경계선 상의 사이너스 점을 검출한다. 사이너스 점은 대동맥의 경계선 상의 점들 중 미리 정의된 특징을 가지는 점을 의미한다. 예를 들어, 사이너스 점은 PLAX 뷰의 심장 초음파 영상에서 결정된 대동맥의 경계선의 상단에서 위를 향해 혹은 하단에서 아래를 향해 볼록한 부분의 고점 또는 저점을 의미할 수 있다.In step S1101, the device detects a sinus point in the aorta. That is, the device detects a sinus point on the borderline of the aorta. The sinus point means a point having a predefined characteristic among points on the borderline of the aorta. For example, the sinus point may mean a high point or a bottom point of a convex portion from the top to the top or from the bottom to the bottom of the boundary line of the aorta determined in the echocardiography image of the PLAX view.

S1103 단계에서, 장치는 LA를 통과하는 수직선을 결정한다. 수직선의 일단은 S1101 단계에서 검출된 사이너스 점에 일치한다. 일 실시 예에 따라, 수직선은 사이너스 점에서 LA에 수직하면서, LA에 대응하는 영역의 내부를 관통하는 선일 수 있다. 다른 실시 예에 따라, 수직선은 LA에 대응하는 영역의 경계선 상에서 사이너스 점에 가장 가장 가까운 점을 포함하고, LA의 장축의 중심선에 수직하면서, LA에 대응하는 영역의 내부를 관통하는 선일 수 있다. 또 다른 실시 예에 따라, 수직선은 LA에 대응하는 영역의 경계선 상에서 사이너스 점에 가장 가장 가까운 점을 포함하고, 의료 영상의 수직축에 평행하고, LA에 대응하는 영역의 내부를 관통하는 선일 수 있다. 예를 들어, 수직선은 도 13b의 선(1328)일 수 있다. 수직선 길이는 측정하고자 하는 임상 지표들 중 하나일 수 있다. In step S1103, the device determines a vertical line passing through the LA. One end of the vertical line coincides with the sinus point detected in step S1101. According to an embodiment, the vertical line may be a line perpendicular to LA at the sinus point and passing through the interior of the area corresponding to LA. According to another embodiment, the vertical line may be a line that includes a point closest to the sinus point on the boundary line of the area corresponding to LA, is perpendicular to the center line of the long axis of LA, and passes through the inside of the area corresponding to LA. . According to another embodiment, the vertical line may be a line that includes a point closest to the sinus point on the boundary line of the area corresponding to LA, is parallel to the vertical axis of the medical image, and passes through the inside of the area corresponding to LA. . For example, the vertical line may be line 1328 of FIG. 13B . The vertical line length may be one of the clinical indicators to be measured.

도 12는 본 발명의 일 실시 예에 따른 기준선을 결정하는 절차의 또 다른 예를 도시한다. 도 12는 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.12 illustrates another example of a procedure for determining a baseline according to an embodiment of the present invention. 12 exemplifies an operation method of a device having a computing capability (eg, the service server 110 of FIG. 1 ).

S1201 단계에서, 장치는 IVS 및 대동맥의 이음부를 검출한다. IVS 및 대동맥의 이음부는 세그먼테이션에 의해 획득된 IVS의 경계선 및 대동맥의 경계선이 중첩되는 선 또는 적어도 하나의 점을 의미한다. In step S1201, the device detects the junction of the IVS and the aorta. The junction of the IVS and the aorta means a line or at least one point where the boundary line of the IVS obtained by segmentation and the boundary line of the aorta overlap.

S1203 단계에서, 장치는 RV를 통과하는 수직선을 결정한다. 수직선의 일단은 S1201 단계에서 검출된 이음부 상의 일 점에 일치한다. 일 실시 예에 따라, 수직선은 영상의 수직축과 평행한 선일 수 있다. 다른 실시 예에 따라, 수직선은 RV의 장축(long axis) 중심선에 수직인 선일 수 있다. 예를 들어, 수직선은 도 13a의 선(1312)일 수 있다. 수직선 길이는 측정하고자 하는 임상 지표들 중 하나일 수 있다. In step S1203, the device determines a vertical line passing through the RV. One end of the vertical line coincides with a point on the joint detected in step S1201. According to an embodiment, the vertical line may be a line parallel to the vertical axis of the image. According to another embodiment, the vertical line may be a line perpendicular to a center line of a long axis of the RV. For example, the vertical line may be line 1312 of FIG. 13A . The vertical line length may be one of the clinical indicators to be measured.

도 12를 참고하여 설명한 실시 예에서, IVS 및 대동맥의 이음부가 사용된다. 다른 실시 예에 따라, IVS 및 대동맥의 이음부를 대신하여, LV 및 대동맥의 이음부를 연장한 선과 RV에 대응하는 영역의 경계가 만나는 점이 사용될 수 있다.In the embodiment described with reference to FIG. 12 , the junction of the IVS and the aorta is used. According to another embodiment, instead of the joint of the IVS and the aorta, a point where a line extending from the joint of the LV and the aorta and the boundary of the region corresponding to the RV meet may be used.

전술한 다양한 실시 예들에 따라, 의료 영상에 대한 세그먼테이션 결과에 기반하여 적어도 하나의 임상 지표가 결정될 수 있다. 예를 들어, PLAX 뷰의 심장 초음파에서 측정될 수 있는 임상 지표들의 예는 이하 [표 1]과 같다.According to various embodiments described above, at least one clinical indicator may be determined based on a segmentation result of a medical image. For example, examples of clinical indicators that can be measured by echocardiography of the PLAX view are shown in [Table 1] below.

MeasurementMeasurement Pearson correlation coefficient (r)Pearson correlation coefficient (r) LV septum diameter at the diastole (unit: mm) LV septum diameter at the diastole (unit: mm) 0.850.85 LV septum diameter at the systole (unit: mm)LV septum diameter at the systole (unit: mm) 0.840.84 LV internal diameter at the diastole (unit: mm)LV internal diameter at the diastole (unit: mm) 0.840.84 LV internal diameter at the systole (unit: mm)LV internal diameter at the systole (unit: mm) 0.860.86 LV posterior wall diameter at the diastole (unit: mm)LV posterior wall diameter at the diastole (unit: mm) 0.860.86 LV posterior wall diameter at the systole (unit: mm)LV posterior wall diameter at the systole (unit: mm) 0.880.88 LA diameter (unit: mm)LA diameter (unit: mm) 0.910.91 Aorta diameter (unit: mm)Aorta diameter (unit: mm) 0.840.84 RV diameter (unit: mm)RV diameter (unit: mm) 0.810.81

[표 1]에 예시된 임상 지표들은 생성된 적어도 하나의 기준선의 길이로부터 직접적으로 얻어질 수 있는 측정 값들의 예이다. 추가적으로, 적어도 하나의 기준선의 길이로부터 얻어질 수 있는 측정 값들에 기반하여, 이하 [표 2]와 같은 임상 지표들 중 적어도 하나가 더 획득될 수 있다.The clinical indicators exemplified in [Table 1] are examples of measured values that can be obtained directly from the length of the generated at least one baseline. Additionally, based on the measured values obtained from the length of at least one baseline, at least one of clinical indicators as shown in Table 2 below may be further obtained.

항목Item 계산식formula 설명Explanation EDV
(End diastolic volume)
EDV
(End diastolic volume)
[7/ (2.4 + LVIDd]]] × LVIDd3 [7/ (2.4 + LVIDd]]] × LVIDd 3 심장의 이완기 말에서의 심실 내부의 용량.Capacity inside the ventricles at the end of diastole of the heart.
ESV
(End systolic volume)
ESV
(End systolic volume)
[7/ (2.4 + LVIDs)]] * LVIDs3 [7/ (2.4 + LVIDs)]] * LVIDs 3 심장의 수축기 말에서의 심실 내부의 용량.Capacity inside the ventricles at the end of the systolic phase of the heart.
EF
(Ejection fraction)
EF
(Ejection fraction)
(LVIDd2 - LVIDs2 / LVIDd2 )× 100(%)(LVIDd 2 - LVIDs 2 / LVIDd 2 )× 100(%) 좌심실 수축 기능의 가장 중요한 측정 값(the most important and popular measure of left ventricular systolic function). EDV에 대한 1회 박출량의 비율로, 퍼센트로 표현됨(It is the ratio of stroke volume to end diastolic volume, expressed as percentage).The most important and popular measure of left ventricular systolic function. It is the ratio of stroke volume to end diastolic volume, expressed as percentage.
LVmassLVmass 0.8 * 1.04 *[(IVS + LVID + LVPW)3] + 0.60.8 * 1.04 *[(IVS + LVID + LVPW) 3 ] + 0.6 좌심실 질량지수.Left ventricular mass index.

전술한 바와 같이, 심장 초음파 영상으로부터 적어도 하나의 임상 지표들이 결정될 수 있다. 전술한 세그먼테이션 결과, 즉, 영역들의 세그먼테이션 폐곡선(segmentation contour)들에 기반하여 임상 지표를 결정하는 실시 예들은 다른 종류의 영상에도 적용될 수 있다. 다시 말해, 주어진 영상에 대하여 세그먼테이션을 수행할 수 있다면, 적어도 하나의 기준점 및 적어도 하나의 기준선에 기반하여 임상 지표가 도출될 수 있다. 적어도 하나의 기준점 및 적어도 하나의 기준선의 예는 도 14와 같다.As described above, at least one clinical indicator may be determined from the echocardiography image. The above-described embodiments of determining a clinical indicator based on the segmentation result, ie, segmentation contours of regions, may be applied to other types of images. In other words, if segmentation can be performed on a given image, a clinical indicator may be derived based on at least one reference point and at least one reference line. An example of the at least one reference point and the at least one reference line is shown in FIG. 14 .

도 14는 본 발명의 일 실시 예에 따른 세그먼테이션 결과에 기반하여 결정되는 기준점들 및 기준선들의 예를 도시한다. 도 14는 주어진 영상에 대한 세그먼테이션 결과를 예시한다. 도 14를 참고하면, 세그먼테이션에 의해, 제1 영역(1410), 제2 영역(1420), 제3 영역(1430), 제4 영역(1440), 제5 영역(1450), 제6 영역(1460)이 구획된다. 제1 영역(1410)은, 제2 영역(1420) 및 제3 영역(1430) 사이에 위치하고, 제2 영역(1420)은, 제4 영역(1440) 및 제1 영역(1410) 사이에 위치하고, 제4 영역(1440)은, 최상단에 위치하고, 제5 영역(1450)은, 제1 영역(1410)의 우측에 인접하며, 제6 영역(1460)은, 제1 영역(1410)의 우측에 인접하면서, 제5 영역(1450)의 하단에 위치한다.14 illustrates an example of reference points and reference lines determined based on a segmentation result according to an embodiment of the present invention. 14 illustrates a segmentation result for a given image. Referring to FIG. 14 , by segmentation, a first region 1410 , a second region 1420 , a third region 1430 , a fourth region 1440 , a fifth region 1450 , and a sixth region 1460 . ) is partitioned. The first area 1410 is located between the second area 1420 and the third area 1430 , and the second area 1420 is located between the fourth area 1440 and the first area 1410 , The fourth area 1440 is located at the uppermost end, the fifth area 1450 is adjacent to the right side of the first area 1410 , and the sixth area 1460 is adjacent to the right side of the first area 1410 . while being positioned at the lower end of the fifth area 1450 .

점 a(1411)는 제1 영역(1410)의 중심점이다. 여기서, 중심점은 해당 영역에서의 중심 모멘트(central moments)을 의미한다. 점 b(1412)는 제1 영역(1410)의 좌측 경계선을 양분하는 점이다. 여기서, 좌측 경계선의 일단은 제1 영역(1410)의 좌측에서 제1 영역(1410) 및 제2 영역(1420)의 경계가 분리되는 제2 좌측 점(1413), 좌측 경계선의 타단은 제1 영역(1410) 및 제3 영역(1430)의 경계가 분리되는 제1 좌측 점(1414)이다. 점b(1414)를 지나고, 제1 영역(1410)을 횡단하는 횡단선(1415)이 그려질 수 있으며, 횡단선(1415)에 직교하는 직교선(1416)이 그려질 수 있다. 여기서, 직교선(1416)의 적어도 일부가 기준선으로서 사용될 수 있다.The point a 1411 is the center point of the first region 1410 . Here, the central point means central moments in the corresponding region. The point b 1412 is a point that bisects the left boundary of the first region 1410 . Here, one end of the left boundary line is a second left point 1413 at which the boundary between the first area 1410 and the second area 1420 is separated from the left side of the first area 1410 , and the other end of the left boundary line is the first area. A first left point 1414 at which the boundary of 1410 and the third region 1430 is separated. A transverse line 1415 passing through the point b 1414 and crossing the first region 1410 may be drawn, and an orthogonal line 1416 orthogonal to the transversal line 1415 may be drawn. Here, at least a portion of the orthogonal line 1416 may be used as a reference line.

점 c(1421)은 직교선(1416) 및 제2 영역(1420)의 세그먼테이션 폐곡선 간 접점이다. 점 c(1421)를 지나며, 제2 영역(1420)의 장축(1423)과 직교하는 직교선(1423)이 그려질 수 있으며, 직교선(1423)의 적어도 일부가 기준선으로서 사용될 수 있다. 즉, 인접한 영역(예: 제1 영역(1410))에서 생성된 기준선으로부터 확장되는 방식으로 해당 영역(예: 제2 영역(1420)) 내의 기준선이 결정될 수 있다.Point c 1421 is a junction between the orthogonal line 1416 and the segmentation closed curve of the second region 1420 . An orthogonal line 1423 passing through the point c 1421 and perpendicular to the long axis 1423 of the second region 1420 may be drawn, and at least a portion of the orthogonal line 1423 may be used as a reference line. That is, the reference line in the corresponding area (eg, the second area 1420 ) may be determined in a manner extending from the reference line generated in the adjacent area (eg, the first area 1410 ).

점 d(1431)은 직교선(1416) 및 제3 영역(1430)의 세그먼테이션 폐곡선 간 접점이다. 점 d(1431)을 지나고, 제3 영역(1430)의 장축(1433)과 직교하는 직교선(1432)이 그려질 수 있으며, 직교선(1432)의 적어도 일부가 기준선으로서 사용될 수 있다. 즉, 인접한 영역(예: 제1 영역(1410))에서 생성된 기준선으로부터 확장되는 방식으로 해당 영역(예: 제3 영역(1430)) 내의 기준선이 결정될 수 있다.The point d 1431 is a junction between the orthogonal line 1416 and the segmentation closed curve of the third region 1430 . An orthogonal line 1432 passing through the point d 1431 and perpendicular to the long axis 1433 of the third region 1430 may be drawn, and at least a portion of the orthogonal line 1432 may be used as a reference line. That is, the reference line in the corresponding region (eg, the third region 1430 ) may be determined in a manner extending from the reference line generated in the adjacent region (eg, the first region 1410 ).

전술한 다양한 실시 예들에 따라, 의료 영상에 대한 세그먼테이션 결과에 기반하여 임상 지표들이 자동으로 추출 및 제공될 수 있다. 이를 위해, 주어진 의료 영상에 대한 세그먼테이션이 수행되는 것이 요구된다. 영상에 대한 세그먼테이션은 영상 분석 작업의 일종으로, 영상 내에 표현된 대상(object)들 중 관심 있는 목표(target) 대상을 표현한 영역(예: 픽셀들 또는 복셀들의 집합)을 검출 또는 추출하는 연산을 의미한다. 일반적으로, 촬영을 통해 획득된 영상은 관심 대상 외 주변의 다른 대상들을 함께 표현하고 있기 때문에, 영상 세그먼테이션을 통해 관심 대상과 그 외의 대상을 구분하는 것이 요구된다. 영상 세그먼테이션은 단일 영상에 대하여 수행될 수 있으나(예: 도 21과 같이 LSTM, U-net을 포함하는 모델 사용), 시계열적인 영상 세트가 존재하는 경우, 세그먼테이션이 수행될 영상의 전 또는 후의 몇몇 영상들을 더 이용함으로써 영상 세그먼테이션의 정확도가 향상될 가능성이 있다. 이에, 본 발명은 시계열적인 영상 세트를 이용하여 영상 세그먼테이션을 수행하는 다양한 실시 예들을 설명한다. 특히, 본 발명은, 시계열적인 영상 세트 중 일부 영상에만 세그먼테이션 결과를 표현하는 레이블(label)이 부가된 경우, 나머지 주변 영상들에 대응하는 레이블링된(labeled) 영상을 생성하고, 생성된 레이블링된 영상들을 활용하는 다양한 실시 예들을 설명한다.According to the above-described various embodiments, clinical indicators may be automatically extracted and provided based on a segmentation result of a medical image. To this end, it is required to perform segmentation on a given medical image. Segmentation of an image is a type of image analysis operation, and refers to an operation of detecting or extracting a region (eg, a set of pixels or voxels) expressing an interest target among objects expressed in an image. do. In general, since an image acquired through photographing expresses other objects in the vicinity other than the object of interest, it is required to distinguish the object of interest from the other objects through image segmentation. Image segmentation may be performed on a single image (eg, using a model including LSTM and U-net as shown in FIG. 21 ), but when a time-series image set exists, several images before or after the image to be segmented There is a possibility that the accuracy of image segmentation may be improved by further using them. Accordingly, the present invention will describe various embodiments of performing image segmentation using a time-series image set. In particular, in the present invention, when a label representing a segmentation result is added to only some images of a time-series image set, a labeled image corresponding to the remaining surrounding images is generated, and the generated labeled image Various embodiments using them will be described.

먼저, 세그먼테이션을 위해 사용될 수 있는 인공지능 모델로서, LSTM(long short-term memory) 네트워크의 구조는 다음과 같다. RNN(recurrent neural network)은 과거에 입력된 정보를 이용하여 현재의 상태를 판단하는 구조를 발현한 인공 신경망이다. RNN은 반복적 구조를 이용하여 이전 단계에서 획득된 정보를 지속적으로 이용한다. RNN의 일종으로서, LSTM 네트워크가 제안된 바 있다. LSTM 네트워크는 장기(long-term) 의존성을 제어하기 위해 제안된 것으로서, RNN과 마찬가지로 반복적 구조를 가진다. LSTM 네트워크의 구조는 이하 도 15a 및 도 15b와 같다. First, as an artificial intelligence model that can be used for segmentation, the structure of a long short-term memory (LSTM) network is as follows. A recurrent neural network (RNN) is an artificial neural network that expresses a structure for judging a current state using information input in the past. RNN uses the iterative structure to continuously use the information obtained in the previous step. As a type of RNN, an LSTM network has been proposed. The LSTM network has been proposed to control long-term dependencies, and has an iterative structure like RNN. The structure of the LSTM network is shown in FIGS. 15A and 15B below.

도 15a 및 도 15b는 본 발명에 적용 가능한 LSTM 네트워크의 예를 도시한다. 15A and 15B show an example of an LSTM network applicable to the present invention.

도 15a를 참고하면, LSTM 네트워크는 이전 상태 (t-1)의 h와 현재 상태 (t)의 입력(xt)을 통해 다음 네트워크에 전달할 현 상태 h를 제공한다. LSTM 네트워크는 내부적으로 이전 상태 정보를 이용할지 결정하는 r의 상태를 통하여 이전 상태를 시계열적으로 계산한다. 은닉 네트워크는 시그모이드 네트워크들(1502a, 502b), tanh 네트워크들(1504), 곱셈 연산자들(1506a, 506b, 506c), 덧셈 연산자(1508)을 포함한다. 시그모이드 네트워크들(1502a, 502b) 각각은 가중치 및 바이어스를 가지며, 활성 함수로서 시그모이드 함수를 사용한다. tanh 네트워크(1504)는 가중치 및 바이어스를 가지며, 활성 함수로서 시그모이드 tanh 함수를 사용한다. 시그모이드 네트워크(1502a)는 ht-1 및 xt의 가중치 합을 적용한 후, 결과 값 rt를 곱셈 연산자(1506a)에게 제공한다. 시그모이드 네트워크(1502b)는 ht-1 및 xt의 가중치 합을 적용한 후, 결과 값 zt를 곱셈 연산자(1506b, 506c)에게 제공한다. 시그모이드 네트워크(1502b)는 결과 값을 1- 연산자를 통해 곱셈 연산자(1506b)에게 제공한다. 곱셈 연산자(1506b)는 ht-1 및 시그모이드 네트워크(1502b)로부터 1-연산자를 통해 제공된 값에 곱셈을 적용하여 덧셈 연산자에게 제공한다. tanh 네트워크(1504)는 현재 시점 t의 입력 xt에 대해 tanh 함수를 적용한 후, 결과 값

Figure pat00001
를 곱셈 연산자(1506b)를 통해 덧셈 연산자에게 제공한다. 덧셈 연산자는 입력 받은 값들을 적용하여 ht를 결과값으로 출력한다.Referring to FIG. 15A , the LSTM network provides the current state h to be transmitted to the next network through h of the previous state (t-1) and the input (x t ) of the current state (t). The LSTM network calculates the previous state in time series through the state of r, which determines whether to use the previous state information internally. The hidden network includes sigmoid networks 1502a , 502b , tanh networks 1504 , multiplication operators 1506a , 506b , 506c , and an addition operator 1508 . Each of the sigmoid networks 1502a, 502b has a weight and a bias, and uses the sigmoid function as an activation function. The tanh network 1504 has weights and biases, and uses a sigmoid tanh function as the activation function. After applying the weighted sum of h t-1 and x t , the sigmoid network 1502a provides a result value r t to the multiplication operator 1506a. After applying the weighted sum of h t-1 and x t , the sigmoid network 1502b provides the resulting value z t to the multiplication operators 1506b and 506c. The sigmoid network 1502b provides the result value to the multiplication operator 1506b via the 1-operator. Multiplication operator 1506b applies a multiplication to h t-1 and the value provided through 1-operator from sigmoid network 1502b and provides it to the addition operator. The tanh network 1504 applies the tanh function to the input x t at the current time t, and then
Figure pat00001
is provided to the addition operator through the multiplication operator 1506b. The addition operator applies the input values and outputs h t as the result value.

도 15b를 참고하면, LSTM 네트워크는 입력 레이어 및 출력 레이어 사이의 은닉 네트워크(1510-1 내지 510-3)이 반복되는 구조를 가진다. 이에 따라, 시간의 흐름에 따른 입력들 xt-1, xt, xt+1 등이 제공되면, 시점 t-1에서의 입력 xt-1를 위한 은닉 네트워크(1510-1)에서 출력되는 은닉 상태(hidden state) 값은 다음 시점 t에서의 입력 xt와 함께 다음 시점 t를 위한 은닉 네트워크(1510-2)로 입력된다. 은닉 네트워크(1510-2)는 시그모이드 네트워크들(1512a, 512b, 512c), tanh 네트워크들(1514a, 514b), 곱셈 연산자들(1516a, 516b, 516c), 덧셈 연산자(1518)을 포함한다. 시그모이드 네트워크들(1512a, 512b, 512c) 각각은 가중치 및 바이어스를 가지며, 활성 함수로서 시그모이드 함수를 사용한다. tanh 네트워크들(1514a, 514b) 각각은 가중치 및 바이어스를 가지며, 활성 함수로서 시그모이드 tanh 함수를 사용한다. Referring to FIG. 15B , the LSTM network has a structure in which hidden networks 1510-1 to 510-3 between an input layer and an output layer are repeated. Accordingly, when inputs x t-1 , x t , x t+1 , etc. according to time are provided, the output from the hidden network 1510-1 for the input x t- 1 at time t-1 is The hidden state value is input to the hidden network 1510-2 for the next time t together with the input x t at the next time t. The hidden network 1510 - 2 includes sigmoid networks 1512a , 512b , 512c , tanh networks 1514a , 514b , multiplication operators 1516a , 516b , 516c , and an addition operator 1518 . Each of the sigmoid networks 1512a, 512b, 512c has a weight and a bias, and uses a sigmoid function as an activation function. Each of the tanh networks 1514a and 514b has a weight and a bias, and uses a sigmoid tanh function as an activation function.

시그모이드 네트워크(1512a)은 망각 게이트(forget gate)로서 기능한다. 시그모이드 네트워크(1512a)은 이전 시점의 은닉 레이어의 은닉 상태 값 ht-1 및 현재 시점의 입력 xt의 가중치 합에 대해 시그모이드 함수를 적용한 후, 결과 값을 곱셈 연산자(1516a)로 제공한다. 시그모이드 함수의 결과 값은 곱셈 연산자(1516a)에 의해 이전 시점의 셀 메모리(cell memory) 값 Ct-1와 곱해진다. 이를 통해, LSTM 네트워크는 이전 시점의 메모리 값을 망각할지 여부를 판단할 수 있다. 즉, 시그모이드 네트워크(1512a)의 출력 값은 이전 시점의 셀 메모리 값 Ct-1를 얼마나 유지할 것인지를 지시한다.The sigmoid network 1512a functions as a forget gate. The sigmoid network 1512a applies the sigmoid function to the weighted sum of the hidden state value h t-1 of the hidden layer at the previous time and the input x t at the current time, and then converts the result value to the multiplication operator 1516a. to provide. The result value of the sigmoid function is multiplied with the cell memory value C t-1 of the previous time by the multiplication operator 1516a. Through this, the LSTM network can determine whether to forget the memory value of the previous point in time. That is, the output value of the sigmoid network 1512a indicates how long to maintain the cell memory value C t-1 of the previous time.

시그모이드 네트워크(1512b) 및 tanh 네트워크(1514)는 입력 게이트(input gate)로서 기능한다. 시그모이드 네트워크(1512b)은 이전 시점 t-1의 은닉 상태 값 ht-1 및 현재 시점 t의 입력 xt의 가중치 합에 대해 시그모이드 함수를 적용한 후, 결과 값 it를 곱셈 연산자(1516b)로 제공한다. tanh 네트워크(1514)는 이전 시점 t-1의 은닉 상태 값 ht-1 및 현재 시점 t의 입력 xt의 가중치 합에 대해 tanh 함수를 적용한 후, 결과 값

Figure pat00002
를 곱셈 연산자(1516b)로 제공한다. 시그모이드 네트워크(1512b)의 결과 값 it 및 tanh 네트워크(1514)의 결과 값
Figure pat00003
은 곱셈 연산자(1516b)에 의해 곱해진 후, 덧셈 연산자(1510)에 제공된다. 이를 통해, LSTM 네트워크는 현재 시점의 셀 메모리 값 Ct에 현재 시점의 입력 xt를 얼마나 반영할지를 결정하고, 결정에 따라 스케일링(scaling)할 수 있다. 덧셈 연산자(1510)에 의해, 망각 계수와 곱해진 이전 시점의 셀 메모리 값 Ct-1·ft
Figure pat00004
가 합산된다. 이를 통해, LSTM 네트워크는 현재 시점의 셀 메모리 값 Ct를 결정할 수 있다.Sigmoid network 1512b and tanh network 1514 serve as input gates. The sigmoid network 1512b applies the sigmoid function to the weighted sum of the hidden state value h t-1 at the previous time point t-1 and the input x t at the current time point t, and then applies the result value i t to the multiplication operator ( 1516b). The tanh network 1514 applies the tanh function to the weighted sum of the hidden state value h t-1 at the previous time point t-1 and the input x t at the current time point t, and then the resulting value
Figure pat00002
is provided as the multiplication operator 1516b. The resulting value i t of the sigmoid network 1512b and the resulting value of the tanh network 1514 .
Figure pat00003
is provided to the addition operator 1510 after being multiplied by the multiplication operator 1516b. Through this, the LSTM network may determine how much to reflect the input x t of the current time to the cell memory value C t of the current time, and may perform scaling according to the determination. By the addition operator 1510, the cell memory value C t-1 ·f t at the previous point in time multiplied by the forgetting coefficient, and
Figure pat00004
is summed up Through this, the LSTM network may determine the cell memory value C t of the current time.

시그모이드 네트워크(1512c), tanh 네트워크(1514b), 곱셈 연산자(1516c)는 출력 게이트로서 기능한다. 출력 게이트는 현재 시점의 셀 상태에 기반하여 필터링된 값을 출력한다. 시그모이드 네트워크(1512c)는 이전 시점 t-1의 은닉 상태 값 ht-1 및 현재 시점 t의 입력 xt의 가중치 합에 대해 시그모이드 함수를 적용한 후, 결과 값 ot를 곱셈 연산자(1516b)로 제공한다. tanh 네트워크(1514b)는 현재 시점t의 셀 메모리 값 Ct에 대해 tanh 함수를 적용한 후, 결과 값을 곱셈 연산자(1516c)에 제공한다. 곱셈 연산자(1516c)는 tanh 네트워크(1514b)의 결과 값 및 시그모이드 네트워크(1512c)의 결과 값을 곱함으로써 현재 시점 t의 은닉 상태 값 ht를 생성한다. 이를 통해, LSTM 네트워크는 현재 시점의 셀 메모리 값을 은닉 레이어에서 얼마나 유지할지를 제어할 수 있다. The sigmoid network 1512c, the tanh network 1514b, and the multiplication operator 1516c serve as output gates. The output gate outputs a filtered value based on the cell state at the current time. The sigmoid network 1512c applies the sigmoid function to the weighted sum of the hidden state value h t-1 at the previous time point t-1 and the input x t at the current time point t, and then applies the result value o t to the multiplication operator ( 1516b). The tanh network 1514b applies the tanh function to the cell memory value C t of the current time t, and then provides the result value to the multiplication operator 1516c. The multiplication operator 1516c generates the hidden state value h t of the current time t by multiplying the result value of the tanh network 1514b and the result value of the sigmoid network 1512c. Through this, the LSTM network can control how long the cell memory value of the current time is maintained in the hidden layer.

LSTM 모델은 다양한 변형 모델을 가진다. 도 15b는 LSTM 변형 모델의 일 예를 도시한다. 본 발명에서 이용되는 LSTM 모델은 상술한 실시예로 제한되지 않으며 다양한 변형 모델들이 이용될 수 있다.The LSTM model has various deformation models. 15B shows an example of an LSTM deformation model. The LSTM model used in the present invention is not limited to the above-described embodiment, and various modified models may be used.

도 16는 본 발명의 일 실시 예에 따른 세그먼테이션을 위한 훈련 절차의 예를 도시한다. 도 16은 연산 능력을 가진 장치(예: 도 1의 서비스 서버(170))의 동작 방법을 예시한다.16 shows an example of a training procedure for segmentation according to an embodiment of the present invention. 16 exemplifies an operation method of a device having a computing capability (eg, the service server 170 of FIG. 1 ).

도 16를 참고하면, S1601 단계에서, 장치는 심장 영상 및 레이블을 획득한다. 심장 영상은 시계열적 영상들 중 일부이며, 심장 영상들은 주기성을 가질 수 있다. 심장 영상은 기준 영상일 수 있다. 레이블은 심장 영상의 적어도 하나의 챔버의 경계를 지시할 수 있다. 즉, 레이블은 심장 영상의 좌심실, 좌심방, 우심실 및 우심방 중 적어도 하나의 경계를 지시할 수 있다. 레이블은 경우에 따라 주석, 마스크, 그라운드 트루 라벨(ground truth label) 등으로 표현될 수 있다. Referring to FIG. 16 , in step S1601 , the device acquires a heart image and a label. The cardiac image is a part of time-series images, and the cardiac images may have periodicity. The cardiac image may be a reference image. The label may indicate a boundary of at least one chamber of the cardiac image. That is, the label may indicate a boundary of at least one of the left ventricle, the left atrium, the right ventricle, and the right atrium of the heart image. Labels may optionally be expressed as annotations, masks, ground truth labels, and the like.

또 다른 예로, 장치는 폐에 대한 초음파 영상 및 레이블을 획득할 수 있다. 폐에 대한 초음파 영상은 시계열적 영상들 중 일부이며 호기 및 흡기의 주기성을 가질 수 있다. 레이블은 폐 초음파 영상의 적어도 하나의 경계를 지시할 수 있다. 본 발명은 주기성을 가지는 시계열적 영상들의 세그먼테이션을 위해 적용될 수 있으며, 상술한 실시 예로 제한되지 않는다. 폐 초음파는 민감도(sensitivity)가 높은 진단 방법이다. 일 예로, 장치는 폐 초음파를 통해 환자 침상에서 촬영되는 흉부 X선과 달리 폐렴, 무기폐, 종양, 횡격막상승 및 흉막삼출을 구별할 수 있다. 흉부 X선은 중심정맥도관 삽입 등의 술기 후 기흉 또는 수흉증 등의 발생을 평가하기 위해 일상적으로 시행된다. 다만, 흉부 X선의 민감도는 이런 술기 후 생기는 소량의 기흉 또는 수흉증을 발견하기에 매우 낮다. 이에 반하여, 폐초음파는 극소량의 기흉(Pneumothorax), 경화(Consolidation), 폐부종(Pulmonary edema), 무기폐, 폐렴 및 흉막삼출(Pleural effusion) 등에 대하여 진단이 가능하다.As another example, the device may acquire an ultrasound image and a label for the lung. Ultrasound images of the lungs are part of time-series images and may have periodicity of exhalation and inspiration. The label may indicate at least one boundary of the lung ultrasound image. The present invention may be applied to segmentation of time-series images having periodicity, and is not limited to the above-described embodiment. Lung ultrasound is a diagnostic method with high sensitivity. As an example, the device may distinguish pneumonia, atelectasis, tumors, diaphragm elevation, and pleural effusion through lung ultrasound, unlike chest X-rays taken at the patient's bedside. Chest X-rays are routinely performed to evaluate the occurrence of pneumothorax or hydrothorax after operations such as central venous catheterization. However, the sensitivity of chest X-rays is very low to detect a small amount of pneumothorax or hydrothorax that occurs after such a procedure. In contrast, pulmonary ultrasound can diagnose very small amounts of pneumothorax, consolidation, pulmonary edema, atelectasis, pneumonia, and pleural effusion.

S1603 단계에서, 장치는 획득한 심장 영상에 기초하여 전파된(propagated) 심장 영상 및 전파된 레이블을 획득할 수 있다. 장치는 S1601 단계에서 획득한 심장 영상 및 상기 심장 영상과 시계열적 관계를 가지는 영상을 사용하여 전파된 심장 영상 및 전파된 레이블을 획득할 수 있다. 구체적으로, 장치는 S1601 단계에서 획득한 심장 영상 및 상기 심장 영상과 시계열적 관계를 가지는 영상의 모션 벡터 필드를 추정할 수 있다. 예를 들어, 장치는 인공지능 모델에 기초하여 모션 벡터 필드를 추정할 수 있다. 여기서, 장치는 CNN을 이용하여 모션 벡터 필드를 추정할 수 있다. 또는, 장치는 옵티컬 플로우(optical flow)에 기반하여 모션을 측정할 수 있다. 일 예로, 장치는 LiteflowNet에 기반하여 모션을 측정할 수 있다. 장치는 모션 벡터 필드에 기초하여 전파된 심장 영상 및 전파된 레이블을 획득할 수 있다. 즉, 장치는 심장 영상을 증강할 수 있다. 이에 따라, 장치는 심장 주기를 가지는 영상들 중 일부인 기준 영상에 기초하여 주기에 포함되는 영상들을 증강할 수 있다. 장치는 시계열 데이터 모델링을 수행하는데 충분한 데이터셋을 획득할 수 있다.In operation S1603 , the device may acquire a propagated heart image and a propagated label based on the acquired heart image. The device may acquire a propagated heart image and a propagated label using the heart image acquired in step S1601 and the image having a time-series relationship with the heart image. Specifically, the device may estimate the motion vector field of the cardiac image acquired in step S1601 and the image having a time-series relationship with the cardiac image. For example, the device may estimate a motion vector field based on an artificial intelligence model. Here, the device may estimate the motion vector field using CNN. Alternatively, the device may measure the motion based on an optical flow. As an example, the device may measure motion based on LiteflowNet. The device may obtain a propagated heart image and a propagated label based on the motion vector field. That is, the device may augment the cardiac image. Accordingly, the device may augment images included in the cycle based on a reference image that is a part of images having a cardiac cycle. The device may acquire a dataset sufficient to perform time series data modeling.

S1605 단계에서, 장치는 시계열 데이터 모델링을 포함하는 인공지능 모델을 학습할 수 있다. 구체적으로, 장치는 획득한 심장 영상 및 레이블, 전파된 심장 영상 및 전파된 레이블에 기초하여 인공지능 모델을 학습할 수 있다. 예를 들어, 인공지능 모델은 LSTM에 기반할 수 있다. In step S1605, the device may learn an artificial intelligence model including time series data modeling. Specifically, the device may learn the artificial intelligence model based on the acquired heart image and label, and the propagated heart image and the propagated label. For example, an artificial intelligence model may be based on LSTM.

도 16을 참고하여 설명한 실시 예에 따르면, 장치는 시간 t에서의 심장 영상뿐만 아니라 이와 근접한 시간 t-1에서의 심장 영상 및 시간 t+1 영상을 획득할 수 있다. 장치는 획득한 영상에 기초하여 시간 t에서의 예측을 수행하기 위해 학습할 수 있다. 즉, 장치는 시간 t에서의 심장 영상에 대하여 예측(prediction)을 수행하기 위하여 시간 t-1에서의 심장 영상, 시간 t에서의 심장 영상 및 시간 t+1에서의 심장 영상에 기초하여 특징(feature)를 추출할 수 있다. 일 예로, 장치는 ResNet에 기초하여 특징을 추출할 수 있다. 또한, 장치는 추출한 특징을 LSTM에 기초하여 학습할 수 있다. 또한, 장치는 시계열적 심장 영상 모델링을 위하여 ConvLSTM을 사용할 수 있다. 또한, 장치는 근접 프레임들(adjacent frames)을 이용하여 시계열 데이터 모델링을 하기 위해 3D Conv를 사용할 수 있다. 심장 영상에서 추출한 특징은 심장 영상의 좌심실, 좌심방, 우심실 및 우심방 중 적어도 하나의 경계와 관련될 수 있다. 장치는 복수의 영상에 기초하여 특징을 추출할 수 있으며, 상술한 실시 예의 개수로 제한되지 않는다. 다양한 시계열 데이터 모델링과 관련된 인공지능 모델이 사용될 수 있으며, 상술한 실시 예로 제한되지 않는다. According to the embodiment described with reference to FIG. 16 , the device may acquire not only the cardiac image at time t, but also the cardiac image at time t-1 and the image at time t+1, which are adjacent thereto. The device may learn to perform prediction at time t based on the acquired image. That is, the device performs a prediction on the cardiac image at time t based on the cardiac image at time t-1, the cardiac image at time t, and the cardiac image at time t+1 to perform prediction. ) can be extracted. As an example, the device may extract features based on ResNet. Also, the device may learn the extracted features based on the LSTM. In addition, the device can use ConvLSTM for time-series cardiac image modeling. Also, the device may use 3D Conv to model time series data using adjacent frames. The feature extracted from the cardiac image may be related to a boundary of at least one of a left ventricle, a left atrium, a right ventricle, and a right atrium of the cardiac image. The device may extract features based on a plurality of images, and the number of the above-described embodiments is not limited. Artificial intelligence models related to various time series data modeling may be used, and the present invention is not limited to the above-described embodiment.

도 16을 참고하여 설명한 실시 예들에 따라, 심장에 대한 영상이 증강될 수 있다. 증강된 영상들의 일 예는 이하 도 17과 같다. 도 17는 본 발명의 일 실시 예에 따른 심장 영상 및 전파된 심장 영상을 도시한다. 심장 영상들은 심장 주기(cardiac cycle)를 가질 수 있다. 장치는 심장 영상들 중에서 기준 영상으로서 이완기 중기(Mid-Diastole)(1702), 이완기 말기(End-Diastole)(1704), 수축기 중기(Mid-Systole)(1706) 및 수축기 말기(End-Systole)(1708) 중 적어도 하나의 영상을 획득할 수 있다. 즉, 기준 영상은 심장 사이클(cardiac cycle) 중 적어도 하나의 상태에 촬영된 영상을 포함하는 포함할 수 있으며, 이때 심장 상태는 좌심실의 크기를 기준으로 파악될 수 있다. 구체적인 일 예로, 장치는 이완기 말기(1704) 및 수축기 말기(1708)의 영상들을 기준 영상으로서 획득할 수 있다. 기준 영상은 그라운드 트루(groud truth, GT) 레이블을 포함하는 영상을 의미한다. 영상들은 서로 시계열적 관계를 가지고 있으며 시계열 데이터 모델링에 이용되기에 적합하다. 다만, 장치가 한 번의 심장 주기에서 2장에서 4장 내지의 기준 영상을 획득한 것 만으로는 시계열 데이터 모델링 구조의 인공지능을 학습하기에 부족할 수 있다. 장치는 상술한 바와 같이 모션 벡터 필드에 기초하여 기준 영상으로부터 영상 및 레이블을 전파할 수 있다. 이에 따라, 장치는 복수의 수도 GT(Pseudo GT)들(1722a 내지 1722h)을 획득할 수 있다. 수도 GT들(1722a 내지 1722h)은 전파된 영상으로서 기준 영상과 함께 심장 주기를 구성할 수 있다. 인공지능 모델의 훈련 중 손실 함수에 의한 손실 값 계산 시, 수도 GT들(1722a 내지 1722h)에 관련된 예측 결과에 적용되는 가중치는 기준 영상보다 낮게 설정될 수 있다.According to the embodiments described with reference to FIG. 16 , an image of the heart may be augmented. An example of the augmented images is shown in FIG. 17 below. 17 illustrates a cardiac image and a propagated cardiac image according to an embodiment of the present invention. Cardiac images may have a cardiac cycle. The device is a mid-diastole 1702, an End-Diastole 1704, a Mid-Systole 1706, and an End-Systole (End-Systole) as reference images among cardiac images. 1708), at least one image may be acquired. That is, the reference image may include an image captured in at least one state of a cardiac cycle, and in this case, the heart state may be determined based on the size of the left ventricle. As a specific example, the device may acquire images of the end-diastolic 1704 and the end-systolic 1708 as reference images. The reference image refers to an image including a ground truth (GT) label. The images have a time series relationship with each other and are suitable for use in time series data modeling. However, it may be insufficient for the device to learn the artificial intelligence of the time series data modeling structure just by acquiring the reference images from chapters 2 to 4 in one cardiac cycle. The device may propagate the image and label from the reference image based on the motion vector field as described above. Accordingly, the device may acquire a plurality of pseudo GTs 1722a to 1722h. The pseudo GTs 1722a to 1722h may constitute a cardiac cycle together with a reference image as a propagated image. When calculating the loss value by the loss function during training of the artificial intelligence model, the weight applied to the prediction result related to the pseudo GTs 1722a to 1722h may be set lower than the reference image.

한편, 영상의 모션 추정 값에 기초하여 생성된 수도 영상(Pseudo image) 및 수도 GT는 실제 심장의 형태와 다를 수 있다. 이에 따라, 가중치는 실제 영상 및 실제 GT에서 네트워크 학습을 통한 파라미터 가중치(parameter weight) 값의 업데이트를 위해 이용될 수 있다. 생성된 수도 영상 및 수도 GT는 실제 영상 및 실제 GT와 움직임이 클수록 왜곡될 수 있다. 즉, 한 심장 주기 내 시간 차이가 클수록 심장 모션의 추정이 어렵다. 따라서 가중치는 실제 영상 생성 기준이 되는 영상과의 시간차이(r) 값이 클수록 감소할 수 있다. 즉, 가중치는 기준 영상과의 거리가 멀수록 작아질 수 있다. 여기서, 가중치는 실험 값으로 정해질 수 있다. 또한, 상기 심장 주기는 일 예로, 정상인의 경우, 분당 맥박수가 60 내지 100일 수 있다. 또한, 심장박동이 느린 서맥 환자의 경우, 분당 맥박수가 60 이하일 수 있다. 또한, 심장박동이 빠른 빈맥 환자의 경우, 분당 맥박수가 100 이상일 수 있다.Meanwhile, the pseudo image and the pseudo GT generated based on the motion estimation value of the image may be different from the shape of the actual heart. Accordingly, the weight may be used for updating a parameter weight value through network learning in an actual image and an actual GT. The generated pseudo image and pseudo GT may be distorted as the motion of the actual image and the actual GT increases. That is, the greater the time difference within one cardiac cycle, the more difficult it is to estimate the cardiac motion. Accordingly, the weight may decrease as the time difference r from the image serving as the actual image generation standard increases. That is, the weight may decrease as the distance from the reference image increases. Here, the weight may be determined as an experimental value. In addition, the heart cycle may be, for example, a normal heart rate of 60 to 100 beats per minute. In addition, in the case of a bradycardia patient with a slow heart rate, the pulse rate per minute may be 60 or less. In addition, in the case of a tachycardia patient with a rapid heartbeat, the pulse rate per minute may be 100 or more.

도 18는 본 발명의 실시 예에 따른 세그먼테이션 절차의 예를 도시한다. 도 18는 연산 능력을 가진 장치(예: 도 1의 서비스 서버(170))의 동작 방법을 예시한다.18 shows an example of a segmentation procedure according to an embodiment of the present invention. 18 exemplifies an operation method of a device having a computing capability (eg, the service server 170 of FIG. 1 ).

도 18를 참고하면, S1801 단계에서, 장치는 연속 촬영된 심장 영상들을 획득한다. 즉, 장치는 복수의 심장 영상들을 획득할 수 있다. 획득한 복수의 영상들은 시계열적 관계를 가질 수 있다. 예를 들어, 심장 영상들은 초음파 장비에 의한 촬영 동안 실시간으로 제공될 수 있다.Referring to FIG. 18 , in step S1801 , the device acquires continuously photographed heart images. That is, the device may acquire a plurality of heart images. The plurality of acquired images may have a time-series relationship. For example, the heart images may be provided in real time during imaging by an ultrasound device.

S1803 단계에서, 장치는 시계열 데이터 모델링을 포함하는 인공지능 모델을 이용하여 획득한 심장 영상을 세그먼테이션할 수 있다. 일 실시 예에 따라, 장치는 시계열적 영상들(예: 시간 t 내지 시간 t+n-1 까지의 n개의 영상들)을 입력 데이터로서 사용하고, 시간 t 내지 시간 t+n-1 중 하나의 시간, 시간 t+n-1 이후의 시간 또는 시간 t 이전의 시간에서의 영상에 대한 세그먼테이션 결과를 생성할 수 있다. 여기서, 인공지능 모델은 도 16를 참고하여 설명한 절차와 같이 전파된 심장 영상, 전파된 레이블 및 가중치에 기초하여 훈련된 상태일 수 있다.In step S1803 , the device may segment the acquired heart image using an artificial intelligence model including time series data modeling. According to an embodiment, the device uses time-series images (eg, n images from time t to time t+n−1) as input data, and uses one of time t to time t+n−1 as input data. A segmentation result may be generated for an image at a time, a time after time t+n-1, or a time before time t. Here, the artificial intelligence model may be in a trained state based on a propagated heart image, a propagated label, and a weight, as in the procedure described with reference to FIG. 16 .

도 19a 내지 도 19c는 본 발명의 일 실시 예에 따른 데이터 증강의 구체적인 예를 도시한다. 구체적으로, 도 19은 A2CH 심초음파 뷰(echocardiography view)의 일 예를 도시한다. 도 19a는 오리지널 영상 및 주석 마스크(annotation mask)를 나타낸다. 도 19b는 오리지널 영상 및 전파된 마스크(propagated mask)를 나타낸다. 도 19c는 전파된 영상(propagated image) 및 전파된 마스크를 나타낸다. 각 사진의 윗 부분은 시각화된 영상(visualization of image) 및 마스크를 나타낸다. 각 사진의 아랫 부분은 확대된 뷰(magnified of view)를 나타내며, 초록색 라인은 LV의 경계를 나타낸다. 레이블(label)과 마스크(mask)는 혼용되어 사용될 수 있다.19A to 19C show specific examples of data augmentation according to an embodiment of the present invention. Specifically, FIG. 19 shows an example of an A2CH echocardiography view. 19A shows an original image and an annotation mask. 19B shows an original image and a propagated mask. 19C shows a propagated image and a propagated mask. The upper part of each picture shows the visualization of the image and the mask. The lower part of each picture represents the magnified of view, and the green line represents the LV boundary. A label and a mask may be used interchangeably.

심장 영상들은 시간에 따라 변하는 2D 영상이다. 심장 영상 및 주석이 달린 마스크(annotated mask)를 효율적으로 증강하기 위해서, 장치는 심장 모션 벡터 필드(cardiac motion vector field)를 측정하고, 기준 데이터(reference data)를 전파(propagate)할 수 있다. 여기서, 전파(propagate)는 뉴럴 네트워크 상의 전파(propagate)와 달리 영상 변환 방법의 일 예를 가리키는 용어일 수 있다. 예를 들어, 장치는 CNN(convolutional neural network)에 기초하여 심장 모션 벡터 필드를 측정할 수 있다. Cardiac images are 2D images that change over time. To efficiently augment cardiac images and annotated masks, the device may measure a cardiac motion vector field and propagate reference data. Here, propagate may be a term indicating an example of an image conversion method, unlike propagate on a neural network. For example, the device may measure the cardiac motion vector field based on a convolutional neural network (CNN).

장치는 레이블 및 영상으로 구성된 페어와이즈 데이터(pairwise data)를 생성할 수 있다. 일 예로, 장치는 전파된 레이블(propagated label) 및 그라운드 트루 레이블(ground truth label)이 없는 영상으로 구성된 페어와이즈 데이터(pairwise data)를 생성할 수 있다. 장치는 이러한 데이터를 증강할 수 있다. 기준 영상에서 m(프레임)만큼 떨어진 시점에서 그라운드 트루 라벨이 없는 영상은 Ii+m과 같이 표현될 수 있다. m번째 증강된 전파된 레이블은 LP i+m과 같이 표현될 수 있다. The device may generate pairwise data composed of a label and an image. As an example, the device may generate pairwise data including an image without a propagated label and a ground truth label. The device may augment this data. An image without a ground true label at a viewpoint separated by m (frame) from the reference image may be expressed as I i+m . The mth augmented propagated label may be expressed as L P i+m .

증강된 그라운드 트루 라벨이 없는 영상과 증강된 전파된 레이블은 경계가 일치하지 않을 수 있다. 예를 들어, 증강된 라벨이 없는 영상과 증강되고 전파된 레이블은 모션 벡터 필드의 에러(erroneous)에 기초하여 경계가 일치하지 않을 수 있다. 또한, 증강된 라벨이 없는 영상과 증강되고 전파된 레이블은 전파 스텝이 커질수록 경계의 오차가 커질 수 있다. 도 19b를 참고하면, 전파되지 않은 영상과 전파된 레이블의 전파 스텝 사이즈가 2인 경우 영상과 레이블의 오차가 존재한다. 도 19c를 참고하면, 전파되지 않은 영상과 전파된 레이블의 전파 스텝 사이즈가 6인 경우 오차가 존재하며, 스텝 사이즈가 2인 경우에 비해서 오차가 큰 것을 확인할 수 있다. 과거 영상 및 현재 영상을 사용하여 모션 벡터 필드를 추정하는 순차적 전파(sequential propagation)는 모션 벡터 필드의 에러를 야기할 수 있으며, 오리지널 영상을 왜곡시킬 수 있다. The image without the augmented ground true label and the augmented propagated label may not match the boundaries. For example, an image without an augmented label and an augmented and propagated label may have non-consistent boundaries based on erroneous motion vector fields. In addition, as the propagation step increases, the boundary error may increase in the image without the augmented label and the augmented and propagated label. Referring to FIG. 19B , when the propagation step size of the non-propagated image and the propagated label is 2, there is an error between the image and the label. Referring to FIG. 19C , it can be seen that an error exists when the propagation step size of the non-propagated image and the propagated label is 6, and the error is larger than that of the case where the step size is 2. Sequential propagation of estimating a motion vector field using a past image and a current image may cause an error in the motion vector field and may distort the original image.

장치는 레이블뿐만 아니라 영상을 전파함으로써 모션 벡터 필드의 에러를 감소시킬 수 있다. 또한, 장치는 레이블의 전파 스텝과 영상의 전파 스텝을 동일하게 함으로써 정확한 데이터를 증강할 수 있다.The device can reduce the error in the motion vector field by propagating the image as well as the label. In addition, the apparatus can augment accurate data by making the propagation step of the label the same as the propagation step of the image.

도 20d은 본 발명의 일 실시 예에 따른 세그먼테이션을 위한 인공지능 모델의 구체적인 구현 예를 도시한다. 도 20을 참고하면, 인공지능 모델은 ResNet(2010a, 2010b) 및 LSTM(2020a, 2020b)을 포함한다. 도 20에서, ResNet(2010a, 2010b)은 복수의 네트워크들로 표현되었으나, 이는 ResNet(2010a, 2010b)에 의한 특징 추출 동작이 시점 별로 수행됨을 표현한 것으로, 인공지능 모델은 하나의 ResNet을 포함할 수 있다. 유사하게, LSTM(2020a, 2020b)은 복수의 네트워크들로 표현되었으나, 인공지능 모델은 출력이 입력으로 피드백되는 재귀적 구조를 가지는 하나의 LSTM을 포함할 수 있다. 20D shows a specific implementation example of an artificial intelligence model for segmentation according to an embodiment of the present invention. Referring to FIG. 20 , the artificial intelligence model includes ResNet (2010a, 2010b) and LSTM (2020a, 2020b). In FIG. 20, ResNet (2010a, 2010b) is expressed as a plurality of networks, but this represents that the feature extraction operation by ResNet (2010a, 2010b) is performed for each time point, and the artificial intelligence model may include one ResNet. have. Similarly, although the LSTMs 2020a and 2020b are represented by a plurality of networks, the AI model may include one LSTM having a recursive structure in which an output is fed back as an input.

도 20을 참고하면, 장치는 시간 t에서의 이미지뿐만 아니라 이와 근접한 시간 t-1에서의 이미지 및 시간 t+1 이미지를 이용하여 시간 t에서의 이미지에 대한 예측을 수행한다. ResNet(2010a)는 시간 t-1에서의 이미지, 시간 t에서의 이미지, 시간 t+1에서의 이미지의 특징들을 추출할 수 있다. 추출된 특징들은 시계열 데이터 모델링을 구현하기 위한 LSTM(2020a)에 입력된다. LSTM(2020a)은 특징들에 기반하여 예측 결과(2030a)를 생성하고, LSTM(2020b)으로 예측 결과(2030a)에 대응하는 히든 상태를 전달한다. ResNet(2010b)는 시간 t에서의 이미지, 시간 t+1에서의 이미지, 시간 t+2에서의 이미지의 특징들을 추출하고, LSTM(2020b)는 추출된 특징들 및 LSTM(2020a)으로부터 제공된 히든 상태에 기반하여 예측 결과(2030b)를 생성한다.Referring to FIG. 20 , the apparatus performs prediction on the image at time t using not only the image at time t, but also an image at time t-1 and an image at time t+1 close to the image at time t. ResNet (2010a) can extract features of the image at time t-1, the image at time t, and the image at time t+1. The extracted features are input to the LSTM 2020a for implementing time series data modeling. The LSTM 2020a generates a prediction result 2030a based on the features, and transmits a hidden state corresponding to the prediction result 2030a to the LSTM 2020b. ResNet (2010b) extracts the features of the image at time t, the image at time t+1, and the image at time t+2, and the LSTM 2020b extracts the extracted features and the hidden state provided from the LSTM 2020a. A prediction result 2030b is generated based on .

본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of the present invention are expressed as a series of actions for clarity of description, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order if necessary. In order to implement the method according to the present invention, other steps may be included in addition to the illustrated steps, other steps may be included after excluding some steps, or additional other steps may be included except for some steps.

본 발명의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.Various embodiments of the present invention do not list all possible combinations, but are intended to describe representative aspects of the present invention, and the details described in various embodiments may be applied independently or in combination of two or more.

또한, 본 발명의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.

본 발명의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present invention includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executed on a device or computer.

Claims (19)

의료 영상에서 정보를 획득하기 위한 방법에 있어서,
상기 의료 영상에서 심장의 구역들에 대한 세그먼테이션을 수행하는 단계;
상기 세그먼테이션에 기반하여 적어도 하나의 기준선을 생성하는 단계;
상기 적어도 하나의 기준선에 기반하여 적어도 하나의 임상 지표(medical index)를 결정하는 단계를 포함하는 방법.
A method for obtaining information from a medical image, comprising:
performing segmentation on regions of the heart in the medical image;
generating at least one reference line based on the segmentation;
determining at least one medical index based on the at least one baseline.
청구항 1에 있어서,
상기 적어도 하나의 임상 지표는, 상기 적어도 하나의 기준선의 길이, 상기 적어도 하나의 기준선의 길이에 기반하여 결정되는 값 중 적어도 하나를 포함하는 방법.
The method according to claim 1,
The at least one clinical indicator includes at least one of a length of the at least one baseline and a value determined based on the length of the at least one baseline.
청구항 1에 있어서,
상기 세그먼테이션에 기반하여 적어도 하나의 기준점을 생성하는 단계를 더 포함하는 방법.
The method according to claim 1,
The method further comprising generating at least one reference point based on the segmentation.
청구항3에 있어서,
상기 적어도 하나의 기준점은, 상기 구역들 중 적어도 하나의 중심점에 기반하여 생성되는 방법.
The method according to claim 3,
The at least one reference point is generated based on a center point of at least one of the zones.
청구항 1에 있어서,
상기 구역들은, 제1 영역, 제2 영역, 제3 영역, 제4 영역, 제5 영역, 제6 영역 중 적어도 하나를 포함하는 방법.
The method according to claim 1,
wherein the zones include at least one of a first region, a second region, a third region, a fourth region, a fifth region, and a sixth region.
청구항 5에 있어서,
상기 제1 영역은, 상기 제2 영역 및 상기 제3 영역 사이에 위치하거나,
상기 제2 영역은, 상기 제4 영역 및 상기 제1 영역 사이에 위치하거나,
상기 제4 영역은, 최상단에 위치하거나,
상기 제5 영역은, 상기 제1 영역의 우측에 인접하거나, 또는
상기 제6 영역은, 상기 제1 영역의 우측에 인접하면서, 상기 제5 영역의 하단에 위치하는 방법.
6. The method of claim 5,
The first area is located between the second area and the third area,
The second area is located between the fourth area and the first area,
The fourth area is located at the top or
The fifth area is adjacent to the right side of the first area, or
The sixth area is adjacent to the right side of the first area and is located at a lower end of the fifth area.
청구항 5에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제1 영역의 기준점 및 상기 제1 영역의 좌측 경계선의 중심을 지나고, 상기 제1 영역을 횡단하는 횡단선을 확인하는 단계;
상기 기준점을 지나고, 상기 횡단선과 직교하는 제1 직교선을 확인하는 단계; 및
상기 제1 직교선의 적어도 일부를 포함하도록 제1 기준선을 생성하는 단계를 포함하는 방법.
6. The method of claim 5,
The generating of the at least one reference line comprises:
identifying a transverse line passing through a reference point of the first area and a center of a left boundary line of the first area and crossing the first area;
identifying a first orthogonal line passing through the reference point and orthogonal to the transverse line; and
and generating a first baseline to include at least a portion of the first orthogonal line.
청구항 7에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제1 기준선 및 상기 제2 영역의 세그먼테이션 폐곡선(segmentation contour) 간 접점을 지나고, 상기 제2 영역의 장축과 직교하는 제2 직교선을 확인하는 단계; 및
상기 제2 직교선의 적어도 일부를 포함하도록 제2 기준선을 생성하는 단계를 포함하는 방법.
8. The method of claim 7,
The generating of the at least one reference line comprises:
identifying a second orthogonal line that passes through a junction between the first reference line and a segmentation contour of the second region and is orthogonal to the long axis of the second region; and
and generating a second reference line to include at least a portion of the second orthogonal line.
청구항 7에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제1 기준선 및 상기 제3 영역의 세그먼테이션 폐곡선 간 접점을 지나고, 상기 제3 영역의 장축과 직교하는 제3 직교선을 확인하는 단계; 및
상기 제3 직교선의 적어도 일부를 포함하도록 제3 기준선을 생성하는 단계를 포함하는 방법.
8. The method of claim 7,
The generating of the at least one reference line comprises:
identifying a third orthogonal line passing through a contact point between the first reference line and the segmentation closed curve of the third area and perpendicular to the long axis of the third area; and
and generating a third reference line to include at least a portion of the third orthogonal line.
청구항 7에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제2영역에 대응하는 영역의 단축(short axis)의 중심선을 확인하는 단계;
상기 중심선 및 상기 영역의 경계선이 만나는 점에서 제2영역의 경계선에 대해 수직하는 제1 수직선을 확인하는 단계; 및
상기 제1 수직선의 적어도 일부를 포함하도록 제1 기준선을 생성하는 단계를 포함하며,
상기 제1 기준선은, 상기 제1영역의 지름을 측정하기 위해 사용되는 방법.
8. The method of claim 7,
The generating of the at least one reference line comprises:
identifying a center line of a short axis of an area corresponding to the second area;
identifying a first vertical line perpendicular to the boundary line of the second region at a point where the center line and the boundary line of the region meet; and
generating a first reference line to include at least a portion of the first vertical line;
The first reference line is a method used to measure a diameter of the first region.
청구항 7에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제1 기준선 및 상기 제3영역의 경계선이 만나는 점에서 상기 제3영역의 경계선에 대해 수직하는 제2 수직선을 확인하는 단계; 및
상기 제2 수직선의 적어도 일부를 포함하도록 제2 기준선을 생성하는 단계를 더 포함하며,
상기 제2 기준선은, 상기 제3영역의 두께를 측정하기 위해 사용되는 방법.
8. The method of claim 7,
The generating of the at least one reference line comprises:
identifying a second vertical line perpendicular to the boundary line of the third area at a point where the first reference line and the boundary line of the third area meet; and
generating a second reference line to include at least a portion of the second vertical line;
The second reference line is a method used to measure the thickness of the third region.
청구항 5에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제5영역의 경계선 상에 점들 중 상기 제4영역에 가장 가까운 근접점을 확인하는 단계;
상기 근접점을 포함하고, 상기 제5영역 및 상기 제1영역의 이음부(junction)에 평행하는 평행선을 확인하는 단계; 및
상기 평행선의 적어도 일부를 포함하도록 제3 기준선을 생성하는 단계를 포함하는 방법.
6. The method of claim 5,
The generating of the at least one reference line comprises:
identifying a point closest to the fourth area among points on the boundary line of the fifth area;
identifying a parallel line that includes the proximity point and is parallel to a junction of the fifth region and the first region; and
and generating a third reference line to include at least a portion of the parallel lines.
청구항 5에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제5영역의 경계선 상의 사이너스 점(sinus point)을 확인하는 단계;
상기 제6영역에 대응하는 영역의 경계선 상에서 상기 사이너스 점에 가장 가까운 점을 포함하고, 상기 의료 영상의 수직축에 평행하고, 상기 제6영역에 대응하는 영역의 내부를 관통하는 수직선을 확인하는 단계; 및
상기 수직선의 적어도 일부를 포함하도록 제4 기준선을 생성하는 단계를 포함하는 방법.
6. The method of claim 5,
The generating of the at least one reference line comprises:
identifying a sinus point on the boundary line of the fifth area;
identifying a vertical line that includes a point closest to the sinus point on the boundary line of the area corresponding to the sixth area, is parallel to the vertical axis of the medical image, and passes through the inside of the area corresponding to the sixth area; ; and
and generating a fourth reference line to include at least a portion of the vertical line.
청구항 5에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제5영역의 경계선 상의 사이너스 점(sinus point)을 확인하는 단계; 및
상기 제6영역에 대응하는 영역의 경계선 상에서 상기 사이너스 점에 가장 가까운 점을 포함하고, 상기 제6영역에 대응하는 영역의 장축에 수직하고, 상기 제6영역에 대응하는 영역의 내부를 관통하는 수직선을 확인하는 단계;
상기 수직선의 적어도 일부를 포함하도록 제4 기준선을 결정하는 단계를 포함하는 방법.
6. The method of claim 5,
The generating of the at least one reference line comprises:
identifying a sinus point on the boundary line of the fifth area; and
On the boundary line of the region corresponding to the sixth region, including a point closest to the sinus point, perpendicular to the long axis of the region corresponding to the sixth region, and penetrating the interior of the region corresponding to the sixth region checking the vertical line;
and determining a fourth reference line to include at least a portion of the vertical line.
청구항 5에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제5영역 및 상기 제1영역의 이음부 상의 일점을 포함하고, 상기 제4영역의 장축의 중심선에 수직인 수직선을 확인하는 단계; 및
상기 수직선의 적어도 일부를 포함하도록 제5 기준선을 생성하는 단계를 포함하는 방법.
6. The method of claim 5,
The generating of the at least one reference line comprises:
identifying a vertical line including a point on the joint of the fifth region and the first region and perpendicular to the center line of the long axis of the fourth region; and
and generating a fifth reference line to include at least a portion of the vertical line.
청구항 5에 있어서,
상기 적어도 하나의 기준선을 생성하는 단계는,
상기 제5영역 및 상기 제1영역의 이음부 상의 일점을 포함하고, 상기 의료 영상의 수직축에 평행한 수직선을 확인하는 단계; 및
상기 수직선의 적어도 일부를 포함하도록 제5 기준선을 생성하는 단계를 포함하는 방법.
6. The method of claim 5,
The generating of the at least one reference line comprises:
identifying a vertical line including a point on the joint of the fifth region and the first region and parallel to the vertical axis of the medical image; and
and generating a fifth reference line to include at least a portion of the vertical line.
청구항 1에 있어서,
상기 구역들은, RV(right ventricle), IVS(interventricular septum), 대동맥(aorta), LV(left ventricle), LVPW(LV posterior wall), 또는 LA(left atrium) 중 적어도 하나를 포함하는 방법.
The method according to claim 1,
wherein the zones include at least one of a right ventricle (RV), an interventricular septum (IVS), an aorta, a left ventricle (LV), an LV posterior wall (LVPW), or a left atrium (LA).
의료 영상에서 정보를 획득하기 위한 장치에 있어서,
상기 장치의 동작을 위한 명령어 집합을 저장하는 저장부; 및
상기 저장부와 연결된 적어도 하나의 프로세서를 포함하며,
상기 적어도 하나의 프로세서는,
상기 의료 영상에서 심장의 구역들에 대한 세그먼테이션을 수행하고,
상기 세그먼테이션에 기반하여 적어도 하나의 기준선을 생성하고,
상기 적어도 하나의 기준선에 기반하여 적어도 하나의 임상 지표(medical index)를 결정하도록 제어하는 장치.
An apparatus for obtaining information from a medical image, comprising:
a storage unit for storing a set of instructions for operation of the device; and
It includes at least one processor connected to the storage unit,
the at least one processor,
performing segmentation on regions of the heart in the medical image;
generating at least one baseline based on the segmentation;
A device for controlling to determine at least one clinical index based on the at least one baseline.
프로세서에 의해 동작되면 제1항 내지 제17항 중의 어느 한 항에 따른 방법을 실행하기 위해 매체에 저장된 프로그램.A program stored on a medium for executing the method according to any one of claims 1 to 17 when operated by a processor.
KR1020220024651A 2021-02-26 2022-02-24 Method and apparatus for detecting medical indices in medical image KR20220122540A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210026361 2021-02-26
KR1020210026361 2021-02-26

Publications (1)

Publication Number Publication Date
KR20220122540A true KR20220122540A (en) 2022-09-02

Family

ID=83281024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220024651A KR20220122540A (en) 2021-02-26 2022-02-24 Method and apparatus for detecting medical indices in medical image

Country Status (1)

Country Link
KR (1) KR20220122540A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230055004A (en) * 2021-10-18 2023-04-25 주식회사 온택트헬스 Method and apparatus for augmenting echocardiography data
CN117274185B (en) * 2023-09-19 2024-05-07 阿里巴巴达摩院(杭州)科技有限公司 Detection method, detection model product, electronic device, and computer storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230055004A (en) * 2021-10-18 2023-04-25 주식회사 온택트헬스 Method and apparatus for augmenting echocardiography data
WO2023068564A1 (en) * 2021-10-18 2023-04-27 주식회사 온택트헬스 Method and device for augmenting echocardiographic image data
CN117274185B (en) * 2023-09-19 2024-05-07 阿里巴巴达摩院(杭州)科技有限公司 Detection method, detection model product, electronic device, and computer storage medium

Similar Documents

Publication Publication Date Title
JP7395142B2 (en) Systems and methods for ultrasound analysis
US11024025B2 (en) Automatic quantification of cardiac MRI for hypertrophic cardiomyopathy
Ouyang et al. Echonet-dynamic: a large new cardiac motion video data resource for medical machine learning
KR20220122540A (en) Method and apparatus for detecting medical indices in medical image
CN110363772B (en) Heart MRI segmentation method and system based on antagonistic network
Gilbert et al. Artificial intelligence in cardiac imaging with statistical atlases of cardiac anatomy
Behnami et al. Dual-view joint estimation of left ventricular ejection fraction with uncertainty modelling in echocardiograms
Ahn et al. Multi-frame attention network for left ventricle segmentation in 3d echocardiography
Sirjani et al. Automatic cardiac evaluations using a deep video object segmentation network
Xu et al. Intelligent diagnosis of left ventricular hypertrophy using transthoracic echocardiography videos
Lauzier et al. The evolving role of artificial intelligence in cardiac image analysis
López et al. WarpPINN: Cine-MR image registration with physics-informed neural networks
Jafari et al. Deep bayesian image segmentation for a more robust ejection fraction estimation
Lalande et al. Evaluation of cardiac structure segmentation in cine magnetic resonance imaging
CN116580819A (en) Method and system for automatically determining inspection results in an image sequence
US20240130715A1 (en) Method and device for detecting medical indices in medical images
Mehta et al. Heart Disease Diagnosis using Deep Learning
CN115349851A (en) Cardiac function diagnosis method based on atrioventricular plane pump model
KR20220141218A (en) An assistant diagnosis decision system for dilated cardiomyopathy based on automatic algorithm
Shaaf et al. A Convolutional Neural Network Model to Segment Myocardial Infarction from MRI Images.
WO2022182180A1 (en) Method and apparatus for detecting medical indices in medical image
Masutani et al. Deep Learning Synthetic Strain: Quantitative Assessment of Regional Myocardial Wall Motion at MRI
US11786212B1 (en) Echocardiogram classification with machine learning
KR20230055659A (en) Method and apparatus for segmentation of time-series image set
Obied Different Deep Learning Techniques in Heart Disease Classification: Survey

Legal Events

Date Code Title Description
E902 Notification of reason for refusal