KR20230092306A - 의료 영상을 분석하기 위한 방법 - Google Patents

의료 영상을 분석하기 위한 방법 Download PDF

Info

Publication number
KR20230092306A
KR20230092306A KR1020210181579A KR20210181579A KR20230092306A KR 20230092306 A KR20230092306 A KR 20230092306A KR 1020210181579 A KR1020210181579 A KR 1020210181579A KR 20210181579 A KR20210181579 A KR 20210181579A KR 20230092306 A KR20230092306 A KR 20230092306A
Authority
KR
South Korea
Prior art keywords
lesion
medical image
model
ultrasound medical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020210181579A
Other languages
English (en)
Other versions
KR102678837B1 (ko
Inventor
김원화
김재일
Original Assignee
주식회사 빔웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 빔웍스 filed Critical 주식회사 빔웍스
Priority to KR1020210181579A priority Critical patent/KR102678837B1/ko
Priority to PCT/KR2022/019619 priority patent/WO2023113347A1/ko
Publication of KR20230092306A publication Critical patent/KR20230092306A/ko
Application granted granted Critical
Publication of KR102678837B1 publication Critical patent/KR102678837B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0833Clinical applications involving detecting or locating foreign bodies or organic structures
    • A61B8/085Clinical applications involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Vascular Medicine (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 몇몇 실시예에 따른, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 의료 영상을 분석하기 위한 방법이 개시된다. 상기 의료 영상을 분석하기 위한 방법은 초음파 의료 영상을 획득하는 단계; 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계; 상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하는 단계; 및 상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계; 를 포함하며, 그리고 상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델일 수 있다.

Description

의료 영상을 분석하기 위한 방법{METHOD FOR ANALYZING MEDICAL IMAGE}
본 개시는 의료 영상을 분석하기 위한 방법에 관한 것으로, 구체적으로 초음파 의료 영상을 분석하여 병변을 예측하기 위한 방법에 관한 것이다.
인체의 내부를 실시간으로 관찰할 수 있는 초음파 기술은 의료 현장에서 다방면으로 사용되고 있다. 일례로, 의료 현장에서는 초음파 기술을 이용하여 생성되는 의료 영상을 통해 수술 없이도 환자의 병변을 예측할 수 있다.
의료진들은 의료 영상에서 병변을 예측하기 위하여 먼저 병변의 존재가 의심되는 영역을 관찰할 수 있다. 예를 들어, 의료진들은 병변의 존재가 의심되는 영역이 존재하는 경우, 관찰 중이던 의료 영상을 잠시 정지시키고 이미지로서 해당 영역을 유심히 관찰할 수 있다. 그리고 의료진은 병변인 것으로 의심되는 부분의 크기 또는 범위를 정량적으로 측정하고 측정 결과에 따라 병변을 진단할 수 있다.
그러나, 의료진들이 공통적인 교육을 이수하였다 하더라도 의료 영상으로부터 병변을 진단한 결과는 의료진에 따라 상이할 수 있다. 예를 들어, 공통적인 교육을 이수하였다 하더라도, 의료진들은 개개인의 성향에 따라 병변의 크기에 대해 상이한 의미를 부여할 수 있다. 초음파 기기를 다루는 숙련도가 미숙하여, 병변을 발견하지 못하고 지나칠 수도 있다. 또한, 초음파 기기를 통해 생성되는 의료 영상은 초음파 기기의 이동에 따라 실시간으로 변동되는데 충분한 경험을 가진 의료진일지라도 피로도에 따라서는 병변을 인지하지 못할 수도 있기 때문이다.
대한민국 공개특허 KR 10-2014-0030590
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 의료 영상을 분석하여 병변을 예측하는 방법을 제공하고자 한다.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 과제를 해결하기 위한 본 개시의 일 실시예에 따라, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 의료 영상을 분석하기 위한 방법dl 개시된다. 상기 의료 영상을 분석하기 위한 방법은 초음파 의료 영상을 획득하는 단계; 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계; 상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하는 단계; 및 상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계; 를 포함하며, 그리고 상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델일 수 있다.
또한, 상기 제 2 결과는 상기 제 1 병변에 대한 악성 정도를 나타내는 정량값을 더 포함할 수 있다.
또한, 상기 제 2 결과는 상기 제 1 병변에 대한 질환 판별 결과의 시각화 정보를 더 포함하며, 상기 시각화 정보는 상기 제 1 병변이 돌출된 정도를 나타내는 히트맵(heatmap) 정보 또는 등고선 정보를 포함할 수 있다.
또한, 상기 제 1 병변의 진단을 위한 사용자 입력은 상기 제 1 병변에 대한 크기 측정 입력을 포함할 수 있다.
또한, 상기 제 2 모델은, 상기 병변 영역 정보에 대응하는 제 1 병변 영상 및 상기 크기 측정 입력에 대응하는 크기 측정 결과를 입력으로 하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다.
또한, 상기 제 1 병변 영상은 병변 영역과 병변 영역 이외의 마진(margin) 영역을 포함하며, 그리고 상기 제 2 모델은 상기 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습될 수 있다.
또한, 상기 제 1 모델은 병변의 음성, 양성 또는 악성에 대응하는 클래스 정보 및 상기 병변의 위치 정보가 라벨링된 초음파 의료 영상을 기초로 사전 학습될 수 있다.
또한, 상기 제 1 모델 또는 상기 제 2 모델은 병변의 포함 여부에 대한 단서를 이용하는 약한 지도 학습(weakly supervised learning)을 기반으로 사전 학습될 수 있다.
또한, 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계는, 상기 초음파 의료 영상이 로우(raw) 영상 데이터인지 여부를 결정하는 단계; 상기 초음파 의료 영상이 상기 로우 영상 데이터인 경우, 상기 초음파 의료 영상을 상기 제 1 모델의 입력으로 사용하는 단계; 또는 상기 초음파 의료 영상이 상기 로우 영상 데이터가 아닌 경우, 상기 초음파 의료 영상으로부터 초음파 영역 분리 영상을 생성하고, 상기 초음파 영역 분리 영상을 상기 제 1 모델의 입력으로 사용하는 단계; 를 포함할 수 있다.
또한, 상기 초음파 의료 영상이 로우 영상 데이터가 아닌 경우, 상기 초음파 의료 영상으로부터 초음파 영역 분리 영상을 제거하고, 상기 초음파 영역 분리 영상을 상기 제 1 모델의 입력으로 사용하는 단계는, 상기 초음파 의료 영상에 포함된 적어도 하나의 시각적 정보들을 제거하여, 상기 초음파 영역 분리 영상을 생성하는 단계; 를 포함할 수 있다.
또한, 상기 초음파 의료 영상이 상기 로우 영상 데이터인 경우, 버퍼 메모리에 상기 초음파 의료 영상을 저장하고, 그리고 상기 초음파 의료 영상이 상기 로우 영상 데이터가 아닌 경우, 상기 초음파 의료 영상으로부터 생성된 상기 초음파 영역 분리 영상을 상기 버퍼 메모리에 저장하는 단계; 를 더 포함하고, 상기 제 1 모델은 상기 버퍼 메모리에 저장된 상기 초음파 의료 영상 또는 상기 초음파 영역 분리 영상을 이용하여, 상기 제 1 결과를 생성할 수 있다.
또한, 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 의료 영상을 분석하기 위한 방법으로서, 획득된 초음파 의료 영상을 디스플레이하기 위한 제 1 사용자 입력을 수신하는 것에 응답하여, 디스플레이부를 통해 상기 초음파 의료 영상을 디스플레이하는 단계; 상기 초음파 의료 영상의 재생을 정지하기 위한 제 2 사용자 입력을 수신하는 것에 대한 응답으로, 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하고, 상기 디스플레이부를 통해 상기 제 1 결과를 디스플레이하는 단계; 및 상기 제 1 결과 내에서 제 1 병변의 진단을 위한 제 3 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하고, 그리고 상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계; 를 포함하며, 그리고 상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델일 수 있다.
또한, 초음파 의료 영상을 획득하고, 그리고 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 프로세서; 를 포함하고, 상기 프로세서는, 상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하고, 상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하고, 그리고 상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델일 수 있다.
또한, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 의료 영상을 분석하기 위한 방법을 수행하도록 하며, 상기 방법은: 초음파 의료 영상을 획득하는 단계; 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계; 상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하는 단계; 및 상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계; 를 포함하며, 그리고 상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델일 수 있다.
본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 몇몇 실시예에 따르면, 병변을 감별한 감별 결과를 시각화할 수 있는 의료 영상을 분석하기 위한 방법을 제공할 수 있도록 한다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.
도 1은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치의 일례를 설명하기 위한 블록 구성도이다.
도 2는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 진단 결과를 생성하는 방법의 일례를 설명하기 위한 흐름도이다.
도 3은 본 개시에 따른 컴퓨팅 장치가 제 1 모델의 입력값을 결정하는 방법의 일례를 설명하기 위한 흐름도이다.
도 4는 본 개시의 몇몇 실시예에 따른 초음파 영상 분리 영상의 일례를 설명하기 위한 도면이다.
도 5는 본개시의 몇몇 실시예에 따른 제 1 모델 및 제 2 모델을 나타낸 개략도이다.
도 6은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 감지될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다. 구체적으로, 본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.
이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.
비록 제 1, 제 2 등이 다양한 소자나 구성요소들을 서술하기 위해서 사용되나, 이들 소자나 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자나 구성요소를 다른 소자나 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제 1 소자나 구성요소는 본 발명의 기술적 사상 내에서 제 2 소자나 구성요소 일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.
이하의 설명에서 사용되는 구성 요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 개시의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 개시를 설명하는데 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로써 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.
그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 개시에서 컴퓨팅 장치는 초음파 의료 영상으로부터 병변을 예측하고, 예측된 병변에 대한 진단 결과를 디스플레이할 수 있다. 구체적으로, 컴퓨팅 장치는 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다. 여기서, 제 1 모델은 신경망(neural network) 기반의 모델일 수 있다. 병변 위치 정보는 초음파 의료 영상 내에서 병변의 위치를 나타내는 정보일 수 있다. 병변 분류 정보는 병변이 정상인지, 양성인지, 또는 악성인지를 분류한 정보일 수 있다. 제 1 결과는 의심되는 병변에 대한 포괄적인 정보를 나타낼 수 있다. 컴퓨팅 장치는 제 1 결과에 기초하여 병변을 포괄하는 병변 영상을 생성할 수 있다. 컴퓨팅 장치는 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다. 여기서, 제 2 모델은 신경망 기반의 모델일 수 있다. 컴퓨팅 장치는 제 2 결과가 생성된 경우 병변에 대한 질환 판별 결과를 시각화하여 디스플레이할 수 있다. 따라서, 사용자는 컴퓨팅 장치를 통해 초음파 의료 영상으로부터 병변이 진단된 결과를 확인할 수 있다. 이하, 도 1 내지 도 6을 통해 본 개시에 따른 의료 영상을 분석하기 위한 방법을 설명한다.
도 1은 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치의 일례를 설명하기 위한 블록 구성도이다.
도 1을 참조하면, 컴퓨팅 장치(100)는 프로세서(110), 디스플레이부(120) 및 저장부(130)를 포함할 수 있다. 다만, 상술한 구성 요소들은 컴퓨팅 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 컴퓨팅 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
컴퓨팅 장치(100)는 예를 들어, 마이크로프로세서, 메인프레임 컴퓨터, 디지털 프로세서, 휴대용 디바이스 또는 디바이스 제어기 등과 같은 임의의 타입의 컴퓨터 시스템 또는 컴퓨터 디바이스를 포함할 수 있다.
본 개시의 몇몇 실시예에 따르면, 의료 영상을 분석하기 위한 방법은 서버에 의해 수행될 수도 있다. 서버는 컴퓨팅 장치(100)로부터 수신된 정보 또는 입력되는 정보를 통해 초음파 의료 영상을 분석할 수 있다. 서버는 분석된 결과를 컴퓨팅 장치(100)로 전송할 수 있다. 또는 본 개시에 따른 컴퓨팅 장치(100)가 서버일 수도 있다. 이 경우, 컴퓨팅 장치(100)는 디스플레이부(120)를 포함하지 않고 프로세서(110), 저장부(130) 및 통신부 등의 구성 요소만 포함할 수 있다.
프로세서(110)는 통상적으로 컴퓨팅 장치(100)의 전반적인 동작을 처리할 수 있다. 프로세서(110)는 컴퓨팅 장치(100)에 포함된 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부(130)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
프로세서(110)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치(100)의 중앙 처리 장치(CPU: Central Processing Unit), 범용 그래픽 처리 장치 (GPGPU: General Purpose Graphics Processing Unit), 텐서 처리 장치(TPU: Tensor Processing Unit) 등의 데이터 분석을 위한 프로세서를 포함할 수 있다.
본 개시에서 프로세서(110)는 제 1 모델을 이용하여 초음파 의료 영상으로부터 병변을 예측할 수 있다. 프로세서(110)는 예측된 병변을 제 2 모델을 통해 진단하여, 양성 또는 악성에 대한 진단 결과를 생성할 수 있다. 여기서, 제 1 모델 및 제 2 모델은 신경망(neural network) 기반의 모델일 수 있다. 제 1 모델은 초음파 의료 영상이 입력되는 경우, 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 출력하는 모델일 수 있다. 병변 위치 정보는 초음파 의료 영상 내에서 병변의 위치를 나타내는 정보일 수 있다. 병변 분류 정보는 병변이 정상인지, 양성인지, 또는 악성인지를 분류한 정보일 수 있다. 병변 분류 정보는 병변의 종류를 분류한 정보일 수도 있다. 제 2 모델은 초음파 의료 영상으로부터 생성되는 병변 영상이 입력되는 경우, 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 모델일 수 있다. 병변 영상은 제 1 모델을 통해 검출된 병변을 포함하는 영상일 수 있다. 이하, 본 개시에 따른 신경망 기반의 제 1 모델 및 제 2 모델에 대한 일례는 도 5를 통해 설명한다.
디스플레이부(120)는 컴퓨팅 장치(100)에서 처리되는 정보(또는 적어도 하나의 컨텐츠)를 표시(출력)할 수 있다. 예를 들어, 디스플레이부는 컴퓨팅 장치에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실형화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
본 개시에서 디스플레이부(120)는 프로세서(110)를 통해 생성된 진단 결과를 디스플레이함으로써, 사용자에게 초음파 의료 영상에 대한 진단 결과를 제공할 수 있다.
저장부(130)는 메모리 및/또는 영구저장매체를 포함할 수 있다. 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 본 개시에서 저장부(130)는 제 1 모델, 제 2 모델 및 초음파 의료 영상을 저장할 수 있다.
이하에서는 컴퓨팅 장치가 초음파 의료 영상으로부터 진단 결과를 생성하는 방법에 대해 설명한다.
도 2는 본 개시의 몇몇 실시예에 따른 컴퓨팅 장치가 진단 결과를 생성하는 방법의 일례를 설명하기 위한 흐름도이다.
도 2를 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 초음파 의료 영상을 획득할 수 있다(S110). 프로세서(110)는 컴퓨팅 장치(100)와 연결된 초음파 기기 등을 통해 초음파 의료 영상을 획득할 수 있다. 초음파 기기는 초음파 발생 모듈 또는 초음파 트랜스듀서 등을 포함할 수 있다. 초음파 기기는 사용자로부터의 입력에 기초하여 초음파를 발생시켜 초음파 의료 영상을 촬영할 수 있다. 프로세서(110)는 초음파 기기를 통해 촬영된 초음파 의료 영상을 획득할 수 있다. 프로세서(110)가 획득한 초음파 의료 영상은 통신부를 통해 수신된 영상일 수도 있다. 프로세서(110)가 획득한 초음파 의료 영상은 저장부(130)에 사전 저장된 영상일 수도 있다.
프로세서(110)는 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다(S120).
제 1 모델은 신경망(neural network) 기반의 네트워크 모델일 수 있다. 신경망은 지도 학습(supervised learning), 비지도 학습(unsupervised learning), 반지도학습(semi supervised learning), 약한 지도 학습(weakly supervised learning) 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 제 1 모델은 초음파 의료 영상이 입력되는 경우, 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 출력할 수 있다. 병변 위치 정보는 초음파 의료 영상 내에서 병변의 위치를 나타내는 정보일 수 있다. 병변 분류 정보는 병변이 정상인지, 양성인지, 또는 악성인지를 분류한 정보일 수 있다. 병변 분류 정보는 병변의 종류를 분류한 정보일 수도 있다.
본 개시의 몇몇 실시예에 따르면, 제 1 모델은 병변의 음성, 양성 또는 악성에 대응하는 클래스 정보 및 병변의 위치 정보가 라벨링된 초음파 의료 영상을 기초로 사전 학습될 수 있다. 제 1 모델은 병변이 없는 정상 영상을 판단하기 위해, 병변이 포함되지 않은 초음파 의료 영상도 함께 이용하여 사전 학습될 수 있다. 클래스 정보는 학습용 영상에 포함된 병변이 음성인지, 양성인지 또는 악성인지가 분류된 정보일 수 있다. 병변의 위치 정보는 학습용 영상에 포함된 병변의 위치를 나타내는 정보일 수 있다.
본 개시의 몇몇 실시예에 따르면, 프로세서(110)는 초음파 의료 영상을 제 1 모델에 입력하기 이전에, 초음파 의료 영상이 로우 영상 데이터인지 여부를 결정할 수 있다. 여기서, 로우 영상 데이터는 사용자에게 전달하기 위한 적어도 하나의 정보 등이 포함되지 않은 영상 데이터를 의미할 수 있다. 예를 들어, 초음파 의료 영상은 영상이 촬영된 시간, 날짜 또는 환자의 성명 등에 대한 정보를 포함할 수 있다. 프로세서(110)는 이러한 정보들이 포함되지 않은 영상을 로우 영상 데이터라고 결정할 수 있다. 프로세서(110)는 초음파 의료 영상이 로우 영상 데이터가 아닌 경우, 초음파 의료 영상으로부터 초음파 영역 분리 영상을 생성할 수 있다. 초음파 영역 분리 영상은 상술한 정보들이 모두 제거되어 초음파 영상 영역만을 포함하는 영상일 수 있다. 프로세서(110)는 초음파 영역 분리 영상을 제 1 모델이 입력으로 사용할 수 있다. 이하, 프로세서(110)가 초음파 영역 분리 영상을 생성하는 방법의 일례는 도 3 및 도 4를 통해 설명한다.
본 개시의 몇몇 실시예에 따르면, 프로세서(110)는 초음파 의료 영상에 대해 전처리를 수행할 수 있다. 프로세서(110)는 Min-Max 정규화 기법 또는 Zero-mean 정규화 기법 등을 통해 화소 강도(Pixel Intensity)를 정규화할 수 있다. Min-Max 정규화 기법은 초음파 의료 영상에 포함된 모든 피쳐들에 대해 최소값은 0, 최대값은 1로 변환하고 그리고 그 외 나머지 값들은 0과 1 사이의 값으로 변환하는 정규화 기법일 수 있다. Zero-mean 정규화 기법은 초음파 의료 영상에 포함된 모든 피쳐들의 평균 값을 0, 표준 편차를 1로 변환하는 정규화하는 기법일 수 있다. 프로세서(110)는 초음파 의료 영상에 잡음이 삽입된 경우, Gaussian Filter 기법을 통해 잡음을 제거할 수 있다.
본 개시의 몇몇 실시예에 따르면, 제 1 모델은 버퍼 메모리에 저장된 초음파 의료 영상을 입력 받아 Backbone network를 통해 Feature map을 생성할 수 있다. Backbone network는 capsule network, ResNet-31, ResNet-50, DenseNet, HaRDNet 등 영상 특징을 학습하는 CNN 기반의 신경망이 적용될 수 있다. Backbone network는 Spatial Attention 기법이 적용될 수 있다. 제 1 모델은 정상/악성/양성을 구분하는 classifier를 이용하여, 생성된 feature map로부터 병변 분류 정보를 생성할 수 있다. 제 1 모델은 1x1 convolution layer와 relu 활성화 함수를 이용하여 생성된 feature map로부터 병변 위치를 나타낼 수 있는 saliency map을 생성할 수 있다. saliency map은 병변의 음성, 양성 또는 악성에 대응하는 클래스 별로 병변의 위치를 나타낼 수 있다.
본 개시의 몇몇 실시예에 따르면, 프로세서(110)는 사용자로부터의 입력에 기초하여 제 1 결과를 생성할 수 있다.
구체적으로, 초음파 의료 영상은 실시간으로 재생되는 동영상일 수 있다. 사용자는 초음파 의료 영상을 관찰 중 병변으로 의심이 되는 부분이 존재하는 경우, 사용자 입력부를 통해 초음파 의료 영상의 재생을 멈출 수 있다. 프로세서(110)는 사용자로부터 초음파 의료 영상의 재생을 멈추는 입력을 수신한 경우, 제 1 모델을 이용하여, 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다.
본 개시의 몇몇 실시예에 따르면, 제 1 결과가 생성된 경우, 프로세서(110)는 디스플레이부(120)를 통해 제 1 결과를 디스플레이할 수 있다. 프로세서(110)는 병변 위치 정보 및 병변 분류 정보 등을 디스플레이부(120)를 통해 디스플레이하여 사용자에게 제공할 수 있다.
프로세서(110)는 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 제 1 병변을 포괄하는 병변 영역 정보를 생성할 수 있다(S130).
제 1 병변의 진단을 위한 사용자 입력은 크기 측정 입력 또는 위치 태깅(tagging) 중 적어도 하나를 포함할 수 있다. 크기 측정 입력은 제 1 병변의 크기를 측정하기 위한 입력일 수 있다. 위치 태깅 입력은 제 1 병변에 태그를 적용하기 위한 입력일 수 있다. 제 1 병변이 태깅되는 경우, 제 1 병변의 위치는 저장부(130)에 저장될 수 있다.
병변 영역 정보는 제 1 병변을 포괄하는 영역에 대한 정보일 수 있다. 병변 영역 정보는 병변인 것으로 의심되는 객체를 포괄하는 영역에 대한 정보일 수 있다. 병변 영역 정보는 환언하자면 관심 영역(Region of Interest, ROI)에 대한 정보일 수도 있다.
본 개시의 몇몇 실시예에 따르면, 프로세서(110)는 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하지 못한 경우, 초음파 의료 영상을 재생할 수 있다. 구체적으로, 초음파 의료 영상은 실시간으로 재생되는 동영상일 수 있다. 사용자는 초음파 의료 영상을 관찰 중 병변으로 의심이 되는 부분이 존재하는 경우, 사용자 입력부를 통해 초음파 의료 영상의 재생을 멈출 수 있다. 프로세서(110)는 사용자로부터 초음파 의료 영상의 재생을 멈추는 입력을 수신한 경우, 제 1 모델을 이용하여, 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다. 프로세서(110)는 제 1 결과를 생성한 이후 제 1 병변의 진단을 위한 사용자 입력이 아닌 제 1 병변과 관련된 정보의 저장을 위한 사용자 입력을 수신할 수 있다. 프로세서(110)는 사용자 입력에 기초하여, 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 저장하는 것과 연동하여 초음파 의료 영상을 다시 재생할 수 있다.
프로세서(110)는 초음파 의료 영상 중 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다(S140).
제 1 병변 영상은 병변 영역과 병변 영역 이외의 마진(margin) 영역을 포함할 수 있다. 제 2 모델은 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습될 수 있다. 마진 영역은 제 1 병변을 포괄하는 병변 영역의 주변 영역일 수 있다. 마진 영역은 병변 영역으로부터 기 설정된 범위 내의 영역일 수 있다. 마진 영역은 사용자로부터 설정된 범위 내의 병변 영역의 주변 영역일 수 있다. 하이퍼 파라미터는 일반적으로 사용자가 직접 세팅해주는 값일 수 있다. 반면, 본 개시에서의 제 2 모델은 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습될 수 있다.
구체적으로, 제 2 모델은 제 1 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습될 수 있다. 제 2 모델은 제 1 마진 영역과 상이한 제 2 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습될 수 있다. 프로세서(110)는 제 1 마진 영역을 하이퍼 파라미터로 사용하여 학습된 제 2 모델과 제 2 마진 영역을 하이퍼 파라미터로 사용하여 학습된 제 2 모델의 성능을 비교할 수 있다. 프로세서(110)는 제 2 모델의 성능 평가 결과에 기초하여, 제 1 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습을 마저 수행할지 제 2 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습을 마저 수행할지 여부를 결정할 수 있다. 예를 들어, 프로세서(110)는 제 2 모델의 성능을 평가하기 위하여 사전 학습을 수행하는 경우 제 1 학습 사이클(epoch)로 제 2 모델의 학습을 진행할 수 있다. 프로세서(110)는 제 1 마진 영역 또는 제 2 마진 영역 중 하이퍼 파라미터로 사용될 마진 영역이 결정된 경우, 결정된 마진 영역을 이용하여 제 1 학습 사이클보다 많은 횟수의 제 2 학습 사이클로 제 2 모델의 학습을 수행할 수 있다.
제 2 모델은 신경망 기반의 모델일 수 있다. 제 2 모델은 제 1 병변의 위치 또는 분류 등에 대해서는 판단하지 않고, 제 1 병변이 양성인지 또는 악성인지에 대한 판단만 수행할 수 있다. 제 1 모델을 통해 제 1 병변은 이미 예측되었기 때문에, 제 2 모델을 통해서는 제 1 병변이 양성인지 또는 악성인지만 판단될 수 있다.
이를 위해, 본 개시의 몇몇 실시예에 따르면 제 1 모델과 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델일 수 있다.
구체적으로, 제 1 모델은 병변의 음성, 양성 또는 악성에 대응하는 클래스 정보 및 병변의 위치 정보가 라벨링된 초음파 의료 영상을 기초로 사전 학습될 수 있다. 제 2 모델은 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습될 수 있다. 제 1 모델은 병변을 검출하는 것에 중점을 두도록 사전 학습될 수 있고, 제 2 모델은 제 1 모델을 통해 검출된 병변의 양성, 악성을 판단하는 것에 중점을 두도록 사전 학습될 수 있다. 따라서, 프로세서(110)는 제 1 모델을 통해 높은 정확도로 병변을 검출할 수 있고, 제 2 모델을 통해 병변이 양성인지 악성인지 또한 높은 정확도로 판단할 수 있다.
본 개시의 몇몇 실시예에 따르면 제 1 모델은 병변의 포함 여부에 대한 단서를 이용하는 약한 지도 학습(weakly supervised learning)을 기반으로 사전 학습될 수 있다. 약한 지도 학습은 지도 학습과 비지도 학습을 섞은 학습 방식일 수 있다. 약한 지도 학습은 학습 데이터에 정답이 라벨링 되어있는 학습 데이터 또는 병변의 포함 여부에 대한 단서를 이용하여 사전 학습될 수 있다. 단서는 예를 들어, 학습용 데이터에 병변이 포함되어 있는지 여부만 나타낼 수 있다. 다시 말해, 학습용 데이터는 병변의 위치 정보 또는 병변의 클래스 정보가 라벨링 되어 있지 않고, 병변이 포함되어 있는지 여부만 나타내는 단서만 포함될 수 있다. 실시예에 따라, 제 2 모델은 병변의 양성 또는 악성에 대한 단서를 포함하는 학습용 데이터를 이용하여, 약한 지도 학습을 기반으로 사전 학습될 수도 있다.
본 개시의 몇몇 실시예에 따르면, 제 2 결과는 제 1 병변에 대한 악성 정도를 나타내는 정량값을 더 포함할 수 있다. 프로세서(110)는 제 1 병변에 대한 악성 정도를 수치화하여 제 2 결과를 생성할 수 있다. 따라서, 사용자는 제 1 병변에 대한 악성 정도를 쉽게 파악할 수 있다.
본 개시의 몇몇 실시예에 따르면, 제 2 결과는 제 1 병변에 대한 질환 판별 결과의 시각화 정보를 더 포함할 수 있다. 시각화 정보는 제 1 병변이 돌출(saliency)된 정도를 나타내는 히트맵(heatmap) 정보 또는 등고선 정보를 포함할 수 있다. 히트맵 정보는 제 1 병변이 돌출된 정도를 색상으로 표현한 정보일 수 있다. 예를 들어, 히트맵 정보는 제 1 병변의 중심은 사용자에게 긴장을 줄 수 있도록 빨간색으로 표시되고, 제 1 병변의 중심으로부터 멀어질수록 점점 파란색으로 표시되는 방식으로 생성될 수 있다. 등고선 정보는 제 1 병변이 돌출된 정도를 등고선으로 표현한 정보일 수 있다. 이에 따라, 사용자는 2 결과를 통해 제 1 병변이 양성인지 또는 악성인지를 쉽게 파악할 수 있다.
본 개시의 몇몇 실시예에 따르면, 제 2 모델은 병변 영역 정보에 대응하는 제 1 병변 영상 및 크기 측정 입력에 대응하는 크기 측정 결과를 입력으로 하여, 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다.
구체적으로, 프로세서(110)는 제 1 병변에 대한 크기 측정 입력을 포함하는 사용자 입력에 따라, 제 1 병변의 크기를 측정할 수 있다. 제 2 모델은 크기 측정 결과 및 제 1 병변 영상을 입력으로 하여 진단 결과를 포함하는 제 2 결과를 생성할 수 있다. 병변은 크기에 따라 양성 또는 악성의 구분이 가능할 수 있다. 따라서, 제 2 모델은 크기 측정 결과 및 제 1 병변 영상을 입력으로 하여 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다.
본 개시의 몇몇 실시예에 따르면, 제 2 모델은 병변 영역 정보에 대응하는 제 1 병변 영상 및 제 1 모델을 통해 생성된 병변 위치 정보를 입력으로 하여, 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수도 있다. 병변은 위치에 따라 양성 또는 악성의 구분이 가능할 수도 있다. 예를 들어, 같은 병변이라도 뼈에 근접하게 위치하는 병변은 악성일 확률이 높을 수 있다. 따라서, 프로세서(110)는 제 1 병변 영상 및 제 1 모델을 통해 생성된 병변 위치 정보를 입력으로 하여, 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수도 있다.
본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)는 사용자로부터의 사용자 입력에 기초하여 동작될 수도 있다. 컴퓨팅 장치(100)는 획득된 초음파 의료 영상을 디스플레이하기 위한 제 1 사용자 입력을 수신하는 것에 응답하여, 초음파 의료 영상을 디스플레이할 수 있다. 컴퓨팅 장치(100)는 초음파 의료 영상의 재생을 정지하기 위한 제 2 사용자 입력을 수신하는 것에 대한 응답으로, 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다. 프로세서(110)는 디스플레이부(120)를 통해 제 1 결과를 디스플레이할 수 있다. 컴퓨팅 장치(100)는 제 1 결과 내에서 제 1 병변의 진단을 위한 제 3 사용자 입력을 수신하는 것에 응답하여, 제 1 병변을 포괄하는 병변 영역 정보를 생성할 수 있다. 프로세서(110)는 초음파 의료 영상 중 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다.
본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)는 디스플레이부(120)를 통해 제 1 결과를 디스플레이한 이후, 초음파 의료 영상을 다시 재생하기 위한 제 4 사용자를 수신하는 것에 응답하여, 초음파 의료 영상을 다시 재생할 수 있다.
상술한 구성에 따르면, 컴퓨팅 장치(100)는 획득된 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다. 제 1 모델은 초음파 의료 영상에서 병변의 위치 및 병변을 분류하기 위해 사전 학습될 수 있다. 이에 따라, 제 1 모델이 초음파 의료 영상(200)에서의 병변의 위치 정보 및 병변 분류 정보를 포함하도록 생성한 제 1 결과의 정확도가 향상될 수 있다. 컴퓨팅 장치(100)는 초음파 의료 영상 중 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다. 환언하자면, 제 2 모델은 제 1 병변을 포괄하고 있는 제 1 병변 영상을 입력으로 하여 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성할 수 있다. 따라서, 제 2 모델은 병변의 존재 여부를 판단할 필요 없이 이미 존재하는 제 1 병변에 대한 양성/악성 여부만 진단하기 때문에, 진단 결과의 정확도가 향상될 수 있다.
본 개시의 몇몇 실시예에 따르면, 컴퓨팅 장치(100)는 초음파 의료 영상이 로우 영상 데이터인지 여부에 기초하여, 제 1 모델의 입력값을 결정할 수 있다. 이하, 도 3을 통해 본 개시에 따른 컴퓨팅 장치(100)가 제 1 모델의 입력값을 결정하는 방법의 일례를 설명한다.
도 3은 본 개시에 따른 컴퓨팅 장치가 제 1 모델의 입력값을 결정하는 방법의 일례를 설명하기 위한 흐름도이다. 도 4는 본 개시의 몇몇 실시예에 따른 초음파 영상 분리 영상의 일례를 설명하기 위한 도면이다.
도 3을 참조하면, 컴퓨팅 장치(100)의 프로세서(110)는 초음파 의료 영상이 로우(raw) 영상 데이터인지 여부를 결정할 수 있다(S121).
로우 영상 데이터는 사용자에게 전달하기 위한 적어도 하나의 정보 등이 포함되지 않은 영상 데이터를 의미할 수 있다.
예를 들어, 도 4의 (a)의 초음파 의료 영상(200)을 참조하면, 초음파 의료 영상(200)은 사용자에게 나타내기 위한 적어도 하나의 정보(210)를 포함할 수 있다. 일례로, 초음파 의료 영상(200)은 환자의 이름, 초음파 의료 영상(200)이 촬영된 시간 또는 초음파 의료 영상(200)이 촬영된 날짜 등에 대한 적어도 하나의 정보(210)를 포함할 수 있다. 프로세서(110)는 적어도 하나의 정보(210)가 포함된 초음파 의료 영상(200)은 로우 영상 데이터가 아니라고 결정할 수 있다. 프로세서(110)는 적어도 하나의 정보(210)가 포함되지 않은 초음파 의료 영상(200)은 로우 영상 데이터라고 결정할 수 있다. 프로세서(110)는 초음파 영역만 포함된 초음파 의료 영상(200)을 로우 영상 데이터라고 결정할 수 있다.
다시 도 3을 참조하면, 프로세서(110)는 초음파 의료 영상(200)이 로우 영상 데이터인 경우(S122, Yes), 초음파 의료 영상(200)을 제 1 모델의 입력으로 사용할 수 있다(S123).
다시 말해, 프로세서(110)는 초음파 의료 영상(200)이 적어도 하나의 정보(210)를 포함하지 않은 경우, 상기 초음파 의료 영상(200)을 제 1 모델의 입력으로 사용할 수 있다.
프로세서(110)는 초음파 의료 영상(200)이 로우 영상 데이터가 아닌 경우(S122, No), 초음파 의료 영상(200)으로부터 초음파 영역 분리 영상을 생성하고, 초음파 영역 분리 영상을 제 1 모델의 입력으로 사용할 수 있다(S124).
예를 들어, 도 4의 (b)의 초음파 영역 분리 영상(300)을 참조하면, 초음파 영역 분리 영상(300)은 초음파 의료 영상(200)으로부터 초음파 영역만 분리된 영상일 수 있다. 초음파 영역 분리 영상(300)은 적어도 하나의 정보(210)를 포함하지 않는 영상일 수 있다. 이에 따라, 제 1 모델이 초음파 의료 영상(200)에서의 병변의 위치 정보 및 병변 분류 정보를 포함하도록 생성한 제 1 결과의 정확도가 향상될 수 있다.
실시예에 따라, 프로세서(110)는 초음파 기기 별로 사전 설정된 임계값을 결정하고, 엣지 디텍션(edge detection) 영상 처리 기술 등을 통해 초음파 영역 분리 영상(300)을 생성할 수 있다.
본 개시의 몇몇 실시예에 따르면, 프로세서(110)는 저장부(130)의 버퍼 메모리에 저장된 초음파 의료 영상(200) 또는 초음파 영역 분리 영상(300)을 이용하여, 제 1 결과를 생성할 수 있다. 버퍼 메모리는 저장부(130)와 제 1 모델 사이에서 데이터를 주고받을 때 정보를 임시로 기억해 두고 사용할 수 있는 공간일 수 있다.
구체적으로, 프로세서(110)는 초음파 의료 영상(200)이 로우 영상 데이터인 경우, 저장부(130)의 버퍼 메모리에 초음파 의료 영상(200)을 저장할 수 있다. 프로세서(110)는 초음파 의료 영상(200)이 로우 영상 데이터가 아닌 경우, 초음파 의료 영상(200)으로부터 생성된 초음파 영역 분리 영상(300)을 버퍼 메모리에 저장할 수 있다. 제 1 모델은 버퍼 메모리에 저장된 초음파 의료 영상(200) 또는 초음파 영역 분리 영상(300)을 이용하여, 제 1 결과를 생성할 수 있다. 제 1 모델은 버퍼 메모리에 저장되어 있는 연속적인 초음파 의료 영상을 개별 또는 통합 입력으로 사용할 수 있다. 이에 따라, 제 1 모델이 생성하는 제 1 결과의 일관성 및 정확도가 향상될 수 있다.
상술한 구성에 따르면, 프로세서(110)는 초음파 의료 영상(200)이 로우 영상 데이터인 경우, 초음파 의료 영상(200)을 제 1 모델에 입력하거나 또는 초음파 의료 영상(200)이 로우 영상 데이터가 아닌 경우, 초음파 영역 분리 영상(300)을 생성하여 제 1 모델에 입력할 수 있다. 제 1 모델은 초음파 영역만을 포함하는 영상에서 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성할 수 있다. 이에 따라, 제 1 결과의 정확도가 향상될 수 있다.
도 5는 본개시의 몇몇 실시예에 따른 제 1 모델 및 제 2 모델을 나타낸 개략도이다.
본 명세서에 걸쳐, 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 "노드"라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다.
이러한 "노드"들은 "뉴런(neuron)"들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의"링크"에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. 하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 노드는 가중치(weight)를 가질 수 있다.
가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다.
예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다. 상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다.
신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다.
예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다. 신경망은 하나 이상의 노드들을 포함하여 구성될 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다.
예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다.
그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다.
예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다. 최초 입력 노드는 신경망 내의 노드들 중 다른 노드 들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다.
또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다.
이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드 들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다.
또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
본 개시의 몇몇 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다.
또한, 본 개시의 다른 일 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다.
또한, 본 개시의 또 다른 몇몇 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다.
본 개시의 또 다른 몇몇 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다.
딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다.
딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrentneural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 또는 백본 네트워크(backbone network) 등을 포함할 수 있다.
전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 및 반교사학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다.
뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다.
교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다.
즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨이 비교함으로써 오류(error)가 계산될 수 있다.
다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다.
학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다. 뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다.
과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regulaization), 학습의 과정에서 네트워크의 노드 일부를 생략하는 드롭아웃(dropout) 등의 방법이 적용될 수 있다.
도 6은 본 개시내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 일반적인 개략도를 도시한다.
본 개시내용이 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시내용 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 본 명세서에서의 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로시져, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체 로서, 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다.
컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)―이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음―, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 예를 들어, USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 저장 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 저장 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 서버에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.

Claims (14)

  1. 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 의료 영상을 분석하기 위한 방법으로서,
    초음파 의료 영상을 획득하는 단계;
    상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계;
    상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하는 단계; 및
    상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계;
    를 포함하며, 그리고
    상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델인,
    방법.
  2. 제 1 항에 있어서,
    상기 제 2 결과는 상기 제 1 병변에 대한 악성 정도를 나타내는 정량값을 더 포함하는,
    방법.
  3. 제 1 항에 있어서,
    상기 제 2 결과는 상기 제 1 병변에 대한 질환 판별 결과의 시각화 정보를 더 포함하며,
    상기 시각화 정보는 상기 제 1 병변이 돌출된 정도를 나타내는 히트맵(heatmap) 정보 또는 등고선 정보를 포함하는,
    방법.
  4. 제 1 항에 있어서,
    상기 제 1 병변의 진단을 위한 사용자 입력은 상기 제 1 병변에 대한 크기 측정 입력을 포함하는,
    방법.
  5. 제 4 항에 있어서,
    상기 제 2 모델은, 상기 병변 영역 정보에 대응하는 제 1 병변 영상 및 상기 크기 측정 입력에 대응하는 크기 측정 결과를 입력으로 하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는,
    방법.
  6. 제 1 항에 있어서,
    상기 제 1 병변 영상은 병변 영역과 병변 영역 이외의 마진(margin) 영역을 포함하며, 그리고 상기 제 2 모델은 상기 마진 영역을 하이퍼 파라미터로 사용하여 사전 학습되는,
    방법.
  7. 제 1 항에 있어서,
    상기 제 1 모델은 병변의 음성, 양성 또는 악성에 대응하는 클래스 정보 및 상기 병변의 위치 정보가 라벨링된 초음파 의료 영상을 기초로 사전 학습되는,
    방법.
  8. 제 1 항에 있어서,
    상기 제 1 모델 또는 상기 제 2 모델은 병변의 포함 여부에 대한 단서를 이용하는 약한 지도 학습(weakly supervised learning)을 기반으로 사전 학습되는,
    방법.
  9. 제 1 항에 있어서,
    상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계는,
    상기 초음파 의료 영상이 로우(raw) 영상 데이터인지 여부를 결정하는 단계;
    상기 초음파 의료 영상이 상기 로우 영상 데이터인 경우, 상기 초음파 의료 영상을 상기 제 1 모델의 입력으로 사용하는 단계; 또는
    상기 초음파 의료 영상이 상기 로우 영상 데이터가 아닌 경우, 상기 초음파 의료 영상으로부터 초음파 영역 분리 영상을 생성하고, 상기 초음파 영역 분리 영상을 상기 제 1 모델의 입력으로 사용하는 단계;
    를 포함하는,
    방법.
  10. 제 9 항에 있어서,
    상기 초음파 의료 영상이 로우 영상 데이터가 아닌 경우, 상기 초음파 의료 영상으로부터 초음파 영역 분리 영상을 제거하고, 상기 초음파 영역 분리 영상을 상기 제 1 모델의 입력으로 사용하는 단계는,
    상기 초음파 의료 영상에 포함된 적어도 하나의 시각적 정보들을 제거하여, 상기 초음파 영역 분리 영상을 생성하는 단계;
    를 포함하는,
    방법.
  11. 제 9 항에 있어서,
    상기 초음파 의료 영상이 상기 로우 영상 데이터인 경우, 버퍼 메모리에 상기 초음파 의료 영상을 저장하고, 그리고 상기 초음파 의료 영상이 상기 로우 영상 데이터가 아닌 경우, 상기 초음파 의료 영상으로부터 생성된 상기 초음파 영역 분리 영상을 상기 버퍼 메모리에 저장하는 단계;
    를 더 포함하고,
    상기 제 1 모델은 상기 버퍼 메모리에 저장된 상기 초음파 의료 영상 또는 상기 초음파 영역 분리 영상을 이용하여, 상기 제 1 결과를 생성하는,
    방법.
  12. 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는 의료 영상을 분석하기 위한 방법으로서,
    획득된 초음파 의료 영상을 디스플레이하기 위한 제 1 사용자 입력을 수신하는 것에 응답하여, 디스플레이부를 통해 상기 초음파 의료 영상을 디스플레이하는 단계;
    상기 초음파 의료 영상의 재생을 정지하기 위한 제 2 사용자 입력을 수신하는 것에 대한 응답으로, 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하고, 상기 디스플레이부를 통해 상기 제 1 결과를 디스플레이하는 단계; 및
    상기 제 1 결과 내에서 제 1 병변의 진단을 위한 제 3 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하고, 그리고 상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계;
    를 포함하며, 그리고
    상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델인,
    방법.
  13. 초음파 의료 영상을 획득하고, 그리고 상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 프로세서;
    를 포함하고,
    상기 프로세서는,
    상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하고,
    상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하고, 그리고
    상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델인,
    컴퓨팅 장치.
  14. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서에서 실행되는 경우, 의료 영상을 분석하기 위한 방법을 수행하도록 하며, 상기 방법은:
    초음파 의료 영상을 획득하는 단계;
    상기 초음파 의료 영상을 입력으로 하는 제 1 모델을 이용하여, 상기 초음파 의료 영상에서의 병변 위치 정보 및 병변 분류 정보를 포함하는 제 1 결과를 생성하는 단계;
    상기 제 1 결과 내에서 제 1 병변의 진단을 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제 1 병변을 포괄하는 병변 영역 정보를 생성하는 단계; 및
    상기 초음파 의료 영상 중 상기 병변 영역 정보에 대응하는 제 1 병변 영상을 입력으로 하는 제 2 모델을 이용하여, 상기 제 1 병변의 양성 또는 악성에 대한 진단 결과를 포함하는 제 2 결과를 생성하는 단계;
    를 포함하며, 그리고
    상기 제 1 모델과 상기 제 2 모델은 서로 독립적으로 사전 학습된 인공지능 기반 모델인,
    컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020210181579A 2021-12-17 2021-12-17 의료 영상을 분석하기 위한 방법 Active KR102678837B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210181579A KR102678837B1 (ko) 2021-12-17 2021-12-17 의료 영상을 분석하기 위한 방법
PCT/KR2022/019619 WO2023113347A1 (ko) 2021-12-17 2022-12-05 의료 영상을 분석하기 위한 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210181579A KR102678837B1 (ko) 2021-12-17 2021-12-17 의료 영상을 분석하기 위한 방법

Publications (2)

Publication Number Publication Date
KR20230092306A true KR20230092306A (ko) 2023-06-26
KR102678837B1 KR102678837B1 (ko) 2024-06-27

Family

ID=86773116

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210181579A Active KR102678837B1 (ko) 2021-12-17 2021-12-17 의료 영상을 분석하기 위한 방법

Country Status (2)

Country Link
KR (1) KR102678837B1 (ko)
WO (1) WO2023113347A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025037719A1 (ko) * 2023-08-17 2025-02-20 가톨릭대학교 산학협력단 인공지능 기반의 재활운동에 대한 가이드정보 제공 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140030590A (ko) 2012-09-03 2014-03-12 김호용 손가락용 부목
KR20200135171A (ko) * 2019-05-24 2020-12-02 주식회사 루닛 의료 영상에서 악성의심 병변을 구별하는 방법, 이를 이용한 의료 영상 판독 방법 및 컴퓨팅 장치
KR102205612B1 (ko) * 2018-04-13 2021-01-21 주식회사 셀바스에이아이 암 영역의 예측 방법 및 이를 이용한 암 영역의 예측 디바이스
KR20210064047A (ko) * 2019-11-25 2021-06-02 주식회사 뷰노 의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법
KR20220074442A (ko) * 2020-11-27 2022-06-03 주식회사 뷰노 질병을 판정하기 위한 정보를 제공하는 방법
KR20220085000A (ko) * 2020-12-14 2022-06-21 주식회사 뷰노 병변 판독 방법
KR20220124483A (ko) * 2021-03-03 2022-09-14 주식회사 바스젠바이오 질병 예측 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102212499B1 (ko) * 2018-01-03 2021-02-04 주식회사 메디웨일 Ivus 영상 분석방법
KR102343889B1 (ko) * 2019-08-05 2021-12-30 재단법인 아산사회복지재단 초음파 영상 기반의 기계 학습을 통한 관상동맥 병변 진단 시스템 및 이의 진단 방법
JP2021035442A (ja) * 2019-08-30 2021-03-04 富士フイルム株式会社 超音波診断システムおよび超音波診断システムの作動方法
KR102250219B1 (ko) * 2020-09-15 2021-05-11 주식회사 아이도트 초음파 진단 시스템

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140030590A (ko) 2012-09-03 2014-03-12 김호용 손가락용 부목
KR102205612B1 (ko) * 2018-04-13 2021-01-21 주식회사 셀바스에이아이 암 영역의 예측 방법 및 이를 이용한 암 영역의 예측 디바이스
KR20200135171A (ko) * 2019-05-24 2020-12-02 주식회사 루닛 의료 영상에서 악성의심 병변을 구별하는 방법, 이를 이용한 의료 영상 판독 방법 및 컴퓨팅 장치
KR20210064047A (ko) * 2019-11-25 2021-06-02 주식회사 뷰노 의료 영상 내 병변 영역 및 분비선 영역 검출 장치 및 방법
KR20220074442A (ko) * 2020-11-27 2022-06-03 주식회사 뷰노 질병을 판정하기 위한 정보를 제공하는 방법
KR20220085000A (ko) * 2020-12-14 2022-06-21 주식회사 뷰노 병변 판독 방법
KR20220124483A (ko) * 2021-03-03 2022-09-14 주식회사 바스젠바이오 질병 예측 방법

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Artificial intelligence in breast ultrasonography", Ultrasonography. 2021 Apr; 40(2): 183-190 *
"Deep Learning-Based Breast Cancer Diagnosis at Ultrasound: Initial Application of Weakly-Supervised Algorithm Without Image Annotation", DOI:10.21203/RS.3.RS-579221/V1 *
"Weakly-supervised deep learning for ultrasound diagnosis of breast cancer", Scientific Reports volume 11, Article number: 24382 (2021.12.21.) *
"Weakly-supervised US breast tumor characterization and localization with a box convolution network", Medical Imaging 16 March 2020 *
Weakly-supervised deep learning for breast tumor segmentation in ultrasound images," 2021 IEEE International Ultrasonics Symposium (IUS), Xi'an, China, 2021 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025037719A1 (ko) * 2023-08-17 2025-02-20 가톨릭대학교 산학협력단 인공지능 기반의 재활운동에 대한 가이드정보 제공 장치 및 방법

Also Published As

Publication number Publication date
WO2023113347A1 (ko) 2023-06-22
KR102678837B1 (ko) 2024-06-27

Similar Documents

Publication Publication Date Title
US10937141B2 (en) Deep learning based image comparison device, method and computer program stored in computer readable medium
TWI814154B (zh) 基於醫學影像的疾病預測方法
KR102460257B1 (ko) 진단 결과를 제공하기 위한 방법 및 장치
JP7698254B2 (ja) 医療画像における病変分析方法
US12283051B2 (en) Method for analyzing lesion based on medical image
KR20220107940A (ko) 의료 영상의 병변 평가 방법
US20250173874A1 (en) Method for detecting white matter lesions based on medical image
KR20220074442A (ko) 질병을 판정하기 위한 정보를 제공하는 방법
US12094147B2 (en) Estimating a thickness of cortical region by extracting a plurality of interfaces as mesh data
KR102678837B1 (ko) 의료 영상을 분석하기 위한 방법
KR20220165111A (ko) 의료 영상의 분류 방법
US20220237780A1 (en) Method for detecting serial section of medical image
TWI836394B (zh) 醫療影像處理之方法、裝置及電腦程式
KR20230121717A (ko) 영상을 분석하는 방법
KR20230056174A (ko) 딥러닝 기반의 의료 영상 분석 방법
US20250201388A1 (en) Method For Quantifying Breast Composition
US12236585B2 (en) Method for measuring lesion of medical image
KR102755162B1 (ko) 의료 영상을 분석하기 위한 방법
KR20240020388A (ko) 초음파 영상을 기반으로 병변을 예측하는 방법
KR20240153684A (ko) 의료 영상과 연관된 검사 부위를 시각화하는 방법
JP2025500542A (ja) 多重ラベルセットを用いた学習モデルの生成方法及びこのための装置

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20211217

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20231019

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240618

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240624

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240624

End annual number: 3

Start annual number: 1

PG1601 Publication of registration