KR20240059187A - 인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치 - Google Patents

인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR20240059187A
KR20240059187A KR1020220140132A KR20220140132A KR20240059187A KR 20240059187 A KR20240059187 A KR 20240059187A KR 1020220140132 A KR1020220140132 A KR 1020220140132A KR 20220140132 A KR20220140132 A KR 20220140132A KR 20240059187 A KR20240059187 A KR 20240059187A
Authority
KR
South Korea
Prior art keywords
augmentation
noise
images
enhancement
learning data
Prior art date
Application number
KR1020220140132A
Other languages
English (en)
Inventor
심학준
전재익
홍영택
최안네스
Original Assignee
주식회사 온택트헬스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 온택트헬스 filed Critical 주식회사 온택트헬스
Priority to KR1020220140132A priority Critical patent/KR20240059187A/ko
Publication of KR20240059187A publication Critical patent/KR20240059187A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인공지능(artificial intelligence, AI) 모델을 위한 학습 데이터를 증강(augmentation)하기 위한 것으로, 학습 데이터를 증강(augmentation)하기 위한 방법은, 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 선택하는 단계, 적어도 하나의 기초 영상에 선택된 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 적용함으로써 학습 데이터를 생성하는 단계, 및 상기 생성된 학습 데이터 이용하여 상기 인공지능 모델에 대한 훈련을 수행하는 단계를 포함할 수 있다.

Description

인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치{METHOD AND APPARATUS FOR AUGMENTATION OF LEARNING DATA FOR ARTIFICIAL INTELLIGENCE MODEL}
본 발명은 인공지능(artificial intelligence, AI) 모델에 대한 것으로, 특히, 인공지능 모델을 위한 학습 데이터를 증강(augmentation)하기 위한 방법 및 장치에 대한 것이다.
질병은 인간의 심신에 장애를 일으켜서 정상적인 기능을 저해하는 상태를 의미하는 것으로, 질병에 따라 인간은 고통을 받고 심지어 생을 유지하지 못할 수 있다. 따라서, 질병을 진단하고, 치료하고 나아가 예방하기 위한 다양한 사회적 시스템 및 기술들이 인류의 역사와 함께 발전해왔다. 질병의 진단 및 치료에 있어서, 기술의 눈부신 발전에 따라 다양한 도구들 및 방식들이 개발되어 왔지만, 아직까지, 종국적으로는 의사의 판단에 의존하고 있는 현실이다.
한편, 최근 인공지능(artificial intelligence, AI) 기술이 크게 발전하면서 다양한 분야에서 주목되고 있다. 특히, 방대한 양의 누적된 의료 데이터와, 영상 위주의 진단 데이터 등의 환경으로 인해, 의료 분야에 인공지능 알고리즘을 접목하려는 다양한 시도와 연구가 진행 중이다. 구체적으로, 질병을 진단, 예측하는 등 종래의 임상적 판단에 머물러 있던 작업들을 인공지능 알고리즘을 이용하여 해결하려는 다양한 연구가 이루어지고 있다. 또한, 진단 등을 위한 중간 과정으로서 의료 데이터를 처리하고 분석하는 작업을 인공지능 알고리즘을 이용하여 해결하려는 다양한 연구가 이루어지고 있다.
미국공개특허 US 2019/0261945 (2019.08.29)
유럽공개특허 EP 3804624 (2021.04.14)
본 발명은 인공지능(artificial intelligence, AI) 알고리즘을 이용하기 위해 필요한 학습 데이터를 효과적으로 획득하기 위한 방법 및 장치를 제공하기 위한 것이다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른, 인공지능(artificial intelligence, AI) 모델을 위한 학습 데이터를 증강(augmentation)하기 위한 방법은, 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 선택하는 단계, 적어도 하나의 기초 영상에 선택된 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 적용함으로써 학습 데이터를 생성하는 단계, 및 상기 생성된 학습 데이터 이용하여 상기 인공지능 모델에 대한 훈련을 수행하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 잡음 필터의 개수 및 상기 적어도 하나의 증강 방식의 개수는, 증강 정책에 기반하여 결정될 수 있다.
본 발명의 일 실시예에 따르면, 상기 증강 정책은, 증강 방식의 강도(strength)를 지시하는 제1 파라미터 및 적용할 증강 기법의 개수를 지시하는 제2 파라미터에 의해 정의될 수 있다.
본 발명의 일 실시예에 따르면, 상기 방법은, 대상 장비에 의해 촬영된 잡음 영상들을 분류하는 단계, 상기 분류된 잡음 영상들을 이용하여 적어도 하나의 잡음 필터를 생성하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 잡음 영상들은, 상기 대상 장비를 이용하여 빈 공간을 촬영함으로써 생성된 영상들을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 잡음 영상들은, 서로 다른 조합의 설정 파라미터 값들이 적용된 상태에서 촬영된 영상들을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 잡음 필터는, 복수의 잡음 영상들을 결합함으로써 생성될 수 있다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 잡음 필터는, 복수의 잡음 영상들에 포함되는 스패클(speckle)의 패턴에 기반하여 생성될 수 있다.
본 발명의 일 실시예에 따르면, 상기 학습 데이터는, 상기 적어도 하나의 기초 영상 및 상기 적어도 하나의 잡음 필터의 곱에 기반하여 생성될 수 있다.
본 발명의 일 실시예에 따르면, 상기 학습 데이터에 적용되는 증강 정책을 결정하는 단계, 및 상기 증강 정책에 따라 추가적인 증강을 수행하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 증강 정책은, 적어도 하나의 증강 기법을 지정하며, 상기 적어도 하나의 증강 기법은, 밝기 조절(brightness), 회전(rotate), 선명도조절(sharpness), 찌그러트림(shear), 노출제어(solarize), X축 이동(translate in a X axis), Y축 이동(translate in a Y axis) 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른, 의료 영상에서 정보를 획득하기 위한 장치는, 상기 장치의 동작을 위한 명령어 집합을 저장하는 저장부, 및 상기 저장부와 연결된 적어도 하나의 프로세서를 포함하며, 상기 적어도 하나의 프로세서는, 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 선택하는 단계, 적어도 하나의 기초 영상에 선택된 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 적용함으로써 학습 데이터를 생성하고, 상기 생성된 학습 데이터 이용하여 상기 인공지능 모델에 대한 훈련을 수행하도록 제어할 수 있다.
본 발명의 일 실시예에 따른, 매체에 저장된 프로그램은, 프로세서에 의해 동작되면 전술한 방법을 실행할 수 있다.
본 발명에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 발명의 상세한 설명의 예시적인 양상일 뿐이며, 본 발명의 범위를 제한하는 것은 아니다.
본 발명에 따르면, 인공지능(artificial intelligence, AI) 모델을 훈련하기 위한 학습 데이터가 효과적으로 증강될 수 있다
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한다.
도 2는 본 발명의 일 실시예에 따른 장치의 구조를 도시한다.
도 3은 본 발명에 적용 가능한 인공지능 모델을 구성하는 퍼셉트론(perceptron)의 예를 도시한다.
도 4는 본 발명에 적용 가능한 인공지능 모델을 구성하는 인공 신경망의 예를 도시한다.
도 5는 본 발명의 일 실시예에 따른 데이터 증강(augmentation)의 예를 도시한다.
도 6a 내지 도 6l은 본 발명의 일 실시예에 따른 데이터 증강을 위해 사용되는 잡음 필터의 예들을 도시한다.
도 7은 본 발명의 일 실시예에 따라 증강된 데이터를 이용하여 인공지능 모델에 대한 훈련을 수행하는 절차의 예를 도시한다.
도 8은 본 발명의 일 실시예에 따라 증강 정책에 기반하여 학습 데이터를 증강하는 절차의 예를 도시한다.
도 9는 본 발명의 일 실시예에 따른 원본 영상 및 증강된 영상들의 예를 도시한다.
도 10a 내지 도 10h는 본 발명의 다른 실시예에 따른 원본 영상 및 증강된 영상들의 예를 도시한다.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 발명의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 발명에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한다.
도 1을 참고하면, 시스템은 서비스 서버(110), 데이터 서버(120), 적어도 하나의 클라이언트 장치(130)를 포함한다.
서비스 서버(110)는 인공지능 모델 기반의 서비스를 제공한다. 즉, 서비스 서버(110)는 인공지능 모델을 이용하여 학습 및 예측 동작을 수행한다. 서비스 서버(110)는 네트워크를 통해 데이터 서버(120) 또는 적어도 하나의 클라이언트 장치(130)와 통신을 수행할 수 있다. 예를 들어, 서비스 서버(110)는 데이터 서버(120)로부터 인공지능 모델을 훈련하기 위한 학습 데이터를 수신하고, 훈련을 수행할 수 있다. 서비스 서버(110)는 적어도 하나의 클라이언트 장치(130)로부터 학습 및 예측(prediction) 동작에 필요한 데이터를 수신할 수 있다. 또한, 서비스 서버(110)는 적어도 하나의 클라이언트 장치(130)에게 예측 결과에 대한 정보를 송신할 수 있다.
데이터 서버(120)는 서비스 서버(110)에 저장된 인공지능 모델의 훈련을 위한 학습 데이터를 제공한다. 다양한 실시예들에 따라, 데이터 서버(120)는 누구나 접근 가능한 공공 데이터를 제공하거나 또는 허가를 필요로 하는 데이터를 제공할 수 있다. 필요에 따라, 학습 데이터는 데이터 서버(120)에 의해 또는 서비스 서버(120)에 의해 전처리할 수 있다. 다른 실시예에 따라, 데이터 서버(120)는 생략될 수 있다. 이 경우, 서비스 서버(110)는 외부에서 훈련된 인공지능 모델을 사용하거나 또는 서비스 서버(110)에 오프라인으로 학습 데이터가 제공될 수 있다.
적어도 하나의 클라이언트 장치(130)는 서비스 서버(110)에 의해 운용되는 인공지능 모델에 관련된 데이터를 서비스 서버(110)와 송신 및 수신한다. 적어도 하나의 클라이언트 장치(130)는 사용자에 의해 사용되는 장비이며, 사용자에 의해 입력되는 정보를 서비스 서버(110)에게 송신하고, 서비스 서버(110)로부터 수신되는 정보를 저장하거나 사용자에게 제공(예: 표시)할 수 있다. 경우에 따라, 어느 하나의 클라이언트로부터 송신된 데이터에 기반하여 예측 동작이 수행되고, 예측의 결과에 관련된 정보가 다른 클라이언트에게 제공될 수 있다. 적어도 하나의 클라이언트 장치(130)는 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 타블렛, 웨어러블 기기 등 다양한 형태의 컴퓨팅 장치일 수 있다.
도 1에 도시되지 아니하였으나, 시스템은 서비스 서버(110)를 관리하기 위한 관리 장치를 더 포함할 수 있다. 관리 장치는 서비스를 관리하는 주체에 의해 사용되는 장치로서, 서비스 서버(110)의 상태를 모니터링하거나, 서비스 서버(110)의 설정을 제어한다. 관리 장치는 네트워크를 통해 서비스 서버(110)에 접속하거나 또는 케이블 연결을 통해 직접 연결될 수 있다. 관리 장치의 제어에 따라, 서비스 서버(110)는 동작을 위한 파라미터를 설정할 수 있다.
도 1을 참고하여 설명한 바와 같이, 서비스 서버(110), 데이터 서버(120), 적어도 하나의 클라이언트 장치(130), 관리 장치 등이 네트워크를 통해 연결되고, 상호작용할 수 있다. 여기서, 네트워크는 유선 네트워크 및 무선 네트워크 중 적어도 하나를 포함할 수 있고, 셀룰러 네트워크, 근거리 네트워크, 광역 네트워크 중 어느 하나 또는 둘 이상의 조합으로 이루어질 수 있다. 예를 들어, 네트워크는 LAN(local area network), WLAN(wireless LAN), 블루투스(bluetooth), LTE(long term evolution), LTE-A(LTE-advanced), 5G(5th generation) 중 적어도 하나에 기반하여 구현될 수 있다.
도 2는 본 발명의 일 실시예에 따른 장치의 구조를 도시한다. 도 2에 예시된 구조는 도 1의 서비스 서버(110), 데이터 서버(120), 적어도 하나의 클라이언트 장치(130)의 구조로 이해될 수 있다.
도 2를 참고하면, 장치는, 통신부(210), 저장부(220), 제어부(230)를 포함한다.
통신부(210)는 네트워크에 접속하고, 다른 장치와 통신을 수행하기 위한 기능을 수행한다. 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나를 지원할 수 있다. 통신을 위해, 통신부(210)는 RF(radio frequency) 처리 회로, 디지털 데이터 처리 회로 중 적어도 하나를 포함할 수 있다. 경우에 따라, 통신부(210)는 케이블을 연결하기 위한 단자를 포함하는 구성요소로 이해될 수 있다. 통신부(210)는 데이터, 신호를 송신 및 수신하기 위한 구성요소이므로, '송수신부(transceiver)'라 지칭될 수 있다.
저장부(220)는 장치의 동작을 위해 필요한 데이터, 프로그램, 마이크로 코드, 명령어 집합, 어플리케이션 등을 저장한다. 저장부(220)는 일시적 또는 비일시적 저장 매체로 구현될 수 있다. 또한, 저장부(220)는 장치에 고정되어 있거나, 또는 분리 가능한 형태로 구현될 수 있다. 예를 들어, 저장부(220)는 콤팩트 플래시(compact flash, CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 중 적어도 하나로 구현될 수 있다.
제어부(230)는 장치의 전반적인 동작을 제어한다. 이를 위해, 제어부(230)는 적어도 하나의 프로세서, 적어도 하나의 마이크로 프로세서 등을 포함할 수 있다. 제어부(230)는 저장부(220)에 저장된 프로그램을 실행하고, 통신부(210)를 통해 네트워크에 접속할 수 있다. 특히, 제어부(230)는 후술하는 다양한 실시예들에 따른 알고리즘들을 수행하고, 후술하는 실시예들에 따라 장치가 동작하도록 제어할 수 있다.
도 1 및 도 2를 참고하여 설명한 구조에 기반하여, 본 발명의 다양한 실시예들에 따른 인공지능 알고리즘 기반의 서비스가 제공될 수 있다. 여기서, 인공지능 알고리즘을 구현하기 위해 인공 신경망으로 이루어진 인공지능 모델이 사용될 수 있다. 인공 신경망의 구성 단위인 퍼셉트론(perceptron) 및 인공 신경망의 개념은 다음과 같다.
퍼셉트론은 생물의 신경 세포를 모델링한 것으로서, 다수의 신호들을 입력으로 삼아 하나의 신호를 출력하는 구조를 가진다. 도 3은 본 발명에 적용 가능한 인공지능 모델을 구성하는 퍼셉트론의 예를 도시한다. 도 3을 참고하면, 퍼셉트론은 입력 값들(예: x1, x2, x3, …, xn) 각각 대하여 가중치들(302-1 내지 302-n)(예: w1j, w2j, w3j, …, wnj)을 곱한 후, 가중치 곱해진(weighted) 입력 값들을 변환 함수(transfer function)(304)을 이용하여 합산한다. 합산 과정에서, 바이어스(bias) 값(예: bk)이 더해질 수 있다. 퍼셉트론은 변환 함수(304)의 출력인 네트(net) 입력 값(예: netj)에 대하여 활성 함수(activation function)(406)을 적용함으로써, 출력 값(예: oj)를 생성한다. 경우에 따라, 활성 함수(406)은 임계치(예: θj)에 기반하여 동작할 수 있다. 활성 함수는 다양하게 정의될 수 있다. 본 발명이 이에 제한되는 것은 아니나, 예를 들어, 활성 함수로서, 스텝 함수(step function), 시그모이드(sigmoid), Relu, Tanh 등이 사용될 수 있다.
도 3와 같은 퍼셉트론들이 나열되고, 레이어를 이룸으로써 인공 신경망이 설계될 수 있다. 도 4는 본 발명에 적용 가능한 인공지능 모델을 구성하는 인공 신경망의 예를 도시한다. 도 4에서, 원으로 표현된 각 노드는 도 3의 퍼셉트론으로 이해될 수 있다. 도 4를 참고하면, 인공 신경망은 입력 레이어(input layer)(402), 복수의 은닉 레이어(hidden layer)들(404a, 404b), 출력 레이어(output layer)(406)를 포함한다.
예측을 수행하는 경우, 입력 레이어(402)의 각 노드로 입력 데이터가 제공되면, 입력 데이터는 입력 레이어(402), 은닉 레이어들(404a, 404b)을 이루는 퍼셉트론들에 의한 가중치 적용, 변환 함수 연산 및 활성 함수 연산 등을 거쳐 출력 레이어(406)까지 순전파(forward propagation)된다. 반대로, 훈련을 수행하는 경우, 출력 레이어(406)로부터 입력 레이어(402)를 향한 역전파(backward propagation)를 통해 오차가 계산되고, 계산된 오차에 따라 각 퍼셉트론에 정의된 가중치 값들이 갱신될 수 있다.
심층 학습은 의료 영상에 관련된 다양한 작업들, 예를 들어, 분류, 세그먼테이션, 사물 인식 등에 있어서 매우 강력한 수단이 되었다. 그러나, 오버피팅(overfitting)을 방지하기 위해, 매우 큰 양의 데이터를 필요로 하는데, 의료 영상을 획득하고, 레이블링하는 것은 큰 비용을 요구한다. 데이터 증강(augmentation)은 주어진 데이터세트의 양(amount) 및 다양성(diversity) 모두를 증가시키는데 효과적인 기술이다. 데이터 증강은 학습 데이터를 부풀리는 것(inflating)으로, 가장 일반적인 방식으로서 플립(flip), 변환(translation), 색상 조절(clolor transformation) 등이 사용된다.
본 발명은 영상에서 나타나는 스패클 잡음(speckle noise)을 이용한 데이터 증강 기술을 제안한다. 제안되는 기술은 영상에서 발생하는 스패클 잡음의 특징을 효과적으로 반영할 수 있다. 스패클 잡음은 증식력 있는(multiplicative) 잡음으로도 알려져 있다. 스패클 잡음의 특징들 중 하나는 감쇄(attenuation)로서, 이는 영상을 더 어둡게 만든다.
스패클 잡음은 주로 초음파 영상에서 관찰되기도 한다. 스패클 잡음의 패턴(pattern)은 초음파 파라미터 설정에 크게 의존한다. 예를 들어, 공간 해상도(spatial resolution)를 조절하는 주파수는 SNR(signal to noise ratio)에 영향을 주고, 높은 어코스틱 주파수(high acoustic frequencies)는 낮은 SNR로부터 악영향을 받는다. 다이나믹 레인지(dynamic range)는 이미지의 대비(contrast) 및 픽셀 강도(pixel intensities)에 영향을 준다.
초음파 장비의 운용자는 TGC(time gain compensation), 주파수, 다이나믹 레인지 등의 파라미터를 영상 품질을 높이기 위해 수동으로 조절한다. 높은 주파수의 초음파로 인해 감쇄가 나타나면, 숙련된 운용자는 신호 이득을 증가시키기 위해 TGC를 조절할 것이다. 이와 같이, 영상 품질이 운용자의 숙련도(proficiency)에 크게 의존하므로, 초음파 영상은 높은 내부적-외부적(inter-intra) 변동성(variability)에 영향을 받는 것으로 알려져 있다.
따라서, 본 발명은 원본 영상을 재구성함으로써 덜 숙련된 운용자에 의해 생성된 영상과 같은 저품질 영상을 생성하는 실시예들을 제안한다. 영상의 다양한 품질들을 통해, 학습 데이터의 증강이 이루어질 수 있고, 이를 활용하여 인공지능 모델에 대한 훈련이 효과적으로 수행될 수 있을 것이다. 이하 본 발명은 심장 초음파 영상을 예로 들어 다양한 실시예들을 설명하나, 후술되는 다양한 실시예들은 다른 대상에 대한 또는 다른 종류의 영상들에도 적용될 수 있음은 자명하다.
도 5는 본 발명의 일 실시예에 따른 데이터 증강(augmentation)의 예를 도시한다. 도 5는 원본 영상(510) 및 목표 영상(520)을 예시한다. 원본 영상(510)은 제1 초음파 촬영 장비를 이용하여 촬영된 영상이고, 목표 영상(520)은 제2 초음파 촬영 장비를 이용하여 촬영된 영상이다. 즉, 원본 영상(510)에 대한 증강은 제2 초음파 촬영 장비를 이용하여 촬영된 것과 같은 특성을 가지는 영상을 생성하기 위해 수행될 수 있다. 예를 들어, 제2 초음파 촬영 장비에 의해 촬영된 의료 영상을 인공지능 모델(예: 도 4와 같은 구조를 포함하는 인공지능 모델)을 이용하여 분석하고자 하는 경우, 제2 초음파 촬영 장비에 의해 촬영된 복수의 영상들이 학습 데이터로서 필요할 것이다. 하지만, 제2 초음파 촬영 장비에 의해 촬영된 영상이 충분하지 아니한 경우, 제1 초음파 촬영 장비에 의해 촬영된 영상들을 이용하여 제2 초음파 촬영 장비에 의해 촬영된 것과 같은 영상들을 합성함으로써 데이터를 증강하는 것이 가능하다.
도 5에 예시된 영상들(510, 520)을 참고하면, 제2 초음파 촬영 장비에 의해 촬영된 목표 영상(520)은, 제1 초음파 촬영 장비에 의해 촬영된 원본 영상(510)에 비하여, 낮은 선명도를 가지는 것으로 보여진다. 여기서, 낮은 선명도를 잡음의 존재의 부가에 의한 것으로 해석될 수 있다. 이러한 해석에 근거하여, 본 발명의 다양한 실시예들에 따라, 원본 영상(510)에 잡음 필터를 적용함으로써 목표 영상(520)과 유사한 특성을 가지는 합성된 영상이 생성될 수 있다. 이때, 하나 또는 그 이상의 잡음 필터가 적용될 수 있으며, 적용되는 잡음 필터는 훈련된 인공지능 모델에 입력되는 영상을 촬영하기 위해 사용될 초음파 촬영 장비(이하 '대상 장비')에 기반하여 정의될 수 있다.
적용 가능한 잡음 필터의 예들은 이하 도 6a 내지 도 6l와 같다. 도 6a 내지 도 6l은 본 발명의 일 실시예에 따른 데이터 증강을 위해 사용되는 잡음 필터의 예들을 도시한다. 일 실시예에 따라, 잡음의 속성을 수학적으로 모델링함으로써 잡음 필터들이 생성될 수 있다. 다른 실시예에 따라, 도 6a 내지 도 6l의 예들과 같이, 대상 장비를 이용하여 빈 공간을 촬영함으로써 잡음 필터들이 생성될 수 있다. 잡음 필터들은 대상 장비의 설정 파라미터의 값들의 조합에 따라 도 6a 내지 도 6l와 같은 다양하게 도출될 수 있다. 즉, 본 발명의 다양한 실시예들에 따라 증강을 위해 사용되는 잡음은 랜덤화된 잡음이 아닌 의도적으로 설계된 잡음으로 이해될 수 있다.
예를 들어, 설정 파라미터들은 다이나믹 레인지(dynamic range, DR), 이득(gain), 깊이(depth), TGC(time gain control), 하모닉스(hamonics×3), 포커스(focus) 중 적어도 하나를 포함할 수 있다. 여기서, 다이나믹 레인지는 이미지의 대조(contrast)를 조절하는 기능, 이득은 이미지의 전체적인 밝기를 조절하는 기능, 깊이는 관심있는 구조물 (region of interest) 가장 잘 보이는 깊이를 조절할수 있는 기능, TGC는 영상의 깊이에 따라 밝기를 조절하는 기능, 하모닉스는 초음파가 몸으로부터 반사되어 나왔을때 나오는 첫번째 기본파가 아닌 이차 하모닉 음파를 사용하는 기능, 포커스는 초음파 빔(beam)의 폭을 조절하는 기능에 관련된다. 이때, 선택 가능한 설정 파라미터 값들의 조합의 개수가 지나치게 증가하는 것을 방지하기 위해, 일 실시예에 따라, 각 설정 파라미터들 각각에 대하여 10개의 값들만이 허용될 수 있다. 예를 들어, 하모닉스의 경우, 3개의 값들이 허용될 수 있다. 이 경우, 전술한 5개의 파라미터들이 사용되면, 잡음 필터들에 적용될 수 있는 파라미터 값들의 조합들은 104×3 개일 수 있다. 또한, 일 실시예에 따라, 본 발명은 찌그러트림(shear), 노출제어(solarize), 밝기조절(brightness) 등의 증강 기법을 전술한 초음파 노이즈 증강 방식에 더하여 추가적으로 적용하는 증강 정책이 수 있다. 또한, 일 실시예에 따라, 랜드어그멘테이션(randaugmentation) 등의 정책 검색(policy search) 알고리즘이 적용될 수 있다.
다른 증강(augmentation) 정책 검색(policy search) 알고리즘이 프록시 태스크(proxy task)를 두어 최적의 증강 정책을 찾는 것과 달리, 랜드어그멘테이션은 검색 공간을 줄임으로써 간단한 그리드 탐색(grid search)만으로도 최적의 정책을 탐색할 수 있다. 랜드어그멘테이션의 검색 공간은 데이터 증강 방식의 강도를 정해주는 파라미터 M, 학습 기간 동안 적용할 증강 기법의 갯수 N을 포함할 수 있다. 따라서, 증강 정책은 N 및 M에 대한 함수가 된다. 여기서, 증강 방식의 강도는 증강의 정도를 의미하며, 예를 들어, 회전의 각도, 쉬프트의 거리, 밝기의 변화량 등으로 이해될 수 있다. 랜드어그멘테이션의 정책 검색은 그리드 탐색에 기반하며, 다음 [표 1]과 같이 수행될 수 있다.
단계 내용
A 데이터 증강 방식의 강도를 정해주는 파라미터 M 설정한다.
B 학습 기간동안 적용할 증강 기법의 갯수 N 설정한다. 이때, 가능한 모든 증강 기법은 다음과 같다: Brightness, Rotate, Sharpeness, Shear, Solarize, translateXabs, translateYabs, Dynamic range, Gain, Depth, TGC, Harmonics, Focus (K=13)
C Harmonics를 제외한 증강 기법의 강도를 열개로 나눈다. Harmonics는 세 개로 나누어진다.
D 스페클 노이즈의 패턴을 결정하는 에코 파라미터들(예: Dynamic range, Gain, Depth, TGC, Harmonics, Focus)은 기계에서 노이즈 획득 시 세팅을 열개로 나누어, 강도를 조절한다.
E 학습 시에는 1/K의 균등한(uniform) 확률로 N개의 증강 기법을 선택하여 M의 강도로 데이터 증강을 수행한다.
F 최적의 N과 M을 grid-search를 통해 찾게 되며, 가장 높은 검증 정확도(validation accuracy)를 가지는 N 및 M이 최적의 데이터 증강 정책이 된다.
[표 1]의 단계 E에서, 검증 정확도는 훈련(train)/검증(validation)/테스트(test) 세트 중 검증 세트에 포함되는 학습 데이터를 이용해서 지도 학습 태스크(supervised learning task)(예: 세그먼테이션, 분류)를 수행할 때의 성능(performance)(예: 예측 정확도, 평균 다이스 계수(mean Dice coefficient) 값, 평균 정확도(mean accuracy))을 의미한다.
도 7은 본 발명의 일 실시예에 따라 증강된 데이터를 이용하여 인공지능 모델에 대한 훈련을 수행하는 절차의 예를 도시한다. 도 7은 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.
도 7을 참고하면, S701 단계에서, 장치는 잡음 필터들 및 증강 방식들을 샘플링한다. 즉, 장치는 설정된 개수 만큼의 잡음 필터들 및 증강 방식들을 샘플링할 수 있다. 여기서, 잡음 필터들의 개수 및 증강 방식들의 개수는 고정된 값이거나, 상황에 따라 적응적으로 조절될 수 있다. 일 실시예에 따라, 잡음 필터들 및 증강 방식의 개수는 하이퍼 파라미터 M 및 N에 기반하여 결정될 수 있다. 예를 들어, 장치는 1/K 확률로 M의 강도를 가진 N개 증강 방식들을 샘플링할 수 있다. 다른 실시예에 따라, 잡음 필터들 및 증강 방식의 개수는 목표로 하는 학습 데이터의 양에 따라 결정될 수 있다. 또 다른 실시예에 따라, 잡음 필터들 및 증강 방식의 개수는 과거 증강된 학습 데이터를 이용하여 훈련된 모델의 성능에 기반하여 결정될 수 있다.
S703 단계에서, 장치는 기초 영상에 선택된 필터들을 적용함으로써 학습 데이터를 생성한다. 이때, 장치는 선택된 증강 방식들을 적용한다. 즉, 장치는 샘플링된 증강 방식들 및 필터들을 이용하여 학습 데이터를 증강한다. 기초 영상은 대상 장비와 다른 장비에 의해 촬영된 영상으로서, 잡음 필터의 적용을 받는 영상을 의미한다. 일 실시예에 따라, 필터의 적용은 원본 영상 및 잡음 필터의 행렬 곱의 형식으로 수행될 수 있다. 추가적으로, 다른 실시예에 따라, 행렬 곱 이후에 잡음이 더 부가될 수 있다. 예를 들어, 부가되는 잡음의 크기는 요구되는 학습 데이터의 양에 따라 다양하게 설정될 수 있다. 다른 예로, 부가되는 잡음의 크기는 사전에 설정된 하이퍼 파라미터 M에 기반하여 결정될 수 있다.
S705 단계에서, 장치는 생성된 학습 데이터 이용하여 훈련을 수행한다. 다시 말해, 장치는 증강된 학습 데이터를 이용하여 인공지능 모델에 대한 훈련을 수행한다. 이때, 증강을 통해 생성된 영상들은 기초 영상의 레이블과 동일한 값으로 레이블링될 수 있다.
전술한 바와 같이, 증강된 학습 데이터를 이용하여 훈련이 수행될 수 있다. 이때, 학습 데이터의 증강을 위해 적어도 하나의 필터가 사용된다. 필터는 사전에 미리 생성되거나 또는 증강에 앞서 생성될 수 있다. 일 실시예에 따라, 장치는 대상 장비에 의해 촬영된 잡음 영상들을 분류하고, 분류된 잡음 영상들을 이용하여 필터를 생성할 수 있다. 잡음 영상들은 대상 장비를 이용하여 빈 공간을 촬영함으로써 생성된 영상들을 포함한다. 잡음 영상들은 서로 다른 조합의 설정 파라미터 값들이 적용된 상태에서 촬영된 영상들일 수 있다. 따라서, 장치는 설정 파라미터 값들의 조합에 따라 복수의 그룹들로 잡음 영상들을 분류할 수 있다. 그리고, 장치는 각 그룹에 속하는 영상들을 기반하여 해당 그룹에 대응하는 잡음 필터를 생성할 수 있다. 일 실시예에 따라, 장치는 해당 그룹에 속하는 영상들을 결합함으로써 잡음 필터를 생성할 수 있다. 다른 실시예에 따라, 장치는 해당 그룹에 속하는 영상들에 포함된 스패클(speckle)의 패턴을 분석하고, 분석된 스패클의 패턴에 기반하여 잡음 필터를 생성할 수 있다. 여기서, 스패클의 패턴은 스패클의 모양, 크기, 배치 등을 포함할 수 있다.
도 8은 본 발명의 일 실시예에 따라 증강 정책에 기반하여 학습 데이터를 증강하는 절차의 예를 도시한다. 도 8은 연산 능력을 가진 장치(예: 도 1의 서비스 서버(110))의 동작 방법을 예시한다.
도 8을 참고하면, S801 단계에서, 장치는 증강 정책을 결정한다. 장치는 잡음 필터를 이용한 증강에 부가적으로 2차 증강을 수행하기 위한 증강 정책을 결정한다. 증강 정책을 결정함은 부가적으로 수행될 증강 기법을 선택하는 것을 의미한다. 일 실시예에 따라, 장치는 [표 1]에 설명된 과정에 따라 증강 기법을 선택할 수 있다.
S803 단계에서, 장치는 결정된 증강 정책에 따라 추가 증강을 수행한다. 장치는 증강 정책에 의해 지시되는 적어도 하나의 증강 기법을 이용하여 추가 증강을 수행한다. 예를 들어, 적어도 하나의 증강 기법은 찌그러트림(shear), 노출제어(solarize), 반전(invert) 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에 따라, 추가 증강은 기초 영상 및 잡음 필터의 결합 이후, 또는 결합 중간에 수행될 수 있다.
도 9는 본 발명의 일 실시예에 따른 원본 영상 및 증강된 영상들의 예를 도시한다. 도 9는 기초 영상(910)에 7가지 잡음 필터들을 적용한 결과들을 예시한다. 도 9를 참고하면, 7개의 잡음 필터들을 적용함에 의해, 7개의 증강된 영상들(920a 내지 920g)이 생성된다. 도 9와 같이, 적용되는 필터에 따라 증강된 영상이 가지는 특성도 달라짐이 확인된다.
도 10a 내지 도 10h는 본 발명의 다른 실시예에 따른 원본 영상 및 증강된 영상들의 예를 도시한다. 도 10a는 원본(original) 영상을 예시하고, 도 10b 내지 도 10h는 도 10a에 예시된 원본 영상으로부터 증강된 영상들을 예시한다. 구체적으로, 도 10b는 밝기조절, 도 10c는 회전(rotate), 도 10d는 선명도조절(sharpness), 도 10e는 찌그러트림(shear), 도 10f는 노출제어(solarize), 도 10g는 X축 이동(translate in a X axis)(예: TranslateXabs), 도 10h는 Y축 이동(translate in a Y axis)(예: TranslateYabs)의 결과를 예시한다. 여기서, TranslateXabs는 영상을 X축 방향으로 일정 거리 쉬프트(shift)하는 연산, TranslateYabs는 영상을 Y축 방향으로 일정 거리 쉬프트(shift)하는 연산을 의미한다.
전술한 다양한 실시예들에 따라, 잡음 필터를 이용하여 학습 데이터가 증강될 수 있다. 잡음 필터를 적용함으로써, 촬영 장비의 특성 차이 또는 촬영 장비의 설정에 따른 특성 차이를 보상한 학습 데이터가 생성될 수 있다. 추가적으로, 촬영 앵글, 촬영 범위의 차이를 보상하기 위한 추가적인 연산이 수행될 수 있다. 예를 들어, 도 5를 참고하면, 목표 영상(520)은 원본 영상(510)에 비하여 좁은 촬영 범위를 가진다. 따라서, 일 실시예에 따라, 촬영 범위의 차이를 보상하기 위해, 모델 학습시 랜덤 크롭(random crop)이 수행될 수 있다. 랜덤 크롭은 무작위로 이미지를 크롭하는 연산을 의미한다. 다른 실시예에 따라, 장치는 목표 영상(520) 및 원본 영상(510) 각각에 대한 촬영 범위를 확인한 후, 촬영 범위의 차이를 보상하는 동작을 더 수행할 수 있다. 예를 들어, 촬영 범위의 차이에 따라 원본 영상(510)을 확대할 수 있다.
본 발명의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 발명에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 발명의 다양한 실시예는 모든 가능한 조합을 나열한 것이 아니고 본 발명의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 발명의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 발명의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (12)

  1. 인공지능(artificial intelligence, AI) 모델을 위한 학습 데이터를 증강(augmentation)하기 위한 방법에 있어서,
    적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 선택하는 단계;
    적어도 하나의 기초 영상에 선택된 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 적용함으로써 학습 데이터를 생성하는 단계; 및
    상기 생성된 학습 데이터 이용하여 상기 인공지능 모델에 대한 훈련을 수행하는 단계를 포함하는 방법.
  2. 청구항 1에 있어서,
    상기 적어도 하나의 잡음 필터의 개수 및 상기 적어도 하나의 증강 방식의 개수는, 증강 정책에 기반하여 결정되며,
    상기 증강 정책은, 증강 방식의 강도(strength)를 지시하는 제1 파라미터 및 적용할 증강 기법의 개수를 지시하는 제2 파라미터에 의해 정의되는 방법.
  3. 청구항 1에 있어서,
    대상 장비에 의해 촬영된 잡음 영상들을 분류하는 단계;
    상기 분류된 잡음 영상들을 이용하여 적어도 하나의 잡음 필터를 생성하는 단계를 더 포함하는 방법.
  4. 청구항 1에 있어서,
    상기 잡음 영상들은, 상기 대상 장비를 이용하여 빈 공간을 촬영함으로써 생성된 영상들을 포함하는 방법.
  5. 청구항 1에 있어서,
    상기 잡음 영상들은, 서로 다른 조합의 설정 파라미터 값들이 적용된 상태에서 촬영된 영상들을 포함하는 방법.
  6. 청구항 1에 있어서,
    상기 적어도 하나의 잡음 필터는, 복수의 잡음 영상들을 결합함으로써 생성되는 방법.
  7. 청구항 1에 있어서,
    상기 적어도 하나의 잡음 필터는, 복수의 잡음 영상들에 포함되는 스패클(speckle)의 패턴에 기반하여 생성되는 방법.
  8. 청구항 1에 있어서,
    상기 학습 데이터는, 상기 적어도 하나의 기초 영상 및 상기 적어도 하나의 잡음 필터의 곱에 기반하여 생성되는 방법.
  9. 청구항 1에 있어서,
    상기 학습 데이터에 적용되는 증강 정책을 결정하는 단계; 및
    상기 증강 정책에 따라 추가적인 증강을 수행하는 단계를 더 포함하는 방법.
  10. 청구항 9에 있어서,
    상기 증강 정책은, 적어도 하나의 증강 기법을 지정하며,
    상기 적어도 하나의 증강 기법은, 밝기 조절(brightness), 회전(rotate), 선명도조절(sharpness), 찌그러트림(shear), 노출제어(solarize), X축 이동(translate in a X axis), Y축 이동(translate in a Y axis) 중 적어도 하나를 포함하는 방법.
  11. 의료 영상에서 정보를 획득하기 위한 장치에 있어서,
    상기 장치의 동작을 위한 명령어 집합을 저장하는 저장부; 및
    상기 저장부와 연결된 적어도 하나의 프로세서를 포함하며,
    상기 적어도 하나의 프로세서는,
    적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 선택하고,
    적어도 하나의 기초 영상에 선택된 적어도 하나의 잡음 필터 및 적어도 하나의 증강 방식을 적용함으로써 학습 데이터를 생성하고,
    상기 생성된 학습 데이터 이용하여 상기 인공지능 모델에 대한 훈련을 수행하도록 제어하는 장치.
  12. 프로세서에 의해 동작되면 제1항 내지 제10항 중의 어느 한 항에 따른 방법을 실행하기 위해 매체에 저장된 프로그램.
KR1020220140132A 2022-10-27 2022-10-27 인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치 KR20240059187A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220140132A KR20240059187A (ko) 2022-10-27 2022-10-27 인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220140132A KR20240059187A (ko) 2022-10-27 2022-10-27 인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20240059187A true KR20240059187A (ko) 2024-05-07

Family

ID=91078310

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220140132A KR20240059187A (ko) 2022-10-27 2022-10-27 인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20240059187A (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190261945A1 (en) 2018-02-26 2019-08-29 Siemens Medical Solutions Usa, Inc. Three-Dimensional Segmentation from Two-Dimensional Intracardiac Echocardiography Imaging
EP3804624A2 (en) 2019-10-09 2021-04-14 Siemens Healthcare GmbH Synthetic parameterized computed tomography from surface data in medical imaging

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190261945A1 (en) 2018-02-26 2019-08-29 Siemens Medical Solutions Usa, Inc. Three-Dimensional Segmentation from Two-Dimensional Intracardiac Echocardiography Imaging
EP3804624A2 (en) 2019-10-09 2021-04-14 Siemens Healthcare GmbH Synthetic parameterized computed tomography from surface data in medical imaging

Similar Documents

Publication Publication Date Title
US11501438B2 (en) Cone-beam CT image enhancement using generative adversarial networks
Nair et al. A deep learning based alternative to beamforming ultrasound images
EP3445250B1 (en) Echocardiographic image analysis
EP3704667B1 (en) Deep learning based motion artifact prediction during magnetic resonance image data acquisition
CN108230261A (zh) 基于自动器官识别的全自动图像优化
KR20200026071A (ko) 환자 특정적 딥러닝 이미지 잡음제거 방법들 및 시스템들
Liang et al. Generalizability issues with deep learning models in medicine and their potential solutions: illustrated with cone-beam computed tomography (CBCT) to computed tomography (CT) image conversion
Hassanien et al. Prostate boundary detection in ultrasound images using biologically-inspired spiking neural network
Badr et al. [Retracted] Deep Learning‐Based Networks for Detecting Anomalies in Chest X‐Rays
US11529124B2 (en) Artifact removing method and diagnostic apparatus using the same
Al-Saffar et al. Graph attention network in microwave imaging for anomaly localization
KR20240059187A (ko) 인공지능 모델을 위한 학습 데이터를 증강하기 위한 방법 및 장치
CN112085830A (zh) 一种基于机器学习的光学相干血管造影成像方法
US11308615B1 (en) Systems and processes for improving medical diagnoses
KR102590613B1 (ko) 전환 가능한 뉴럴 네트워크를 이용한 초음파 영상 처리 방법 및 그 장치
Girish et al. Breast cancer detection using deep learning
CN114224354A (zh) 心律失常分类方法、装置及可读存储介质
KR20230171160A (ko) 의료 영상의 품질을 조절하기 위한 방법 및 장치
EP4088665A1 (en) Dematerialized, multi-user system for the acquisition, generation and processing of ultrasound images
KR102584250B1 (ko) 데이터 처리 방법, 컴퓨터 프로그램 및 장치
US10832074B2 (en) Uncertainty region based image enhancement
WO2024095434A1 (ja) 画像処理プログラム、画像処理方法、検出プログラム、検出方法、および情報処理装置
US20240061908A1 (en) Dual domain tracking of target structures
WO2020241794A1 (ja) 眼科画像処理装置、眼科画像処理プログラム、および眼科画像処理システム
KR20230108213A (ko) 인공지능 모델에 기반하여 석회화에 대한 진단을 보조하기 위한 방법 및 장치