KR20230114170A - Method, program, and apparatus for generating label - Google Patents

Method, program, and apparatus for generating label Download PDF

Info

Publication number
KR20230114170A
KR20230114170A KR1020220112748A KR20220112748A KR20230114170A KR 20230114170 A KR20230114170 A KR 20230114170A KR 1020220112748 A KR1020220112748 A KR 1020220112748A KR 20220112748 A KR20220112748 A KR 20220112748A KR 20230114170 A KR20230114170 A KR 20230114170A
Authority
KR
South Korea
Prior art keywords
neural network
lesion
network model
medical image
generating
Prior art date
Application number
KR1020220112748A
Other languages
Korean (ko)
Inventor
김선우
Original Assignee
주식회사 에어스 메디컬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에어스 메디컬 filed Critical 주식회사 에어스 메디컬
Priority to KR1020220112748A priority Critical patent/KR20230114170A/en
Publication of KR20230114170A publication Critical patent/KR20230114170A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Labeling Devices (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 일 실시예에 따라 컴퓨팅 장치에 의해 수행되는 라벨 생성 방법이 개시된다. 상기 방법은, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 단계; 및 상기 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨(label)을 생성하는 단계를 포함할 수 있다.A label generation method performed by a computing device according to an embodiment of the present disclosure is disclosed. The method may include detecting a lesion present in a medical image using a neural network model; and generating a label indicating a lesion area in the medical image based on an output of a predetermined layer included in the neural network model.

Description

라벨 생성 방법, 프로그램 및 장치{METHOD, PROGRAM, AND APPARATUS FOR GENERATING LABEL}Label generation method, program and device {METHOD, PROGRAM, AND APPARATUS FOR GENERATING LABEL}

본 개시의 내용은 라벨 생성 방법에 관한 것으로, 구체적으로 의료 영상의 병변을 표시할 수 있는 라벨을 생성하기 위한 인공지능 기반 기술에 관한 것이다.The present disclosure relates to a method for generating a label, and more specifically, to an artificial intelligence-based technology for generating a label capable of displaying a lesion in a medical image.

의료 영상은 질병의 진단과 치료를 위해 인체의 여러 가지 장기들의 물리적인 상태를 이해할 수 있게 해주는 데이터이다. 의료 영상 기기들이 지속적으로 개발되어 오면서, 의료 영상은 X선(X-ray) 영상, 컴퓨터 단층 촬영(CT: computed tomography) 영상, 양전자 방출 단층 촬영(PET: positron emission tomography) 영상, 또는 자기 공명 영상(MRI: magnetic resonance imaging) 등으로 다양해지고 있다. 영상 분석 기술 및 인공지능 기술의 발달에 따라, 의료 영상은 질병의 진단을 보조하기 위한 분석 자료로서 다양하게 활용되고 있다. 대표적으로, 의료 영상은 질병의 효과적인 진단을 위해 영상에 촬영된 병변을 검출하는 병변 탐지 분야에서 활발히 활용되고 있다.Medical images are data that enable us to understand the physical state of various organs of the human body for diagnosis and treatment of diseases. As medical imaging devices have been continuously developed, medical images include X-ray images, computed tomography (CT) images, positron emission tomography (PET) images, or magnetic resonance images. (MRI: magnetic resonance imaging). With the development of image analysis technology and artificial intelligence technology, medical images are used in various ways as analysis data to assist in the diagnosis of diseases. Typically, medical imaging is actively used in the field of lesion detection for detecting lesions photographed on images for effective diagnosis of diseases.

지금까지 병변 탐지 분야에서 다양하게 활용되고 있는 컴퓨터 비전(vision) 영역의 인공지능 기술들은 전통적으로 지도 학습에 기반한다. 지도 학습을 위해서는 라벨(label)이 반드시 필요하므로, 기존 기술들은 전문가가 의료 영상에서 직접 병변을 확인한 뒤 라벨링 한 데이터를 학습에 사용하고 있다. 그러나, 이와 같이 현재는 라벨은 전문가의 수작업을 통해 일일이 생성될 수 밖에 없기 때문에, 인공지능의 학습 성능을 보장할 수 있을 만큼 충분히 많은 양의 라벨을 확보하는 것은 현실적으로 많은 어려움이 있다. 즉, 지도 학습을 위해서는, 라벨을 생성하는 제반 비용이 상당히 요구될 수 밖에 없는 실정이다.Until now, artificial intelligence technologies in the field of computer vision, which have been widely used in the field of lesion detection, are traditionally based on supervised learning. Since labels are essential for supervised learning, existing technologies use the labeled data for learning after experts directly identify lesions in medical images. However, since labels can only be created manually by experts, it is practically difficult to secure enough labels to guarantee the learning performance of artificial intelligence. That is, for supervised learning, the overall cost of generating a label is inevitably required.

대한민국 공개특허공보 제10-2013-0012297호(2013.02.04.)Republic of Korea Patent Publication No. 10-2013-0012297 (2013.02.04.)

본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 병변 탐지를 위한 인공지능의 추론을 기반으로 라벨을 효율적으로 생성하는 방법을 제공하는 것을 목적으로 한다.The present disclosure has been made in response to the above background art, and an object of the present disclosure is to provide a method for efficiently generating a label based on artificial intelligence inference for lesion detection.

다만, 본 개시에서 해결하고자 하는 과제는 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재를 근거로 명확하게 이해될 수 있을 것이다.However, the problems to be solved in the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood based on the description below.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨팅 장치에 의해 수행되는 라벨 생성 방법이 개시된다. 상기 방법은, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 단계; 및 상기 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨(label)을 생성하는 단계를 포함할 수 있다.A label generation method performed by a computing device according to an embodiment of the present disclosure for realizing the above object is disclosed. The method may include detecting a lesion present in a medical image using a neural network model; and generating a label indicating a lesion area in the medical image based on an output of a predetermined layer included in the neural network model.

대안적으로, 상기 의료 영상은, 자기 공명 신호로부터 획득된 케이-스페이스(k-space) 데이터를 기초로, 푸리에 변환(fourier transform)을 통해 생성된 자기 공명 영상일 수 있다.Alternatively, the medical image may be a magnetic resonance image generated through Fourier transform based on k-space data obtained from a magnetic resonance signal.

대안적으로, 상기 신경망 모델은, 상기 의료 영상 및 상기 의료 영상의 촬영 시에 조정이 가능한 스캔 파라미터(scan parameter)를 입력받을 수 있다.Alternatively, the neural network model may receive the medical image and a scan parameter that can be adjusted when capturing the medical image.

대안적으로, 상기 의료 영상에 존재하는 병변을 탐지하는 단계는, 상기 신경망 모델의 i번째(i는 자연수) 레이어(layer)에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성하는 단계; 및 상기 신경망 모델의 i+1번째 레이어로, 상기 i번째 레이어에서 산출된 제 1 특징 및 상기 푸리에 변환을 통해 생성된 제 2 특징을 입력하는 단계를 포함할 수 있다.Alternatively, the step of detecting the lesion present in the medical image may include obtaining a second feature through Fourier transformation based on a first feature calculated from the ith (i is a natural number) layer of the neural network model. generating; and inputting a first feature calculated in the i-th layer and a second feature generated through the Fourier transform into an i+1-th layer of the neural network model.

대안적으로, 상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성하는 단계는, 상기 소정의 레이어의 출력을 기초로, 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성하는 단계; 및 상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계를 포함할 수 있다.Alternatively, generating a label indicating a lesion area in the medical image may include generating a heatmap corresponding to feature analysis of the neural network model for the medical image based on an output of the predetermined layer. doing; and generating a label indicating whether or not there is a lesion in a specific region in the medical image based on the heat map.

대안적으로, 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 상기 히트맵을 생성하는 단계는, 상기 신경망 모델에 포함된 특징 추출 레이어 중 어느 하나의 출력에서 그래디언트(gradient)를 추출하고, 상기 그래디언트를 기초로 상기 히트맵을 생성하는 단계를 포함할 수 있다.Alternatively, the generating of the heat map corresponding to the feature analysis of the neural network model for the medical image may include extracting a gradient from an output of any one of feature extraction layers included in the neural network model; Generating the heat map based on the gradient may be included.

대안적으로, 상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는, 상기 히트맵에 표현된 병변 영역에 존재하는 공백 영역을 보정하는 단계를 포함할 수 있다.Alternatively, generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map may include correcting a blank region existing in the lesion region represented in the heat map. .

대안적으로, 상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는, 상기 히트맵에 존재하는 노이즈(noise)를 보정하는 단계를 포함할 수 있다.Alternatively, generating a label representing the presence or absence of a lesion in a specific region in the medical image based on the heat map may include correcting noise present in the heat map.

대안적으로, 상기 신경망 모델은, 병변이 존재하는 제 1 학습 영상 또는 병변이 존재하지 않는 상기 제 2 학습 영상 중 적어도 하나를 기초로, 병변의 유무를 분류하도록 학습될 수 있다.Alternatively, the neural network model may be trained to classify the presence or absence of a lesion based on at least one of the first training image in which a lesion is present or the second training image in which a lesion is not present.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램(program)이 개시된다. 상기 컴퓨터 프로그램은 하나 이상의 프로세서(processor)에서 실행되는 경우, 라벨을 생성하기 위한 동작들을 수행하도록 한다. 이때, 상기 동작들은, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 동작; 및 상기 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성하는 동작을 포함할 수 있다.A computer program stored in a computer readable storage medium is disclosed according to an embodiment of the present disclosure for realizing the above object. When the computer program is executed on one or more processors, operations for generating labels are performed. In this case, the operations may include an operation of detecting a lesion present in a medical image using a neural network model; and generating a label indicating a lesion area in the medical image based on an output of a predetermined layer included in the neural network model.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 라벨을 생성하기 위한 컴퓨팅 장치가 개시된다. 상기 장치는, 적어도 하나의 코어(core)를 포함하는 프로세서; 상기 프로세서에서 실행 가능한 프로그램 코드(code)들을 포함하는 메모리(memory); 및 의료 영상을 수신하기 위한 네트워크부(network unit)를 포함할 수 있다. 이때, 상기 프로세서는, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하고, 상기 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다.A computing device for generating a label is disclosed according to an embodiment of the present disclosure for realizing the above object. The apparatus includes a processor including at least one core; a memory containing program codes executable by the processor; and a network unit for receiving medical images. In this case, the processor may detect a lesion present in the medical image using a neural network model, and generate a label indicating a lesion area in the medical image based on an output of a predetermined layer included in the neural network model. there is.

본 개시는 병변 탐지를 위한 인공지능의 의료 영상에 대한 특징 해석을 기반으로 라벨을 효율적으로 생성하는 방법을 제공할 수 있다.The present disclosure may provide a method for efficiently generating a label based on feature interpretation of a medical image by artificial intelligence for lesion detection.

도 1은 본 개시의 일 실시예에 따른 컴퓨팅 장치의 블록 구성도이다.
도 2는 본 개시의 일 실시예에 따른 컴퓨팅 장치의 라벨 생성 과정을 나타낸 블록도이다.
도 3은 본 개시의 일 실시예에 따른 신경망 모델을 사용한 연산 과정을 나타낸 개념도이다.
도 4는 본 개시의 일 실시예에 따른 라벨 생성 방법을 나타낸 순서도이다.
1 is a block diagram of a computing device according to an embodiment of the present disclosure.
2 is a block diagram illustrating a label creation process of a computing device according to an embodiment of the present disclosure.
3 is a conceptual diagram illustrating a calculation process using a neural network model according to an embodiment of the present disclosure.
4 is a flowchart illustrating a label generation method according to an embodiment of the present disclosure.

아래에서는 첨부한 도면을 참조하여 본 개시의 기술 분야에서 통상의 지식을 가진 자(이하, 당업자)가 용이하게 실시할 수 있도록 본 개시의 실시예가 상세히 설명된다. 본 개시에서 제시된 실시예들은 당업자가 본 개시의 내용을 이용하거나 또는 실시할 수 있도록 제공된다. 따라서, 본 개시의 실시예들에 대한 다양한 변형들은 당업자에게 명백할 것이다. 즉, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며, 이하의 실시예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail so that those skilled in the art (hereinafter, those skilled in the art) can easily practice with reference to the accompanying drawings. The embodiments presented in this disclosure are provided so that those skilled in the art can use or practice the contents of this disclosure. Accordingly, various modifications to the embodiments of the present disclosure will be apparent to those skilled in the art. That is, the present disclosure may be implemented in many different forms, and is not limited to the following embodiments.

본 개시의 명세서 전체에 걸쳐 동일하거나 유사한 도면 부호는 동일하거나 유사한 구성요소를 지칭한다. 또한, 본 개시를 명확하게 설명하기 위해서, 도면에서 본 개시에 대한 설명과 관계없는 부분의 도면 부호는 생략될 수 있다.Same or similar reference numerals designate the same or similar elements throughout the specification of this disclosure. In addition, in order to clearly describe the present disclosure, reference numerals of parts not related to the description of the present disclosure may be omitted in the drawings.

본 개시에서 사용되는 "또는" 이라는 용어는 배타적 "또는" 이 아니라 내포적 "또는" 을 의미하는 것으로 의도된다. 즉, 본 개시에서 달리 특정되지 않거나 문맥상 그 의미가 명확하지 않은 경우, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 이해되어야 한다. 예를 들어, 본 개시에서 달리 특정되지 않거나 문맥상 그 의미가 명확하지 않은 경우, "X는 A 또는 B를 이용한다" 는 X가 A를 이용하거나, X가 B를 이용하거나, 혹은 X가 A 및 B 모두를 이용하는 경우 중 어느 하나로 해석될 수 있다. The term “or” as used in this disclosure is intended to mean an inclusive “or” rather than an exclusive “or”. That is, unless otherwise specified in this disclosure or the meaning is not clear from the context, "X employs A or B" should be understood to mean one of the natural inclusive substitutions. For example, unless otherwise specified in this disclosure or where the meaning is not clear from the context, “X employs A or B” means that X employs A, X employs B, or X employs A and It can be interpreted as any one of the cases of using all of B.

본 개시에서 사용되는 "및/또는" 이라는 용어는 열거된 관련 개념들 중 하나 이상의 개념의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.The term “and/or” as used in this disclosure should be understood to refer to and include all possible combinations of one or more of the listed related concepts.

본 개시에서 사용되는 "포함한다" 및/또는 "포함하는" 이라는 용어는, 특정 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는" 이라는 용어는, 하나 이상의 다른 특징, 다른 구성요소 및/또는 이들에 대한 조합의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. The terms "comprises" and/or "comprising" as used in this disclosure should be understood to mean that certain features and/or elements are present. However, it should be understood that the terms "comprising" and/or "comprising" do not exclude the presence or addition of one or more other features, other elements, and/or combinations thereof.

본 개시에서 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 단수는 일반적으로 "하나 또는 그 이상" 을 포함할 수 있는 것으로 해석되어야 한다. Unless otherwise specified in this disclosure, or where the context clearly indicates that a singular form is indicated, the singular shall generally be construed as possibly including “one or more”.

본 개시에서 사용되는 "제 N(N은 자연수)" 이라는 용어는 본 개시의 구성요소들을 기능적 관점, 구조적 관점, 혹은 설명의 편의 등 소정의 기준에 따라 상호 구별하기 위해 사용되는 표현으로 이해될 수 있다. 예를 들어, 본 개시에서 서로 다른 기능적 역할을 수행하는 구성요소들은 제 1 구성요소 혹은 제 2 구성요소로 구별될 수 있다. 다만, 본 개시의 기술적 사상 내에서 실질적으로 동일하나 설명의 편의를 위해 구분되어야 하는 구성요소들도 제 1 구성요소 혹은 제 2 구성요소로 구별될 수도 있다.The term "Nth (N is a natural number)" used in the present disclosure can be understood as an expression used to distinguish the components of the present disclosure from each other according to a predetermined criterion such as a functional point of view, a structural point of view, or explanatory convenience. there is. For example, components performing different functional roles in the present disclosure may be classified as first components or second components. However, components that are substantially the same within the technical spirit of the present disclosure but should be distinguished for convenience of description may also be classified as first components or second components.

한편, 본 개시에서 사용되는 용어 "모듈(module)", 또는 "부(unit)" 는 컴퓨터 관련 엔티티(entity), 펌웨어(firmware), 소프트웨어(software) 혹은 그 일부, 하드웨어(hardware) 혹은 그 일부, 소프트웨어와 하드웨어의 조합 등과 같이 컴퓨팅 자원을 처리하는 독립적인 기능 단위를 지칭하는 용어로 이해될 수 있다. 이때, "모듈", 또는 "부"는 단일 요소로 구성된 단위일 수도 있고, 복수의 요소들의 조합 혹은 집합으로 표현되는 단위일 수도 있다. 예를 들어, 협의의 개념으로서 "모듈", 또는 "부"는 컴퓨팅 장치의 하드웨어 요소 또는 그 집합, 소프트웨어의 특정 기능을 수행하는 응용 프로그램, 소프트웨어 실행을 통해 구현되는 처리 과정(procedure), 또는 프로그램 실행을 위한 명령어 집합 등을 지칭할 수 있다. 또한, 광의의 개념으로서 "모듈", 또는 "부"는 시스템을 구성하는 컴퓨팅 장치 그 자체, 또는 컴퓨팅 장치에서 실행되는 애플리케이션 등을 지칭할 수 있다. 다만, 상술한 개념은 하나의 예시일 뿐이므로, "모듈", 또는 "부"의 개념은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.On the other hand, the term "module" or "unit" used in this disclosure refers to a computer-related entity, firmware, software or part thereof, hardware or part thereof , It can be understood as a term referring to an independent functional unit that processes computing resources, such as a combination of software and hardware. In this case, a “module” or “unit” may be a unit composed of a single element or a unit expressed as a combination or set of a plurality of elements. For example, as a narrow concept, a "module" or "unit" is a hardware element or set thereof of a computing device, an application program that performs a specific function of software, a process implemented through software execution, or a program. It may refer to a set of instructions for execution. Also, as a concept in a broad sense, a “module” or “unit” may refer to a computing device constituting a system or an application executed in the computing device. However, since the above concept is only an example, the concept of “module” or “unit” may be defined in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

본 개시에서 사용되는 "모델(model)" 이라는 용어는 특정 문제를 해결하기 위해 수학적 개념과 언어를 사용하여 구현되는 시스템, 특정 문제를 해결하기 위한 소프트웨어 단위의 집합, 혹은 특정 문제를 해결하기 위한 처리 과정에 관한 추상화 모형으로 이해될 수 있다. 예를 들어, 신경망(neural network) "모델" 은 학습을 통해 문제 해결 능력을 갖는 신경망으로 구현되는 시스템 전반을 지칭할 수 있다. 이때, 신경망은 노드(node) 혹은 뉴런(neuron)을 연결하는 파라미터(parameter)를 학습을 통해 최적화하여 문제 해결 능력을 가질 수 있다. 신경망 "모델" 은 단일 신경망을 포함할 수도 있고, 복수의 신경망들이 조합된 신경망 집합을 포함할 수도 있다.The term "model" used in this disclosure refers to a system implemented using mathematical concepts and language to solve a specific problem, a set of software units to solve a specific problem, or a process to solve a specific problem. It can be understood as an abstract model for a process. For example, a neural network “model” may refer to an overall system implemented as a neural network having problem-solving capabilities through learning. At this time, the neural network may have problem solving ability by optimizing parameters connecting nodes or neurons through learning. A neural network "model" may include a single neural network or may include a neural network set in which a plurality of neural networks are combined.

본 개시에서 사용되는 "영상" 이라는 용어는 이산적 이미지 요소들로 구성된 다차원 데이터를 지칭할 수 있다. 다시 말해, "영상"은 사람의 눈으로 볼 수 있는 대상의 디지털 표현물을 지칭하는 용어로 이해될 수 있다. 예를 들어, "영상" 은 2차원 이미지에서 픽셀에 해당하는 요소들로 구성된 다차원 데이터를 지칭할 수 있다. "영상"은 3차원 이미지에서 복셀에 해당하는 요소들로 구성된 다차원 데이터를 지칭할 수 있다.The term "image" used in this disclosure may refer to multidimensional data composed of discrete image elements. In other words, "image" can be understood as a term referring to a digital representation of an object that is visible to the human eye. For example, “image” may refer to multidimensional data composed of elements corresponding to pixels in a 2D image. “Image” may refer to multidimensional data composed of elements corresponding to voxels in a 3D image.

본 개시에서 사용되는 "의료 영상 저장 전송 시스템(PACS: picture archiving and communication system)" 이라는 용어는 의료용 디지털 영상 및 통신(DICOM: digital imaging and communications in medicine) 표준에 맞게 의료 영상을 저장, 가공, 및 전송하는 시스템을 지칭할 수 있다. 예를 들어, "의료 영상 저장 전송 시스템" 은 디지털 의료 영상 촬영 장비와 연동되어 자기 공명 영상(MRI: magnetic resonance imaging), 컴퓨터 단층 촬영(CT: computed tomography) 영상 등과 같은 의료 영상을 의료용 디지털 영상 및 통신 표준에 맞춰 저장할 수 있다. "의료 영상 저장 전송 시스템" 은 통신 네트워크를 통해 병원 내외의 단말로 의료 영상을 전송할 수 있다. 이때, 의료 영상에는 판독 결과 및 진료 기록 등과 같은 메타(meta) 정보가 추가될 수 있다.As used in this disclosure, the term "picture archiving and communication system (PACS)" is used to store, process, and store medical images in accordance with digital imaging and communications in medicine (DICOM) standards. It can refer to the system that transmits. For example, the "medical image storage and transmission system" is interlocked with digital medical imaging equipment to transmit medical images such as magnetic resonance imaging (MRI) and computed tomography (CT) images to medical digital images and It can be stored according to the communication standard. The "medical image storage and transmission system" can transmit medical images to terminals inside and outside the hospital through a communication network. In this case, meta information such as reading results and medical records may be added to the medical image.

본 개시에서 사용되는 "케이-스페이스(k-space)" 라는 용어는 자기 공명 영상의 공간 주파수를 나타내는 숫자의 배열로 이해될 수 있다. 다시 말해서, "케이-스페이스" 는 자기 공명 공간 좌표에 해당하는 3차원 공간에 대응되는 주파수 공간으로 이해될 수 있다. The term "k-space" used in the present disclosure may be understood as an array of numbers representing spatial frequencies of a magnetic resonance image. In other words, "K-space" can be understood as a frequency space corresponding to a three-dimensional space corresponding to magnetic resonance space coordinates.

본 개시에서 사용되는 "푸리에 변환(fourier transform)" 이라는 용어는 시간 영역과 주파수 영역의 연관성을 설명할 수 있게 하는 연산 매개체로 이해될 수 있다. 다시 말해, 본 개시에서 사용되는 "푸리에 변환" 은 시간 영역과 주파수 영역의 상호 변환을 위한 연산 과정을 나타내는 광의의 개념으로 이해될 수 있다. 따라서, 본 개시에서 사용되는 "푸리에 변환" 은 시간 영역의 신호를 주파수 영역으로 분해하는 협의의 푸리에 변환 및 주파수 영역의 신호를 시간 영역으로 변환하는 역 푸리에 변환(inverse fourier transform)을 모두 포괄하는 개념으로 이해될 수 있다.The term "Fourier transform" used in the present disclosure may be understood as an operation medium capable of explaining a correlation between a time domain and a frequency domain. In other words, "Fourier transform" used in the present disclosure can be understood as a broad concept representing an operation process for mutual transformation between time domain and frequency domain. Therefore, "Fourier transform" used in the present disclosure is a concept encompassing both a narrow Fourier transform that decomposes a signal in the time domain into a frequency domain and an inverse Fourier transform that transforms a signal in the frequency domain into a time domain. can be understood as

전술한 용어의 설명은 본 개시의 이해를 돕기 위한 것이다. 따라서, 전술한 용어를 본 개시의 내용을 한정하는 사항으로 명시적으로 기재하지 않은 경우, 본 개시의 내용을 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Explanations of the foregoing terms are intended to facilitate understanding of the present disclosure. Therefore, it should be noted that, when the above terms are not explicitly described as matters limiting the content of the present disclosure, the content of the present disclosure is not used in the sense of limiting the technical idea.

도 1은 본 개시의 일 실시예에 따른 컴퓨팅 장치의 블록 구성도이다.1 is a block diagram of a computing device according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 데이터의 종합적인 처리 및 연산을 수행하는 하드웨어 장치 혹은 하드웨어 장치의 일부일 수도 있고, 통신 네트워크로 연결되는 소프트웨어 기반의 컴퓨팅 환경일 수도 있다. 예를 들어, 컴퓨팅 장치(100)는 집약적 데이터 처리 기능을 수행하고 자원을 공유하는 주체인 서버일 수도 있고, 서버와의 상호 작용을 통해 자원을 공유하는 클라이언트(client)일 수도 있다. 또한, 컴퓨팅 장치(100)는 복수의 서버들 및 클라이언트들이 상호 작용하여 데이터를 종합적으로 처리하는 클라우드 시스템(cloud system)일 수도 있다. 상술한 기재는 컴퓨팅 장치(100)의 종류와 관련된 하나의 예시일 뿐이므로, 컴퓨팅 장치(100)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The computing device 100 according to an embodiment of the present disclosure may be a hardware device or part of a hardware device that performs comprehensive processing and calculation of data, or may be a software-based computing environment connected through a communication network. For example, the computing device 100 may be a server that performs intensive data processing functions and shares resources, or may be a client that shares resources through interaction with the server. Also, the computing device 100 may be a cloud system in which a plurality of servers and clients interact to comprehensively process data. Since the above description is only one example related to the type of the computing device 100, the type of the computing device 100 may be configured in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 프로세서(processor)(110), 메모리(memory)(120), 및 네트워크부(network unit)(130)를 포함할 수 있다. 다만, 도 1은 하나의 예시일 뿐이므로, 컴퓨팅 장치(100)는 컴퓨팅 환경을 구현하기 위한 다른 구성들을 포함할 수 있다. 또한, 상기 개시된 구성들 중 일부만이 컴퓨팅 장치(100)에 포함될 수도 있다.Referring to FIG. 1 , a computing device 100 according to an embodiment of the present disclosure may include a processor 110, a memory 120, and a network unit 130. there is. However, since FIG. 1 is only an example, the computing device 100 may include other configurations for implementing a computing environment. Also, only some of the components disclosed above may be included in the computing device 100 .

본 개시의 일 실시예에 따른 프로세서(110)는 컴퓨팅 연산을 수행하기 위한 하드웨어 및/또는 소프트웨어를 포함하는 구성 단위로 이해될 수 있다. 예를 들어, 프로세서(110)는 컴퓨터 프로그램을 판독하여 기계 학습을 위한 데이터 처리를 수행할 수 있다. 프로세서(110)는 기계 학습을 위한 입력 데이터의 처리, 기계 학습을 위한 특징 추출, 역전파(backpropagation)에 기반한 오차 계산 등과 같은 연산 과정을 처리할 수 있다. 이와 같은 데이터 처리를 수행하기 위한 프로세서(110)는 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit), 주문형 반도체(ASIC: application specific integrated circuit), 혹은 필드 프로그래머블 게이트 어레이(FPGA: field programmable gate array) 등을 포함할 수 있다. 상술한 프로세서(110)의 종류는 하나의 예시일 뿐이므로, 프로세서(110)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The processor 110 according to an embodiment of the present disclosure may be understood as a structural unit including hardware and/or software for performing computing operations. For example, the processor 110 may read a computer program and perform data processing for machine learning. The processor 110 may process input data processing for machine learning, feature extraction for machine learning, calculation of an error based on backpropagation, and the like. The processor 110 for performing such data processing includes a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), a tensor processing unit (TPU), and on-demand It may include a semiconductor (application specific integrated circuit (ASIC)) or a field programmable gate array (FPGA). Since the above-described type of processor 110 is just one example, the type of processor 110 may be variously configured within a range understandable by those skilled in the art based on the content of the present disclosure.

프로세서(110)는 의료 영상을 분석하여 의료 영상의 촬영 대상이 되는 피사체의 병변을 탐지할 수 있다. 프로세서(110)는 의료 영상을 분석하여 의료 영상에 존재하는 병변을 추정할 수 있다. 병변을 추정하기 위해, 프로세서(110)는 적어도 하나의 신경망을 포함하는 신경망 모델을 사용할 수 있다. 이때, 본 개시에서 사용된 탐지 혹은 추정이라는 용어는 신경망 모델이 수행하는 비전 태스크(vision task)에 대한 광의의 개념으로 이해될 수 있다. 즉, 본 개시에서 사용된 탐지 혹은 추정이라는 용어는 신경망 모델이 영상에 존재하는 특정 타겟(target)을 파악하기 위해 수행하는 분류, 로컬리제이션(localization), 탐지, 및 분할(segmentation) 등을 모두 포함하는 의미로 이해될 수 있다. 예를 들어, 병변을 추정하기 위해, 프로세서(110)는 분류 모델을 사용할 수 있다. 분류 모델은 데이터에 포함된 클래스 간의 관계를 파악하고, 새롭게 입력되는 데이터에 포함된 클래스를 판별하는 신경망 모델로 이해될 수 있다. 구체적으로, 프로세서(110)는 신경망 모델로서 분류 모델 중 하나로 합성곱(convolutional) 신경망에 기반한 분류 모델을 사용할 수 있다. 이때, 합성곱 신경망은 입력 데이터의 공간 정보를 유지하면서 인접 영역의 특징을 효과적으로 인식하고 분류할 수 있는 다층 신경망으로 이해될 수 있다. 다만, 상술한 분류 모델은 하나의 예시일 뿐이므로, 당업자가 이해 가능한 범주에서 분류 모델과 기술적 사상이 공통되며 병변 탐지를 수행할 수 있는 예측 모델 혹은 회귀 모델 등도 모두 본 개시의 신경망 모델에 적용될 수 있다.The processor 110 may analyze the medical image to detect a lesion of a subject to be captured of the medical image. The processor 110 may estimate a lesion present in the medical image by analyzing the medical image. To estimate the lesion, the processor 110 may use a neural network model including at least one neural network. At this time, the term detection or estimation used in the present disclosure may be understood as a broad concept of a vision task performed by a neural network model. That is, the term detection or estimation used in the present disclosure refers to all classification, localization, detection, and segmentation performed by a neural network model to identify a specific target present in an image. It can be understood in the meaning of including. For example, to estimate a lesion, processor 110 may use a classification model. A classification model may be understood as a neural network model that identifies a relationship between classes included in data and determines a class included in newly input data. Specifically, the processor 110 may use a classification model based on a convolutional neural network as one of the classification models as a neural network model. In this case, the convolutional neural network can be understood as a multilayer neural network capable of effectively recognizing and classifying features of adjacent regions while maintaining spatial information of input data. However, since the above-described classification model is only an example, a classification model and a technical idea common to those skilled in the art can be applied to the neural network model of the present disclosure, such as a prediction model or a regression model capable of detecting lesions. there is.

프로세서(110)는 신경망 모델이 의료 영상을 기초로 병변 유무를 분류하도록 신경망 모델을 학습시킬 수 있다. 예를 들어, 프로세서(110)는 병변이 존재하는 학습 영상 혹은 병변이 존재하지 않는 학습 영상 중 어느 하나를 신경망 모델에 입력하여 신경망 모델이 영상에 병변이 존재하는지 여부를 분류하도록 신경망 모델을 학습시킬 수 있다. 이때, 학습 영상은 병변의 유무가 라벨링(labeling) 된 영상일 수 있다. 프로세서(110)는 신경망 모델의 학습 영상에 대한 분류 결과와 학습 영상의 라벨을 비교하여 오차 값이 최소가 되도록 신경망 모델을 학습시킬 수 있다.The processor 110 may train the neural network model to classify the presence or absence of a lesion based on the medical image. For example, the processor 110 inputs either a training image with a lesion or a training image without a lesion to a neural network model to train the neural network model to classify whether or not a lesion exists in the image. can In this case, the learning image may be an image in which the presence or absence of a lesion is labeled. The processor 110 may train the neural network model so that an error value is minimized by comparing a classification result of the training image of the neural network model with a label of the training image.

프로세서(110)는 사전 학습된 신경망 모델을 사용하여 의료 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다. 프로세서(110)는 학습된 신경망 모델이 병변을 분류하는 과정에서 영상의 어떤 특징을 인식했는지를 파악하여, 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성할 수 있다. 다시 말해, 프로세서(110)는 신경망 모델이 영상의 어떤 영역을 주요 특징으로 파악하고 병변을 분류하였는지를 추정함으로써, 병변 탐지를 위한 지도 학습에 사용할 수 있는 라벨을 생성할 수 있다. 프로세서(110)는 영상의 어떤 영역이 병변을 탐지하도록 학습된 신경망 모델의 특징 해석(혹은 추론)에 영향을 미쳤는지에 대한 정보를 라벨을 생성하는데 이용함으로써, 수작업으로 진행되던 라벨링 작업의 속도를 개선하고 수작업으로 발생하는 라벨 비용을 대폭 절감시킬 수 있다. 또한, 프로세서(110)는 병변을 탐지하도록 학습된 신경망 모델의 특징 해석(혹은 추론)을 라벨을 생성하는데 이용함으로써, 전문가의 수작업 대비 라벨링 작업을 보다 정밀하고 정확하게 수행할 수 있다. 이때, 프로세서(110)의 라벨 생성은 신경망 모델을 사용한 병변 탐지와 병렬적으로 수행될 수 있다.The processor 110 may generate a label representing a lesion area in a medical image using a pretrained neural network model. The processor 110 may determine which feature of the image is recognized by the trained neural network model in the process of classifying the lesion, and generate a label indicating the presence or absence of a lesion in a specific region in the image. In other words, the processor 110 may generate a label that can be used for supervised learning for detecting a lesion by estimating which region of the image is identified as a main feature by the neural network model and classifies the lesion. The processor 110 improves the speed of a manually performed labeling task by using information about which region of the image has an effect on the feature interpretation (or inference) of the neural network model learned to detect the lesion to generate a label. and can significantly reduce manual labeling costs. In addition, the processor 110 may perform a labeling task more precisely and accurately compared to the manual work of an expert by using feature analysis (or inference) of a neural network model learned to detect a lesion to generate a label. At this time, label generation by the processor 110 may be performed in parallel with lesion detection using a neural network model.

필요에 따라, 프로세서(110)는 컴퓨팅 장치(100)의 사용자 혹은 임의의 클라이언트의 사용자와의 상호 작용을 위한 환경을 제공하는 사용자 인터페이스(user interface)를 생성할 수 있다. 예를 들어, 프로세서(110)는 병변 탐지를 위한 신경망을 사용하여 도출되는 분류 결과, 또는 라벨 등을 시각화 하는 사용자 인터페이스를 생성할 수 있다. 프로세서(110)는 사용자로부터 인가되는 외부 입력 신호를 기초로 데이터의 출력, 수정, 변경, 혹은 추가 등의 기능이 구현되도록 하는 사용자 인터페이스를 생성할 수 있다. 상술한 사용자 인터페이스의 역할은 하나의 예시일 뿐이므로, 사용자 인터페이스의 역할은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.If necessary, the processor 110 may create a user interface that provides an environment for interaction with a user of the computing device 100 or a user of an arbitrary client. For example, the processor 110 may create a user interface for visualizing a classification result derived using a neural network for detecting a lesion or a label. The processor 110 may generate a user interface that implements functions such as outputting, modifying, changing, or adding data based on an external input signal applied from a user. Since the above-described role of the user interface is only one example, the role of the user interface may be defined in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

본 개시의 일 실시예에 따른 메모리(120)는 컴퓨팅 장치(100)에서 처리되는 데이터를 저장하고 관리하기 위한 하드웨어 및/또는 소프트웨어를 포함하는 구성 단위로 이해될 수 있다. 즉, 메모리(120)는 프로세서(110)가 생성하거나 결정한 임의의 형태의 데이터 및 네트워크부(130)가 수신한 임의의 형태의 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리, 램(RAM: random access memory), 에스램(SRAM: static random access memory), 롬(ROM: read-only memory), 이이피롬(EEPROM: electrically erasable programmable read-only memory), 피롬(PROM: programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(120)는 데이터를 소정의 체제로 통제하여 관리하는 데이터베이스(database) 시스템을 포함할 수도 있다. 상술한 메모리(120)의 종류는 하나의 예시일 뿐이므로, 메모리(120)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The memory 120 according to an embodiment of the present disclosure may be understood as a unit including hardware and/or software for storing and managing data processed by the computing device 100 . That is, the memory 120 may store any type of data generated or determined by the processor 110 and any type of data received by the network unit 130 . For example, the memory 120 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory, and random access memory (RAM). ), SRAM (static random access memory), ROM (read-only memory), EEPROM (electrically erasable programmable read-only memory), PROM (programmable read-only memory), magnetic memory , a magnetic disk, and an optical disk may include at least one type of storage medium. In addition, the memory 120 may include a database system that controls and manages data in a predetermined system. Since the above-described type of memory 120 is just one example, the type of memory 120 may be configured in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

메모리(120)는 프로세서(110)가 연산을 수행하는데 필요한 데이터, 데이터의 조합, 및 프로세서(110)에서 실행 가능한 프로그램 코드(code) 등을 구조화 및 조직화 하여 관리할 수 있다. 예를 들어, 메모리(120)는 후술할 네트워크부(130)를 통해 수신된 의료 영상을 저장할 수 있다. 메모리(120)는 신경망 모델이 의료 영상의 병변을 탐지하도록 동작시키는 프로그램 코드, 프로세서(110)가 신경망 모델의 특징 해석(혹은 추론)을 기초로 라벨을 생성하도록 동작시키는 프로그램 코드 및 프로그램 코드가 실행됨에 따라 생성된 데이터를 저장할 수 있다. 메모리(120)는 프로세서(110)의 연산을 통해 생성된 의료 영상의 병변 추정 결과 및 병변을 나타내는 라벨을 저장할 수 있다.The memory 120 may organize and manage data necessary for the processor 110 to perform calculations, data combinations, program codes executable by the processor 110, and the like. For example, the memory 120 may store medical images received through the network unit 130 to be described later. The memory 120 executes program codes that operate the neural network model to detect lesions in medical images, program codes that operate the processor 110 to generate labels based on feature analysis (or inference) of the neural network model, and program codes. As a result, the generated data can be stored. The memory 120 may store a lesion estimation result of the medical image generated through the operation of the processor 110 and a label indicating the lesion.

본 개시의 일 실시예에 따른 네트워크부(130)는 임의의 형태의 공지된 유무선 통신 시스템을 통해 데이터를 송수신하는 구성 단위로 이해될 수 있다. 예를 들어, 네트워크부(130)는 근거리 통신망(LAN: local area network), 광대역 부호 분할 다중 접속(WCDMA: wideband code division multiple access), 엘티이(LTE: long term evolution), 와이브로(WiBro: wireless broadband internet), 5세대 이동통신(5G), 초광역대 무선통신(ultra wide-band), 지그비(ZigBee), 무선주파수(RF: radio frequency) 통신, 무선랜(wireless LAN), 와이파이(wireless fidelity), 근거리 무선통신(NFC: near field communication), 또는 블루투스(Bluetooth) 등과 같은 유무선 통신 시스템을 사용하여 데이터 송수신을 수행할 수 있다. 상술한 통신 시스템들은 하나의 예시일 뿐이므로, 네트워크부(130)의 데이터 송수신을 위한 유무선 통신 시스템은 상술한 예시 이외에 다양하게 적용될 수 있다.The network unit 130 according to an embodiment of the present disclosure may be understood as a unit that transmits and receives data through any type of known wired/wireless communication system. For example, the network unit 130 may include a local area network (LAN), wideband code division multiple access (WCDMA), long term evolution (LTE), and WiBro (wireless). broadband internet), 5th generation mobile communication (5G), ultra wide-band wireless communication, ZigBee, radio frequency (RF) communication, wireless LAN, wireless fidelity ), near field communication (NFC), or data transmission/reception may be performed using a wired/wireless communication system such as Bluetooth. Since the above-described communication systems are only examples, a wired/wireless communication system for data transmission and reception of the network unit 130 may be applied in various ways other than the above-described examples.

네트워크부(130)는 임의의 시스템 혹은 임의의 클라이언트 등과의 유무선 통신을 통해, 프로세서(110)가 연산을 수행하는데 필요한 데이터를 수신할 수 있다. 또한, 네트워크부(130)는 임의의 시스템 혹은 임의의 클라이언트 등과의 유무선 통신을 통해, 프로세서(110)의 연산을 통해 생성된 데이터를 송신할 수 있다. 예를 들어, 네트워크부(130)는 의료 영상 저장 전송 시스템, 의료 영상의 해상도 개선, 또는 표준화 등의 작업을 수행하는 클라우드 서버, 혹은 컴퓨팅 장치 등과의 통신을 통해, 의료 영상을 수신할 수 있다. 네트워크부(130)는 전술한 시스템, 서버, 혹은 컴퓨팅 장치 등과의 통신을 통해, 신경망 모델의 출력에 대응되는 병변 탐지 결과 및 프로세서(110)의 연산을 통해 생성된 라벨을 송신할 수 있다.The network unit 130 may receive data necessary for the processor 110 to perform an operation through wired/wireless communication with an arbitrary system or an arbitrary client. In addition, the network unit 130 may transmit data generated through the operation of the processor 110 through wired/wireless communication with an arbitrary system or an arbitrary client. For example, the network unit 130 may receive medical images through communication with a medical image storage and transmission system, a cloud server that performs tasks such as resolution improvement or standardization of medical images, or a computing device. The network unit 130 may transmit the lesion detection result corresponding to the output of the neural network model and the label generated through the operation of the processor 110 through communication with the aforementioned system, server, or computing device.

필요에 따라, 네트워크부(130)는 임의의 시스템 혹은 임의의 클라이언트와의 유무선 통신을 통해, 프로세서(110)에 의해 생성된 사용자 인터페이스를 임의의 시스템 혹은 임의의 클라이언트에 제공할 수 있다. 예를 들어, 네트워크부(130)는 의료 영상 저장 전송 시스템 혹은 디스플레이(display)를 포함하는 컴퓨팅 장치와의 통신을 통해, 프로세서(110)에 의해 처리된 데이터들을 시각화 하는 사용자 인터페이스를 전술한 시스템 혹은 장치에 제공할 수 있다. 네트워크부(130)는 사용자 인터페이스를 통해 사용자로부터 인가되는 외부 입력 신호를 전술한 시스템 혹은 장치로부터 수신하여 프로세서(110)로 전달할 수 있다. 이때, 프로세서(110)는 네트워크부(130)로부터 전달된 외부 입력 신호를 기초로 데이터의 출력, 수정, 변경, 혹은 추가 등의 기능이 구현되도록 동작할 수 있다. 한편, 네트워크부(130)를 통한 통신 없이도, 사용자 인터페이스를 제공받은 시스템 혹은 장치는 자체적으로 사용자로부터 인가되는 외부 입력 신호에 따라 데이터의 출력, 수정, 변경 혹은 추가 등의 기능이 구현되도록 동작할 수도 있다.As needed, the network unit 130 may provide the user interface generated by the processor 110 to any system or client through wired/wireless communication with any system or client. For example, the network unit 130 provides a user interface for visualizing data processed by the processor 110 through communication with a medical image storage and transmission system or a computing device including a display. device can be provided. The network unit 130 may receive an external input signal applied from a user through a user interface from the above-described system or device and transmit it to the processor 110 . At this time, the processor 110 may operate to implement functions such as outputting, modifying, changing, or adding data based on the external input signal transmitted from the network unit 130 . On the other hand, even without communication through the network unit 130, a system or device provided with a user interface may itself operate to implement functions such as output, modification, change, or addition of data according to an external input signal applied from a user. there is.

도 2는 본 개시의 일 실시예에 따른 컴퓨팅 장치의 라벨 생성 과정을 나타낸 블록도이다.2 is a block diagram illustrating a label creation process of a computing device according to an embodiment of the present disclosure.

도 2를 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)의 프로세서(110)는 병변을 탐지하고자 하는 의료 영상(10)을 신경망 모델(200)에 입력할 수 있다. 이때, 의료 영상(10)은 질병의 진단과 치료를 위해 의료 영상 촬영 장치에 의해 촬영된 영상일 수 있다. 예를 들어, 의료 영상(10)은 자기 공명 신호로부터 획득된 케이-스페이스 데이터를 기초로, 푸리에 변환(fourier transform)을 통해 생성된 자기 공명 영상을 포함할 수 있다. 이때, 의료 영상(10)에 포함된 자기 공명 영상은 가속화 촬영을 통해 생성된 데이터일 수 있다.Referring to FIG. 2 , the processor 110 of the computing device 100 according to an embodiment of the present disclosure may input a medical image 10 to detect a lesion into the neural network model 200 . In this case, the medical image 10 may be an image captured by a medical imaging device for diagnosis and treatment of a disease. For example, the medical image 10 may include a magnetic resonance image generated through a Fourier transform based on K-space data obtained from a magnetic resonance signal. In this case, the magnetic resonance image included in the medical image 10 may be data generated through accelerated imaging.

본 개시에서 가속화 촬영은 일반적인 촬영 대비 자기 공명 신호에 대한 여기 횟수(NEX: number of excitations)를 감소시켜 촬영 시간을 단축시키는 촬영 기법으로 이해될 수 있다. 여기 횟수는 케이-스페이스 영역에서 자기 공명 신호의 라인들을 반복 획득할 때의 반복된 횟수로 이해될 수 있다. 따라서, 여기 횟수가 증가함에 따라 자기 공명 영상의 촬영 시간이 비례하여 증가할 수 있다. 즉, 자기 공명 영상의 촬영 시에 여기 횟수를 감소시키는 경우, 자기 공명 영상의 촬영 시간이 단축된 가속화 촬영이 구현될 수 있다.In the present disclosure, accelerated imaging may be understood as a imaging technique that shortens imaging time by reducing the number of excitations (NEX) for magnetic resonance signals compared to general imaging. The number of times of excitation may be understood as the number of repetitions when lines of a magnetic resonance signal are repeatedly obtained in the K-space region. Accordingly, as the number of excitations increases, the imaging time of the magnetic resonance image may increase proportionally. That is, when the number of excitations is reduced when capturing an MR image, accelerated imaging with a shortened MR image capturing time may be realized.

본 개시에서 가속화 촬영은 케이-스페이스 영역에서 위상 인코딩(encoding) 방향으로 더 좁은 범위의 신호를 얻음으로써, 해상도가 상대적으로 낮은 영상을 획득하는 촬영 기법으로 이해될 수 있다. 다시 말해, 본 개시의 가속화 촬영은 일반적인 촬영 대비 페이즈 레졸루션(phase resolution)을 감소시킨 촬영 기법으로 이해될 수 있다. 페이즈 레졸루션은 케이-스페이스 영역에서 위상 인코딩 방향으로 샘플링 된 라인의 개수를 미리 설정된 기준값으로 나눈 값으로 이해될 수 있다. 따라서, 페이즈 레졸루션이 증가함에 따라, 자기 공명 영상의 촬영 시간이 비례하여 증가할 수 있다. 즉, 자기 공명 영상의 촬영 시에 페이즈 레졸루션을 감소시키는 경우, 자기 공명 영상의 촬영 시간이 단축된 가속화 촬영이 구현될 수 있다.In the present disclosure, accelerated photographing may be understood as a photographic technique for obtaining an image having a relatively low resolution by obtaining a signal of a narrower range in a phase encoding direction in the K-space domain. In other words, the accelerated imaging of the present disclosure may be understood as a imaging technique in which phase resolution is reduced compared to general imaging. The phase resolution may be understood as a value obtained by dividing the number of lines sampled in the phase encoding direction in the K-space domain by a preset reference value. Accordingly, as the phase resolution increases, the imaging time of the magnetic resonance image may increase proportionally. That is, when the phase resolution is reduced when capturing the magnetic resonance image, accelerated imaging in which the capturing time of the magnetic resonance image is shortened may be implemented.

본 개시에서 가속화 촬영은 일반적인 촬영에 비해 가속화 지수(acceleration factor)를 높여 촬영 시간을 단축시키는 촬영 기법으로 이해될 수 있다. 가속화 지수는 병렬 영상 기법에서 사용되는 용어로서, 케이-스페이스 영역에서 풀 샘플링(full sampling)된 신호 라인의 개수를 촬영을 통해 샘플링 된 신호 라인의 개수로 나눈 값으로 이해될 수 있다. 예를 들어, 가속화 지수가 2 라는 것은, 위상 인코딩 방향으로 자기 공명 신호를 샘플링 하여 라인을 획득할 때, 풀 샘플링 된 신호 라인의 개수 대비 절반의 신호 라인의 개수를 획득하는 것으로 이해될 수 있다. 따라서, 가속화 지수가 증가함에 따라, 자기 공명 영상의 촬영 시간이 비례하여 감소할 수 있다. 즉, 자기 공명 영상의 촬영 시에 가속화 지수를 증가시키는 경우, 자기 공명 영상의 촬영 시간이 단축된 가속화 촬영이 구현될 수 있다.In the present disclosure, accelerated imaging may be understood as a imaging technique that shortens imaging time by increasing an acceleration factor compared to general imaging. An acceleration index is a term used in a parallel imaging technique, and can be understood as a value obtained by dividing the number of signal lines sampled in the K-space domain by the number of signal lines sampled through imaging. For example, an acceleration index of 2 may be understood as obtaining half the number of signal lines compared to the number of full-sampled signal lines when lines are obtained by sampling the magnetic resonance signal in the phase encoding direction. Accordingly, as the acceleration index increases, the imaging time of the magnetic resonance image may decrease proportionally. That is, when an acceleration index is increased when capturing an MR image, accelerated imaging in which a capturing time of an MR image is shortened may be implemented.

본 개시에서 가속화 촬영은 서브 샘플링(sub sampling) 된 자기 공명 신호를 획득하여 자기 공명 영상을 생성하는 촬영 기법으로 이해될 수 있다. 이때, 서브 샘플링은 나이키스트 샘플링 레이트(nyquist sampling rate)보다 낮은 샘플링 레이트로 자기 공명 신호를 샘플링 하는 작업으로 이해될 수 있다. 따라서, 본 개시의 자기 공명 영상은 나이키스트 샘플링 레이트보다 낮은 샘플링 레이트로 자기 공명 신호를 샘플링 하여 획득된 영상일 수 있다.In the present disclosure, accelerated imaging may be understood as an imaging technique for generating a magnetic resonance image by acquiring a sub-sampled magnetic resonance signal. In this case, subsampling may be understood as an operation of sampling a magnetic resonance signal at a sampling rate lower than a Nyquist sampling rate. Accordingly, the magnetic resonance image of the present disclosure may be an image obtained by sampling the magnetic resonance signal at a sampling rate lower than the Nyquist sampling rate.

다만, 상술한 가속화 촬영의 설명은 하나의 예시일 뿐이므로, 가속화 촬영의 개념은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.However, since the description of accelerated imaging described above is only an example, the concept of accelerated imaging may be defined in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

도 2를 참조하면, 프로세서(110)는 의료 영상(10)을 입력받은 신경망 모델을 사용하여 의료 영상(10)에 존재하는 병변을 추정하여 추론 데이터(20)를 생성할 수 있다. 이때, 추론 데이터(20)는 의료 영상(10)에 병변이 존재하는지 여부를 나타내는 결과 또는 의료 영상(10)에서 병변이 존재하는 경우에 병변이 존재하는 영역을 검출한 결과 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(110)는 신경망 모델(200)을 사용하여 의료 영상(10)에서 병변 탐지를 위한 특징을 추출할 수 있다. 신경망 모델(200)을 통해 추출되는 특징은 의료 영상(10)의 픽셀 값 혹은 복셀 값을 기초로 추출되는 연산 값 또는 연산 값의 조합으로 이해될 수 있다. 프로세서(110)는 신경망 모델(200)을 사용하여, 병변 탐지를 위해 추출된 특징을 기초로 의료 영상(10)에서 병변이 존재하는지 여부를 나타내는 분류 결과를 도출할 수 있다. 이때, 분류 결과는 병변의 유무에 대한 확률 표현일 수 있다. 병변이 존재하는 경우, 분류 결과는 1로 도출될 수 있다. 병변이 존재하지 않는 경우, 분류 결과는 0으로 도출될 수 있다. 다만, 이러한 분류 결과의 표현은 하나의 예시일 뿐이므로, 분류 결과는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 표현될 수 있다.Referring to FIG. 2 , the processor 110 may generate inference data 20 by estimating a lesion present in the medical image 10 using a neural network model receiving the medical image 10 . In this case, the reasoning data 20 may include at least one of a result indicating whether a lesion exists in the medical image 10 or a result of detecting a region in which a lesion exists when a lesion exists in the medical image 10 . can For example, the processor 110 may extract features for lesion detection from the medical image 10 using the neural network model 200 . A feature extracted through the neural network model 200 may be understood as an operation value extracted based on a pixel value or voxel value of the medical image 10 or a combination of operation values. The processor 110 may use the neural network model 200 to derive a classification result indicating whether a lesion exists in the medical image 10 based on features extracted for lesion detection. In this case, the classification result may be a probability expression for the presence or absence of a lesion. If a lesion is present, the classification result can be drawn as 1. If no lesion is present, the classification result may be zero. However, since the expression of the classification result is only one example, the classification result may be expressed in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

프로세서(110)는 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다. 프로세서(110)는 신경망 모델에 포함된 적어도 하나의 레이어의 출력에 대응되는 특징을 기초로, 신경망 모델이 입력받은 의료 영상에 존재하는 병변 영역을 표시하는 라벨을 생성할 수 있다. 이때, 라벨은 의료 영상에 병변의 유무를 표시한 정보로서, 신경망 모델의 추론에 기반하여 생성된 그라운드 트루쓰(ground truth)로 이해될 수 있다. 이와 같이 신경망 모델의 특징 해석을 기초로 생성되는 라벨은 전문의에 의한 수작업이 필요하지 않고, 사람의 주관적 판단에 의해 생성되는 라벨보다 정밀하고 정확한 정보를 포함할 수 밖에 없다. 따라서, 본 개시의 라벨 생성 방법은 수작업으로 라벨링이 수행되던 종래 방식 대비 시간 및 비용적인 측면에서 효율적인 장점을 가진다.The processor 110 may generate a label indicating a lesion area in an image based on an output of a predetermined layer included in the neural network model. The processor 110 may generate a label indicating a lesion area present in a medical image received by the neural network model, based on a feature corresponding to an output of at least one layer included in the neural network model. In this case, the label is information indicating the presence or absence of a lesion in the medical image, and may be understood as ground truth generated based on inference of a neural network model. As such, a label generated based on the feature analysis of a neural network model does not require a manual operation by a specialist, and inevitably contains more precise and accurate information than a label generated by subjective judgment of a person. Therefore, the label generation method of the present disclosure has an advantage of being efficient in terms of time and cost compared to the conventional method in which labeling is performed manually.

예를 들어, 프로세서(110)는 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 의료 영상에 대한 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성할 수 있다. 프로세서(110)는 히트맵을 기초로 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성할 수 있다. 이때, 신경망 모델에 포함된 소정의 레이어의 출력을 기초로 생성된 히트맵 자체에 오차가 존재할 가능성이 있으므로, 프로세서(110)는 히트맵으로부터 라벨을 생성하는 과정에서 추가적인 영상 처리 작업을 수행할 수 있다. 구체적으로, 프로세서(110)는 히트맵에 표현된 병변 영역에 존재하는 공백 영역을 보정할 수 있다. 병변 영역은 구멍이 없는 연속적인 영역이라는 가정 하에, 프로세서(110)는 히트맵에 표현된 병변 영역임에도 공백으로 표현된 영역을, 공백 영역에 인접한 영역의 표현 값을 기초로 채워넣는 보정을 수행할 수 있다. 또한, 프로세서(110)는 히트맵에 존재하는 노이즈(noise)를 보정할 수 있다. 병변 영역이 아니지만 히트맵의 오차에 의해 병변 영역으로 표시된 오류를 수정하기 위해서, 프로세서(110)는 히트맵에 표시된 병변 영역 중 가장 큰 연결 요소를 선택함으로써 노이즈에 해당하는 값들을 제거할 수 있다. 상술한 두 가지 보정은 본 개시에 적용될 수 있는 하나의 예시일 뿐이므로, 본 개시에는 상술한 두 가지 보정 이외에도 본 개시에 기재된 내용을 기초로 당업자가 이해 가능한 범주에서 다양한 보정 방법들이 적용될 수 있다.For example, the processor 110 may generate a heatmap corresponding to feature analysis of a neural network model for a medical image, based on an output of a predetermined layer included in the neural network model. The processor 110 may generate a label indicating whether or not there is a lesion in a specific region in the image based on the heat map. At this time, since an error may exist in the heat map itself generated based on the output of a predetermined layer included in the neural network model, the processor 110 may perform an additional image processing operation in the process of generating a label from the heat map. there is. Specifically, the processor 110 may correct a blank area present in the lesion area represented on the heat map. Under the assumption that the lesion area is a continuous area without holes, the processor 110 performs correction to fill in the area expressed as blank even though the lesion area is expressed on the heat map based on the expression value of the area adjacent to the blank area. can Also, the processor 110 may correct noise present in the heat map. In order to correct an error that is not a lesion area but is marked as a lesion area due to an error of the heat map, the processor 110 may remove values corresponding to noise by selecting the largest connection element among the lesion areas displayed on the heat map. Since the above two corrections are just one example that can be applied to the present disclosure, various correction methods may be applied to the present disclosure within a scope understandable by those skilled in the art based on the contents described in the present disclosure, in addition to the above two corrections.

한편, 프로세서(110)는 신경망 모델(200)에 의료 영상(10)과 함께, 의료 영상(10)의 촬영 시에 조정이 가능한 스캔 파라미터(scan parameter)를 입력할 수 있다. 이때, 스캔 파라미터는 의료 영상의 촬영 상태 혹은 조건 등을 결정하기 위해서 의료 영상의 촬영 환경에서 조정되는 변수로 이해될 수 있다. 스캔 파라미터의 값에 따라 의료 영상의 촬영 시에 획득되는 신호가 달라질 수 있고, 신호에 따라 생성되는 의료 영상의 특성이 달라질 수 있다. 예를 들어, 의료 영상(10)이 자기 공명 영상인 경우, 스캔 파라미터는 반복 시간(TR: repetition time), 에코 시간(TE: echo time), 반전 시간(TI: inversion time), 관측 시야(FOV: field of view), 여기 횟수, 또는 가속화 지수 등을 포함할 수 있다. 프로세서(110)는 의료 영상(10)과 함께 전술한 예시와 같은 스캔 파라미터를 신경망 모델(200)의 입력에 포함시킴으로써, 신경망 모델(200)의 추론 성능을 보다 향상시킬 수 있다.Meanwhile, the processor 110 may input, along with the medical image 10 , scan parameters that can be adjusted when capturing the medical image 10 to the neural network model 200 . In this case, the scan parameter may be understood as a variable adjusted in a medical image capturing environment in order to determine a medical image capturing state or condition. Depending on the value of the scan parameter, a signal obtained when capturing a medical image may vary, and characteristics of a generated medical image may vary according to the signal. For example, when the medical image 10 is a magnetic resonance image, scan parameters include repetition time (TR), echo time (TE), inversion time (TI), and field of view (FOV). : field of view), excitation number, or acceleration index. The processor 110 may further improve inference performance of the neural network model 200 by including the medical image 10 and scan parameters as in the above-described example as an input of the neural network model 200 .

도 3은 본 개시의 일 실시예에 따른 신경망 모델을 사용한 연산 과정을 나타낸 개념도이다. 도 3의 설명은 합성곱 신경망을 포함하는 신경망 모델을 사용하여 자기 공명 영상의 병변을 분류하고 라벨을 생성하는 과정을 가정한다.3 is a conceptual diagram illustrating a calculation process using a neural network model according to an embodiment of the present disclosure. The description of FIG. 3 assumes a process of classifying lesions in an MRI and generating labels using a neural network model including a convolutional neural network.

도 3을 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)의 프로세서(110)는 가속화 촬영된 자기 공명 영상(40)을 제 1 신경망(210)에 입력할 수 있다. 프로세서(110)는 특징 추출 레이어를 포함하는 제 1 신경망(210)을 사용하여 자기 공명 영상(40)의 병변 영역을 추정하기 위한 특징을 추출할 수 있다. 이때, 제 1 신경망(210)은 적어도 하나의 합성곱 레이어 및 적어도 하나의 풀링(pooling) 레이어를 포함할 수 있다. 예를 들어, 제 1 신경망(210)은 이미지의 특징을 찾아내기 위한 공용 파라미터인 필터(filter), 필터가 영상을 순회하는 간격을 나타내는 스트라이드(stride), 및/또는 특징의 크기를 유지시키기 위한 패딩(padding)을 조절하여 자기 공명 영상(40)에서 특징을 추출할 수 있다. 제 1 신경망(210)에 포함된 합성곱 레이어는 필터를 사용하여 합성곱 연산을 수행함으로써 자기 공명 영상(40)의 공간적 정보를 유지하면서 자기 공명 영상(40)의 특징을 출력할 수 있다. 제 1 신경망(210)에 포함된 풀링 레이어는 합성곱 레이어의 출력을 입력받아 합성곱 레이어의 출력의 크기를 줄이거나 특정 정보를 강조하는 역할을 수행할 수 있다. 즉, 제 1 신경망(210)은 적어도 하나의 합성곱 레이어와 적어도 하나의 풀링 레이어의 조합을 통해 자기 공명 영상(40)의 특징을 추출할 수 있다.Referring to FIG. 3 , the processor 110 of the computing device 100 according to an embodiment of the present disclosure may input the accelerated magnetic resonance image 40 to the first neural network 210 . The processor 110 may extract features for estimating the lesion area of the magnetic resonance image 40 using the first neural network 210 including a feature extraction layer. In this case, the first neural network 210 may include at least one convolutional layer and at least one pooling layer. For example, the first neural network 210 uses a filter, which is a common parameter for finding features of an image, a stride indicating an interval at which the filter traverses the image, and/or a feature size for maintaining Features may be extracted from the magnetic resonance image 40 by adjusting padding. The convolution layer included in the first neural network 210 may output features of the MRI 40 while maintaining spatial information of the MRI 40 by performing a convolution operation using a filter. The pooling layer included in the first neural network 210 may serve to reduce the size of the output of the convolutional layer or emphasize specific information by receiving the output of the convolutional layer. That is, the first neural network 210 may extract features of the magnetic resonance image 40 through a combination of at least one convolutional layer and at least one pooling layer.

한편, 제 1 신경망(210)의 특징 추출 과정에서, 프로세서(110)는 제 1 신경망(210)의 i번째(i는 자연수) 레이어에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성할 수 있다. 그리고, 프로세서(110)는 제 1 신경망(210)의 i+1번째 레이어로, i번째 레이어에서 산출된 제 1 특징 및 푸리에 변환을 통해 생성된 제 2 특징을 입력할 수 있다. 이때, 자기 공명 영상(40)에 기반한 제 1 특징은 일반적인 영상 영역의 영상 특징에 해당한다. 따라서, 제 1 특징에 대한 푸리에 변환을 통해 생성되는 제 2 특징은 케이-스페이스 영역의 영상 특징에 해당하는 것으로 이해될 수 있다. 예를 들어, 프로세서(110)는 제 1 신경망(210)의 합성곱 레이어 중 어느 하나의 출력에 해당하는 제 1 특징을 기초로, 푸리에 변환을 통해 케이-스페이스 영역의 제 2 특징을 생성할 수 있다. 프로세서(110)는 제 1 특징을 추출한 합성곱 레이어의 다음 레이어로 제 1 특징과 제 2 특징을 함께 입력할 수 있다. 상술한 바와 같이, 프로세서(110)는 제 1 신경망(210)에 포함된 레이어의 연산에 푸리에 변환을 통해 생성된 케이-스페이스 영역의 특징을 함께 활용함으로써, 제 1 신경망(210)의 추론 성능을 보다 향상시킬 수 있다.Meanwhile, in the feature extraction process of the first neural network 210, the processor 110, based on the first feature calculated in the i-th (i is a natural number) layer of the first neural network 210, through Fourier transform, the processor 110 generates a second features can be created. Then, the processor 110 may input the first feature calculated in the i-th layer and the second feature generated through Fourier transform to the i+1th layer of the first neural network 210 . In this case, the first feature based on the magnetic resonance image 40 corresponds to an image feature of a general image area. Accordingly, the second feature generated through the Fourier transform of the first feature may be understood to correspond to an image feature in the K-space region. For example, the processor 110 may generate a second feature of the K-space domain through a Fourier transform based on a first feature corresponding to an output of any one of the convolutional layers of the first neural network 210. there is. The processor 110 may input the first feature and the second feature together to a layer following the convolutional layer from which the first feature is extracted. As described above, the processor 110 improves inference performance of the first neural network 210 by utilizing the characteristics of the K-space domain generated through Fourier transform in the operation of the layer included in the first neural network 210. can be further improved.

프로세서(110)는 제 1 신경망(210)을 통해 생성된 특징맵을 제 2 신경망(220)에 입력할 수 있다. 프로세서(110)는 제 2 신경망(220)을 사용하여, 자기 공명 영상(40)의 특징을 기초로 병변의 클래스를 나타내는 벡터를 생성할 수 있다. 그리고, 프로세서(110)는 제 3 신경망(230)을 사용하여, 제 2 신경망(200)을 통해 생성된 벡터를 기초로 병변 탐지 결과(50)에 대응되는 병변 클래스에 해당할 확률 값을 도출할 수 있다. 이때, 제 2 신경망(220)은 완전 연결 레이어(FCL: fully connected layer)를 포함할 수 있다. 또한, 제 3 신경망(230)은 소프트맥스(softmax) 레이어를 포함할 수 있다. 예를 들어, 제 2 신경망(220)은 자기 공명 영상(40)의 특징을 기초로 자기 공명 영상(40)의 분류하고자 하는 병변 클래스의 개수와 동등한 크기의 벡터를 생성할 수 있다. 제 3 신경망(230)은 제 2 신경망(220)의 출력 벡터를 입력받아 병변의 유무를 나타내는 확률 값을 출력할 수 있다. 제 3 신경망(230)을 통해 출력되는 확률 값은 병변 클래스 별로 병변의 유무를 나타내는 병변 탐지 결과(50)일 수 있다. 병변이 존재하는 경우, 병변 탐지 결과(50)에 대응되는 확률 값은 1로 도출될 수 있다. 병변이 존재하지 않는 경우, 병변 탐지 결과(50)에 대응되는 확률 값은 0으로 도출될 수 있다. 다만, 이러한 확률 값의 표현은 하나의 예시일 뿐이므로, 확률 값은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 표현될 수 있다.The processor 110 may input the feature map generated through the first neural network 210 to the second neural network 220 . The processor 110 may use the second neural network 220 to generate a vector representing a class of a lesion based on the characteristics of the magnetic resonance image 40 . Then, the processor 110 uses the third neural network 230 to derive a probability value corresponding to the lesion class corresponding to the lesion detection result 50 based on the vector generated through the second neural network 200. can In this case, the second neural network 220 may include a fully connected layer (FCL). Also, the third neural network 230 may include a softmax layer. For example, the second neural network 220 may generate vectors equal in size to the number of lesion classes to be classified in the magnetic resonance image 40 based on the characteristics of the magnetic resonance image 40 . The third neural network 230 may receive the output vector of the second neural network 220 and output a probability value indicating the presence or absence of a lesion. The probability value output through the third neural network 230 may be a lesion detection result 50 indicating the presence or absence of a lesion for each lesion class. When a lesion exists, a probability value corresponding to the lesion detection result 50 may be derived as 1. When no lesion exists, a probability value corresponding to the lesion detection result 50 may be derived as 0. However, since the expression of such a probability value is only one example, the probability value may be expressed in various ways within a range understandable by those skilled in the art based on the contents of the present disclosure.

도 3을 참조하면, 프로세서(110)는 제 1 신경망(10)에 포함된 레이어 중 어느 하나의 출력을 기초로, 병변 라벨을 생성하기 위한 히트맵(60)을 생성할 수 있다. 프로세서(110)는 제 1 신경망(10)에 포함된 레이어 중 어느 하나의 출력을 기초로, 자기 공명 영상(40)의 특징 변화를 나타내는 그래디언트(gradient)를 추출할 수 있다. 프로세서(110)는 추출된 그래디언트를 기초로 자기 공명 영상(40) 내 특정 영역의 병변 유무를 나타내는 라벨을 생성할 수 있다. 예를 들어, 프로세서(110)는 제 1 신경망(10)에 포함된 합성곱 레이어 중 마지막 레이어의 출력에 대응되는 특징으로부터 자기 공명 영상(40)의 특징 변화를 나타내는 그래디언트를 추출할 수 있다. 프로세서(110)는 합성곱 레이어의 마지막 레이어의 출력으로부터 생성된 그래디언트를 기초로, 자기 공명 영상(40)의 어떤 영역이 병변 분류에 영향을 미쳤는지를 시각화 할 수 있는 히트맵을 생성할 수 있다. 그리고, 프로세서(110)는 히트맵을 이용하여 자기 공명 영상(40)에 존재하는 병변(65)에 대한 라벨링을 수행할 수 있다.Referring to FIG. 3 , the processor 110 may generate a heat map 60 for generating a lesion label based on an output of any one of the layers included in the first neural network 10 . The processor 110 may extract a gradient indicating a feature change of the magnetic resonance image 40 based on an output of any one of the layers included in the first neural network 10 . The processor 110 may generate a label indicating the presence or absence of a lesion in a specific region in the magnetic resonance image 40 based on the extracted gradient. For example, the processor 110 may extract a gradient representing a feature change of the magnetic resonance image 40 from a feature corresponding to an output of a last layer among convolutional layers included in the first neural network 10 . The processor 110 may generate a heat map capable of visualizing which region of the MRI 40 has an effect on the classification of the lesion, based on the gradient generated from the output of the last layer of the convolutional layer. In addition, the processor 110 may label the lesion 65 present in the magnetic resonance image 40 using the heat map.

한편, 본 개시의 제 1 신경망(210), 제 2 신경망(220) 및 제 3 신경망(230)을 포함하는 신경망 모델(200)은 병변이 존재하는 제 1 학습 영상, 또는 병변이 존재하지 않는 제 2 학습 영상 중 적어도 하나를 기초로, 병변의 유무를 분류하도록 학습될 수 있다. 예를 들어, 합성곱 신경망을 포함하는 신경망 모델(200)은 병변의 유무가 라벨링 된 제 1 학습 영상 및 제 2 학습 영상이 조합된 학습 영상을 기초로 병변의 유무를 분류하도록 학습될 수 있다. 신경망 모델(200)은 병변의 유무를 이진 분류하도록 학습될 수 있다. 병변의 유무를 이진 분류하도록 학습된 신경망 모델(200)의 의료 영상에 대한 특징 해석을 본 개시의 라벨 생성에 이용하는 경우, 병변을 다중 분류 혹은 검출하도록 하는 학습에 비해 신경망 모델(200)의 학습에 드는 비용을 감소시킬 수 있다. 따라서, 사이즈가 큰 병변에 대한 라벨링이 필요한 경우, 본 개시에서는 병변의 유무를 이진 분류하도록 학습된 신경망 모델(200)을 라벨 생성에 사용할 수 있다.Meanwhile, the neural network model 200 including the first neural network 210, the second neural network 220, and the third neural network 230 according to the present disclosure is a first training image with a lesion or a second training image without a lesion. Based on at least one of the 2 learning images, it may be learned to classify the presence or absence of a lesion. For example, the neural network model 200 including a convolutional neural network may be trained to classify the presence or absence of a lesion based on a training image in which a first training image and a second training image labeled with the presence or absence of a lesion are combined. The neural network model 200 may be trained to binary classify the presence or absence of a lesion. When the feature analysis of medical images of the neural network model 200 trained to binary classify the presence or absence of lesions is used for label generation according to the present disclosure, the learning of the neural network model 200 is more effective than learning to multi-classify or detect lesions. can reduce costs. Therefore, when labeling for large-sized lesions is required, in the present disclosure, the neural network model 200 trained to binaryly classify the presence or absence of lesions can be used for label generation.

도 4는 본 개시의 일 실시예에 따른 라벨 생성 방법을 나타낸 순서도이다.4 is a flowchart illustrating a label generation method according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 의료 영상 저장 전송 시스템, 서버, 혹은 클라이언트와의 통신을 통해 의료 영상을 수신할 수 있다. 이때, 컴퓨팅 장치(100)는 클라우드 시스템으로서, 통신 네트워크 상에서 데이터를 저장, 관리, 및 송수신할 수 있는 컴퓨팅 환경일 수 있다. 예를 들어, 컴퓨팅 장치(100)는 자기 공명 영상 촬영 시스템과의 통신을 통해 자기 공명 영상을 수신하여 저장 및 관리할 수 있다. 컴퓨팅 장치(100)는 신경망 모델을 사용하여, 자기 공명 영상 시스템과의 통신을 통해 수신된 자기 공명 영상을 분석함으로써, 자기 공명 영상에 존재하는 병변을 탐지할 수 있다. 또한, 컴퓨팅 장치(100)는 신경망 모델이 자기 공명 영상에서 어떠한 특징을 병변을 탐지하는데 사용하는지에 대한 정보를 이용하여, 자기 공명 영상에 존재하는 병변을 라벨링 할 수 있다.The computing device 100 according to an embodiment of the present disclosure may receive a medical image through communication with a medical image storage and transmission system, a server, or a client. In this case, the computing device 100 is a cloud system and may be a computing environment capable of storing, managing, and transmitting/receiving data over a communication network. For example, the computing device 100 may receive, store, and manage a magnetic resonance image through communication with a magnetic resonance imaging system. The computing device 100 may detect lesions present in the MRI by analyzing the MRI received through communication with the MRI system using a neural network model. In addition, the computing device 100 may label lesions present in the MRI by using information about which features are used by the neural network model to detect lesions in the MRI.

도 4를 참조하면, S100 단계에서, 컴퓨팅 장치(100)는 사전 학습된 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 신경망 모델에 의료 영상을 입력하여, 의료 영상에 병변이 존재하는지 여부를 분류할 수 있다. 이때, 신경망 모델은 의료 영상의 특징을 추출하는 신경망 및 의료 영상의 특징을 기초로 병변을 분류하는 신경망을 포함할 수 있다. 예를 들어, 신경망 모델은 합성곱 신경망을 포함할 수 있으나, 이에 제한되지 않는다.Referring to FIG. 4 , in step S100, the computing device 100 may detect a lesion present in a medical image by using a pretrained neural network model. In other words, the computing device 100 may classify whether or not a lesion exists in the medical image by inputting the medical image to the neural network model. In this case, the neural network model may include a neural network for extracting features of the medical image and a neural network for classifying lesions based on the features of the medical image. For example, the neural network model may include, but is not limited to, a convolutional neural network.

S200 단계에서, 컴퓨팅 장치(100)는 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 의료 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 신경망 모델이 의료 영상의 특징을 추출하는 과정에서 특정 레이어에서 도출된 출력을 기초로, 의료 영상의 병변 유무를 나타내는 라벨을 생성할 수 있다. 이때, 소정의 레이어는 신경망 모델의 구조에 맞추어 사전 결정된 순서의 레이어일 수 있다. 예를 들어, 합성곱 신경망을 포함하는 신경망 모델의 경우, 소정의 레이어는 마지막 합성곱 레이어일 수 있다.In step S200, the computing device 100 may generate a label indicating a lesion area in the medical image based on an output of a predetermined layer included in the neural network model. In other words, the computing device 100 may generate a label indicating the presence or absence of a lesion in the medical image based on an output derived from a specific layer in the process of extracting features of the medical image by the neural network model. In this case, the predetermined layer may be a layer in a predetermined order according to the structure of the neural network model. For example, in the case of a neural network model including a convolutional neural network, a predetermined layer may be a last convolutional layer.

한편, S100 단계와 S200 단계는 단계를 상호 구별하기 위해 부여된 부호일 뿐이므로, S100 단계와 S200 단계는 순차적으로 수행될 수도 있고, 병렬적으로 수행될 수 있다.On the other hand, since steps S100 and S200 are only codes assigned to distinguish the steps from each other, steps S100 and S200 may be performed sequentially or in parallel.

앞서 설명된 본 개시의 다양한 실시예는 추가 실시예와 결합될 수 있고, 상술한 상세한 설명에 비추어 당업자가 이해 가능한 범주에서 변경될 수 있다. 본 개시의 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해되어야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다. 따라서, 본 개시의 특허청구범위의 의미, 범위 및 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다. Various embodiments of the present disclosure described above may be combined with additional embodiments, and may be modified within the scope understandable by those skilled in the art in light of the above detailed description. It should be understood that the embodiments of the present disclosure are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form. Therefore, all changes or modified forms derived from the meaning, scope and equivalent concepts of the claims of the present disclosure should be construed as being included in the scope of the present disclosure.

Claims (10)

적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는, 라벨 생성 방법으로서,
신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 단계; 및
상기 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨(label)을 생성하는 단계;
를 포함하되,
상기 의료 영상에 존재하는 병변을 탐지하는 단계는,
상기 신경망 모델의 i번째(i는 자연수) 레이어(layer)에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성하는 단계; 및
상기 신경망 모델의 i+1번째 레이어로, 상기 i번째 레이어에서 산출된 제 1 특징 및 상기 푸리에 변환을 통해 생성된 제 2 특징을 입력하는 단계;
를 포함하는,
방법.
A method of generating a label, performed by a computing device comprising at least one processor, comprising:
detecting a lesion present in a medical image using a neural network model; and
generating a label indicating a lesion area in the medical image based on an output of a predetermined layer included in the neural network model;
Including,
The step of detecting a lesion present in the medical image,
generating a second feature through a Fourier transform based on a first feature calculated in an i-th (i is a natural number) layer of the neural network model; and
inputting a first feature calculated in the i-th layer and a second feature generated through the Fourier transform into an i+1-th layer of the neural network model;
including,
method.
제 1 항에 있어서,
상기 의료 영상은,
자기 공명 신호로부터 획득된 케이-스페이스(k-space) 데이터를 기초로, 푸리에 변환(fourier transform)을 통해 생성된 자기 공명 영상인,
방법.
According to claim 1,
The medical image,
A magnetic resonance image generated through Fourier transform based on k-space data obtained from a magnetic resonance signal,
method.
제 1 항에 있어서,
상기 신경망 모델은,
상기 의료 영상 및 상기 의료 영상의 촬영 시에 조정이 가능한 스캔 파라미터(scan parameter)를 입력받는,
방법.
According to claim 1,
The neural network model,
Receiving the medical image and a scan parameter that can be adjusted when capturing the medical image,
method.
제 1 항에 있어서,
상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성하는 단계는,
상기 소정의 레이어의 출력을 기초로, 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성하는 단계; 및
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계;
를 포함하는,
방법.
According to claim 1,
Generating a label indicating a lesion area in the medical image,
generating a heatmap corresponding to feature analysis of the neural network model for the medical image, based on an output of the predetermined layer; and
generating a label indicating presence/absence of a lesion in a specific region in the medical image based on the heat map;
including,
method.
제 4 항에 있어서,
상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 상기 히트맵을 생성하는 단계는,
상기 신경망 모델에 포함된 특징 추출 레이어 중 어느 하나의 출력에서 그래디언트(gradient)를 추출하고, 상기 그래디언트를 기초로 상기 히트맵을 생성하는 단계;
를 포함하는,
방법.
According to claim 4,
Generating the heat map corresponding to the feature analysis of the neural network model for the medical image,
extracting a gradient from an output of any one of feature extraction layers included in the neural network model, and generating the heat map based on the gradient;
including,
method.
제 4 항에 있어서,
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는,
상기 히트맵에 표현된 병변 영역에 존재하는 공백 영역을 보정하는 단계;
를 포함하는,
방법.
According to claim 4,
Generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map,
correcting a blank area existing in the lesion area expressed in the heat map;
including,
method.
제 4 항에 있어서,
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는,
상기 히트맵에 존재하는 노이즈(noise)를 보정하는 단계;
를 포함하는,
방법.
According to claim 4,
Generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map,
correcting noise present in the heat map;
including,
method.
제 1 항에 있어서,
상기 신경망 모델은,
병변이 존재하는 제 1 학습 영상 또는 병변이 존재하지 않는 상기 제 2 학습 영상 중 적어도 하나를 기초로, 병변의 유무를 분류하도록 학습된 것인,
방법.
According to claim 1,
The neural network model,
Learning to classify the presence or absence of a lesion based on at least one of the first learning image in which a lesion exists or the second learning image in which a lesion does not exist,
method.
컴퓨터 판독가능 저장 매체 저장된 컴퓨터 프로그램(program)으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서(processor)에서 실행되는 경우, 라벨을 생성하기 위한 동작들을 수행하도록 하며,
상기 동작들은,
신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 동작; 및
상기 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨(label)을 생성하는 동작;
을 포함하되,
상기 의료 영상에 존재하는 병변을 탐지하는 동작은,
상기 신경망 모델의 i번째(i는 자연수) 레이어(layer)에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성하는 동작; 및
상기 신경망 모델의 i+1번째 레이어로, 상기 i번째 레이어에서 산출된 제 1 특징 및 상기 푸리에 변환을 통해 생성된 제 2 특징을 입력하는 동작;
을 포함하는,
컴퓨터 프로그램.
A computer program stored on a computer readable storage medium, wherein the computer program, when executed on one or more processors, performs operations for generating a label,
These actions are
detecting a lesion present in a medical image using a neural network model; and
generating a label indicating a lesion area in the medical image, based on an output of a predetermined layer included in the neural network model;
Including,
The operation of detecting a lesion existing in the medical image,
generating a second feature through a Fourier transform based on a first feature calculated in an i-th (i is a natural number) layer of the neural network model; and
inputting a first feature calculated in the ith layer and a second feature generated through the Fourier transform into the i+1th layer of the neural network model;
including,
computer program.
라벨을 생성하기 위한 컴퓨팅 장치로서,
적어도 하나의 코어(core)를 포함하는 프로세서(processor);
상기 프로세서에서 실행 가능한 프로그램 코드(code)들을 포함하는 메모리(memory); 및
의료 영상을 수신하기 위한 네트워크부(network unit);
를 포함하고,
상기 프로세서는,
신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하고,
상기 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨(label)을 생성하되,
상기 프로세서는, 상기 의료 영상에 존재하는 병변을 탐지하기 위해서,
상기 신경망 모델의 i번째(i는 자연수) 레이어(layer)에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성하고,
상기 신경망 모델의 i+1번째 레이어로, 상기 i번째 레이어에서 산출된 제 1 특징 및 상기 푸리에 변환을 통해 생성된 제 2 특징을 입력하는,
장치.
A computing device for generating a label, comprising:
a processor including at least one core;
a memory including program codes executable by the processor; and
a network unit for receiving medical images;
including,
the processor,
Using a neural network model, detecting lesions present in medical images,
Based on an output of a predetermined layer included in the neural network model, a label indicating a lesion area in the medical image is generated,
The processor, in order to detect a lesion present in the medical image,
Based on the first feature calculated in the ith (i is a natural number) layer of the neural network model, a second feature is generated through a Fourier transform;
Inputting a first feature calculated in the ith layer and a second feature generated through the Fourier transform into the i+1th layer of the neural network model,
Device.
KR1020220112748A 2022-01-24 2022-09-06 Method, program, and apparatus for generating label KR20230114170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220112748A KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220009724A KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label
KR1020220112748A KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009724A Division KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label

Publications (1)

Publication Number Publication Date
KR20230114170A true KR20230114170A (en) 2023-08-01

Family

ID=83286774

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220009724A KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label
KR1020220112748A KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220009724A KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label

Country Status (1)

Country Link
KR (2) KR102442591B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130012297A (en) 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus for detecting lesion, method for detecting lesion and lesion diagnosis apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200092450A (en) * 2019-01-04 2020-08-04 주식회사 인터파크 Technique for perfoming data labeling
KR102097743B1 (en) * 2019-07-25 2020-04-06 주식회사 딥노이드 Apparatus and Method for analyzing disease based on artificial intelligence
JPWO2021033303A1 (en) * 2019-08-22 2021-12-02 Hoya株式会社 Training data generation method, trained model and information processing device
EP4049239A1 (en) * 2019-10-29 2022-08-31 Google LLC Multi-variable heatmaps for computer-aided diagnostic models
KR20210120489A (en) * 2020-03-27 2021-10-07 주식회사 뷰노 Label data generation method and apparatus using same
KR102222509B1 (en) * 2020-05-28 2021-03-03 주식회사 에프앤디파트너스 Method for assisting determination on medical images and apparatus using the same
KR102405314B1 (en) * 2020-06-05 2022-06-07 주식회사 래디센 Method and system for real-time automatic X-ray image reading based on artificial intelligence

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130012297A (en) 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus for detecting lesion, method for detecting lesion and lesion diagnosis apparatus

Also Published As

Publication number Publication date
KR102442591B1 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
Mahapatra et al. Image super-resolution using progressive generative adversarial networks for medical image analysis
US11593943B2 (en) RECIST assessment of tumour progression
US10467495B2 (en) Method and system for landmark detection in medical images using deep neural networks
EP3716198A1 (en) Image reconstruction method and device
US11929174B2 (en) Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network
US20210012504A1 (en) Encoder Regularization of a Segmentation Model
CN113256592B (en) Training method, system and device of image feature extraction model
US11790492B1 (en) Method of and system for customized image denoising with model interpretations
US20230005158A1 (en) Medical image segmentation and atlas image selection
KR102472550B1 (en) Method, program, and apparatus for detecting lesions
KR102513218B1 (en) Method, computer program and apparatus for generating training data
KR102526487B1 (en) Method, program, and apparatus for processing medical data for training of deep learning model
US20220292673A1 (en) On-Site training of a machine-learning algorithm for generating synthetic imaging data
KR102442591B1 (en) Method, program, and apparatus for generating label
US11580390B2 (en) Data processing apparatus and method
US20210279884A1 (en) Method of computing a boundary
US20220277457A1 (en) Segmentating a tubular feature
CN116420165A (en) Detection of anatomical anomalies by segmentation results with and without shape priors
CN114586065A (en) Method and system for segmenting images
KR102584250B1 (en) Method, computer program and apparatus for processing data
CN113316803A (en) Correcting segmentation of medical images using statistical analysis of historical corrections
KR102546620B1 (en) Method, program, and apparatus for processing medical data for training of deep learning model
US11983798B2 (en) AI-based region-of-interest masks for improved data reconstruction
KR102613718B1 (en) Method, program, and apparatus for object tracking based on medical imaging
US20240144469A1 (en) Systems and methods for automatic cardiac image analysis