KR102442591B1 - Method, program, and apparatus for generating label - Google Patents

Method, program, and apparatus for generating label Download PDF

Info

Publication number
KR102442591B1
KR102442591B1 KR1020220009724A KR20220009724A KR102442591B1 KR 102442591 B1 KR102442591 B1 KR 102442591B1 KR 1020220009724 A KR1020220009724 A KR 1020220009724A KR 20220009724 A KR20220009724 A KR 20220009724A KR 102442591 B1 KR102442591 B1 KR 102442591B1
Authority
KR
South Korea
Prior art keywords
neural network
lesion
medical image
network model
processor
Prior art date
Application number
KR1020220009724A
Other languages
Korean (ko)
Inventor
김선우
Original Assignee
주식회사 에어스메디컬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에어스메디컬 filed Critical 주식회사 에어스메디컬
Priority to KR1020220009724A priority Critical patent/KR102442591B1/en
Priority to KR1020220112748A priority patent/KR20230114170A/en
Application granted granted Critical
Publication of KR102442591B1 publication Critical patent/KR102442591B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Abstract

Disclosed is a method for generating a label performed by a computing device according to one embodiment of the present disclosure. The method may comprise: a step of detecting a lesion present in a medical image using a neural network model; and a step of generating a label indicating a lesion area in the medical image, based on an output of a predetermined layer included in the neural network model.

Description

라벨 생성 방법, 프로그램 및 장치{METHOD, PROGRAM, AND APPARATUS FOR GENERATING LABEL}Label generation methods, programs and devices {METHOD, PROGRAM, AND APPARATUS FOR GENERATING LABEL}

본 개시의 내용은 라벨 생성 방법에 관한 것으로, 구체적으로 의료 영상의 병변을 표시할 수 있는 라벨을 생성하기 위한 인공지능 기반 기술에 관한 것이다.The present disclosure relates to a label generating method, and more particularly, to an artificial intelligence-based technology for generating a label capable of displaying a lesion in a medical image.

의료 영상은 질병의 진단과 치료를 위해 인체의 여러 가지 장기들의 물리적인 상태를 이해할 수 있게 해주는 데이터이다. 의료 영상 기기들이 지속적으로 개발되어 오면서, 의료 영상은 X선(X-ray) 영상, 컴퓨터 단층 촬영(CT: computed tomography) 영상, 양전자 방출 단층 촬영(PET: positron emission tomography) 영상, 또는 자기 공명 영상(MRI: magnetic resonance imaging) 등으로 다양해지고 있다. 영상 분석 기술 및 인공지능 기술의 발달에 따라, 의료 영상은 질병의 진단을 보조하기 위한 분석 자료로서 다양하게 활용되고 있다. 대표적으로, 의료 영상은 질병의 효과적인 진단을 위해 영상에 촬영된 병변을 검출하는 병변 탐지 분야에서 활발히 활용되고 있다.Medical images are data that enable us to understand the physical state of various organs in the human body for diagnosis and treatment of diseases. As medical imaging devices have been continuously developed, medical images are X-ray images, computed tomography (CT) images, positron emission tomography (PET) images, or magnetic resonance imaging. (MRI: magnetic resonance imaging), etc. are diversifying. With the development of image analysis technology and artificial intelligence technology, medical images are being used in various ways as analysis data to assist in the diagnosis of diseases. Typically, medical images are actively used in the field of lesion detection for detecting lesions captured on images for effective diagnosis of diseases.

지금까지 병변 탐지 분야에서 다양하게 활용되고 있는 컴퓨터 비전(vision) 영역의 인공지능 기술들은 전통적으로 지도 학습에 기반한다. 지도 학습을 위해서는 라벨(label)이 반드시 필요하므로, 기존 기술들은 전문가가 의료 영상에서 직접 병변을 확인한 뒤 라벨링 한 데이터를 학습에 사용하고 있다. 그러나, 이와 같이 현재는 라벨은 전문가의 수작업을 통해 일일이 생성될 수 밖에 없기 때문에, 인공지능의 학습 성능을 보장할 수 있을 만큼 충분히 많은 양의 라벨을 확보하는 것은 현실적으로 많은 어려움이 있다. 즉, 지도 학습을 위해서는, 라벨을 생성하는 제반 비용이 상당히 요구될 수 밖에 없는 실정이다.Artificial intelligence technologies in the field of computer vision that have been used in various ways in the field of lesion detection so far are traditionally based on supervised learning. Since a label is absolutely necessary for supervised learning, existing technologies use data labeled after an expert directly identifies a lesion in a medical image for learning. However, since labels can only be created one by one through the manual work of experts, it is practically difficult to secure a sufficient amount of labels to guarantee the learning performance of artificial intelligence. That is, for supervised learning, the overall cost of generating a label is inevitably required considerably.

대한민국 공개특허공보 제10-2013-0012297호(2013.02.04.)Republic of Korea Patent Publication No. 10-2013-0012297 (2013.02.04.)

본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 병변 탐지를 위한 인공지능의 추론을 기반으로 라벨을 효율적으로 생성하는 방법을 제공하는 것을 목적으로 한다.The present disclosure has been devised in response to the above background art, and an object of the present disclosure is to provide a method for efficiently generating a label based on inference of artificial intelligence for lesion detection.

다만, 본 개시에서 해결하고자 하는 과제는 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재를 근거로 명확하게 이해될 수 있을 것이다.However, the problems to be solved in the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood based on the description below.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨팅 장치에 의해 수행되는 라벨 생성 방법이 개시된다. 상기 방법은, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 단계; 및 상기 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨(label)을 생성하는 단계를 포함할 수 있다.A label generation method performed by a computing device according to an embodiment of the present disclosure for realizing the above-described problems is disclosed. The method includes the steps of using a neural network model to detect a lesion present in a medical image; and generating a label indicating a lesion region in the medical image based on an output of a predetermined layer included in the neural network model.

대안적으로, 상기 의료 영상은, 자기 공명 신호로부터 획득된 케이-스페이스(k-space) 데이터를 기초로, 푸리에 변환(fourier transform)을 통해 생성된 자기 공명 영상일 수 있다.Alternatively, the medical image may be a magnetic resonance image generated through a Fourier transform based on k-space data obtained from a magnetic resonance signal.

대안적으로, 상기 신경망 모델은, 상기 의료 영상 및 상기 의료 영상의 촬영 시에 조정이 가능한 스캔 파라미터(scan parameter)를 입력받을 수 있다.Alternatively, the neural network model may receive the medical image and a scan parameter that can be adjusted when the medical image is captured.

대안적으로, 상기 의료 영상에 존재하는 병변을 탐지하는 단계는, 상기 신경망 모델의 i번째(i는 자연수) 레이어(layer)에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성하는 단계; 및 상기 신경망 모델의 i+1번째 레이어로, 상기 i번째 레이어에서 산출된 제 1 특징 및 상기 푸리에 변환을 통해 생성된 제 2 특징을 입력하는 단계를 포함할 수 있다.Alternatively, the detecting of the lesion present in the medical image may include, based on the first feature calculated in the i-th (i is a natural number) layer of the neural network model, the second feature through a Fourier transform. generating; and inputting the first feature calculated from the i-th layer and the second feature generated through the Fourier transform into the i+1th layer of the neural network model.

대안적으로, 상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성하는 단계는, 상기 소정의 레이어의 출력을 기초로, 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성하는 단계; 및 상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계를 포함할 수 있다.Alternatively, the generating of the label indicating the lesion region in the medical image may include, based on the output of the predetermined layer, generating a heatmap corresponding to the feature analysis of the neural network model for the medical image. to do; and generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map.

대안적으로, 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 상기 히트맵을 생성하는 단계는, 상기 신경망 모델에 포함된 특징 추출 레이어 중 어느 하나의 출력에서 그래디언트(gradient)를 추출하고, 상기 그래디언트를 기초로 상기 히트맵을 생성하는 단계를 포함할 수 있다.Alternatively, the generating the heat map corresponding to the feature analysis of the neural network model for the medical image includes extracting a gradient from the output of any one of the feature extraction layers included in the neural network model, It may include generating the heat map based on the gradient.

대안적으로, 상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는, 상기 히트맵에 표현된 병변 영역에 존재하는 공백 영역을 보정하는 단계를 포함할 수 있다.Alternatively, generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map may include correcting a blank region existing in the lesion region expressed in the heat map. .

대안적으로, 상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는, 상기 히트맵에 존재하는 노이즈(noise)를 보정하는 단계를 포함할 수 있다.Alternatively, generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map may include correcting noise present in the heat map.

대안적으로, 상기 신경망 모델은, 병변이 존재하는 제 1 학습 영상 또는 병변이 존재하지 않는 상기 제 2 학습 영상 중 적어도 하나를 기초로, 병변의 유무를 분류하도록 학습될 수 있다.Alternatively, the neural network model may be trained to classify the presence or absence of a lesion based on at least one of a first learning image in which a lesion exists and a second learning image in which a lesion does not exist.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램(program)이 개시된다. 상기 컴퓨터 프로그램은 하나 이상의 프로세서(processor)에서 실행되는 경우, 라벨을 생성하기 위한 동작들을 수행하도록 한다. 이때, 상기 동작들은, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 동작; 및 상기 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성하는 동작을 포함할 수 있다.A computer program stored in a computer-readable storage medium according to an embodiment of the present disclosure for realizing the above-described problems is disclosed. When the computer program is executed on one or more processors, the computer program performs operations for generating a label. In this case, the operations may include: detecting a lesion present in a medical image using a neural network model; and generating a label indicating a lesion region in the medical image based on an output of a predetermined layer included in the neural network model.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따라 라벨을 생성하기 위한 컴퓨팅 장치가 개시된다. 상기 장치는, 적어도 하나의 코어(core)를 포함하는 프로세서; 상기 프로세서에서 실행 가능한 프로그램 코드(code)들을 포함하는 메모리(memory); 및 의료 영상을 수신하기 위한 네트워크부(network unit)를 포함할 수 있다. 이때, 상기 프로세서는, 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하고, 상기 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 상기 의료 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다.A computing device for generating a label is disclosed according to an embodiment of the present disclosure for realizing the above-described problem. The apparatus includes: a processor including at least one core; a memory including program codes executable by the processor; and a network unit for receiving a medical image. In this case, the processor may detect a lesion present in the medical image using the neural network model, and generate a label indicating the lesion region in the medical image based on the output of a predetermined layer included in the neural network model. have.

본 개시는 병변 탐지를 위한 인공지능의 의료 영상에 대한 특징 해석을 기반으로 라벨을 효율적으로 생성하는 방법을 제공할 수 있다.The present disclosure may provide a method for efficiently generating a label based on feature analysis of an artificial intelligence medical image for lesion detection.

도 1은 본 개시의 일 실시예에 따른 컴퓨팅 장치의 블록 구성도이다.
도 2는 본 개시의 일 실시예에 따른 컴퓨팅 장치의 라벨 생성 과정을 나타낸 블록도이다.
도 3은 본 개시의 일 실시예에 따른 신경망 모델을 사용한 연산 과정을 나타낸 개념도이다.
도 4는 본 개시의 일 실시예에 따른 라벨 생성 방법을 나타낸 순서도이다.
1 is a block diagram of a computing device according to an embodiment of the present disclosure.
2 is a block diagram illustrating a label generation process of a computing device according to an embodiment of the present disclosure.
3 is a conceptual diagram illustrating a calculation process using a neural network model according to an embodiment of the present disclosure.
4 is a flowchart illustrating a label generation method according to an embodiment of the present disclosure.

아래에서는 첨부한 도면을 참조하여 본 개시의 기술 분야에서 통상의 지식을 가진 자(이하, 당업자)가 용이하게 실시할 수 있도록 본 개시의 실시예가 상세히 설명된다. 본 개시에서 제시된 실시예들은 당업자가 본 개시의 내용을 이용하거나 또는 실시할 수 있도록 제공된다. 따라서, 본 개시의 실시예들에 대한 다양한 변형들은 당업자에게 명백할 것이다. 즉, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며, 이하의 실시예에 한정되지 않는다. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art (hereinafter, those skilled in the art) can easily implement. The embodiments presented in the present disclosure are provided to enable any person skilled in the art to make or use the subject matter of the present disclosure. Accordingly, various modifications to the embodiments of the present disclosure will be apparent to those skilled in the art. That is, the present disclosure may be implemented in several different forms, and is not limited to the following embodiments.

본 개시의 명세서 전체에 걸쳐 동일하거나 유사한 도면 부호는 동일하거나 유사한 구성요소를 지칭한다. 또한, 본 개시를 명확하게 설명하기 위해서, 도면에서 본 개시에 대한 설명과 관계없는 부분의 도면 부호는 생략될 수 있다.The same or similar reference numbers refer to the same or similar elements throughout the specification of this disclosure. In addition, in order to clearly describe the present disclosure, reference numerals of parts not related to the description of the present disclosure in the drawings may be omitted.

본 개시에서 사용되는 "또는" 이라는 용어는 배타적 "또는" 이 아니라 내포적 "또는" 을 의미하는 것으로 의도된다. 즉, 본 개시에서 달리 특정되지 않거나 문맥상 그 의미가 명확하지 않은 경우, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 이해되어야 한다. 예를 들어, 본 개시에서 달리 특정되지 않거나 문맥상 그 의미가 명확하지 않은 경우, "X는 A 또는 B를 이용한다" 는 X가 A를 이용하거나, X가 B를 이용하거나, 혹은 X가 A 및 B 모두를 이용하는 경우 중 어느 하나로 해석될 수 있다. The term “or” as used in this disclosure is intended to mean an inclusive “or” rather than an exclusive “or.” That is, unless otherwise specified in the present disclosure or the meaning is not clear from context, "X employs A or B" should be understood to mean one of the natural implicit substitutions. For example, "X employs A or B" means that X employs A, X employs B, or X is A and It can be interpreted as any one of the cases in which all B are used.

본 개시에서 사용되는 "및/또는" 이라는 용어는 열거된 관련 개념들 중 하나 이상의 개념의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.It should be understood that the term “and/or” as used in this disclosure refers to and includes all possible combinations of one or more of the listed related concepts.

본 개시에서 사용되는 "포함한다" 및/또는 "포함하는" 이라는 용어는, 특정 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는" 이라는 용어는, 하나 이상의 다른 특징, 다른 구성요소 및/또는 이들에 대한 조합의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. As used herein, the terms “comprises” and/or “comprising” should be understood to mean that certain features and/or elements are present. However, it should be understood that the terms "comprises" and/or "comprising" do not exclude the presence or addition of one or more other features, other elements, and/or combinations thereof.

본 개시에서 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 단수는 일반적으로 "하나 또는 그 이상" 을 포함할 수 있는 것으로 해석되어야 한다. Unless otherwise specified in the present disclosure or unless it is clear from context to refer to a singular form, the singular is generally to be construed as being able to include "one or more".

본 개시에서 사용되는 "제 N(N은 자연수)" 이라는 용어는 본 개시의 구성요소들을 기능적 관점, 구조적 관점, 혹은 설명의 편의 등 소정의 기준에 따라 상호 구별하기 위해 사용되는 표현으로 이해될 수 있다. 예를 들어, 본 개시에서 서로 다른 기능적 역할을 수행하는 구성요소들은 제 1 구성요소 혹은 제 2 구성요소로 구별될 수 있다. 다만, 본 개시의 기술적 사상 내에서 실질적으로 동일하나 설명의 편의를 위해 구분되어야 하는 구성요소들도 제 1 구성요소 혹은 제 2 구성요소로 구별될 수도 있다.The term “Nth (N is a natural number)” used in the present disclosure may be understood as an expression used to distinguish the components of the present disclosure from a functional point of view, a structural point of view, or a predetermined standard such as convenience of explanation. have. For example, in the present disclosure, components performing different functional roles may be distinguished as a first component or a second component. However, components that are substantially the same within the technical spirit of the present disclosure but should be divided for convenience of description may also be distinguished as a first component or a second component.

한편, 본 개시에서 사용되는 용어 "모듈(module)", 또는 "부(unit)" 는 컴퓨터 관련 엔티티(entity), 펌웨어(firmware), 소프트웨어(software) 혹은 그 일부, 하드웨어(hardware) 혹은 그 일부, 소프트웨어와 하드웨어의 조합 등과 같이 컴퓨팅 자원을 처리하는 독립적인 기능 단위를 지칭하는 용어로 이해될 수 있다. 이때, "모듈", 또는 "부"는 단일 요소로 구성된 단위일 수도 있고, 복수의 요소들의 조합 혹은 집합으로 표현되는 단위일 수도 있다. 예를 들어, 협의의 개념으로서 "모듈", 또는 "부"는 컴퓨팅 장치의 하드웨어 요소 또는 그 집합, 소프트웨어의 특정 기능을 수행하는 응용 프로그램, 소프트웨어 실행을 통해 구현되는 처리 과정(procedure), 또는 프로그램 실행을 위한 명령어 집합 등을 지칭할 수 있다. 또한, 광의의 개념으로서 "모듈", 또는 "부"는 시스템을 구성하는 컴퓨팅 장치 그 자체, 또는 컴퓨팅 장치에서 실행되는 애플리케이션 등을 지칭할 수 있다. 다만, 상술한 개념은 하나의 예시일 뿐이므로, "모듈", 또는 "부"의 개념은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.On the other hand, the term "module" or "unit" used in the present disclosure refers to a computer-related entity, firmware, software or a part thereof, hardware or a part thereof. , may be understood as a term referring to an independent functional unit that processes computing resources, such as a combination of software and hardware. In this case, a “module” or “unit” may be a unit composed of a single element, or a unit expressed as a combination or set of a plurality of elements. For example, as a narrow concept, "module" or "unit" refers to a hardware element or a set of a computing device, an application program that performs a specific function of software, a process implemented through software execution, or a program. It may refer to a set of instructions for execution, and the like. Also, as a broad concept, “module” or “unit” may refer to a computing device itself constituting a system, an application executed in the computing device, or the like. However, since the above-described concept is only an example, the concept of “module” or “part” may be defined in various ways within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

본 개시에서 사용되는 "모델(model)" 이라는 용어는 특정 문제를 해결하기 위해 수학적 개념과 언어를 사용하여 구현되는 시스템, 특정 문제를 해결하기 위한 소프트웨어 단위의 집합, 혹은 특정 문제를 해결하기 위한 처리 과정에 관한 추상화 모형으로 이해될 수 있다. 예를 들어, 신경망(neural network) "모델" 은 학습을 통해 문제 해결 능력을 갖는 신경망으로 구현되는 시스템 전반을 지칭할 수 있다. 이때, 신경망은 노드(node) 혹은 뉴런(neuron)을 연결하는 파라미터(parameter)를 학습을 통해 최적화하여 문제 해결 능력을 가질 수 있다. 신경망 "모델" 은 단일 신경망을 포함할 수도 있고, 복수의 신경망들이 조합된 신경망 집합을 포함할 수도 있다.As used herein, the term "model" refers to a system implemented using mathematical concepts and language to solve a specific problem, a set of software units to solve a specific problem, or a process to solve a specific problem. It can be understood as an abstract model about the process. For example, a neural network “model” may refer to an overall system implemented as a neural network having problem-solving ability through learning. In this case, the neural network may have problem solving ability by optimizing parameters connecting nodes or neurons through learning. A neural network “model” may include a single neural network, or a neural network set in which a plurality of neural networks are combined.

본 개시에서 사용되는 "영상" 이라는 용어는 이산적 이미지 요소들로 구성된 다차원 데이터를 지칭할 수 있다. 다시 말해, "영상"은 사람의 눈으로 볼 수 있는 대상의 디지털 표현물을 지칭하는 용어로 이해될 수 있다. 예를 들어, "영상" 은 2차원 이미지에서 픽셀에 해당하는 요소들로 구성된 다차원 데이터를 지칭할 수 있다. "영상"은 3차원 이미지에서 복셀에 해당하는 요소들로 구성된 다차원 데이터를 지칭할 수 있다.As used herein, the term “image” may refer to multidimensional data composed of discrete image elements. In other words, "image" may be understood as a term referring to a digital representation of an object that can be seen by the human eye. For example, "image" may refer to multidimensional data composed of elements corresponding to pixels in a two-dimensional image. An “image” may refer to multidimensional data composed of elements corresponding to voxels in a 3D image.

본 개시에서 사용되는 "의료 영상 저장 전송 시스템(PACS: picture archiving and communication system)" 이라는 용어는 의료용 디지털 영상 및 통신(DICOM: digital imaging and communications in medicine) 표준에 맞게 의료 영상을 저장, 가공, 및 전송하는 시스템을 지칭할 수 있다. 예를 들어, "의료 영상 저장 전송 시스템" 은 디지털 의료 영상 촬영 장비와 연동되어 자기 공명 영상(MRI: magnetic resonance imaging), 컴퓨터 단층 촬영(CT: computed tomography) 영상 등과 같은 의료 영상을 의료용 디지털 영상 및 통신 표준에 맞춰 저장할 수 있다. "의료 영상 저장 전송 시스템" 은 통신 네트워크를 통해 병원 내외의 단말로 의료 영상을 전송할 수 있다. 이때, 의료 영상에는 판독 결과 및 진료 기록 등과 같은 메타(meta) 정보가 추가될 수 있다.As used herein, the term "picture archiving and communication system (PACS)" refers to storing, processing, and It may refer to a system that transmits. For example, the "medical image storage and transmission system" is linked with digital medical imaging equipment to transmit medical images such as magnetic resonance imaging (MRI) and computed tomography (CT) images to medical digital images and It can be saved according to the communication standard. The "medical image storage and transmission system" can transmit medical images to terminals inside and outside the hospital through a communication network. In this case, meta information such as a reading result and a medical record may be added to the medical image.

본 개시에서 사용되는 "케이-스페이스(k-space)" 라는 용어는 자기 공명 영상의 공간 주파수를 나타내는 숫자의 배열로 이해될 수 있다. 다시 말해서, "케이-스페이스" 는 자기 공명 공간 좌표에 해당하는 3차원 공간에 대응되는 주파수 공간으로 이해될 수 있다. The term “k-space” used in the present disclosure may be understood as an arrangement of numbers representing spatial frequencies of a magnetic resonance image. In other words, “K-space” may be understood as a frequency space corresponding to a three-dimensional space corresponding to magnetic resonance space coordinates.

본 개시에서 사용되는 "푸리에 변환(fourier transform)" 이라는 용어는 시간 영역과 주파수 영역의 연관성을 설명할 수 있게 하는 연산 매개체로 이해될 수 있다. 다시 말해, 본 개시에서 사용되는 "푸리에 변환" 은 시간 영역과 주파수 영역의 상호 변환을 위한 연산 과정을 나타내는 광의의 개념으로 이해될 수 있다. 따라서, 본 개시에서 사용되는 "푸리에 변환" 은 시간 영역의 신호를 주파수 영역으로 분해하는 협의의 푸리에 변환 및 주파수 영역의 신호를 시간 영역으로 변환하는 역 푸리에 변환(inverse fourier transform)을 모두 포괄하는 개념으로 이해될 수 있다.The term "Fourier transform" used in the present disclosure may be understood as a computational medium capable of describing the correlation between the time domain and the frequency domain. In other words, the "Fourier transform" used in the present disclosure may be understood as a broad concept representing an operation process for mutual transformation of a time domain and a frequency domain. Therefore, the "Fourier transform" used in the present disclosure is a concept that encompasses both a narrow Fourier transform that decomposes a signal in a time domain into a frequency domain and an inverse Fourier transform that transforms a signal in the frequency domain into a time domain. can be understood as

전술한 용어의 설명은 본 개시의 이해를 돕기 위한 것이다. 따라서, 전술한 용어를 본 개시의 내용을 한정하는 사항으로 명시적으로 기재하지 않은 경우, 본 개시의 내용을 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Descriptions of the foregoing terms are provided to aid understanding of the present disclosure. Therefore, it should be noted that, if the above-mentioned terms are not explicitly described as matters limiting the contents of the present disclosure, the contents of the present disclosure are not used in the meaning of limiting the technical idea.

도 1은 본 개시의 일 실시예에 따른 컴퓨팅 장치의 블록 구성도이다.1 is a block diagram of a computing device according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 데이터의 종합적인 처리 및 연산을 수행하는 하드웨어 장치 혹은 하드웨어 장치의 일부일 수도 있고, 통신 네트워크로 연결되는 소프트웨어 기반의 컴퓨팅 환경일 수도 있다. 예를 들어, 컴퓨팅 장치(100)는 집약적 데이터 처리 기능을 수행하고 자원을 공유하는 주체인 서버일 수도 있고, 서버와의 상호 작용을 통해 자원을 공유하는 클라이언트(client)일 수도 있다. 또한, 컴퓨팅 장치(100)는 복수의 서버들 및 클라이언트들이 상호 작용하여 데이터를 종합적으로 처리하는 클라우드 시스템(cloud system)일 수도 있다. 상술한 기재는 컴퓨팅 장치(100)의 종류와 관련된 하나의 예시일 뿐이므로, 컴퓨팅 장치(100)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The computing device 100 according to an embodiment of the present disclosure may be a hardware device or a part of a hardware device that performs comprehensive data processing and calculation, or may be a software-based computing environment connected through a communication network. For example, the computing device 100 may be a server that performs an intensive data processing function and shares resources, or may be a client that shares resources through interaction with the server. Also, the computing device 100 may be a cloud system in which a plurality of servers and clients interact to comprehensively process data. Since the above description is only one example related to the type of the computing device 100 , the type of the computing device 100 may be variously configured within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 프로세서(processor)(110), 메모리(memory)(120), 및 네트워크부(network unit)(130)를 포함할 수 있다. 다만, 도 1은 하나의 예시일 뿐이므로, 컴퓨팅 장치(100)는 컴퓨팅 환경을 구현하기 위한 다른 구성들을 포함할 수 있다. 또한, 상기 개시된 구성들 중 일부만이 컴퓨팅 장치(100)에 포함될 수도 있다.Referring to FIG. 1 , a computing device 100 according to an embodiment of the present disclosure may include a processor 110 , a memory 120 , and a network unit 130 . have. However, since FIG. 1 is only an example, the computing device 100 may include other components for implementing a computing environment. In addition, only some of the disclosed components may be included in the computing device 100 .

본 개시의 일 실시예에 따른 프로세서(110)는 컴퓨팅 연산을 수행하기 위한 하드웨어 및/또는 소프트웨어를 포함하는 구성 단위로 이해될 수 있다. 예를 들어, 프로세서(110)는 컴퓨터 프로그램을 판독하여 기계 학습을 위한 데이터 처리를 수행할 수 있다. 프로세서(110)는 기계 학습을 위한 입력 데이터의 처리, 기계 학습을 위한 특징 추출, 역전파(backpropagation)에 기반한 오차 계산 등과 같은 연산 과정을 처리할 수 있다. 이와 같은 데이터 처리를 수행하기 위한 프로세서(110)는 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치(GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit), 주문형 반도체(ASIC: application specific integrated circuit), 혹은 필드 프로그래머블 게이트 어레이(FPGA: field programmable gate array) 등을 포함할 수 있다. 상술한 프로세서(110)의 종류는 하나의 예시일 뿐이므로, 프로세서(110)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The processor 110 according to an embodiment of the present disclosure may be understood as a structural unit including hardware and/or software for performing a computing operation. For example, the processor 110 may read a computer program and perform data processing for machine learning. The processor 110 may process an arithmetic process such as processing input data for machine learning, feature extraction for machine learning, and error calculation based on backpropagation. The processor 110 for performing such data processing is a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), a tensor processing unit (TPU), an on-demand It may include an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Since the above-described type of the processor 110 is only one example, the type of the processor 110 may be variously configured within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

프로세서(110)는 의료 영상을 분석하여 의료 영상의 촬영 대상이 되는 피사체의 병변을 탐지할 수 있다. 프로세서(110)는 의료 영상을 분석하여 의료 영상에 존재하는 병변을 추정할 수 있다. 병변을 추정하기 위해, 프로세서(110)는 적어도 하나의 신경망을 포함하는 신경망 모델을 사용할 수 있다. 이때, 본 개시에서 사용된 탐지 혹은 추정이라는 용어는 신경망 모델이 수행하는 비전 태스크(vision task)에 대한 광의의 개념으로 이해될 수 있다. 즉, 본 개시에서 사용된 탐지 혹은 추정이라는 용어는 신경망 모델이 영상에 존재하는 특정 타겟(target)을 파악하기 위해 수행하는 분류, 로컬리제이션(localization), 탐지, 및 분할(segmentation) 등을 모두 포함하는 의미로 이해될 수 있다. 예를 들어, 병변을 추정하기 위해, 프로세서(110)는 분류 모델을 사용할 수 있다. 분류 모델은 데이터에 포함된 클래스 간의 관계를 파악하고, 새롭게 입력되는 데이터에 포함된 클래스를 판별하는 신경망 모델로 이해될 수 있다. 구체적으로, 프로세서(110)는 신경망 모델로서 분류 모델 중 하나로 합성곱(convolutional) 신경망에 기반한 분류 모델을 사용할 수 있다. 이때, 합성곱 신경망은 입력 데이터의 공간 정보를 유지하면서 인접 영역의 특징을 효과적으로 인식하고 분류할 수 있는 다층 신경망으로 이해될 수 있다. 다만, 상술한 분류 모델은 하나의 예시일 뿐이므로, 당업자가 이해 가능한 범주에서 분류 모델과 기술적 사상이 공통되며 병변 탐지를 수행할 수 있는 예측 모델 혹은 회귀 모델 등도 모두 본 개시의 신경망 모델에 적용될 수 있다.The processor 110 may analyze a medical image to detect a lesion of a subject to be photographed in the medical image. The processor 110 may analyze the medical image to estimate a lesion present in the medical image. In order to estimate the lesion, the processor 110 may use a neural network model including at least one neural network. In this case, the term detection or estimation used in the present disclosure may be understood as a broad concept for a vision task performed by a neural network model. That is, the term detection or estimation used in the present disclosure refers to all of the classification, localization, detection, and segmentation performed by the neural network model to identify a specific target present in the image. It can be understood as including meaning. For example, to estimate the lesion, the processor 110 may use a classification model. The classification model may be understood as a neural network model that identifies a relationship between classes included in data and determines a class included in newly input data. Specifically, the processor 110 may use a classification model based on a convolutional neural network as one of the classification models as a neural network model. In this case, the convolutional neural network can be understood as a multi-layer neural network capable of effectively recognizing and classifying features of adjacent regions while maintaining spatial information of input data. However, since the above-described classification model is only an example, a classification model and a technical concept are common in a category that can be understood by those skilled in the art, and a predictive model or a regression model capable of performing lesion detection can all be applied to the neural network model of the present disclosure. have.

프로세서(110)는 신경망 모델이 의료 영상을 기초로 병변 유무를 분류하도록 신경망 모델을 학습시킬 수 있다. 예를 들어, 프로세서(110)는 병변이 존재하는 학습 영상 혹은 병변이 존재하지 않는 학습 영상 중 어느 하나를 신경망 모델에 입력하여 신경망 모델이 영상에 병변이 존재하는지 여부를 분류하도록 신경망 모델을 학습시킬 수 있다. 이때, 학습 영상은 병변의 유무가 라벨링(labeling) 된 영상일 수 있다. 프로세서(110)는 신경망 모델의 학습 영상에 대한 분류 결과와 학습 영상의 라벨을 비교하여 오차 값이 최소가 되도록 신경망 모델을 학습시킬 수 있다.The processor 110 may train the neural network model to classify the presence or absence of a lesion based on the medical image. For example, the processor 110 may input either a learning image in which a lesion exists or a learning image in which a lesion does not exist into the neural network model to train the neural network model so that the neural network model classifies whether a lesion exists in the image. can In this case, the learning image may be an image in which the presence or absence of a lesion is labeled. The processor 110 may train the neural network model to minimize an error value by comparing the classification result of the training image of the neural network model with the label of the training image.

프로세서(110)는 사전 학습된 신경망 모델을 사용하여 의료 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다. 프로세서(110)는 학습된 신경망 모델이 병변을 분류하는 과정에서 영상의 어떤 특징을 인식했는지를 파악하여, 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성할 수 있다. 다시 말해, 프로세서(110)는 신경망 모델이 영상의 어떤 영역을 주요 특징으로 파악하고 병변을 분류하였는지를 추정함으로써, 병변 탐지를 위한 지도 학습에 사용할 수 있는 라벨을 생성할 수 있다. 프로세서(110)는 영상의 어떤 영역이 병변을 탐지하도록 학습된 신경망 모델의 특징 해석(혹은 추론)에 영향을 미쳤는지에 대한 정보를 라벨을 생성하는데 이용함으로써, 수작업으로 진행되던 라벨링 작업의 속도를 개선하고 수작업으로 발생하는 라벨 비용을 대폭 절감시킬 수 있다. 또한, 프로세서(110)는 병변을 탐지하도록 학습된 신경망 모델의 특징 해석(혹은 추론)을 라벨을 생성하는데 이용함으로써, 전문가의 수작업 대비 라벨링 작업을 보다 정밀하고 정확하게 수행할 수 있다. 이때, 프로세서(110)의 라벨 생성은 신경망 모델을 사용한 병변 탐지와 병렬적으로 수행될 수 있다.The processor 110 may generate a label indicating the lesion region in the medical image by using the pre-trained neural network model. The processor 110 may generate a label indicating the presence or absence of a lesion in a specific region in the image by identifying which features of the image were recognized by the learned neural network model in the process of classifying the lesion. In other words, the processor 110 may generate a label that can be used for supervised learning for lesion detection by estimating which region of the image the neural network model identifies as a main feature and classifies the lesion. The processor 110 improves the speed of the manual labeling operation by using the information on which region of the image has affected the feature interpretation (or inference) of the neural network model trained to detect the lesion to generate the label. and manual labeling costs can be greatly reduced. In addition, the processor 110 may use the feature analysis (or inference) of the neural network model trained to detect the lesion to generate a label, so that the labeling task compared to the expert's manual work can be performed more precisely and accurately. In this case, the label generation of the processor 110 may be performed in parallel with lesion detection using a neural network model.

필요에 따라, 프로세서(110)는 컴퓨팅 장치(100)의 사용자 혹은 임의의 클라이언트의 사용자와의 상호 작용을 위한 환경을 제공하는 사용자 인터페이스(user interface)를 생성할 수 있다. 예를 들어, 프로세서(110)는 병변 탐지를 위한 신경망을 사용하여 도출되는 분류 결과, 또는 라벨 등을 시각화 하는 사용자 인터페이스를 생성할 수 있다. 프로세서(110)는 사용자로부터 인가되는 외부 입력 신호를 기초로 데이터의 출력, 수정, 변경, 혹은 추가 등의 기능이 구현되도록 하는 사용자 인터페이스를 생성할 수 있다. 상술한 사용자 인터페이스의 역할은 하나의 예시일 뿐이므로, 사용자 인터페이스의 역할은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.If necessary, the processor 110 may generate a user interface that provides an environment for interaction with a user of the computing device 100 or a user of any client. For example, the processor 110 may generate a user interface that visualizes a classification result derived using a neural network for lesion detection, a label, or the like. The processor 110 may generate a user interface for implementing functions such as output, correction, change, or addition of data based on an external input signal applied from a user. Since the role of the user interface described above is only one example, the role of the user interface may be defined in various ways within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

본 개시의 일 실시예에 따른 메모리(120)는 컴퓨팅 장치(100)에서 처리되는 데이터를 저장하고 관리하기 위한 하드웨어 및/또는 소프트웨어를 포함하는 구성 단위로 이해될 수 있다. 즉, 메모리(120)는 프로세서(110)가 생성하거나 결정한 임의의 형태의 데이터 및 네트워크부(130)가 수신한 임의의 형태의 데이터를 저장할 수 있다. 예를 들어, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리, 램(RAM: random access memory), 에스램(SRAM: static random access memory), 롬(ROM: read-only memory), 이이피롬(EEPROM: electrically erasable programmable read-only memory), 피롬(PROM: programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(120)는 데이터를 소정의 체제로 통제하여 관리하는 데이터베이스(database) 시스템을 포함할 수도 있다. 상술한 메모리(120)의 종류는 하나의 예시일 뿐이므로, 메모리(120)의 종류는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 구성될 수 있다.The memory 120 according to an embodiment of the present disclosure may be understood as a structural unit including hardware and/or software for storing and managing data processed by the computing device 100 . That is, the memory 120 may store any type of data generated or determined by the processor 110 and any type of data received by the network unit 130 . For example, the memory 120 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory, and a random access memory (RAM). ), SRAM (static random access memory), ROM (read-only memory), EEPROM (electrically erasable programmable read-only memory), PROM (programmable read-only memory), magnetic memory , a magnetic disk, and an optical disk may include at least one type of storage medium. In addition, the memory 120 may include a database system for controlling and managing data in a predetermined system. Since the above-described type of the memory 120 is only one example, the type of the memory 120 may be variously configured within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

메모리(120)는 프로세서(110)가 연산을 수행하는데 필요한 데이터, 데이터의 조합, 및 프로세서(110)에서 실행 가능한 프로그램 코드(code) 등을 구조화 및 조직화 하여 관리할 수 있다. 예를 들어, 메모리(120)는 후술할 네트워크부(130)를 통해 수신된 의료 영상을 저장할 수 있다. 메모리(120)는 신경망 모델이 의료 영상의 병변을 탐지하도록 동작시키는 프로그램 코드, 프로세서(110)가 신경망 모델의 특징 해석(혹은 추론)을 기초로 라벨을 생성하도록 동작시키는 프로그램 코드 및 프로그램 코드가 실행됨에 따라 생성된 데이터를 저장할 수 있다. 메모리(120)는 프로세서(110)의 연산을 통해 생성된 의료 영상의 병변 추정 결과 및 병변을 나타내는 라벨을 저장할 수 있다.The memory 120 may structure and organize and manage data necessary for the processor 110 to perform an operation, a combination of data, and program codes executable by the processor 110 . For example, the memory 120 may store a medical image received through the network unit 130 to be described later. The memory 120 executes a program code that operates the neural network model to detect a lesion in a medical image, a program code that operates the processor 110 to generate a label based on analysis (or inference) of features of the neural network model, and the program code is executed. The generated data can be saved. The memory 120 may store a lesion estimation result of a medical image generated through operation of the processor 110 and a label indicating the lesion.

본 개시의 일 실시예에 따른 네트워크부(130)는 임의의 형태의 공지된 유무선 통신 시스템을 통해 데이터를 송수신하는 구성 단위로 이해될 수 있다. 예를 들어, 네트워크부(130)는 근거리 통신망(LAN: local area network), 광대역 부호 분할 다중 접속(WCDMA: wideband code division multiple access), 엘티이(LTE: long term evolution), 와이브로(WiBro: wireless broadband internet), 5세대 이동통신(5G), 초광역대 무선통신(ultra wide-band), 지그비(ZigBee), 무선주파수(RF: radio frequency) 통신, 무선랜(wireless LAN), 와이파이(wireless fidelity), 근거리 무선통신(NFC: near field communication), 또는 블루투스(Bluetooth) 등과 같은 유무선 통신 시스템을 사용하여 데이터 송수신을 수행할 수 있다. 상술한 통신 시스템들은 하나의 예시일 뿐이므로, 네트워크부(130)의 데이터 송수신을 위한 유무선 통신 시스템은 상술한 예시 이외에 다양하게 적용될 수 있다.The network unit 130 according to an embodiment of the present disclosure may be understood as a structural unit for transmitting and receiving data through a known wired/wireless communication system of any type. For example, the network unit 130 may include a local area network (LAN), wideband code division multiple access (WCDMA), long term evolution (LTE), and WiBro (WiBro). broadband internet), 5th generation mobile communication (5G), ultra wide-band, ZigBee, radio frequency (RF) communication, wireless LAN, wireless fidelity ), near field communication (NFC), or a wired/wireless communication system such as Bluetooth may be used to transmit/receive data. Since the above-described communication systems are only examples, the wired/wireless communication system for data transmission/reception of the network unit 130 may be variously applied other than the above-described examples.

네트워크부(130)는 임의의 시스템 혹은 임의의 클라이언트 등과의 유무선 통신을 통해, 프로세서(110)가 연산을 수행하는데 필요한 데이터를 수신할 수 있다. 또한, 네트워크부(130)는 임의의 시스템 혹은 임의의 클라이언트 등과의 유무선 통신을 통해, 프로세서(110)의 연산을 통해 생성된 데이터를 송신할 수 있다. 예를 들어, 네트워크부(130)는 의료 영상 저장 전송 시스템, 의료 영상의 해상도 개선, 또는 표준화 등의 작업을 수행하는 클라우드 서버, 혹은 컴퓨팅 장치 등과의 통신을 통해, 의료 영상을 수신할 수 있다. 네트워크부(130)는 전술한 시스템, 서버, 혹은 컴퓨팅 장치 등과의 통신을 통해, 신경망 모델의 출력에 대응되는 병변 탐지 결과 및 프로세서(110)의 연산을 통해 생성된 라벨을 송신할 수 있다.The network unit 130 may receive data necessary for the processor 110 to perform an operation through wired/wireless communication with any system or any client. In addition, the network unit 130 may transmit data generated through the operation of the processor 110 through wired/wireless communication with any system or any client. For example, the network unit 130 may receive a medical image through communication with a medical image storage and transmission system, a cloud server performing tasks such as resolution improvement or standardization of a medical image, or a computing device. The network unit 130 may transmit the lesion detection result corresponding to the output of the neural network model and the label generated through the operation of the processor 110 through communication with the aforementioned system, server, or computing device.

필요에 따라, 네트워크부(130)는 임의의 시스템 혹은 임의의 클라이언트와의 유무선 통신을 통해, 프로세서(110)에 의해 생성된 사용자 인터페이스를 임의의 시스템 혹은 임의의 클라이언트에 제공할 수 있다. 예를 들어, 네트워크부(130)는 의료 영상 저장 전송 시스템 혹은 디스플레이(display)를 포함하는 컴퓨팅 장치와의 통신을 통해, 프로세서(110)에 의해 처리된 데이터들을 시각화 하는 사용자 인터페이스를 전술한 시스템 혹은 장치에 제공할 수 있다. 네트워크부(130)는 사용자 인터페이스를 통해 사용자로부터 인가되는 외부 입력 신호를 전술한 시스템 혹은 장치로부터 수신하여 프로세서(110)로 전달할 수 있다. 이때, 프로세서(110)는 네트워크부(130)로부터 전달된 외부 입력 신호를 기초로 데이터의 출력, 수정, 변경, 혹은 추가 등의 기능이 구현되도록 동작할 수 있다. 한편, 네트워크부(130)를 통한 통신 없이도, 사용자 인터페이스를 제공받은 시스템 혹은 장치는 자체적으로 사용자로부터 인가되는 외부 입력 신호에 따라 데이터의 출력, 수정, 변경 혹은 추가 등의 기능이 구현되도록 동작할 수도 있다.If necessary, the network unit 130 may provide the user interface generated by the processor 110 to any system or any client through wired/wireless communication with any system or any client. For example, the network unit 130 provides a user interface for visualizing data processed by the processor 110 through communication with a medical image storage and transmission system or a computing device including a display as described above for the system or can be provided to the device. The network unit 130 may receive an external input signal applied from the user through the user interface from the aforementioned system or device and transmit it to the processor 110 . In this case, the processor 110 may operate to implement functions such as output, correction, change, or addition of data based on the external input signal transmitted from the network unit 130 . On the other hand, without communication through the network unit 130, the system or device provided with the user interface may operate to implement functions such as output, correction, change or addition of data according to an external input signal applied from the user. have.

도 2는 본 개시의 일 실시예에 따른 컴퓨팅 장치의 라벨 생성 과정을 나타낸 블록도이다.2 is a block diagram illustrating a label generation process of a computing device according to an embodiment of the present disclosure.

도 2를 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)의 프로세서(110)는 병변을 탐지하고자 하는 의료 영상(10)을 신경망 모델(200)에 입력할 수 있다. 이때, 의료 영상(10)은 질병의 진단과 치료를 위해 의료 영상 촬영 장치에 의해 촬영된 영상일 수 있다. 예를 들어, 의료 영상(10)은 자기 공명 신호로부터 획득된 케이-스페이스 데이터를 기초로, 푸리에 변환(fourier transform)을 통해 생성된 자기 공명 영상을 포함할 수 있다. 이때, 의료 영상(10)에 포함된 자기 공명 영상은 가속화 촬영을 통해 생성된 데이터일 수 있다.Referring to FIG. 2 , the processor 110 of the computing device 100 according to an embodiment of the present disclosure may input a medical image 10 for detecting a lesion into the neural network model 200 . In this case, the medical image 10 may be an image captured by a medical imaging apparatus for diagnosing and treating a disease. For example, the medical image 10 may include a magnetic resonance image generated through a Fourier transform based on K-space data obtained from the magnetic resonance signal. In this case, the magnetic resonance image included in the medical image 10 may be data generated through accelerated imaging.

본 개시에서 가속화 촬영은 일반적인 촬영 대비 자기 공명 신호에 대한 여기 횟수(NEX: number of excitations)를 감소시켜 촬영 시간을 단축시키는 촬영 기법으로 이해될 수 있다. 여기 횟수는 케이-스페이스 영역에서 자기 공명 신호의 라인들을 반복 획득할 때의 반복된 횟수로 이해될 수 있다. 따라서, 여기 횟수가 증가함에 따라 자기 공명 영상의 촬영 시간이 비례하여 증가할 수 있다. 즉, 자기 공명 영상의 촬영 시에 여기 횟수를 감소시키는 경우, 자기 공명 영상의 촬영 시간이 단축된 가속화 촬영이 구현될 수 있다.In the present disclosure, accelerated imaging may be understood as an imaging technique for reducing imaging time by reducing the number of excitations (NEX) for a magnetic resonance signal compared to general imaging. The number of excitations may be understood as the number of repetitions when lines of the magnetic resonance signal are repeatedly acquired in the K-space region. Accordingly, as the number of excitations increases, the imaging time of the magnetic resonance image may increase proportionally. That is, when the number of excitations is reduced during the imaging of the magnetic resonance image, accelerated imaging in which the imaging time of the magnetic resonance image is shortened may be implemented.

본 개시에서 가속화 촬영은 케이-스페이스 영역에서 위상 인코딩(encoding) 방향으로 더 좁은 범위의 신호를 얻음으로써, 해상도가 상대적으로 낮은 영상을 획득하는 촬영 기법으로 이해될 수 있다. 다시 말해, 본 개시의 가속화 촬영은 일반적인 촬영 대비 페이즈 레졸루션(phase resolution)을 감소시킨 촬영 기법으로 이해될 수 있다. 페이즈 레졸루션은 케이-스페이스 영역에서 위상 인코딩 방향으로 샘플링 된 라인의 개수를 미리 설정된 기준값으로 나눈 값으로 이해될 수 있다. 따라서, 페이즈 레졸루션이 증가함에 따라, 자기 공명 영상의 촬영 시간이 비례하여 증가할 수 있다. 즉, 자기 공명 영상의 촬영 시에 페이즈 레졸루션을 감소시키는 경우, 자기 공명 영상의 촬영 시간이 단축된 가속화 촬영이 구현될 수 있다.In the present disclosure, accelerated imaging may be understood as a imaging technique for acquiring an image having a relatively low resolution by acquiring a signal of a narrower range in the phase encoding direction in the K-space region. In other words, the accelerated imaging of the present disclosure may be understood as an imaging technique in which phase resolution is reduced compared to general imaging. The phase resolution may be understood as a value obtained by dividing the number of lines sampled in the phase encoding direction in the K-space region by a preset reference value. Accordingly, as the phase resolution increases, the imaging time of the magnetic resonance image may increase proportionally. That is, when the phase resolution is reduced when capturing the magnetic resonance image, accelerated photographing with a shortened magnetic resonance image photographing time may be implemented.

본 개시에서 가속화 촬영은 일반적인 촬영에 비해 가속화 지수(acceleration factor)를 높여 촬영 시간을 단축시키는 촬영 기법으로 이해될 수 있다. 가속화 지수는 병렬 영상 기법에서 사용되는 용어로서, 케이-스페이스 영역에서 풀 샘플링(full sampling)된 신호 라인의 개수를 촬영을 통해 샘플링 된 신호 라인의 개수로 나눈 값으로 이해될 수 있다. 예를 들어, 가속화 지수가 2 라는 것은, 위상 인코딩 방향으로 자기 공명 신호를 샘플링 하여 라인을 획득할 때, 풀 샘플링 된 신호 라인의 개수 대비 절반의 신호 라인의 개수를 획득하는 것으로 이해될 수 있다. 따라서, 가속화 지수가 증가함에 따라, 자기 공명 영상의 촬영 시간이 비례하여 감소할 수 있다. 즉, 자기 공명 영상의 촬영 시에 가속화 지수를 증가시키는 경우, 자기 공명 영상의 촬영 시간이 단축된 가속화 촬영이 구현될 수 있다.In the present disclosure, accelerated imaging may be understood as an imaging technique for reducing imaging time by increasing an acceleration factor compared to general imaging. The acceleration index is a term used in a parallel imaging technique, and may be understood as a value obtained by dividing the number of signal lines sampled fully in the K-space region by the number of signal lines sampled through imaging. For example, an acceleration index of 2 may be understood as obtaining half the number of signal lines compared to the number of fully sampled signal lines when obtaining lines by sampling the magnetic resonance signal in the phase encoding direction. Accordingly, as the acceleration index increases, the imaging time of the magnetic resonance image may decrease proportionally. That is, when the acceleration index is increased during the imaging of the magnetic resonance image, the accelerated imaging in which the imaging time of the magnetic resonance image is shortened may be implemented.

본 개시에서 가속화 촬영은 서브 샘플링(sub sampling) 된 자기 공명 신호를 획득하여 자기 공명 영상을 생성하는 촬영 기법으로 이해될 수 있다. 이때, 서브 샘플링은 나이키스트 샘플링 레이트(nyquist sampling rate)보다 낮은 샘플링 레이트로 자기 공명 신호를 샘플링 하는 작업으로 이해될 수 있다. 따라서, 본 개시의 자기 공명 영상은 나이키스트 샘플링 레이트보다 낮은 샘플링 레이트로 자기 공명 신호를 샘플링 하여 획득된 영상일 수 있다.In the present disclosure, accelerated imaging may be understood as an imaging technique for generating a MR image by acquiring a sub-sampled MR signal. In this case, the sub-sampling may be understood as an operation of sampling the magnetic resonance signal at a sampling rate lower than a nyquist sampling rate. Accordingly, the magnetic resonance image of the present disclosure may be an image obtained by sampling the magnetic resonance signal at a sampling rate lower than the Nyquist sampling rate.

다만, 상술한 가속화 촬영의 설명은 하나의 예시일 뿐이므로, 가속화 촬영의 개념은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 정의될 수 있다.However, since the above-described description of accelerated imaging is only an example, the concept of accelerated imaging may be defined in various ways within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

도 2를 참조하면, 프로세서(110)는 의료 영상(10)을 입력받은 신경망 모델을 사용하여 의료 영상(10)에 존재하는 병변을 추정하여 추론 데이터(20)를 생성할 수 있다. 이때, 추론 데이터(20)는 의료 영상(10)에 병변이 존재하는지 여부를 나타내는 결과 또는 의료 영상(10)에서 병변이 존재하는 경우에 병변이 존재하는 영역을 검출한 결과 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(110)는 신경망 모델(200)을 사용하여 의료 영상(10)에서 병변 탐지를 위한 특징을 추출할 수 있다. 신경망 모델(200)을 통해 추출되는 특징은 의료 영상(10)의 픽셀 값 혹은 복셀 값을 기초로 추출되는 연산 값 또는 연산 값의 조합으로 이해될 수 있다. 프로세서(110)는 신경망 모델(200)을 사용하여, 병변 탐지를 위해 추출된 특징을 기초로 의료 영상(10)에서 병변이 존재하는지 여부를 나타내는 분류 결과를 도출할 수 있다. 이때, 분류 결과는 병변의 유무에 대한 확률 표현일 수 있다. 병변이 존재하는 경우, 분류 결과는 1로 도출될 수 있다. 병변이 존재하지 않는 경우, 분류 결과는 0으로 도출될 수 있다. 다만, 이러한 분류 결과의 표현은 하나의 예시일 뿐이므로, 분류 결과는 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 표현될 수 있다.Referring to FIG. 2 , the processor 110 may generate inference data 20 by estimating a lesion existing in the medical image 10 using a neural network model receiving the medical image 10 . In this case, the inference data 20 may include at least one of a result indicating whether a lesion exists in the medical image 10 or a result of detecting an area in which a lesion exists in the medical image 10 when the lesion exists. can For example, the processor 110 may extract a feature for lesion detection from the medical image 10 using the neural network model 200 . A feature extracted through the neural network model 200 may be understood as an operation value extracted based on a pixel value or a voxel value of the medical image 10 or a combination of operation values. The processor 110 may derive a classification result indicating whether a lesion exists in the medical image 10 based on the features extracted for lesion detection by using the neural network model 200 . In this case, the classification result may be a probability expression for the presence or absence of a lesion. If a lesion is present, the classification result may be derived as 1. If there is no lesion, the classification result may be derived as 0. However, since the expression of the classification result is only an example, the classification result may be expressed in various ways within a range that can be understood by those skilled in the art based on the contents of the present disclosure.

프로세서(110)는 신경망 모델에 포함된 소정의 레이어(layer)의 출력을 기초로, 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다. 프로세서(110)는 신경망 모델에 포함된 적어도 하나의 레이어의 출력에 대응되는 특징을 기초로, 신경망 모델이 입력받은 의료 영상에 존재하는 병변 영역을 표시하는 라벨을 생성할 수 있다. 이때, 라벨은 의료 영상에 병변의 유무를 표시한 정보로서, 신경망 모델의 추론에 기반하여 생성된 그라운드 트루쓰(ground truth)로 이해될 수 있다. 이와 같이 신경망 모델의 특징 해석을 기초로 생성되는 라벨은 전문의에 의한 수작업이 필요하지 않고, 사람의 주관적 판단에 의해 생성되는 라벨보다 정밀하고 정확한 정보를 포함할 수 밖에 없다. 따라서, 본 개시의 라벨 생성 방법은 수작업으로 라벨링이 수행되던 종래 방식 대비 시간 및 비용적인 측면에서 효율적인 장점을 가진다.The processor 110 may generate a label indicating a lesion region in an image based on an output of a predetermined layer included in the neural network model. The processor 110 may generate a label indicating a lesion region present in a medical image to which the neural network model is input, based on a feature corresponding to an output of at least one layer included in the neural network model. In this case, the label is information indicating the presence or absence of a lesion in a medical image, and may be understood as a ground truth generated based on inference of a neural network model. As such, the label generated based on the feature analysis of the neural network model does not require manual work by a specialist, and has no choice but to include more precise and accurate information than the label generated by the subjective judgment of a person. Therefore, the label generating method of the present disclosure has an efficient advantage in terms of time and cost compared to the conventional method in which labeling was performed manually.

예를 들어, 프로세서(110)는 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 의료 영상에 대한 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성할 수 있다. 프로세서(110)는 히트맵을 기초로 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성할 수 있다. 이때, 신경망 모델에 포함된 소정의 레이어의 출력을 기초로 생성된 히트맵 자체에 오차가 존재할 가능성이 있으므로, 프로세서(110)는 히트맵으로부터 라벨을 생성하는 과정에서 추가적인 영상 처리 작업을 수행할 수 있다. 구체적으로, 프로세서(110)는 히트맵에 표현된 병변 영역에 존재하는 공백 영역을 보정할 수 있다. 병변 영역은 구멍이 없는 연속적인 영역이라는 가정 하에, 프로세서(110)는 히트맵에 표현된 병변 영역임에도 공백으로 표현된 영역을, 공백 영역에 인접한 영역의 표현 값을 기초로 채워넣는 보정을 수행할 수 있다. 또한, 프로세서(110)는 히트맵에 존재하는 노이즈(noise)를 보정할 수 있다. 병변 영역이 아니지만 히트맵의 오차에 의해 병변 영역으로 표시된 오류를 수정하기 위해서, 프로세서(110)는 히트맵에 표시된 병변 영역 중 가장 큰 연결 요소를 선택함으로써 노이즈에 해당하는 값들을 제거할 수 있다. 상술한 두 가지 보정은 본 개시에 적용될 수 있는 하나의 예시일 뿐이므로, 본 개시에는 상술한 두 가지 보정 이외에도 본 개시에 기재된 내용을 기초로 당업자가 이해 가능한 범주에서 다양한 보정 방법들이 적용될 수 있다.For example, the processor 110 may generate a heatmap corresponding to the feature analysis of the neural network model for the medical image, based on the output of a predetermined layer included in the neural network model. The processor 110 may generate a label indicating the presence or absence of a lesion in a specific region in the image based on the heat map. At this time, since there is a possibility that an error exists in the heat map itself generated based on the output of a predetermined layer included in the neural network model, the processor 110 may perform additional image processing in the process of generating the label from the heat map. have. Specifically, the processor 110 may correct a blank area existing in the lesion area expressed in the heat map. On the assumption that the lesion region is a continuous region without holes, the processor 110 performs correction to fill in the blank region even though the lesion region is expressed in the heat map based on the expression value of the region adjacent to the blank region. can Also, the processor 110 may correct noise existing in the heat map. In order to correct an error that is not a lesion region but is displayed as a lesion region due to an error in the heat map, the processor 110 may remove values corresponding to noise by selecting the largest connection element among the lesion regions displayed on the heat map. Since the above-mentioned two corrections are only examples that can be applied to the present disclosure, various correction methods may be applied to the present disclosure in a range that can be understood by those skilled in the art based on the contents described in the present disclosure in addition to the above-described two corrections.

한편, 프로세서(110)는 신경망 모델(200)에 의료 영상(10)과 함께, 의료 영상(10)의 촬영 시에 조정이 가능한 스캔 파라미터(scan parameter)를 입력할 수 있다. 이때, 스캔 파라미터는 의료 영상의 촬영 상태 혹은 조건 등을 결정하기 위해서 의료 영상의 촬영 환경에서 조정되는 변수로 이해될 수 있다. 스캔 파라미터의 값에 따라 의료 영상의 촬영 시에 획득되는 신호가 달라질 수 있고, 신호에 따라 생성되는 의료 영상의 특성이 달라질 수 있다. 예를 들어, 의료 영상(10)이 자기 공명 영상인 경우, 스캔 파라미터는 반복 시간(TR: repetition time), 에코 시간(TE: echo time), 반전 시간(TI: inversion time), 관측 시야(FOV: field of view), 여기 횟수, 또는 가속화 지수 등을 포함할 수 있다. 프로세서(110)는 의료 영상(10)과 함께 전술한 예시와 같은 스캔 파라미터를 신경망 모델(200)의 입력에 포함시킴으로써, 신경망 모델(200)의 추론 성능을 보다 향상시킬 수 있다.Meanwhile, the processor 110 may input a scan parameter that can be adjusted when the medical image 10 is captured together with the medical image 10 to the neural network model 200 . In this case, the scan parameter may be understood as a variable adjusted in the imaging environment of the medical image to determine the imaging state or condition of the medical image. A signal obtained when a medical image is captured may vary according to a value of a scan parameter, and characteristics of a medical image generated according to the signal may vary. For example, when the medical image 10 is a magnetic resonance image, the scan parameters include repetition time (TR), echo time (TE), inversion time (TI), and field of view (FOV). : field of view), the number of excitations, or an acceleration index. The processor 110 may further improve the inference performance of the neural network model 200 by including the scan parameters as in the above-described example together with the medical image 10 in the input of the neural network model 200 .

도 3은 본 개시의 일 실시예에 따른 신경망 모델을 사용한 연산 과정을 나타낸 개념도이다. 도 3의 설명은 합성곱 신경망을 포함하는 신경망 모델을 사용하여 자기 공명 영상의 병변을 분류하고 라벨을 생성하는 과정을 가정한다.3 is a conceptual diagram illustrating a calculation process using a neural network model according to an embodiment of the present disclosure. The description of FIG. 3 assumes a process of classifying a lesion in a magnetic resonance image and generating a label using a neural network model including a convolutional neural network.

도 3을 참조하면, 본 개시의 일 실시예에 따른 컴퓨팅 장치(100)의 프로세서(110)는 가속화 촬영된 자기 공명 영상(40)을 제 1 신경망(210)에 입력할 수 있다. 프로세서(110)는 특징 추출 레이어를 포함하는 제 1 신경망(210)을 사용하여 자기 공명 영상(40)의 병변 영역을 추정하기 위한 특징을 추출할 수 있다. 이때, 제 1 신경망(210)은 적어도 하나의 합성곱 레이어 및 적어도 하나의 풀링(pooling) 레이어를 포함할 수 있다. 예를 들어, 제 1 신경망(210)은 이미지의 특징을 찾아내기 위한 공용 파라미터인 필터(filter), 필터가 영상을 순회하는 간격을 나타내는 스트라이드(stride), 및/또는 특징의 크기를 유지시키기 위한 패딩(padding)을 조절하여 자기 공명 영상(40)에서 특징을 추출할 수 있다. 제 1 신경망(210)에 포함된 합성곱 레이어는 필터를 사용하여 합성곱 연산을 수행함으로써 자기 공명 영상(40)의 공간적 정보를 유지하면서 자기 공명 영상(40)의 특징을 출력할 수 있다. 제 1 신경망(210)에 포함된 풀링 레이어는 합성곱 레이어의 출력을 입력받아 합성곱 레이어의 출력의 크기를 줄이거나 특정 정보를 강조하는 역할을 수행할 수 있다. 즉, 제 1 신경망(210)은 적어도 하나의 합성곱 레이어와 적어도 하나의 풀링 레이어의 조합을 통해 자기 공명 영상(40)의 특징을 추출할 수 있다.Referring to FIG. 3 , the processor 110 of the computing device 100 according to an embodiment of the present disclosure may input an accelerated magnetic resonance image 40 to the first neural network 210 . The processor 110 may extract a feature for estimating a lesion region of the magnetic resonance image 40 using the first neural network 210 including the feature extraction layer. In this case, the first neural network 210 may include at least one convolutional layer and at least one pooling layer. For example, the first neural network 210 may include a filter, which is a common parameter for finding features of an image, a stride indicating an interval at which the filter traverses an image, and/or a method for maintaining the size of the feature. A feature may be extracted from the magnetic resonance image 40 by adjusting padding. The convolution layer included in the first neural network 210 may output features of the MR image 40 while maintaining spatial information of the MR image 40 by performing a convolution operation using a filter. The pooling layer included in the first neural network 210 may receive the output of the convolutional layer and reduce the size of the output of the convolutional layer or play a role of emphasizing specific information. That is, the first neural network 210 may extract features of the MR image 40 through a combination of at least one convolutional layer and at least one pooling layer.

한편, 제 1 신경망(210)의 특징 추출 과정에서, 프로세서(110)는 제 1 신경망(210)의 i번째(i는 자연수) 레이어에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성할 수 있다. 그리고, 프로세서(110)는 제 1 신경망(210)의 i+1번째 레이어로, i번째 레이어에서 산출된 제 1 특징 및 푸리에 변환을 통해 생성된 제 2 특징을 입력할 수 있다. 이때, 자기 공명 영상(40)에 기반한 제 1 특징은 일반적인 영상 영역의 영상 특징에 해당한다. 따라서, 제 1 특징에 대한 푸리에 변환을 통해 생성되는 제 2 특징은 케이-스페이스 영역의 영상 특징에 해당하는 것으로 이해될 수 있다. 예를 들어, 프로세서(110)는 제 1 신경망(210)의 합성곱 레이어 중 어느 하나의 출력에 해당하는 제 1 특징을 기초로, 푸리에 변환을 통해 케이-스페이스 영역의 제 2 특징을 생성할 수 있다. 프로세서(110)는 제 1 특징을 추출한 합성곱 레이어의 다음 레이어로 제 1 특징과 제 2 특징을 함께 입력할 수 있다. 상술한 바와 같이, 프로세서(110)는 제 1 신경망(210)에 포함된 레이어의 연산에 푸리에 변환을 통해 생성된 케이-스페이스 영역의 특징을 함께 활용함으로써, 제 1 신경망(210)의 추론 성능을 보다 향상시킬 수 있다.Meanwhile, in the feature extraction process of the first neural network 210 , the processor 110 performs the second function through Fourier transform based on the first feature calculated from the i-th layer (i is a natural number) of the first neural network 210 . You can create features. In addition, the processor 110 may input the first feature calculated from the i-th layer and the second feature generated through the Fourier transform to the i+1-th layer of the first neural network 210 . In this case, the first feature based on the magnetic resonance image 40 corresponds to an image feature of a general image region. Accordingly, it may be understood that the second feature generated through the Fourier transform of the first feature corresponds to the image feature of the k-space domain. For example, the processor 110 may generate a second feature of the K-space domain through a Fourier transform based on a first feature corresponding to an output of any one of the convolutional layers of the first neural network 210 . have. The processor 110 may input the first feature and the second feature together as a next layer of the convolutional layer from which the first feature is extracted. As described above, the processor 110 improves the inference performance of the first neural network 210 by using the characteristics of the K-space region generated through the Fourier transform in the calculation of the layers included in the first neural network 210 together. can be further improved.

프로세서(110)는 제 1 신경망(210)을 통해 생성된 특징맵을 제 2 신경망(220)에 입력할 수 있다. 프로세서(110)는 제 2 신경망(220)을 사용하여, 자기 공명 영상(40)의 특징을 기초로 병변의 클래스를 나타내는 벡터를 생성할 수 있다. 그리고, 프로세서(110)는 제 3 신경망(230)을 사용하여, 제 2 신경망(200)을 통해 생성된 벡터를 기초로 병변 탐지 결과(50)에 대응되는 병변 클래스에 해당할 확률 값을 도출할 수 있다. 이때, 제 2 신경망(220)은 완전 연결 레이어(FCL: fully connected layer)를 포함할 수 있다. 또한, 제 3 신경망(230)은 소프트맥스(softmax) 레이어를 포함할 수 있다. 예를 들어, 제 2 신경망(220)은 자기 공명 영상(40)의 특징을 기초로 자기 공명 영상(40)의 분류하고자 하는 병변 클래스의 개수와 동등한 크기의 벡터를 생성할 수 있다. 제 3 신경망(230)은 제 2 신경망(220)의 출력 벡터를 입력받아 병변의 유무를 나타내는 확률 값을 출력할 수 있다. 제 3 신경망(230)을 통해 출력되는 확률 값은 병변 클래스 별로 병변의 유무를 나타내는 병변 탐지 결과(50)일 수 있다. 병변이 존재하는 경우, 병변 탐지 결과(50)에 대응되는 확률 값은 1로 도출될 수 있다. 병변이 존재하지 않는 경우, 병변 탐지 결과(50)에 대응되는 확률 값은 0으로 도출될 수 있다. 다만, 이러한 확률 값의 표현은 하나의 예시일 뿐이므로, 확률 값은 본 개시의 내용을 기초로 당업자가 이해 가능한 범주에서 다양하게 표현될 수 있다.The processor 110 may input the feature map generated through the first neural network 210 to the second neural network 220 . The processor 110 may generate a vector indicating the class of the lesion based on the characteristics of the magnetic resonance image 40 using the second neural network 220 . Then, the processor 110 uses the third neural network 230 to derive a probability value corresponding to the lesion class corresponding to the lesion detection result 50 based on the vector generated through the second neural network 200 . can In this case, the second neural network 220 may include a fully connected layer (FCL). Also, the third neural network 230 may include a softmax layer. For example, the second neural network 220 may generate a vector having a size equal to the number of lesion classes to be classified in the magnetic resonance image 40 based on the characteristics of the magnetic resonance image 40 . The third neural network 230 may receive the output vector of the second neural network 220 and output a probability value indicating the presence or absence of a lesion. The probability value output through the third neural network 230 may be a lesion detection result 50 indicating the presence or absence of a lesion for each lesion class. When a lesion exists, a probability value corresponding to the lesion detection result 50 may be derived as 1. When a lesion does not exist, a probability value corresponding to the lesion detection result 50 may be derived as 0. However, since the expression of such a probability value is only one example, the probability value may be variously expressed in a range that can be understood by those skilled in the art based on the contents of the present disclosure.

도 3을 참조하면, 프로세서(110)는 제 1 신경망(10)에 포함된 레이어 중 어느 하나의 출력을 기초로, 병변 라벨을 생성하기 위한 히트맵(60)을 생성할 수 있다. 프로세서(110)는 제 1 신경망(10)에 포함된 레이어 중 어느 하나의 출력을 기초로, 자기 공명 영상(40)의 특징 변화를 나타내는 그래디언트(gradient)를 추출할 수 있다. 프로세서(110)는 추출된 그래디언트를 기초로 자기 공명 영상(40) 내 특정 영역의 병변 유무를 나타내는 라벨을 생성할 수 있다. 예를 들어, 프로세서(110)는 제 1 신경망(10)에 포함된 합성곱 레이어 중 마지막 레이어의 출력에 대응되는 특징으로부터 자기 공명 영상(40)의 특징 변화를 나타내는 그래디언트를 추출할 수 있다. 프로세서(110)는 합성곱 레이어의 마지막 레이어의 출력으로부터 생성된 그래디언트를 기초로, 자기 공명 영상(40)의 어떤 영역이 병변 분류에 영향을 미쳤는지를 시각화 할 수 있는 히트맵을 생성할 수 있다. 그리고, 프로세서(110)는 히트맵을 이용하여 자기 공명 영상(40)에 존재하는 병변(65)에 대한 라벨링을 수행할 수 있다.Referring to FIG. 3 , the processor 110 may generate a heat map 60 for generating a lesion label based on an output of any one of the layers included in the first neural network 10 . The processor 110 may extract a gradient indicating a change in a characteristic of the MR image 40 based on an output of any one of the layers included in the first neural network 10 . The processor 110 may generate a label indicating the presence or absence of a lesion in a specific region in the magnetic resonance image 40 based on the extracted gradient. For example, the processor 110 may extract a gradient representing a feature change of the MR image 40 from a feature corresponding to the output of the last layer among the convolutional layers included in the first neural network 10 . The processor 110 may generate a heat map capable of visualizing which region of the magnetic resonance image 40 has affected the lesion classification based on the gradient generated from the output of the last layer of the convolutional layer. In addition, the processor 110 may perform labeling on the lesion 65 existing in the magnetic resonance image 40 using the heat map.

한편, 본 개시의 제 1 신경망(210), 제 2 신경망(220) 및 제 3 신경망(230)을 포함하는 신경망 모델(200)은 병변이 존재하는 제 1 학습 영상, 또는 병변이 존재하지 않는 제 2 학습 영상 중 적어도 하나를 기초로, 병변의 유무를 분류하도록 학습될 수 있다. 예를 들어, 합성곱 신경망을 포함하는 신경망 모델(200)은 병변의 유무가 라벨링 된 제 1 학습 영상 및 제 2 학습 영상이 조합된 학습 영상을 기초로 병변의 유무를 분류하도록 학습될 수 있다. 신경망 모델(200)은 병변의 유무를 이진 분류하도록 학습될 수 있다. 병변의 유무를 이진 분류하도록 학습된 신경망 모델(200)의 의료 영상에 대한 특징 해석을 본 개시의 라벨 생성에 이용하는 경우, 병변을 다중 분류 혹은 검출하도록 하는 학습에 비해 신경망 모델(200)의 학습에 드는 비용을 감소시킬 수 있다. 따라서, 사이즈가 큰 병변에 대한 라벨링이 필요한 경우, 본 개시에서는 병변의 유무를 이진 분류하도록 학습된 신경망 모델(200)을 라벨 생성에 사용할 수 있다.On the other hand, the neural network model 200 including the first neural network 210, the second neural network 220, and the third neural network 230 of the present disclosure is a first learning image in which a lesion exists, or a first learning image in which a lesion does not exist. It may be learned to classify the presence or absence of a lesion based on at least one of the 2 learning images. For example, the neural network model 200 including the convolutional neural network may be trained to classify the presence or absence of a lesion based on a learning image in which the first learning image and the second learning image are combined. The neural network model 200 may be trained to binary classify the presence or absence of a lesion. When the feature analysis of the medical image of the neural network model 200 trained to binary classify the presence or absence of a lesion is used to generate the label of the present disclosure, compared to the learning to multi-classify or detect the lesion, the learning of the neural network model 200 is cost can be reduced. Therefore, when labeling is required for a lesion having a large size, in the present disclosure, the neural network model 200 trained to binary classify the presence or absence of a lesion may be used for label generation.

도 4는 본 개시의 일 실시예에 따른 라벨 생성 방법을 나타낸 순서도이다.4 is a flowchart illustrating a label generation method according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 의료 영상 저장 전송 시스템, 서버, 혹은 클라이언트와의 통신을 통해 의료 영상을 수신할 수 있다. 이때, 컴퓨팅 장치(100)는 클라우드 시스템으로서, 통신 네트워크 상에서 데이터를 저장, 관리, 및 송수신할 수 있는 컴퓨팅 환경일 수 있다. 예를 들어, 컴퓨팅 장치(100)는 자기 공명 영상 촬영 시스템과의 통신을 통해 자기 공명 영상을 수신하여 저장 및 관리할 수 있다. 컴퓨팅 장치(100)는 신경망 모델을 사용하여, 자기 공명 영상 시스템과의 통신을 통해 수신된 자기 공명 영상을 분석함으로써, 자기 공명 영상에 존재하는 병변을 탐지할 수 있다. 또한, 컴퓨팅 장치(100)는 신경망 모델이 자기 공명 영상에서 어떠한 특징을 병변을 탐지하는데 사용하는지에 대한 정보를 이용하여, 자기 공명 영상에 존재하는 병변을 라벨링 할 수 있다.The computing device 100 according to an embodiment of the present disclosure may receive a medical image through communication with a medical image storage and transmission system, a server, or a client. In this case, the computing device 100 is a cloud system and may be a computing environment capable of storing, managing, and transmitting/receiving data on a communication network. For example, the computing device 100 may receive, store, and manage the magnetic resonance image through communication with the magnetic resonance imaging system. The computing device 100 may detect a lesion present in the magnetic resonance image by analyzing the magnetic resonance image received through communication with the magnetic resonance imaging system using the neural network model. In addition, the computing device 100 may label the lesion present in the magnetic resonance image by using information about which feature the neural network model uses to detect the lesion in the magnetic resonance image.

도 4를 참조하면, S100 단계에서, 컴퓨팅 장치(100)는 사전 학습된 신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 신경망 모델에 의료 영상을 입력하여, 의료 영상에 병변이 존재하는지 여부를 분류할 수 있다. 이때, 신경망 모델은 의료 영상의 특징을 추출하는 신경망 및 의료 영상의 특징을 기초로 병변을 분류하는 신경망을 포함할 수 있다. 예를 들어, 신경망 모델은 합성곱 신경망을 포함할 수 있으나, 이에 제한되지 않는다.Referring to FIG. 4 , in step S100 , the computing device 100 may detect a lesion present in a medical image using a pre-trained neural network model. In other words, the computing device 100 may input a medical image to the neural network model and classify whether a lesion exists in the medical image. In this case, the neural network model may include a neural network for extracting features of a medical image and a neural network for classifying lesions based on features of the medical image. For example, the neural network model may include, but is not limited to, a convolutional neural network.

S200 단계에서, 컴퓨팅 장치(100)는 신경망 모델에 포함된 소정의 레이어의 출력을 기초로, 의료 영상 내 병변 영역을 나타내는 라벨을 생성할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 신경망 모델이 의료 영상의 특징을 추출하는 과정에서 특정 레이어에서 도출된 출력을 기초로, 의료 영상의 병변 유무를 나타내는 라벨을 생성할 수 있다. 이때, 소정의 레이어는 신경망 모델의 구조에 맞추어 사전 결정된 순서의 레이어일 수 있다. 예를 들어, 합성곱 신경망을 포함하는 신경망 모델의 경우, 소정의 레이어는 마지막 합성곱 레이어일 수 있다.In operation S200 , the computing device 100 may generate a label indicating a lesion region in a medical image based on an output of a predetermined layer included in the neural network model. In other words, the computing device 100 may generate a label indicating the presence or absence of a lesion in the medical image based on an output derived from a specific layer while the neural network model extracts features of the medical image. In this case, the predetermined layer may be a layer in a predetermined order according to the structure of the neural network model. For example, in the case of a neural network model including a convolutional neural network, the predetermined layer may be the last convolutional layer.

한편, S100 단계와 S200 단계는 단계를 상호 구별하기 위해 부여된 부호일 뿐이므로, S100 단계와 S200 단계는 순차적으로 수행될 수도 있고, 병렬적으로 수행될 수 있다.On the other hand, since steps S100 and S200 are only codes given to distinguish the steps from each other, steps S100 and S200 may be performed sequentially or in parallel.

앞서 설명된 본 개시의 다양한 실시예는 추가 실시예와 결합될 수 있고, 상술한 상세한 설명에 비추어 당업자가 이해 가능한 범주에서 변경될 수 있다. 본 개시의 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해되어야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성요소들도 결합된 형태로 실시될 수 있다. 따라서, 본 개시의 특허청구범위의 의미, 범위 및 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다. Various embodiments of the present disclosure described above may be combined with additional embodiments and may be modified within the scope understood by those skilled in the art in light of the above detailed description. It should be understood that the embodiments of the present disclosure are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form. Accordingly, all changes or modifications derived from the meaning, scope, and equivalent concept of the claims of the present disclosure should be construed as being included in the scope of the present disclosure.

Claims (11)

적어도 하나의 프로세서를 포함하는 컴퓨팅 장치에 의해 수행되는, 라벨 생성 방법으로서,
신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 단계;
상기 신경망 모델에 포함된 특징 추출 레이어(layer) 중 어느 하나의 출력에서 그래디언트(gradient)를 추출하고, 상기 그래디언트를 기초로 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성하는 단계; 및
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계;
를 포함하는,
방법.
A method for generating a label, performed by a computing device comprising at least one processor, the method comprising:
detecting a lesion present in a medical image using a neural network model;
A heatmap corresponding to extracting a gradient from the output of any one of the feature extraction layers included in the neural network model, and analyzing the features of the neural network model for the medical image based on the gradient creating a; and
generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map;
containing,
Way.
제 1 항에 있어서,
상기 의료 영상은,
자기 공명 신호로부터 획득된 케이-스페이스(k-space) 데이터를 기초로, 푸리에 변환(fourier transform)을 통해 생성된 자기 공명 영상인,
방법.
The method of claim 1,
The medical image is
Based on the k-space data obtained from the magnetic resonance signal, the magnetic resonance image generated through the Fourier transform (Fourier transform),
Way.
제 1 항에 있어서,
상기 신경망 모델은,
상기 의료 영상 및 상기 의료 영상의 촬영 시에 조정이 가능한 스캔 파라미터(scan parameter)를 입력받는,
방법.
The method of claim 1,
The neural network model is
receiving the medical image and a scan parameter that can be adjusted when the medical image is taken,
Way.
제 1 항에 있어서,
상기 의료 영상에 존재하는 병변을 탐지하는 단계는,
상기 신경망 모델의 i번째(i는 자연수) 레이어(layer)에서 산출된 제 1 특징을 기초로, 푸리에 변환을 통해 제 2 특징을 생성하는 단계; 및
상기 신경망 모델의 i+1번째 레이어로, 상기 i번째 레이어에서 산출된 제 1 특징 및 상기 푸리에 변환을 통해 생성된 제 2 특징을 입력하는 단계;
를 포함하는,
방법.
The method of claim 1,
The step of detecting the lesion present in the medical image,
generating a second feature through a Fourier transform based on a first feature calculated from an i-th (i is a natural number) layer of the neural network model; and
inputting the first feature calculated from the i-th layer and the second feature generated through the Fourier transform into the i+1-th layer of the neural network model;
containing,
Way.
삭제delete 삭제delete 제 1 항에 있어서,
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는,
상기 히트맵에 표현된 병변 영역에 존재하는 공백 영역을 보정하는 단계;
를 포함하는,
방법.
The method of claim 1,
Generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map comprises:
correcting a blank area existing in the lesion area expressed in the heat map;
containing,
Way.
제 1 항에 있어서,
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 단계는,
상기 히트맵에 존재하는 노이즈(noise)를 보정하는 단계;
를 포함하는,
방법.
The method of claim 1,
Generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map comprises:
correcting noise present in the heat map;
containing,
Way.
제 1 항에 있어서,
상기 신경망 모델은,
병변이 존재하는 제 1 학습 영상 또는 병변이 존재하지 않는 제 2 학습 영상 중 적어도 하나를 기초로, 병변의 유무를 분류하도록 학습된 것인,
방법.
The method of claim 1,
The neural network model is
Based on at least one of the first learning image in which the lesion exists and the second learning image in which the lesion does not exist, it is learned to classify the presence or absence of the lesion,
Way.
컴퓨터 판독가능 저장 매체 저장된 컴퓨터 프로그램(program)으로서, 상기 컴퓨터 프로그램은 하나 이상의 프로세서(processor)에서 실행되는 경우, 라벨을 생성하기 위한 동작들을 수행하도록 하며,
상기 동작들은,
신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하는 동작;
상기 신경망 모델에 포함된 특징 추출 레이어(layer) 중 어느 하나의 출력에서 그래디언트(gradient)를 추출하고, 상기 그래디언트를 기초로 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성하는 동작; 및
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는 동작;
을 포함하는,
컴퓨터 프로그램.
A computer program stored in a computer readable storage medium, wherein the computer program, when executed on one or more processors, performs operations for generating a label,
The actions are
detecting a lesion present in a medical image using a neural network model;
A heatmap corresponding to extracting a gradient from the output of any one of the feature extraction layers included in the neural network model, and analyzing the features of the neural network model for the medical image based on the gradient creating an action; and
generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map;
containing,
computer program.
라벨을 생성하기 위한 컴퓨팅 장치로서,
적어도 하나의 코어(core)를 포함하는 프로세서(processor);
상기 프로세서에서 실행 가능한 프로그램 코드(code)들을 포함하는 메모리(memory); 및
의료 영상을 수신하기 위한 네트워크부(network unit);
를 포함하고,
상기 프로세서는,
신경망 모델을 사용하여, 의료 영상에 존재하는 병변을 탐지하고,
상기 신경망 모델에 포함된 특징 추출 레이어(layer) 중 어느 하나의 출력에서 그래디언트(gradient)를 추출하고, 상기 그래디언트를 기초로 상기 의료 영상에 대한 상기 신경망 모델의 특징 해석에 대응되는 히트맵(heatmap)을 생성하며,
상기 히트맵을 기초로 상기 의료 영상 내 특정 영역의 병변 유무를 나타내는 라벨을 생성하는,
장치.
A computing device for generating a label, comprising:
a processor including at least one core;
a memory including program codes executable by the processor; and
a network unit for receiving a medical image;
including,
The processor is
Using a neural network model to detect lesions present in medical images,
A heatmap corresponding to extracting a gradient from the output of any one of the feature extraction layers included in the neural network model, and analyzing the features of the neural network model for the medical image based on the gradient creates,
generating a label indicating the presence or absence of a lesion in a specific region in the medical image based on the heat map,
Device.
KR1020220009724A 2022-01-24 2022-01-24 Method, program, and apparatus for generating label KR102442591B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220009724A KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label
KR1020220112748A KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220009724A KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220112748A Division KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Publications (1)

Publication Number Publication Date
KR102442591B1 true KR102442591B1 (en) 2022-09-13

Family

ID=83286774

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220009724A KR102442591B1 (en) 2022-01-24 2022-01-24 Method, program, and apparatus for generating label
KR1020220112748A KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220112748A KR20230114170A (en) 2022-01-24 2022-09-06 Method, program, and apparatus for generating label

Country Status (1)

Country Link
KR (2) KR102442591B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130012297A (en) 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus for detecting lesion, method for detecting lesion and lesion diagnosis apparatus
KR102097743B1 (en) * 2019-07-25 2020-04-06 주식회사 딥노이드 Apparatus and Method for analyzing disease based on artificial intelligence
KR20200092450A (en) * 2019-01-04 2020-08-04 주식회사 인터파크 Technique for perfoming data labeling
WO2021033303A1 (en) * 2019-08-22 2021-02-25 Hoya株式会社 Training data generation method, learned model, and information processing device
KR102222509B1 (en) * 2020-05-28 2021-03-03 주식회사 에프앤디파트너스 Method for assisting determination on medical images and apparatus using the same
WO2021087140A1 (en) * 2019-10-29 2021-05-06 Google Llc Multi-variable heatmaps for computer-aided diagnostic models
KR20210120489A (en) * 2020-03-27 2021-10-07 주식회사 뷰노 Label data generation method and apparatus using same
KR20210152048A (en) * 2020-06-05 2021-12-14 주식회사 래디센 Method and system for real-time automatic X-ray image reading based on artificial intelligence

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130012297A (en) 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus for detecting lesion, method for detecting lesion and lesion diagnosis apparatus
KR20200092450A (en) * 2019-01-04 2020-08-04 주식회사 인터파크 Technique for perfoming data labeling
KR102097743B1 (en) * 2019-07-25 2020-04-06 주식회사 딥노이드 Apparatus and Method for analyzing disease based on artificial intelligence
WO2021033303A1 (en) * 2019-08-22 2021-02-25 Hoya株式会社 Training data generation method, learned model, and information processing device
WO2021087140A1 (en) * 2019-10-29 2021-05-06 Google Llc Multi-variable heatmaps for computer-aided diagnostic models
KR20210120489A (en) * 2020-03-27 2021-10-07 주식회사 뷰노 Label data generation method and apparatus using same
KR102222509B1 (en) * 2020-05-28 2021-03-03 주식회사 에프앤디파트너스 Method for assisting determination on medical images and apparatus using the same
KR20210152048A (en) * 2020-06-05 2021-12-14 주식회사 래디센 Method and system for real-time automatic X-ray image reading based on artificial intelligence

Also Published As

Publication number Publication date
KR20230114170A (en) 2023-08-01

Similar Documents

Publication Publication Date Title
US11961233B2 (en) Method and apparatus for training image segmentation model, computer device, and storage medium
Mahapatra et al. Image super-resolution using progressive generative adversarial networks for medical image analysis
US11593943B2 (en) RECIST assessment of tumour progression
US10467495B2 (en) Method and system for landmark detection in medical images using deep neural networks
US11929174B2 (en) Machine learning method and apparatus, program, learned model, and discrimination apparatus using multilayer neural network
CN113256592B (en) Training method, system and device of image feature extraction model
US20210241037A1 (en) Data processing apparatus and method
US11790492B1 (en) Method of and system for customized image denoising with model interpretations
CN110858399A (en) Method and apparatus for providing virtual tomographic stroke follow-up detection images
KR102472550B1 (en) Method, program, and apparatus for detecting lesions
EP3836078A1 (en) Medical image segmentation and atlas image selection
KR102442591B1 (en) Method, program, and apparatus for generating label
KR102513218B1 (en) Method, computer program and apparatus for generating training data
KR102526487B1 (en) Method, program, and apparatus for processing medical data for training of deep learning model
US20220292673A1 (en) On-Site training of a machine-learning algorithm for generating synthetic imaging data
US20230041575A1 (en) Ai-based region-of-interest masks for improved data reconstruction
US11580390B2 (en) Data processing apparatus and method
CN116420165A (en) Detection of anatomical anomalies by segmentation results with and without shape priors
CN113316803A (en) Correcting segmentation of medical images using statistical analysis of historical corrections
KR102584250B1 (en) Method, computer program and apparatus for processing data
US20240144469A1 (en) Systems and methods for automatic cardiac image analysis
KR102594259B1 (en) Method, program, and apparatus for detecting candidates of blood drawing
Horng et al. The anomaly detection mechanism using deep learning in a limited amount of data for fog networking
KR102613718B1 (en) Method, program, and apparatus for object tracking based on medical imaging
KR102641346B1 (en) Vessel detection method and computer program performing the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant