KR102186632B1 - Device for training analysis model of medical image and training method thereof - Google Patents

Device for training analysis model of medical image and training method thereof Download PDF

Info

Publication number
KR102186632B1
KR102186632B1 KR1020190001966A KR20190001966A KR102186632B1 KR 102186632 B1 KR102186632 B1 KR 102186632B1 KR 1020190001966 A KR1020190001966 A KR 1020190001966A KR 20190001966 A KR20190001966 A KR 20190001966A KR 102186632 B1 KR102186632 B1 KR 102186632B1
Authority
KR
South Korea
Prior art keywords
medical image
frame
labeling
learning
analysis model
Prior art date
Application number
KR1020190001966A
Other languages
Korean (ko)
Other versions
KR20200092466A (en
Inventor
박상현
원동규
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020190001966A priority Critical patent/KR102186632B1/en
Publication of KR20200092466A publication Critical patent/KR20200092466A/en
Application granted granted Critical
Publication of KR102186632B1 publication Critical patent/KR102186632B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor

Abstract

효율적으로 의료영상의 분석 모델을 학습시키는 학습 장치 및 그 학습 방법에 관한 것이다. 학습 장치는 메모리 및 프로세서를 포함하며, 메모리는 의료 영상 분석을 위한 분석모델이 저장된다. 이에 의해, 다수의 3차원 의료 영상의 병변 부위를 라벨링 해주는 작업의 시간을 단축할 수 있게 된다.It relates to a learning device for efficiently learning an analysis model of a medical image and a learning method thereof. The learning device includes a memory and a processor, and the memory stores an analysis model for analyzing a medical image. Accordingly, it is possible to shorten the time required for labeling lesions of a plurality of 3D medical images.

Description

의료 영상의 분석 모델을 학습시키는 학습 장치 및 그 학습 방법 {Device for training analysis model of medical image and training method thereof}TECHNICAL FIELD [Device for training analysis model of medical image and training method thereof]

본 발명은 의료 영상의 분석 모델을 학습시키는 학습 장치 및 그 학습 방법에 관한 것으로, 더욱 상세하게는 사용자가 직접 체크한 병변에 기초하여 분석 모델을 학습시키는 학습 장치 및 그 학습 방법에 관한 것이다.The present invention relates to a learning device for learning an analysis model of a medical image and a learning method thereof, and more particularly, to a learning device and a learning method for learning an analysis model based on a lesion directly checked by a user.

전자 기술의 발달에 힘입어, 의료 분야에서도 다양한 전자 장치가 사용되고 있다. 특히, 카메라를 통해 촬영한 의료 영상을 분석하여, 환자의 환부나 병명 등을 검출할 수 있는 의료 영상 분석 장치도 점차 많이 사용되고 있다. With the development of electronic technology, various electronic devices are also used in the medical field. In particular, medical image analysis devices capable of analyzing a medical image captured through a camera to detect a patient's diseased part or disease name are increasingly being used.

종전의 의료 영상 분석 장치의 경우, 라벨링 방식으로 구현되는 것이 일반적이었다. 라벨링 방식이란, 뇌 MR(Magnetic Resonance)영상등으로부터 병변을 추출하기 위해 사용자가 직접 병변에 체크를 하는 방식을 의미한다. In the case of a conventional medical image analysis device, it was generally implemented in a labeling method. The labeling method refers to a method in which a user directly checks a lesion to extract a lesion from a brain magnetic resonance (MR) image.

종래의 의료 영상 분석 장치는 분석 성능 및 효율을 더 개선시키기 위해서, 분석 모델을 사용하였다. 분석 모델이란 의료 영상이 입력되면, 기존에 라벨링된 데이터에 기초하여, 입력된 의료 영상을 라벨링하는 소프트웨어 모델을 의미한다. The conventional medical image analysis apparatus uses an analysis model in order to further improve analysis performance and efficiency. The analysis model refers to a software model for labeling the input medical image based on previously labeled data when a medical image is input.

이러한 분석 모델은 성능 개선을 위해서 수시로 또는 주기적으로 학습을 시켜야 한다. 이 경우, 사용자가 임의로 선정한 데이터에 대해 오랜 시간 라벨링을 한 뒤 이들을 이용하여 학습을 수행하는 것이 일반적이다. 따라서, 종래의 분석 모델은 임의로 선정한 데이터가 좋지 않을 경우 학습이 비효율적으로 진행되는 문제가 발생될 수 있다. 또한 의미 없는 데이터를 학습하는 경우가 많아, 학습이 비효율적으로 진행된다는 문제도 발생될 수 있다.Such an analysis model should be trained frequently or periodically to improve performance. In this case, it is common to label data arbitrarily selected by the user for a long time and then perform learning using them. Therefore, in the conventional analysis model, if randomly selected data is not good, there may be a problem that learning is inefficiently performed. In addition, there are many cases of learning meaningless data, which can lead to a problem that learning proceeds inefficiently.

본 발명은 이와 같은 문제점을 해결하기 위해 창출된 것으로, 본 발명의 목적은 의료 영상의 분석 모델을 학습시키는 학습 장치에 도움이 되는 영상을 이용하여 분석 모델을 학습시킬 수 있는 학습 장치 및 그 학습 방법을 제공함에 있다.The present invention was created to solve such a problem, and an object of the present invention is a learning device capable of learning an analytic model using an image useful for a learning device for learning an analytic model of a medical image, and a learning method thereof In providing.

상기 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 의료 영상의 분석 모델을 학습시키는 학습 장치는 상기 분석 모델이 저장된 메모리; 및 상기 분석 모델을 이용하여 의료 영상을 분석하는 프로세서;를 포함하며, 상기 프로세서는, 라벨링이 완료된 제 1 의료영상을 이용하여 상기 분석 모델을 학습하고, 라벨링 이전의 제 2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료 영상의 각 프레임의 불확실성을 계산하며, 상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하여, 상기 선정된 프레임에 대한 라벨링을 입력받고, 상기 라벨링이 입력된 프레임을 상기 제 1 의료영상에 추가하여 제 3 의료 영상을 생성한 후, 상기 제 3 의료 영상을 이용하여 상기 분석 모델을 학습하는, 학습 장치 이다. A learning apparatus for learning an analysis model of a medical image according to an embodiment of the present invention for achieving the above object includes: a memory storing the analysis model; And a processor for analyzing a medical image using the analysis model, wherein the processor learns the analysis model using the first medical image for which labeling has been completed, and the learned on the second medical image before labeling. By applying an analysis model, the uncertainty of each frame of the second medical image is calculated, and at least one frame in which the uncertainty exceeds a preset condition is selected from among the second medical images, and labeling of the selected frame is performed. It is a learning device that learns the analysis model by using the third medical image after generating a third medical image by adding a frame to which the input is received and the labeling is inputted to the first medical image.

또한, 상기 프로세서는, 상기 라벨링 이전의 제 2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료 영상의 확률 맵을 생성하고, 상기 확률 맵을 이용하여 각 프레임의 불확실성을 계산하며, 상기 불확실성은 상기 확률 맵의 각 복셀(Voxel)의 엔트로피의 합인 것을 특징으로 할 수 있다.In addition, the processor generates a probability map of the second medical image by applying the learned analysis model to the second medical image before labeling, and calculates an uncertainty of each frame using the probability map, and the The uncertainty may be characterized by a sum of entropy of each voxel of the probability map.

또한, 디스플레이;를 더 포함 할 수 있으며, 이 경우 상기 프로세서는, 상기 제2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 것으로 선정된 적어도 하나의 프레임에 대한 라벨링 입력을 요청하는 UI(User Interface)를 상기 디스플레이에 표시하고, 상기 UI 상에서 상기 적어도 하나의 프레임 각각의 병변 부위가 체크되면, 체크된 부분에 대한 데이터를 상기 각 프레임의 데이터에 추가하여, 상기 적어도 하나의 프레임을 라벨링 할 수 있다. In addition, it may further include a display; in this case, the processor is a UI (User Interface) for requesting a labeling input for at least one frame selected as the uncertainty exceeds a preset condition among the second medical images. ) Is displayed on the display, and when a lesion portion of each of the at least one frame is checked on the UI, data on the checked portion is added to the data of each frame, so that the at least one frame can be labeled. .

한편, 본 발명의 일 실시 예에 따른 의료 영상용 분석 모델의 학습방법은 라벨링이 완료된 제1 의료 영상을 이용하여 분석 모델을 학습하는 단계; 라벨링 이전의 제2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제2 의료 영상의 각 프레임의 불확실성을 계산하는 단계; 상기 제2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하는 단계; 상기 선정된 프레임에 대한 라벨링이 입력되면, 상기 라벨링이 입력된 프레임을 상기 제1 의료 영상에 추가하여 제3 의료 영상을 생성하는 단계; 및 상기 제3 의료 영상을 이용하여 상기 분석 모델을 학습하는 단계;를 포함한다.Meanwhile, a method of learning an analysis model for a medical image according to an embodiment of the present invention includes: learning an analysis model using a first medical image for which labeling has been completed; Calculating an uncertainty of each frame of the second medical image by applying the learned analysis model to a second medical image before labeling; Selecting at least one frame from among the second medical images in which the uncertainty exceeds a preset condition; When labeling for the selected frame is input, generating a third medical image by adding the label inputted frame to the first medical image; And learning the analysis model using the third medical image.

또한, 상기 불확실성을 계산하는 단계는, 상기 라벨링 이전의 제2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제2 의료 영상의 확률 맵을 생성하는 단계; 상기 확률 맵을 이용하여 상기 제2 의료 영상의 불확실성을 산출하는 단계;를 포함할 수 있으며, 상기 불확실성은, 상기 확률 맵의 각 복셀(Voxel)의 엔트로피의 합일 수 있다.In addition, calculating the uncertainty may include generating a probability map of the second medical image by applying the learned analysis model to the second medical image before labeling; And calculating an uncertainty of the second medical image using the probability map, wherein the uncertainty may be a sum of entropy of each voxel of the probability map.

또한, 상기 제3 의료 영상을 생성하는 단계는, 상기 제2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 것으로 선정된 적어도 하나의 프레임에 대한 라벨링 입력을 요청하는 UI(User Interface)를 디스플레이하는 단계; 상기 UI 상에서 상기 적어도 하나의 프레임 각각의 병변 부위가 체크되면, 체크된 부분에 대한 데이터를 상기 각 프레임의 데이터에 추가하여, 상기 적어도 하나의 프레임을 라벨링하는 단계; 상기 라벨링된 프레임을 상기 제1 의료 영상에 추가하여 상기 제3 의료 영상을 생성하는 단계;를 포함할 수 있다.In addition, the generating of the third medical image may include displaying a UI (User Interface) requesting a labeling input for at least one frame selected as the uncertainty of the second medical image exceeding a preset condition. step; When a lesion portion of each of the at least one frame is checked on the UI, labeling the at least one frame by adding data on the checked portion to the data of each frame; And generating the third medical image by adding the labeled frame to the first medical image.

한편, 본 발명의 일 실시 예에 따른 의료 영상 용 분석 모델을 학습하는 학습 방법을 실행하기 위한 프로그램이 저장된 기록매체가 개시될 수 있다. 여기서, 상기 학습 방법은, 라벨링이 완료된 제1 의료 영상을 이용하여 분석 모델을 학습하는 단계; 라벨링 이전의 제2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제2 의료 영상의 각 프레임의 불확실성을 계산하는 단계; 상기 제2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하는 단계; 상기 선정된 프레임에 대한 라벨링이 입력되면, 상기 라벨링이 입력된 프레임을 상기 제1 의료 영상에 추가하여 제3 의료 영상을 생성하는 단계; 및 상기 제3 의료 영상을 이용하여 상기 분석 모델을 학습하는 단계;를 포함한다. Meanwhile, a recording medium in which a program for executing a learning method for learning an analysis model for medical images according to an embodiment of the present invention may be stored may be disclosed. Here, the learning method includes: learning an analysis model using the first medical image for which labeling has been completed; Calculating an uncertainty of each frame of the second medical image by applying the learned analysis model to a second medical image before labeling; Selecting at least one frame from among the second medical images in which the uncertainty exceeds a preset condition; When labeling for the selected frame is input, generating a third medical image by adding the label inputted frame to the first medical image; And learning the analysis model using the third medical image.

이상과 같은 본 발명의 다양한 실시 예들에 따르면, 라벨링이 없는 영상데이터 중, 학습모델 업데이트에 도움이 되는 영상을 분석장치가 자동으로 선정해줌으로써 사용자의 라벨링 시간을 줄여줄 수 있다.According to various embodiments of the present invention as described above, the analysis device automatically selects an image useful for updating a learning model among image data without labeling, thereby reducing the labeling time of the user.

도 1은 본 발명의 일 실시 예에 따른 학습 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 제 1 의료영상, 제 2 의료영상, 제 3 의료영상을 나타내는 도면이다.
도 3은 상기 학습 장치에서 디스플레이를 더 포함하는 의료영상 분석 장치의 구성을 나타내는 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 하나의 3차원 프레임을 2차원 영상으로 분할한 것을 나타내는 도면이다.
도 5(a)는 본 발명의 일 실시 예에 따라 디스플레이되는 UI 구성의 일 예를 나타내는 도면이다.
도 5(b)는 본 발명의 일 실시 예에 따라 사용자가 디스플레이 되는 2차원 영상에 라벨링을 한 것을 나타내는 도면이다.
도 5(c)는 본 발명의 일 실시 예에 따라 사용자가 디스플레이 되는 2차원 영상을 다음 2차원 영상으로 넘긴것을 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 의료 영상 용 분석 모델의 학습 방법을 설명하기 위한 흐름도이다.
도 7은 무작위로 선정한 데이터와 제안하는 기법으로 선정한 데이터로 만든 학습모델간 영역화 성능을 비교한 표이다.
도 8은 무작위 선정 기법과 제안하는 선정 기법(액티브 러닝)의 영역화 성능을 비교한 표이다.
1 is a block diagram showing the configuration of a learning device according to an embodiment of the present invention.
2 is a diagram showing a first medical image, a second medical image, and a third medical image according to an embodiment of the present invention.
3 is a block diagram showing the configuration of a medical image analysis device further including a display in the learning device.
4 is a diagram illustrating a division of one 3D frame into a 2D image according to an embodiment of the present invention.
5(a) is a diagram illustrating an example of a UI configuration displayed according to an embodiment of the present invention.
FIG. 5(b) is a diagram illustrating labeling a 2D image displayed by a user according to an embodiment of the present invention.
FIG. 5(c) is a diagram illustrating that a user transfers a displayed 2D image to a next 2D image according to an embodiment of the present invention.
6 is a flowchart illustrating a method of learning an analysis model for a medical image according to an embodiment of the present invention.
7 is a table comparing the domainization performance between a learning model made from randomly selected data and data selected by a proposed technique.
8 is a table comparing the domainization performance of a random selection technique and a proposed selection technique (active learning).

이하에서는 첨부 도면을 참조하여 본 발명에 대해서 자세하게 설명한다. 본 명세서에서 언급되는 전송 또는 전달이라 함은, 데이터나 정보 또는 신호의 전송 등을 의미할 수 있으며, 필요에 따라서 암호화/복호화가 적용될 수 있다. Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. Transmission or transmission referred to in this specification may mean transmission of data, information, or signals, and encryption/decryption may be applied as necessary.

또한, 본 명세서에서 "A로부터 B로 전송(전달)" 또는 "A가 B로부터 수신"과 같은 형태의 표현은 중간에 다른 매개체가 포함되어 전송(전달) 또는 수신되는 것도 포함하며, 반드시 A로부터 B까지 직접 전송(전달) 또는 수신되는 것만을 표현하는 것은 아니다. 또한, 본 명세서에서 도시 및 언급되는 각 장치들은 서로 독립적인 장치로 구현될 수도 있지만, 반드시 이에 한정되는 것은 아니며 하나의 장치 안에 포함되는 여러 부품들로 구현될 수도 있다. In addition, in this specification, expressions in the form of "transmitted from A to B (transmitted)" or "received from A by B" include those transmitted (transmitted) or received with another medium in the middle, and must be It does not express only what is directly transmitted (delivered) or received up to B. In addition, each of the devices illustrated and referred to in the present specification may be implemented as devices that are independent of each other, but are not necessarily limited thereto and may be implemented with several components included in one device.

본 발명의 설명에 있어서 각 단계의 순서는 선행 단계가 논리적 및 시간적으로 반드시 후행 단계에 앞서서 수행되어야 하는 경우가 아니라면 각 단계의 순서는 비제한적으로 이해되어야 한다. 즉, 위와 같은 예외적인 경우를 제외하고는 후행 단계로 설명된 과정이 선행단계로 설명된 과정보다 앞서서 수행되더라도 발명의 본질에는 영향이 없으며 권리범위 역시 단계의 순서에 관계없이 정의되어야 한다. In the description of the present invention, the order of each step should be understood without limitation, unless the preceding step must be performed logically and temporally prior to the subsequent step. That is, except for the above exceptional cases, even if a process described as a subsequent step is performed prior to a process described as a preceding step, the essence of the invention is not affected, and the scope of rights should be defined regardless of the order of the steps.

그리고 본 명세서에서 "A 또는 B"라고 기재한 것은 A와 B 중 어느 하나를 선택적으로 가리키는 것뿐만 아니라 A와 B 모두를 포함하는 것도 의미하는 것으로 정의된다. 또한, 본 명세서에서 "포함"이라는 용어는 나열된 요소 이외에 추가로 다른 구성요소를 더 포함하는 것도 포괄하는 의미를 가진다.And in the present specification, "A or B" is defined to mean not only selectively indicating any one of A and B, but also including both A and B. In addition, in the present specification, the term "comprising" has a meaning to include further components other than the listed elements.

본 명세서에서는 본 발명의 각 실시 예의 설명에 필요한 구성요소를 설명한 것이므로, 반드시 이에 한정되는 것은 아니다. 따라서, 일부 구성요소는 변경 또는 생략될 수도 있으며, 다른 구성요소가 추가될 수도 있다. 또한, 서로 다른 독립적인 장치에 분산되어 배치될 수도 있다. In the present specification, components necessary for the description of each embodiment of the present invention have been described, and the present disclosure is not limited thereto. Accordingly, some components may be changed or omitted, and other components may be added. It can also be distributed and arranged in different independent devices.

후술하는 본 발명의 각 단계의 수학적 연산 및 산출은 해당 연산 또는 산출을 하기 위해 공지되어 있는 코딩 방법 및/또는 본 발명에 적합하게 고안된 코딩에 의해서 컴퓨터 연산으로 구현될 수 있다.The mathematical operation and calculation of each step of the present invention to be described later may be implemented as a computer operation by a known coding method for performing the corresponding operation or calculation and/or coding designed suitable for the present invention.

이하에서는 첨부된 도면을 이용하여 본 발명의 다양한 실시 예들에 대하여 구체적으로 설명한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 학습 장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a learning device according to an embodiment of the present invention.

학습 장치(100)란 의료 영상의 분석 모델을 학습시키는 학습 장치를 의미한다. 학습 장치(100)는 의료 영상을 분석하는 분석 장치 그 자체로 구현될 수도 있지만, 별도의 장치로 구현될 수도 있다. 예를 들어, 학습 장치(100)는, 스마트폰, 태블릿PC, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 서버, PDA, PMP, 키오스크 등으로 구현될 수 있다. 분석 장치와 별개의 장치로 학습 장치(100)가 구현된 경우, 학습 장치(100)는 분석 장치와 유선 또는 무선 인터페이스로 연결되어, 분석 모델을 제공하여 줄 수도 있다. The learning device 100 refers to a learning device that learns an analysis model of a medical image. The learning device 100 may be implemented as an analysis device that analyzes a medical image, but may be implemented as a separate device. For example, the learning device 100 may be implemented as a smart phone, a tablet PC, a desktop PC, a laptop PC, a netbook computer, a server, a PDA, a PMP, a kiosk, or the like. When the learning device 100 is implemented as a device separate from the analysis device, the learning device 100 may be connected to the analysis device through a wired or wireless interface to provide an analysis model.

도 1에 도시하는 바와 같이 학습장치(100)는 메모리(120)와 프로세서(110)를 포함할 수 있다.As shown in FIG. 1, the learning apparatus 100 may include a memory 120 and a processor 110.

메모리(120)는 학습 장치(100)의 동작에 필요한 각종 프로그램 및 데이터 등을 저장할 수 있다. 특히, 메모리(120)는 의료 영상 분석을 위한 분석 모델을 저장할 수도 있다. The memory 120 may store various programs and data necessary for the operation of the learning device 100. In particular, the memory 120 may store an analysis model for analyzing a medical image.

분석 모델이란 인공지능 알고리즘에 의해 학습된 인공지능 모델을 의미한다. 분석 모델은 의료영상 프레임에서 병변부위를 라벨링 하거나 상기 의료영상 프레임에 대한 확률 맵을 생성할 수 있다. 예컨대, 인공지능 모델에 의료 영상 프레임을 입력하면, 출력 데이터로서 병변 부위가 라벨링된 의료 영상을 획득 할 수 있다. The analytic model refers to an artificial intelligence model learned by an artificial intelligence algorithm. The analysis model may label a lesion area in a medical image frame or generate a probability map for the medical image frame. For example, when a medical image frame is input to an artificial intelligence model, a medical image labeled with a lesion area may be obtained as output data.

분석 모델은, 신경망을 기반으로 하는 모델일 수 있다. 구체적으로는, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Depp Neural Network) 등이 있을 수 있으나 이에 한정되지 않는다.The analysis model may be a model based on a neural network. Specifically, there may be a deep neural network (DNN), a recurrent neural network (RNN), a bidirectional recurrent depp neural network (BRDNN), and the like, but is not limited thereto.

메모리(120)는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장 메모리는, 예를 들면, 휘발성 메모리, 비휘발성 메모리 중 적어도 하나를 포함 할 수 있다. 외장 메모리는 플래시 드라이브, 예를 들면 CF, SD, Micro-SD, Mini-SD, xD, MMC 또는 메모리 스틱 등을 포함할 수 있다.The memory 120 may include, for example, an internal memory or an external memory. The built-in memory may include, for example, at least one of a volatile memory and a nonvolatile memory. The external memory may include a flash drive, for example, CF, SD, Micro-SD, Mini-SD, xD, MMC or memory stick.

메모리(120)는 프로세서(110)에 의해 액세스 되며, 프로세서(110)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.The memory 120 is accessed by the processor 110, and data read/write/edit/delete/update by the processor 110 may be performed.

프로세서(110)는 의료영상 분석 장치의 전반적인 동작을 제어하기 위한 구성이다. 예를 들면, 프로세서(110)는 운영 체제, 애플리케이션을 구동하여 프로세서(110)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(110)는 CPU 또는 GPU이거나 둘 다 일 수 있다. 프로세서(110)는 적어도 하나의 범용 프로세서, 디지털 신호 프로세서, ASIC, SoC, MICOM 등으로 구현될 수 있다.The processor 110 is a component for controlling the overall operation of the medical image analysis apparatus. For example, the processor 110 may control a plurality of hardware or software components connected to the processor 110 by driving an operating system and an application, and may perform various data processing and operations. The processor 110 may be a CPU or a GPU or both. The processor 110 may be implemented with at least one general-purpose processor, a digital signal processor, an ASIC, an SoC, or MICOM.

프로세서(110)는 메모리(120)에 저장된 분석 모델을 학습시킬 수 있다. 구체적으로는, 프로세서(110)는 라벨링이 완료된 제 1 의료영상을 이용하여 분석 모델을 학습하는 초기학습을 수행한다. The processor 110 may train an analysis model stored in the memory 120. Specifically, the processor 110 performs initial learning of learning an analysis model using the first medical image for which labeling has been completed.

또한, 프로세서(110)는 라벨링 이전의 제 2 의료영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료영상의 각 프레임의 불확실성을 계산한다. 여기서, 제1 의료 영상이란 라벨링이 이루어진 영상을 의미하고, 제2 의료 영상이란 제1 의료 영상과 달리 라벨링이 이루어지지 않은 상태의 영상을 의미한다. 여기서, 프레임이란 제 2 의료영상 집합에 속하는 하나의 의료영상을 의미한다. 즉 본 발명의 일 실시예에 따른 프레임은 하나의 뇌 MR 영상일 수 있다.Further, the processor 110 calculates the uncertainty of each frame of the second medical image by applying the learned analysis model to the second medical image before labeling. Here, the first medical image refers to an image in which labeling has been performed, and the second medical image refers to an image in a state in which labeling is not performed unlike the first medical image. Here, the frame means one medical image belonging to the second medical image set. That is, a frame according to an embodiment of the present invention may be one brain MR image.

프로세서(110)는 제2 의료 영상의 각 프레임의 불확실성에 따라, 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선택할 수 있다. 여기서, 조건이란 불확실성의 임계치 및 선택될 프레임 개수 등이 될 수 있다. 예를 들어, 불확실성의 임계치가 α이고, 프레임 개수가 k라면, 프로세서(110)는 α값을 초과하는 불확실성을 가진 프레임들 중 상위 k개의 프레임을 선택할 수 있다. 선택을 위한 조건은 사용 환경에 따라 다양하게 설정될 수 있다. The processor 110 may select at least one frame exceeding a preset condition according to the uncertainty of each frame of the second medical image. Here, the condition may be a threshold of uncertainty and the number of frames to be selected. For example, if the threshold of uncertainty is α and the number of frames is k, the processor 110 may select the upper k frames among frames having uncertainties exceeding the α value. Conditions for selection may be variously set according to the use environment.

프로세서(110)는 선정된 프레임에 대해 사용자에 라벨링을 요청한다. 라벨링 요청 방식은 다양하게 구현될 수 있다. 일 예로, 학습 장치(100)가 디스플레이를 자체적으로 구비하고 있는 경우, 프로세서(110)는 디스플레이 상에 라벨링 입력을 위한 UI를 표시한다. 이에 대해서는 후술하는 부분에서 구체적으로 설명한다. 한편, 학습 장치(100)가 자체 디스플레이를 구비하지 않고, 외부 디스플레이 장치와 통신 연결된 경우라면, 프로세서(110)는 라벨링 입력을 위한 UI 데이터를 외부 디스플레이 장치로 전송하여 그 장치를 통해 라벨링을 입력받을 수도 있다. The processor 110 requests the user to label the selected frame. The labeling request method can be implemented in various ways. For example, when the learning device 100 has a display on its own, the processor 110 displays a UI for labeling input on the display. This will be described in detail in a part to be described later. Meanwhile, if the learning device 100 does not have its own display and is communicatively connected with an external display device, the processor 110 transmits UI data for labeling input to the external display device and receives labeling through the device. May be.

라벨링이 입력되면, 프로세서(110)는 라벨링이 입력된 프레임을 제 1 의료 영상에 추가하여 제 3 의료영상을 생성한다. 즉, 제3 의료 영상이란 기존의 제1 의료 영상에, 새로이 라벨링된 프레임을 추가한 영상을 의미한다. When labeling is input, the processor 110 generates a third medical image by adding the frame to which the labeling is input to the first medical image. That is, the third medical image refers to an image obtained by adding a newly labeled frame to the existing first medical image.

프로세서(110)는 제 3 의료 영상을 이용하여 분석 모델을 학습한다. The processor 110 learns an analysis model using the third medical image.

이러한 프로세서(110)의 동작은, 사용자가 원하는 횟수 만큼 반복적으로 수행될 수 있다. 학습모델을 반복적으로 학습시킬 경우 라벨링의 정확도가 높아 질 수 있다.The operation of the processor 110 may be repeatedly performed as many times as desired by the user. If the learning model is repeatedly trained, the accuracy of labeling can be increased.

상술한 바와 같이, 학습 장치(100) 자체가 분석 장치로 구현된 경우, 프로세서(110)는 학습된 분석 모델을 이용하여 의료 영상을 분석할 수 있다. As described above, when the learning device 100 itself is implemented as an analysis device, the processor 110 may analyze the medical image using the learned analysis model.

도 1에서는 하나의 프로세서(110)를 구비한 것으로 도시하였으나, 분석 모델의 학습 및 이를 이용한 분석 등을 처리하기 위해서는 복수의 프로세서가 사용될 수도 있다. 예를 들어, 인공 지능 처리를 위해 기존의 범용 프로세서(예를 들어, CPU)가 이용될 수 있거나, 또는 단일 목적 프로세서(예를 들어, GPU, FPGA, ASIC등)가 이용될 수 있다. In FIG. 1, although one processor 110 is provided, a plurality of processors may be used to process the learning of an analysis model and analysis using the same. For example, an existing general-purpose processor (eg, CPU) may be used for artificial intelligence processing, or a single purpose processor (eg, GPU, FPGA, ASIC, etc.) may be used.

한편, 분석 장치와 별개의 독립적인 장치로 학습 장치(100)가 구현된 경우, 분석 모델을 기반으로 하는 영상 분석 동작은 외부 분석 장치에 의해 수행될 수 있다. Meanwhile, when the learning device 100 is implemented as an independent device separate from the analysis device, an image analysis operation based on the analysis model may be performed by an external analysis device.

도 2는 본 발명의 일 실시 예에 따른 제 1의료영상(a), 제 2의료영상(b), 제 3의료영상(c)을 나타내는 도면이다. 본 발명의 일 실시 예에 따른 의료영상은 뇌 MR영상일 수 있으나 이에 한정되지 않는다. 뇌 MR영상의 경우 3차원 영상이므로 도 2 에서 정육면체모양으로 3차원 프레임을 표현하였다.2 is a diagram showing a first medical image (a), a second medical image (b), and a third medical image (c) according to an embodiment of the present invention. The medical image according to an embodiment of the present invention may be a brain MR image, but is not limited thereto. In the case of the brain MR image, since it is a three-dimensional image, a three-dimensional frame is expressed in the shape of a cube in FIG. 2.

제 1 의료 영상(a)은 라벨링이 완료된 프레임의 집합을 의미한다. 여기서, 라벨링이란 의료영상내의 병변을 체크하는 것을 의미한다. 따라서 제 1 의료 영상(a)은 병변부분이 체크된 프레임들의 집합으로 볼 수 있다. 도 2에서는 뇌 MR영상에 점을 찍음으로 병변부분이 체크된 것을 표현하였다. 프로세서(110)는 이러한 제 1 의료 영상(a)을 바탕으로 상기 분석 모델을 학습하게 된다. The first medical image (a) refers to a set of frames for which labeling has been completed. Here, labeling means checking a lesion in a medical image. Therefore, the first medical image (a) can be viewed as a set of frames in which the lesion portion is checked. In FIG. 2, the lesion portion was checked by marking a dot on the brain MR image. The processor 110 learns the analysis model based on the first medical image (a).

제 2 의료 영상(b)은 라벨링 이전의 프레임의 집합을 의미한다. 즉, 병변부분이 체크되지 않는 프레임들의 집합을 의미한다. 프로세서(110)는 제1 의료 영상(a)을 바탕으로 학습된 분석 모델에, 제 2 의료 영상(b)을 적용하여, 상기 제 2 의료영상(b)의 각 프레임의 불확실성을 계산한다. 프로세서(110)는, 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하여, 상기 선정된 의료 의료영상에 대한 라벨링의 입력을 요청하게 된다. The second medical image (b) refers to a set of frames before labeling. That is, it means a set of frames in which the lesion portion is not checked. The processor 110 calculates the uncertainty of each frame of the second medical image (b) by applying the second medical image (b) to the analysis model learned based on the first medical image (a). The processor 110 selects at least one frame whose uncertainty exceeds a preset condition, and requests input of labeling for the selected medical medical image.

라벨링이 입력된 프레임을 제 1 의료영상에 추가하여 제 3 의료영상을 생성한다. 도 2에서 제 3의료영상(c)의 마지막 프레임이 추가된 프레임이다. 따라서 제 3 의료영상(c)은 기존 제 1 의료영상(a)에 제 2 의료영상(b)중 라벨링을 입력받은 프레임을 추가한 집합이 된다. A third medical image is generated by adding a frame to which labeling is input to the first medical image. In FIG. 2, the last frame of the third medical image c is added. Accordingly, the third medical image (c) is a set obtained by adding a frame received labeling among the second medical image (b) to the existing first medical image (a).

본 발명의 실시 예에 따른 영역화(Segmentation) 모델을 학습하기 위해서는 최근 여러 의료영상 영역화 문제에서 높은 성능을 보여왔던 U-NET을 사용할 수 있다. 다만, 이에 한정하지 않고 다른 모델 또한 사용할 수 있다. U-NET을 이용하는 경우 학습모델의 출력은 병변부위의 유무를 예측해주는 확률 맵(Prediction Map)이 된다. 영역화 문제에서는 보통 이 확률 맵 값이 0.5 이상이면 병변으로, 0.5 이하이면 배경으로 이진화한다. 다만, 본 발명의 일 실시예에 따른 불확실성을 측정하는 방법은 위와 같이 이진화 작업을 수행하지 않고 확률 맵을 바탕으로 엔트로피를 계산하여 불확실성을 측정한다. 불확실성을 계산하기 위한 방법에는 여러가지가 있으나. 확률 맵의 각 복셀(Voxel)의 엔트로피(Entropy)의 합을 영상의 불확실성으로 계산하는 방법이 사용 될 수 있다.In order to learn a segmentation model according to an embodiment of the present invention, a U-NET, which has recently shown high performance in various medical image segmentation problems, may be used. However, it is not limited thereto, and other models may also be used. In case of using U-NET, the output of the learning model becomes a prediction map that predicts the presence or absence of a lesion. In a regionalization problem, this probability map value is usually binarized to a lesion if it is greater than 0.5 and as a background if it is less than 0.5. However, the method of measuring uncertainty according to an embodiment of the present invention measures the uncertainty by calculating entropy based on a probability map without performing the binarization operation as described above. There are several ways to calculate the uncertainty. A method of calculating the sum of the entropy of each voxel of the probability map as the uncertainty of the image may be used.

복셀(Voxel)은 체적요소이며, 3차원 공간에서 정규 격자 단위의 값을 나타낸다. 복셀이라는 용어는 부피와 픽셀을 조합한 혼성어로 2차원 이미지 데이터가 픽셀로 표시되는 것에 대한 비유이다.Voxel is a volume element and represents a value of a regular grid unit in a three-dimensional space. The term voxel is a hybrid word that combines volume and pixels, and is a metaphor for displaying two-dimensional image data as pixels.

상기와 같이 프레임의 불확실성을 확률 맵의 각 복셀의 엔트로피의 합으로 정의하는 경우, 프레임 내 복셀 수는 N, 각 복셀을 n, 복셀이 관심영역일 확률값을 p_n이라 정의했을 때 불확실성 H는 다음 수식과 같이 정의될 수 있다. When the uncertainty of a frame is defined as the sum of the entropy of each voxel in the probability map as described above, when the number of voxels in the frame is N, each voxel is n, and the probability value that the voxel is the region of interest is defined as p_n, the uncertainty H is the following formula: It can be defined as

Figure 112020083297500-pat00010
Figure 112020083297500-pat00010

즉, 엔트로피가 높을수록 프레임 내의 병변부위인지의 여부가 모호하다는 것을 나타내며, 낮을수록 병변부위인지의 여부가 분명하다는 것을 의미한다.In other words, the higher the entropy, the more ambiguous whether the lesion is in the frame, and the lower the entropy, the more obvious it is.

위와 같이 제 2 의료 영상 각각의 프레임의 불확실성을 계산하며, 상기 제 2 의료 영상 중 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하게 된다. 이 경우 불확실성의 기준치는 데이터마다 그리고 업데이트 시마다 바뀌게 되므로, 상기 기 설정된 조건은 불확실성이 가장 높은 k 개의 프레임이 선별되도록 기 설정된 조건을 사용자가 변경할 수 있을 것이다. 또한 k는 사용자가 정할 수 있고 시간이나 리소스가 많을 때는 k를 늘릴 수 있을 것이다. 이 경우 k개의 수를 늘릴 뒤 업데이트를 하는 경우 모델의 성능 향상에 유리할 것이나, 여러 데이터들에 대해 병변부위를 라벨링 하는 시간이 데이터 수에 비례하게 늘어날 것이다.As described above, the uncertainty of each frame of the second medical image is calculated, and at least one frame of the second medical image in which the uncertainty exceeds a preset condition is selected. In this case, since the reference value of uncertainty is changed for each data and every update, the preset condition may be changed by the user to a preset condition such that k frames having the highest uncertainty are selected. Also, k can be set by the user, and k can be increased when there is a lot of time or resources. In this case, if the number of k is increased and then updated, it will be advantageous to improve the performance of the model, but the time to label the lesion area for multiple data will increase in proportion to the number of data.

상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하여, 상기 선정된 프레임에 대한 병변부위의 라벨링을 입력 받을 수 있다. 이 경우 병변부위의 라벨링 입력은 도 3에서 설명하듯이 디스플레이에서 이루어 질 수 있다.Among the second medical images, at least one frame in which the uncertainty exceeds a preset condition may be selected, and labeling of a lesion region for the selected frame may be input. In this case, the labeling input of the lesion site can be made on the display as described in FIG. 3.

도 3은 본 발명의 일 실시 예에 따른 상기 학습 장치(100)에서 디스플레이(330)를 더 포함하는 학습 장치(100)의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a learning device 100 further including a display 330 in the learning device 100 according to an embodiment of the present invention.

디스플레이(330)는 의료영상 프레임을 표시하기 위한 구성으로서, 예컨대, LCD(Liquid Crystal Display)로 구현될 수 있으며, 경우에 따라 CRT(cathode-ray tube), PDP(plasma display panel), OLED(organic light emitting diodes), TOLED(transparent OLED) 등으로 구현될 수 있다. 디스플레이(330)는 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수도 있다.The display 330 is a component for displaying a medical image frame, and may be implemented as, for example, a liquid crystal display (LCD), and in some cases, a cathode-ray tube (CRT), a plasma display panel (PDP), an organic light emitting diodes), TOLED (transparent OLED), etc. The display 330 may be implemented in the form of a touch screen capable of detecting a user's touch manipulation.

상기 제 2의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 것으로 선정된 적어도 하나의 프레임에 대한 라벨링 입력을 요청하는 UI(User Interface)를 상기 디스플레이에 표시할 수 있다. A UI (User Interface) requesting a labeling input for at least one frame selected as the uncertainty exceeding a preset condition among the second medical images may be displayed on the display.

도 4는 3차원 의료영상(400)을 병변부위 라벨링을 위해 2차원 영상으로 분할한 것을 나타내는 도면이다. 영상의 크기에 따라 수십,수백장의 2차원 영상으로 분할 할 수 있다. 프로세서(110)는 의료 영상을 분할된 2차원 영상단위로 구분해서 디스플레이(330)에 디스플레이한다. 이 경우, 프로세서(110)는 각 2차원 영상에서 병변 부위를 선택해달라는 메시지 및 그 병변 부위를 선택하는 방법 등을 함께 디스플레이할 수 있다. 이 경우, 프로세서(110)는 병변부위 라벨링을 위해 2차원 영상을 넘겨가며 라벨링을 할 수 있게 해주는 ITK-SNAP 등의 소프트웨어를 이용할 수 있으나, 이에 한정되지 않는다.4 is a diagram illustrating a 3D medical image 400 divided into a 2D image for labeling a lesion. Depending on the size of the image, it can be divided into tens or hundreds of 2D images. The processor 110 divides the medical image into divided 2D image units and displays it on the display 330. In this case, the processor 110 may display a message requesting to select a lesion site from each 2D image and a method of selecting the lesion site together. In this case, the processor 110 may use software such as ITK-SNAP that allows labeling while passing over a 2D image for labeling a lesion, but is not limited thereto.

도 5는 본 발명의 일 실시 예에 따라 디스플레이되는 UI 구성의 일 예를 나타내는 도면이다.5 is a diagram illustrating an example of a UI configuration displayed according to an embodiment of the present invention.

프로세서(110)는 디스플레이(330)에 2차원 영상과 함께 병변의 체크를 요구하는 안내말을 표시할 수 있다(520). 도5(a)에서는 2차원 제 1 영상(410)이 디스플레이에 표시된 도면이다. 사용자가 도5(b)와 같이 디스플레이에 표시되는 2차원 제 1 영상(410)에 대한 병변 라벨링을 완료하면, 도5(c)와 같이 다음 장으로 넘겨(530 아이콘 클릭) 다시 2차원 제 2 영상(420)에 대한 병변 라벨링을 하고, 각 프레임의 라벨링을 완료하면 다시 각 2차원 영상을 하나의 의료 영상 프레임으로 합쳐 의료 영상 프레임에 대한 라벨링을 완료하게 된다. 상기 라벨링이 완료된 프레임을 제 1의료영상에 추가하여 제 3 의료영상을 생성한 후, 상기 제 3의료 영상을 이용하여 상기 학습모델을 다시 학습할 수 있다.The processor 110 may display a guide message requesting a lesion check together with a 2D image on the display 330 (520). In Fig. 5(a), a 2D first image 410 is displayed on the display. When the user completes the lesion labeling for the first two-dimensional image 410 displayed on the display as shown in Fig. 5(b), it moves to the next chapter (click on the 530 icon) as shown in Fig. When the lesion labeling is performed on the image 420 and labeling of each frame is completed, each 2D image is merged into one medical image frame to complete labeling of the medical image frame. After generating a third medical image by adding the labeled frame to the first medical image, the learning model may be retrained using the third medical image.

도 6은 본 발명의 일 실시 예에 따른 의료 영상 용 분석 모델의 학습방법을 설명하기 위한 흐름도 이다. 6 is a flowchart illustrating a method of learning an analysis model for medical images according to an embodiment of the present invention.

도 6에 따르면, 학습 장치는 먼저 제 1 의료 영상을 이용하여 분석모델을 학습한다.(S601) 이 경우 학습 장치는 라벨링이 완료된 소수의 제 1 의료 영상 데이터를 이용하여 초기 분석 모델을 학습할 수 있다. 6, the learning device first learns an analysis model using a first medical image (S601). In this case, the learning device can learn an initial analysis model using a small number of first medical image data for which labeling has been completed. have.

뇌 MR 영상으로 부터 병변을 검출하는 기존의 지도학습 기법들은 보통 수 십장에서 수 백장의 프레임들과 라벨링을 가지고 모델을 학습한다. 따라서, 수 백장의 라벨링을 만드는 작업이 오래 걸리므로 작업을 효율적으로 진행하기 위해, 본 발명의 경우 학습 장치는 소수의 제 1 의료 영상 프레임을 이용하여 초기 분석 모델을 학습 할 수 있다. 그 후, 학습장치는 라벨링 이전의 제 2 의료영상에 상기 초기 분석 모델을 적용하여 상기 제 2 의료영상의 각 프레임의 불확실성을 계산한다.(S602) 그리고 학습장치는 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정한다.(S603) 학습장치는 선정된 적어도 하나의 프레임에 대한 라벨링을 입력받는다.(S604) 이 경우 라벨링은 사용자가 프레임에서의 병변부위를 체크하는 활동일 수 있다. 학습장치는 상기 제 1 의료 영상에 상기 라벨링된 프레임을 추가하여 제 3 의료 영상을 생성한다.(S605) 학습장치가 제 3 의료영상을 이용하여 상기 분석 모델을 다시 학습함으로 처리를 종료한다.(S606) Existing supervised learning techniques that detect lesions from brain MR images usually learn a model with dozens to hundreds of frames and labeling. Therefore, since it takes a long time to create hundreds of labels, in order to efficiently proceed with the operation, in the case of the present invention, the learning device may learn an initial analysis model using a small number of first medical image frames. After that, the learning device calculates the uncertainty of each frame of the second medical image by applying the initial analysis model to the second medical image before labeling (S602). And the learning device calculates the uncertainty of each frame of the second medical image (S602). At least one frame is selected. (S603) The learning device receives labeling for at least one selected frame. (S604) In this case, the labeling may be an activity in which the user checks the lesion area in the frame. The learning apparatus generates a third medical image by adding the labeled frame to the first medical image (S605). The processing ends by the learning apparatus re-learning the analysis model using the third medical image. S606)

도 6에서 설명한 학습 방법은 도 1에 도시된 구성을 가진 학습 장치(100)에 의해 수행 될 수 있으나 반드시 이에 한정되는 것은 아니다. 즉 도 6의 학습방법은 도 1과 상이한 구성의 의료영상 분석 장치에 의해서도 구현 될 수 있다. The learning method described in FIG. 6 may be performed by the learning device 100 having the configuration illustrated in FIG. 1, but is not limited thereto. That is, the learning method of FIG. 6 may be implemented by a medical image analysis apparatus having a different configuration from that of FIG. 1.

도 7은 상술한 실시 예에 따른 학습 방법으로 학습한 분석 모델을 이용하여, 20개의 뇌 MRI 영상 데이터를 분석한 분석 결과를 나타낸다. 구체적으로, 도 7의 경우 무작위로 선정한 데이터(Random)와 제안하는 기법으로 선정한 데이터(Entropy)로 만든 학습모델간 영역화 성능을 비교한 표이다. 도 8의 경우 무작위 선정 기법과 제안하는 선정 기법(액티브 러닝)의 영역화 성능을 비교한 표이다. 7 shows an analysis result of analyzing 20 brain MRI image data using the analysis model learned by the learning method according to the above-described embodiment. Specifically, in the case of FIG. 7, a table comparing the domainization performance between learning models made from randomly selected data (Random) and data selected by the proposed technique (Entropy). In the case of FIG. 8, a table comparing the domainization performance of the random selection technique and the proposed selection technique (active learning).

실험을 위해 20개의 데이터를 임의로 제 1 의료영상 2개, 제 2 의료영상 13개, 테스트 데이터 프레임 5개로 분류하였다. 제 1의료영상 프레임 2개는 라벨링이 있다고 가정하고 초기 영역화 모델을 학습하는 데에 이용하였고, 제 2 의료영상 프레임 13개는 라벨링이 없다고 가정하였다. 비교를 위해 임의로 데이터를 선정하여 모델을 업데이트 하는 기법과 비교실험을 진행하였다. 본 발명이 제안하는 방법을 위해 초기 영역화 모델을 바탕으로 13개의 의료영상 프레임 중 가장 높은 엔트로피를 가지는 프레임 하나를 선정하였으며, 이후 이 데이터의 라벨링을 추가하여 학습모델을 업데이트 하였다. 이후 업데이트 된 모델의 평가를 위해 5개의 테스트 데이터 프레임에 대해 영역화 정확도를 계산하였다. 이와 함께 임의로 데이터 프레임을 선정하여 같은 방식으로 모델을 업데이트 하여 테스트 데이터 프레임에 대해 정확도를 계산하였다. 각 영역화 모델의 정확도는 다이스 계수(Dice Similarity coefficient : DSC)측정법을 통해 계산 하였다. 학습모델의 업데이트 횟수는 총 6회로 설정하여 라벨링이 없는 제 2 의료영상 13개 프레임 중 6개의 프레임이 학습데이터에 추가될 때 까지 실험을 반복하였다.For the experiment, 20 data were randomly classified into 2 first medical images, 13 second medical images, and 5 test data frames. It is assumed that the first two medical image frames have labeling and are used to learn the initial segmentation model, and the second medical image frame 13 has no labeling. For comparison, a method of randomly selecting data and updating the model and comparative experiments were conducted. For the method proposed by the present invention, one frame having the highest entropy among 13 medical image frames was selected based on the initial segmentation model, and the learning model was updated by adding labeling of this data. Afterwards, for evaluation of the updated model, the domainization accuracy was calculated for 5 test data frames. In addition, the accuracy was calculated for the test data frame by randomly selecting a data frame and updating the model in the same manner. The accuracy of each segmentation model was calculated through the Dice Similarity coefficient (DSC) measurement method. The number of updates of the learning model was set to a total of 6, and the experiment was repeated until 6 frames out of 13 frames of the second medical image without labeling were added to the training data.

실험결과, 도 8에서 볼 수 있듯이 무작위로 선정된 데이터를 이용하여 학습모델을 업데이트 할 때 보다 본 발명의 일 실시 예에 따른 학습모델을 이용하여 업데이트 하였을 때 약 2~5% 영역화 정확도가 향상됨을 확인할 수 있었다.As a result of the experiment, as shown in FIG. 8, when the learning model according to an embodiment of the present invention is used to update the learning model using randomly selected data, about 2 to 5% domainization accuracy is improved. Was able to confirm.

이상에서는 의료영상 분석 장치 및 의료영상 분석 용 학습모델의 학습 방법에 관련한 다양한 실시 예를 흐름도 및 블록도를 이용하여 설명하였다.In the above, various embodiments related to a method of learning a medical image analysis apparatus and a learning model for medical image analysis have been described using flowcharts and block diagrams.

이상과 같은 다양한 실시 예에 따른 의료영상 분석 용 학습모델의 학습 방법은 그 방법을 수행하기 위한 프로그램 코드의 형태로 기록 매체에 저장되어 배포될 수도 있다. 구체적으로는, 전자 장치에 의해 실행되면 제 1 의료 영상과 제 2 의료영상을 이용하여 의료 영상 분석용 학습모델을 학습하는 프로그램 코드가 기록 매체에 저장된 상태로 배포되거나, 온라인 상에서 배포될 수 있다. The method of learning a learning model for medical image analysis according to various embodiments as described above may be stored and distributed in a recording medium in the form of a program code for performing the method. Specifically, when executed by an electronic device, a program code for learning a learning model for analyzing a medical image using the first medical image and the second medical image may be distributed in a state stored in a recording medium or distributed online.

여기서, 프로그램 코드는, 라벨링이 완료된 제 1 의료 영상을 이용하여 분석 모델을 학습하는 단계, 라벨링 이전의 제 2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료 영상의 각 프레임의 불확실성을 계산하는 단계; 상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하는 단계; 상기 선정된 프레임에 대한 라벨링이 입력되면, 상기 라벨링이 입력된 프레임을 상기 제 1 의료 영상에 추가하여 제 3 의료 영상을 생성하는 단계; 및 상기 제 3 의료 영상을 이용하여 상기 분석 모델을 학습하는 단계를 순차적으로 실행하기 위한 코드가 될 수 있다. Here, the program code includes the step of learning an analysis model using the first medical image for which labeling has been completed, and the uncertainty of each frame of the second medical image by applying the learned analysis model to the second medical image before labeling. Calculating; Selecting at least one frame from among the second medical images in which the uncertainty exceeds a preset condition; When labeling for the selected frame is input, generating a third medical image by adding the label inputted frame to the first medical image; And a code for sequentially executing the step of learning the analysis model by using the third medical image.

이러한 프로그램 코드가 저장된 기록 매체가 탑재된 장치는 상술한 다양한 실시 예에 따른 동작들을 수행할 수 있다. A device in which a recording medium in which such a program code is stored is mounted may perform operations according to various embodiments described above.

기록 매체는, ROM, RAM, 메모리 칩, 메모리 카드, 외장형 하드, 하드, CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 다양한 유형의 컴퓨터 판독 가능 매체가 될 수 있다. The recording medium may be various types of computer-readable media such as ROM, RAM, memory chips, memory cards, external hard drives, hard drives, CDs, DVDs, magnetic disks or magnetic tapes.

또한, 이러한 프로그램 코드를 온라인 공급자로부터 다운로드 받은 장치 역시 상술한 다양한 동작들을 수행할 수 있다.In addition, a device that has downloaded such a program code from an online provider may also perform various operations described above.

이상 첨부 도면을 참고하여 본 발명에 대해서 설명하였지만 본 발명의 권리범위는 후술하는 특허청구범위에 의해 결정되며 전술한 실시 예 및/또는 도면에 제한되는 것으로 해석되어서는 아니 된다. 그리고 특허청구범위에 기재된 발명의, 당업자에게 자명한 개량, 변경 및 수정도 본 발명의 권리범위에 포함된다는 점이 명백하게 이해되어야 한다.Although the present invention has been described with reference to the accompanying drawings, the scope of the present invention is determined by the claims to be described later, and should not be construed as being limited to the above-described embodiments and/or drawings. And it should be clearly understood that the improvements, changes and modifications of the invention described in the claims, which are obvious to those skilled in the art, are included in the scope of the present invention.

100 학습 장치 110 프로세서
120 메모리 330 디스플레이
100 learning unit 110 processor
120 memory 330 display

Claims (7)

의료 영상의 분석 모델을 학습시키는 학습 장치에 있어서,
상기 분석 모델이 저장된 메모리; 및
상기 분석 모델을 이용하여 의료 영상을 분석하는 프로세서;를 포함하며,
상기 프로세서는,
라벨링이 완료된 제 1 의료 영상을 이용하여 상기 분석 모델을 학습하고, 라벨링 이전의 제 2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료 영상의 확률 맵을 생성하고, 상기 확률 맵을 이용하여 상기 제 2 의료 영상의 각 프레임의 불확실성을 계산하며,
상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하여, 상기 선정된 프레임에 대한 라벨링을 입력받고,
상기 라벨링이 입력된 프레임을 상기 제 1 의료 영상에 추가하여 제 3 의료 영상을 생성한 후, 상기 제 3 의료 영상을 이용하여 상기 분석 모델을 학습하고,
상기 불확실성은 상기 확률 맵의 각 복셀(Voxel)의 엔트로피의 합인 것을 특징으로 하는, 학습 장치.
In a learning device for learning an analysis model of a medical image,
A memory storing the analysis model; And
Includes; a processor that analyzes a medical image using the analysis model,
The processor,
The analysis model is trained using the first medical image for which labeling is completed, and the learned analysis model is applied to the second medical image before labeling to generate a probability map of the second medical image, and the probability map is used. To calculate the uncertainty of each frame of the second medical image,
Selecting at least one frame in which the uncertainty exceeds a preset condition among the second medical images, and receiving labeling for the selected frame,
After generating a third medical image by adding the frame to which the labeling has been input to the first medical image, learning the analysis model using the third medical image,
The uncertainty is a learning device, characterized in that the sum of entropy of each voxel of the probability map.
삭제delete 제1항에 있어서,
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 것으로 선정된 적어도 하나의 프레임에 대한 라벨링 입력을 요청하는 UI(User Interface)를 상기 디스플레이에 표시하고,
상기 UI 상에서 상기 적어도 하나의 프레임 각각의 병변 부위가 체크되면, 체크된 부분에 대한 데이터를 상기 각 프레임의 데이터에 추가하여, 상기 적어도 하나의 프레임을 라벨링하는 학습 장치.
The method of claim 1,
It further includes a display;
The processor,
Displaying a UI (User Interface) requesting a labeling input for at least one frame selected as the uncertainty exceeds a preset condition among the second medical images on the display,
When a lesion portion of each of the at least one frame is checked on the UI, a learning device for labeling the at least one frame by adding data on the checked portion to the data of each frame.
컴퓨터로 구현되는 학습 장치에 의해 각 단계가 수행되는 의료영상 용 분석 모델의 학습 방법에 있어서,
라벨링이 완료된 제 1 의료 영상을 이용하여 분석 모델을 학습하는 단계;
라벨링 이전의 제 2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료 영상의 확률 맵을 생성하는 단계;
상기 확률 맵을 이용하여 상기 제 2 의료 영상의 각 프레임의 불확실성을 계산하는 단계;
상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하는 단계;
상기 선정된 프레임에 대한 라벨링이 입력되면, 상기 라벨링이 입력된 프레임을 상기 제 1 의료 영상에 추가하여 제 3 의료 영상을 생성하는 단계; 및
상기 제 3 의료 영상을 이용하여 상기 분석 모델을 학습하는 단계;를 포함하고,
상기 불확실성은, 상기 확률 맵의 각 복셀(Voxel)의 엔트로피의 합인, 학습 방법.
In the learning method of an analysis model for medical images in which each step is performed by a learning device implemented as a computer,
Learning an analysis model using the first medical image for which labeling has been completed;
Generating a probability map of the second medical image by applying the learned analysis model to a second medical image before labeling;
Calculating an uncertainty of each frame of the second medical image using the probability map;
Selecting at least one frame from among the second medical images in which the uncertainty exceeds a preset condition;
When labeling for the selected frame is input, generating a third medical image by adding the frame to which the labeling is input to the first medical image; And
Including; learning the analysis model by using the third medical image,
The uncertainty is the sum of entropy of each voxel of the probability map.
삭제delete 제4항에 있어서,
상기 제 3 의료 영상을 생성하는 단계는,
상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 것으로 선정된 적어도 하나의 프레임에 대한 라벨링 입력을 요청하는 UI(User Interface)를 디스플레이하는 단계;
상기 UI 상에서 상기 적어도 하나의 프레임 각각의 병변 부위가 체크되면, 체크된 부분에 대한 데이터를 상기 각 프레임의 데이터에 추가하여, 상기 적어도 하나의 프레임을 라벨링하는 단계;
상기 라벨링된 프레임을 상기 제 1 의료 영상에 추가하여 상기 제 3 의료 영상을 생성하는 단계;를 포함하는, 학습 방법.
The method of claim 4,
Generating the third medical image,
Displaying a UI (User Interface) for requesting a labeling input for at least one frame selected as the uncertainty exceeds a preset condition among the second medical images;
When a lesion portion of each of the at least one frame is checked on the UI, labeling the at least one frame by adding data on the checked portion to the data of each frame;
And generating the third medical image by adding the labeled frame to the first medical image.
의료 영상 용 분석 모델을 학습하는 학습 방법을 컴퓨터에 의해 실행하기 위한 프로그램이 저장된 컴퓨터로 판독 가능한 기록 매체에 있어서,
상기 학습 방법은,
라벨링이 완료된 제 1 의료 영상을 이용하여 분석 모델을 학습하는 단계;
라벨링 이전의 제 2 의료 영상에 상기 학습된 분석 모델을 적용하여 상기 제 2 의료 영상의 확률 맵을 생성하는 단계;
상기 확률 맵을 이용하여 상기 제 2 의료 영상의 각 프레임의 불확실성을 계산하는 단계;
상기 제 2 의료 영상 중 상기 불확실성이 기 설정된 조건을 초과하는 적어도 하나의 프레임을 선정하는 단계;
상기 선정된 프레임에 대한 라벨링이 입력되면, 상기 라벨링이 입력된 프레임을 상기 제 1 의료 영상에 추가하여 제 3 의료 영상을 생성하는 단계; 및
상기 제 3 의료 영상을 이용하여 상기 분석 모델을 학습하는 단계;를 포함하고,
상기 불확실성은, 상기 확률 맵의 각 복셀(Voxel)의 엔트로피의 합인, 기록 매체.
In a computer-readable recording medium storing a program for executing a learning method for learning an analysis model for medical images by a computer,
The above learning method,
Learning an analysis model using the first medical image for which labeling has been completed;
Generating a probability map of the second medical image by applying the learned analysis model to a second medical image before labeling;
Calculating an uncertainty of each frame of the second medical image using the probability map;
Selecting at least one frame from among the second medical images in which the uncertainty exceeds a preset condition;
When labeling for the selected frame is input, generating a third medical image by adding the frame to which the labeling is input to the first medical image; And
Including; learning the analysis model by using the third medical image,
The uncertainty is the sum of entropy of each voxel of the probability map.
KR1020190001966A 2019-01-07 2019-01-07 Device for training analysis model of medical image and training method thereof KR102186632B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190001966A KR102186632B1 (en) 2019-01-07 2019-01-07 Device for training analysis model of medical image and training method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190001966A KR102186632B1 (en) 2019-01-07 2019-01-07 Device for training analysis model of medical image and training method thereof

Publications (2)

Publication Number Publication Date
KR20200092466A KR20200092466A (en) 2020-08-04
KR102186632B1 true KR102186632B1 (en) 2020-12-02

Family

ID=72048819

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190001966A KR102186632B1 (en) 2019-01-07 2019-01-07 Device for training analysis model of medical image and training method thereof

Country Status (1)

Country Link
KR (1) KR102186632B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472546B1 (en) 2021-08-12 2022-11-30 주식회사 에어스메디컬 Magnetic resonance image processing apparatus and method to which noise-to-noise technique is applied
KR20230059454A (en) * 2021-10-26 2023-05-03 이화여자대학교 산학협력단 Deep learning based vascular invasion classification method for pancreatic cancer using endoscopic ultrasound image and analysis apparatus

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102308381B1 (en) * 2020-11-09 2021-10-06 인그래디언트 주식회사 Apparatus and method for labeling medical image based on flexible superpixel
KR102607593B1 (en) * 2021-09-30 2023-11-30 서울여자대학교 산학협력단 Method for segmenting meniscus in knee magnetic resonance image based on deep learning, program and apparatus therefor
KR20230080825A (en) * 2021-11-30 2023-06-07 사회복지법인 삼성생명공익재단 Estimating method for volume of lesion using x ray image and analysis apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012512672A (en) 2008-12-22 2012-06-07 ザ メディパターン コーポレイション Method and system for automatically detecting lesions in medical images
JP2014030556A (en) 2012-08-02 2014-02-20 Hitachi Ltd Image processor
KR101864412B1 (en) * 2017-12-28 2018-06-04 (주)휴톰 Data managing method, apparatus and program for machine learning
KR101919908B1 (en) * 2018-05-14 2018-11-20 주식회사 뷰노 Method for facilitating labeling of medical image and apparatus using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012512672A (en) 2008-12-22 2012-06-07 ザ メディパターン コーポレイション Method and system for automatically detecting lesions in medical images
JP2014030556A (en) 2012-08-02 2014-02-20 Hitachi Ltd Image processor
KR101864412B1 (en) * 2017-12-28 2018-06-04 (주)휴톰 Data managing method, apparatus and program for machine learning
KR101919908B1 (en) * 2018-05-14 2018-11-20 주식회사 뷰노 Method for facilitating labeling of medical image and apparatus using the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472546B1 (en) 2021-08-12 2022-11-30 주식회사 에어스메디컬 Magnetic resonance image processing apparatus and method to which noise-to-noise technique is applied
KR20230059454A (en) * 2021-10-26 2023-05-03 이화여자대학교 산학협력단 Deep learning based vascular invasion classification method for pancreatic cancer using endoscopic ultrasound image and analysis apparatus
KR102587670B1 (en) 2021-10-26 2023-10-10 이화여자대학교 산학협력단 Deep learning based vascular invasion classification method for pancreatic cancer using endoscopic ultrasound image and analysis apparatus

Also Published As

Publication number Publication date
KR20200092466A (en) 2020-08-04

Similar Documents

Publication Publication Date Title
KR102186632B1 (en) Device for training analysis model of medical image and training method thereof
WO2020000390A1 (en) Systems and methods for depth estimation via affinity learned with convolutional spatial propagation networks
US11328412B2 (en) Hierarchical learning of weights of a neural network for performing multiple analyses
US11074479B2 (en) Learning of detection model using loss function
JP7399102B2 (en) Automatic slice selection in medical imaging
US11756209B2 (en) Method and apparatus for automated target and tissue segmentation using multi-modal imaging and ensemble machine learning models
US9569840B2 (en) Method and apparatus for selecting seed area for tracking nerve fibers in brain
WO2018104342A1 (en) Learning annotation of objects in image
US20130070983A1 (en) Methods, apparatuses, and computer program products for controlling luminance of non-tissue objects within an image
US11314986B2 (en) Learning device, classification device, learning method, classification method, learning program, and classification program
US20230401706A1 (en) Method for detecting a rib with a medical image, device, and medium
JP2021510613A (en) Tissue classification using image intensity and anatomical position
CN112614144A (en) Image segmentation method, device, equipment and storage medium
CN115546231A (en) Self-adaptive brain glioma segmentation method based on semi-supervised deep learning
Varga et al. Reducing human efforts in video segmentation annotation with reinforcement learning
CN114066905A (en) Medical image segmentation method, system and device based on deep learning
KR102222816B1 (en) Method for generating future image of progressive lesion and apparatus using the same
CN116469103A (en) Automatic labeling method for medical image segmentation data
CN105426927A (en) Medical image processing device, medical image processing method and medical image equipment
CN113223017A (en) Training method of target segmentation model, target segmentation method and device
TWI832966B (en) Method and apparatus for automated target and tissue segmentation using multi-modal imaging and ensemble machine learning models
Ciamarra et al. FLODCAST: Flow and depth forecasting via multimodal recurrent architectures
KR102177567B1 (en) Method for generating bone image and apparatus using the same
CN112634255B (en) Method and device for establishing brain focus detection model and computer equipment
US20230022253A1 (en) Fast and accurate prediction methods and systems based on analytical models

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant