KR102336003B1 - Apparatus and method for increasing learning data using patch matching - Google Patents

Apparatus and method for increasing learning data using patch matching Download PDF

Info

Publication number
KR102336003B1
KR102336003B1 KR1020190175569A KR20190175569A KR102336003B1 KR 102336003 B1 KR102336003 B1 KR 102336003B1 KR 1020190175569 A KR1020190175569 A KR 1020190175569A KR 20190175569 A KR20190175569 A KR 20190175569A KR 102336003 B1 KR102336003 B1 KR 102336003B1
Authority
KR
South Korea
Prior art keywords
patch
image
unit
valid
validity
Prior art date
Application number
KR1020190175569A
Other languages
Korean (ko)
Other versions
KR20200083303A (en
Inventor
김원태
강신욱
이명재
김동민
김동석
Original Assignee
(주)제이엘케이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이엘케이 filed Critical (주)제이엘케이
Publication of KR20200083303A publication Critical patent/KR20200083303A/en
Application granted granted Critical
Publication of KR102336003B1 publication Critical patent/KR102336003B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Abstract

패치 정합을 이용한 학습 데이터 증가 장치 및 방법이 개시된다. 패치 정합을 이용한 학습 데이터 증가 방법은, 패치영상 생성부가 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 제1 단계; 제1 판정부가 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2a 단계; 제2 판정부가 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2b 단계; 제3 판정부가 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2c 단계; 및 유효성 분석부가 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제2a, 제2b 및 제2c 단계 중 하나를 통해 유효성을 분석하는 제3 단계를 포함한다.An apparatus and method for increasing training data using patch matching are disclosed. A method of increasing training data using patch matching includes: a first step of generating a patch image by dividing an image in a medical image by a patch image generator into a size specified at an arbitrary angle; a second step of classifying by the first determining unit using a clustering technique, and determining a valid patch or an invalid patch through a similarity analysis with a preset valid patch; a second step of determining, by a second determination unit, a valid patch or an invalid patch by analyzing a preset valid patch and a similar pattern through a histogram analysis; a step 2c of the third determining unit analyzing the similarity for each patch using the similarity analysis function and the learned artificial neural network and determining whether the patch is a valid patch or an invalid patch; and a third step in which the effectiveness analyzer rotates the medical image at different angles and divides the image by a specified size to generate a patch, and analyzes the effectiveness through one of steps 2a, 2b, and 2c.

Description

패치 정합을 이용한 학습 데이터 증가 장치 및 방법{APPARATUS AND METHOD FOR INCREASING LEARNING DATA USING PATCH MATCHING}Apparatus and method for increasing learning data using patch matching

본 발명의 실시예는 패치 정합을 이용한 학습 데이터 증가 장치 및 방법에 관한 것이다.An embodiment of the present invention relates to an apparatus and method for increasing training data using patch matching.

인공지능 기반의 영상 분석 시스템 개발을 위해서는 대용량의 영상 데이터 확보가 필수적이다. 이러한 한계를 극복하기 위하여 대용량의 이미지를 잘게 나누어 이미지 조각 즉 패치를 생성하여 학습하는 방법이 널리 사용되고 있다. 그럼에도 불고하고, 특정 암에 대한 병리 영상과 같은 특수한 영상 데이터의 경우 충분한 숫자의 영상 데이터 확보가 어려운 점이 있다. 또한, 이러한 영상의 경우 분석 대상이 되는 반복되는 패턴의 크기가 불균일하게 반복되는 점이 있어, 패치를 나누어서 학습을 하여도 그 정확도를 확보하기가 어렵다.In order to develop an AI-based image analysis system, it is essential to secure a large amount of image data. In order to overcome this limitation, a method of learning by dividing a large-capacity image into small pieces, that is, an image fragment, that is, a patch, is widely used. Nevertheless, in the case of special image data such as pathological images for a specific cancer, it is difficult to secure a sufficient number of image data. In addition, in the case of such an image, since the size of the repeated pattern to be analyzed is non-uniformly repeated, it is difficult to secure the accuracy even when learning by dividing the patch.

한편, 의료 영상은 그 종류에 따라 서로 다른 영상 처리 과정을 거쳐야 하므로, 검출 혹은 진단 장치나 그 운용 시스템이 복잡하고 커지는 단점이 있다. 의료 영상들을 이용하여 종래의 병변 검출 기술 대부분은 의료 영상을 토대로 병변을 진단하는데 있어서 의사 등의 사용자의 참여를 필요로 하거나 사용자를 보조하는 수준에 머물러 있고, 자동으로 병변을 진단하거나 병변의 등급을 분석하는데는 아직까지 한계가 있다.On the other hand, since a medical image has to undergo different image processing according to its type, there is a disadvantage in that a detection or diagnosis apparatus or an operating system thereof is complicated and large. Most of the conventional lesion detection technologies using medical images require the participation of a user such as a doctor or assist the user in diagnosing a lesion based on a medical image, and remain at the level of assisting the user in diagnosing the lesion or automatically diagnosing the lesion or grading the lesion. The analysis still has limitations.

최근, 의료 분야에서 기계학습(machine learning)이나 인공지능(artificial intelligence)을 도입하여 활발한 연구개발을 진행 중에 있다. 하지만, 특정 병변 예컨대 뇌졸중 등의 뇌질환과 관련하여 자동으로 병변을 진단하고 병변의 등급을 분석하는 연구개발 결과는 아직까지 미미한 실정이다.Recently, by introducing machine learning or artificial intelligence in the medical field, active R&D is in progress. However, in relation to a specific lesion, for example, a brain disease such as a stroke, the results of R&D for automatically diagnosing a lesion and analyzing the grade of the lesion are still insignificant.

본 발명은 기존 기술의 요구에 부응하기 위한 것으로, 본 발명의 목적은 분균일하게 반복되는 패턴이 존재하는 대용량 영상에서 학습에 유효한 패치를 자동으로 나눌 수 있도록 하기 위한 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an apparatus and method for automatically dividing a patch effective for learning in a large-capacity image in which a uniformly repeating pattern exists.

본 발명의 또 다른 목적은 전술한 본 발명의 실시예는 패치 정합을 이용한 학습 데이터 증가 장치 및 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 제공하는데 있다.Another object of the present invention is to provide a computer-readable recording medium in which the above-described embodiment of the present invention records a program for implementing an apparatus and method for increasing learning data using patch matching.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 패치 정합을 이용한 학습 데이터 증가 방법은, 패치영상 생성부가 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 제1 단계; 제1 판정부가 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2a 단계; 제2 판정부가 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2b 단계; 제3 판정부가 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2c 단계; 및 유효성 분석부가 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제2a, 제2b 및 제2c 단계 중 하나를 통해 유효성을 분석하는 제3 단계를 포함한다.A method for increasing learning data using patch matching according to an aspect of the present invention for solving the above technical problem includes: a first step of generating a patch image by a patch image generator dividing an image into a size specified at an arbitrary angle in a medical image; a second step of classifying by the first determining unit using a clustering technique, and determining a valid patch or an invalid patch through a similarity analysis with a preset valid patch; a second step of determining, by a second determination unit, a valid patch or an invalid patch by analyzing a preset valid patch and a similar pattern through a histogram analysis; a step 2c of the third determining unit analyzing the similarity for each patch using the similarity analysis function and the learned artificial neural network and determining whether the patch is a valid patch or an invalid patch; and a third step in which the effectiveness analyzer rotates the medical image at different angles and divides the image by a specified size to generate a patch, and analyzes the effectiveness through one of steps 2a, 2b, and 2c.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 방법은, 상기 제3 단계 후에, 기본작업 종료부가 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 단계를 더 포함할 수 있다.In an embodiment, the method for increasing learning data using patch matching may further include, after the third step, terminating the patch generation when the basic operation end unit rotates the medical image to 360 degrees.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 방법은, 상기 종료하는 단계 후에, 분류부가 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 단계; 및 제1 이미지 생성부가 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 단계를 더 포함할 수 있다.In one embodiment, the method for increasing training data using patch matching includes, after the terminating step, further classifying the patches for which a classification unit has been validated in the validity analysis using a clustering technique; and generating, by the first image generator, a plurality of images in the same cluster according to the additional classification to generate one image.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 방법은, 상기 하나의 이미지를 생성하는 단계 후에, 상기 생성하는 단계에서 제2 이미지 생성부가 상기 제1 이미지 생성부에서 생성된 이미지를 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 단계를 더 포함할 수 있다.In one embodiment, in the method of increasing training data using patch matching, after generating the single image, in the generating step, a second image generating unit selects the image generated by the first image generating unit more than one image. The method may further include generating an image of a new size by cropping it to a smaller size.

일실시예에서, 상기 유효성 분석부가 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는 단계를 더 포함할 수 있다.In an embodiment, the method may further include the step of re-determining validity by analyzing, by the validity analysis unit, a ratio in which the image of the new size overlaps with a lesion area of an existing effective patch image.

일실시예에서, 데이터 증강부가 상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 단계 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 단계를 더 포함할 수 있다.In one embodiment, the data augmentation unit generates a patch while rotating the image generated in the new size from an arbitrary angle to 360 degrees, and analyzing the validity in any one of the steps 2a to 2c to augment the learning data. may further include.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 패치 정합을 이용한 학습 데이터 증가 장치는, 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 패치영상 생성부; 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 유효한 패치 또는 유효하지 않은 패치로 판정하는 제1 판정부; 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 유요한 패치 또는 유효하지 않은 패치로 판정하는 제2 판정부; 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 유효한 패치 또는 유효하지 않은 패치로 판정하는 제3 판정부; 및 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제1 내지 제3 판정부 중 하나를 통해 유효성을 분석하는 유효성 분석부를 포함한다.According to another aspect of the present invention, there is provided an apparatus for increasing training data using patch matching, comprising: a patch image generator configured to generate a patch image by dividing an image into a size specified at an arbitrary angle in a medical image; a first judging unit that classifies through a clustering technique and determines whether the patch is valid or invalid through a similarity analysis with a preset valid patch; a second determination unit that analyzes a preset valid patch and a similar pattern through histogram analysis to determine a valid patch or an invalid patch; a third judging unit that analyzes the similarity for each patch using the similarity analysis function and the learned artificial neural network and determines whether the patch is valid or invalid; and a validity analysis unit that rotates the medical image at different angles, divides the image into a specified size, generates a patch, and analyzes effectiveness through one of the first to third determination units.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 장치는, 상기 유효성 분석부의 유효성 분석 후에, 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 기본작업 종료부를 더 포함한다,.In one embodiment, the apparatus for increasing learning data using patch matching further includes a basic operation terminating unit for terminating patch generation when the rotational angle of the medical image becomes 360 degrees after the validity analysis of the validity analysis unit.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 장치는, 상기 기본작업 종료부의 종료 동작 후에, 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 분류부; 및 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 제1 이미지 생성부를 더 포함할 수 있다.In one embodiment, the apparatus for increasing training data using patch matching includes: a classification unit for further classifying patches that have been validated in the validity analysis by a clustering technique after the end operation of the basic task end unit; and a first image generator configured to generate one image by connecting a plurality of images in the same cluster according to additional classification.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 장치는, 상기 제1 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 제2 이미지 생성부를 더 포함할 수 있다.In an embodiment, the apparatus for increasing training data using patch matching generates a second image for generating an image of a new size by cropping one image generated by the first image generating unit to a size smaller than the single image It may include more wealth.

일실시예에서, 상기 유효성 분석부는 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정할 수 있다.In an embodiment, the validity analysis unit may re-determine validity by analyzing a ratio in which the image of the new size overlaps with a lesion area of an existing effective patch image.

일실시예에서, 상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 데이터 증강부를 더 포함한다.In one embodiment, the image generated in the new size is rotated from an arbitrary angle to 360 degrees while generating a patch, and further comprising a data augmentation unit for augmenting the learning data by analyzing the validity with any one of the 2a to 2c above. do.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 장치는, 전술한 실시예들 중 어느 하나의 패치 정합을 이용한 학습 데이터 증가 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 포함한다.An apparatus according to another aspect of the present invention for solving the above technical problem includes a computer-readable recording medium recording a program for implementing the method for increasing learning data using the patch matching of any one of the above embodiments.

전술한 패치 정합을 이용한 학습 데이터 증가 장치 및 방법을 사용하는 경우에는, 불균일하게 반복되는 패턴이 존재하는 대용량 영상에서 학습에 유효한 패치를 자동으로 나눌 수 있고, 또한 유효 패치를 증가시킬 수 있으며, 그에 의해 학습 데이터를 증가시켜 의료 영상을 효과적으로 처리할 수 있는 장점이 있다.In the case of using the apparatus and method for increasing learning data using the patch matching described above, it is possible to automatically divide an effective patch for learning in a large-capacity image in which a non-uniformly repeating pattern exists, and to increase the effective patch, It has the advantage of effectively processing medical images by increasing the training data.

도 1은 본 발명의 일실시예에 따른 패치 정합을 이용한 학습 데이터 증가 방법에 대한 흐름도이다.
도 2는 도 1의 방법에서 추가 변환 과정을 설명하기 위한 도면이다.
도 3은 도 1의 방법에서 학습 데이터 증가 과정에 채용할 수 있는 병리 영상의 특정 관심 영역에서 패치를 얻는 과정을 예시한 도면이다.
도 4는 본 실시예의 방법 및 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.
도 5는 본 발명의 다른 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치에 대한 블록도이다.
1 is a flowchart of a method of increasing training data using patch matching according to an embodiment of the present invention.
FIG. 2 is a view for explaining an additional conversion process in the method of FIG. 1 .
FIG. 3 is a diagram illustrating a process of obtaining a patch in a specific ROI of a pathological image that can be employed in a process of increasing training data in the method of FIG. 1 .
4 is a structural diagram of a convolutional neural network employable in the method and apparatus of the present embodiment.
5 is a block diagram of an apparatus for increasing training data using patch matching according to another embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only exemplified for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention may have various changes and may have various forms, the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함한다" 또는 "가진다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprises" or "having" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described herein exist, but one or more other features. It should be understood that it does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에서 사용되는 용어는 다음과 같다.The terms used in this specification are as follows.

T2 강조 영상(T2-weighted imaging): 자기공명영상(magnetic resonance imaging, MRI)으로부터 특정 펄스열(pulse sequence)에서 획득하는 기법 혹은 이 기법으로 획득된 영상을 지칭하는 것으로, 영상은 주로 인체 내부 조직의 구조적 정보를 제공한다.T2-weighted imaging: A technique obtained from magnetic resonance imaging (MRI) in a specific pulse sequence or an image obtained by this technique. The image is mainly of internal tissues of the body. Provides structural information.

FLAIR(Fluid attenuated inversion recovery): 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2 강조영상에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR은 유체 감쇠 반전 복구로 지칭될 수 있다.FLAIR (Fluid attenuated inversion recovery): A signal acquisition technique using a magnetic imaging device that weakens the signal of the cerebrospinal fluid with a long inversion time and echo time, making it easier to detect lesions that are easy to miss on T2-weighted images or images acquired with this technique refers to FLAIR may be referred to as fluid damping reversal recovery.

DWI(Diffusion weighted imaging): 자기공명영상으로부터 획득하는 확산 강조 영상을 주로 지칭하며, 세포 조직 안의 물 분자가 특정 방향으로 확산하는 정도 및 여부에 대한 정보를 제공한다.DWI (Diffusion weighted imaging): mainly refers to diffusion-weighted images obtained from magnetic resonance imaging, and provides information on the extent and whether water molecules in cell tissues diffuse in a specific direction.

PWI(Perfusion weighted imaging): 자기공명영상으로부터 획득하는 관류 강조 영상(간단히, 관류 영상)을 지칭하며, 투입된 조영제의 시간에 따른 농도의 변화를 알려준다.Perfusion weighted imaging (PWI): Refers to a perfusion-weighted image (simply, perfusion image) obtained from magnetic resonance imaging, and informs the change in concentration of the injected contrast agent over time.

Penumbra: 허혈성 사건이나 색전증 등에 의해서 발생하는 영상 내 반음영 영역으로, 산소 운반 기능이 국부적으로 감소되어 저산소 세포 사멸을 일으키거나 수시간 동안 내의 적절한 처치 시 생존가능한 영역을 가리킨다.Penumbra: A semi-shaded area in an image caused by an ischemic event or embolism. It refers to an area that is viable when hypoxic cell death occurs due to a local decrease in oxygen transport function, or when appropriate treatment within several hours.

ADC(Apparent diffusion coefficient): 자기공명영상으로부터 획득하는 겉보기 확산 계수로서, 인체 내부 조직의 확산 방해 요소에 대한 정보를 제공한다.ADC (Apparent Diffusion Coefficient): As the apparent diffusion coefficient obtained from magnetic resonance imaging, it provides information on diffusion-interfering factors in tissues inside the human body.

Arterial phase(AP): 자기공명영상으로부터 획득하는 특정 관류의 시기로서, 시간에 따라 투입된 조영제가 동맥 부분을 지나가는 시기를 나타낸다.Arterial phase (AP): A period of specific perfusion obtained from magnetic resonance imaging, indicating the time when the injected contrast agent passes through the arterial part.

Capillary phase(CP): 자기공명영상으로부터 획득하는 특정 관류의 시기로서, 시간에 따라 투입된 조영제가 모세혈관 부분을 지나가는 시기를 나타낸다.Capillary phase (CP): This is the period of specific perfusion obtained from magnetic resonance imaging, and represents the period when the injected contrast agent passes through the capillary section over time.

Venous phase(VP): 자기공명영상으로부터 획득하는 특정 관류의 시기로서, 시간에 따라 투입된 조영제가 정맥 부분을 지나가는 시기를 나타낸다.Venous phase (VP): This is the period of specific perfusion obtained from magnetic resonance imaging, and represents the time when the injected contrast agent passes through the venous section over time.

이하 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치에 대한 블록도이다. 도 2는 도 1의 방법에서 추가 변환 과정을 설명하기 위한 도면이다. 그리고 도 3은 도 1의 장치에서 학습 데이터 증가 과정에 채용할 수 있는 병리 영상의 특정 관심 영역에서 패치를 얻는 과정을 예시한 도면이다.1 is a block diagram of an apparatus for increasing training data using patch matching according to an embodiment of the present invention. FIG. 2 is a diagram for explaining an additional conversion process in the method of FIG. 1 . And FIG. 3 is a diagram illustrating a process of obtaining a patch from a specific ROI of a pathological image that can be employed in a process of increasing training data in the apparatus of FIG. 1 .

도 1을 참조하면, 본 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 방법(이하 간략히 '학습 데이터 증가 방법'이라 함)은, 의료 영상에서 임의로 지정된 크기의 배수로 패치생성을 진행해 임의로 지정된 크기의 배수가 360도가 되면 패치생성을 종료하는 패치 영상을 생성하는 단계(제1 단계)를 포함한다(S10,S12,S14).Referring to FIG. 1 , in the method for increasing training data using patch matching according to the present embodiment (hereinafter, simply referred to as 'method of increasing training data'), patches are generated in multiples of an arbitrarily designated size in a medical image, and a multiple of an arbitrarily designated size. It includes a step (first step) of generating a patch image for terminating the patch generation when the angle becomes 360 degrees (S10, S12, S14).

다음으로, 학습 데이터 증가 방법은 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정하는 단계(제2a 단계)를 포함한다(S21,S31,S32).Next, the method of increasing learning data includes a step of classifying through a clustering technique and determining through a preset valid patch and similarity analysis (step 2a) (S21, S31, S32).

제2a 단계를 상세히 설명하면 다음과 같다.Step 2a will be described in detail as follows.

지정된 유효패치를 병변의 클래스(Class) 개수에 따라 K개의 그룹으로 나눈다. 여기서, K는 의료영상의 병변의 종류의 개수이다. 예를 들어 K는 의료영상의 어노테이션(annotation)이 암 말기, 암 중기, 암 초기, 정상으로 되어있다면 병변의 클래스의 개수는 4개이다.The designated effective patch is divided into K groups according to the number of classes of lesions. Here, K is the number of types of lesions in the medical image. For example, K indicates that the number of classes of lesions is 4 if the annotation of the medical image is set to end-stage cancer, middle-stage cancer, early cancer, and normal.

그리고, 인접한 두 패치 사이의 거리는 다음의 [수학식 1]과 같이 정의된다.And, the distance between two adjacent patches is defined as follows [Equation 1].

Figure 112019134321648-pat00001
Figure 112019134321648-pat00001

위의 [수학식 1]에서, A(i,j,k)는 3차원 A 패치의 픽셀벡터값을 의미한다. m은 패치의 넓이(width), n은 패치의 높이(height)를 의미한다.In the above [Equation 1], A(i, j, k) means a pixel vector value of the three-dimensional A patch. m denotes the width of the patch, and n denotes the height of the patch.

예를 들어, 패치 A가 있다고 할 때, 패치 A로부터 일정 거리(e) 내에 있는 점이 최소 s개 있으면 이 패치를 코어(Core) 패치라고 한다.For example, assuming there is a patch A, if there are at least s points within a certain distance (e) from the patch A, the patch is called a core patch.

여기서,

Figure 112019134321648-pat00002
로 고려되는 집합의 범위를 고정한다. E와 S는 K개의 그룹과 겹쳐지지 않도록 사용자가 미리 결정하여 설정할 수 있다.here,
Figure 112019134321648-pat00002
Fixes the scope of the set to be considered as E and S can be set by the user in advance so as not to overlap with K groups.

K개의 그룹 내에서 각각의 그룹에 따라 일정 거리(e)를 변화시켜 패치 A로부터 일정 거리 내에 있는 패치의 개수가 최대가 되는 패치(A^)를 구할 수 있다. 최대 개수 패치(A^)를 나타내면 다음의 [수학식 2]와 같다.A patch A^ having a maximum number of patches within a predetermined distance from patch A may be obtained by changing a predetermined distance e according to each group within the K groups. The maximum number of patches (A^) is expressed as [Equation 2] below.

Figure 112019134321648-pat00003
Figure 112019134321648-pat00003

유효성 분석에서 각각의 K개의 그룹에 따라 찾은 코어 패치에 기초하여 유사도 분석 대상이 되는 패치들 사이의 거리가

Figure 112019134321648-pat00004
이하이면, 유효한 패치로 판정할 수 있다. 유효성 분석에서 유사도 분석 대상이 되는 패치들 사이의 거리가
Figure 112019134321648-pat00005
이하가 아니면 유효하지 않은 패치(비유효패치)로 판정할 수 있다.Based on the core patch found for each K group in the validity analysis, the distance between the patches to be analyzed for similarity is
Figure 112019134321648-pat00004
If it is below, it can be determined as a valid patch. In the validity analysis, the distance between the patches to be analyzed for similarity
Figure 112019134321648-pat00005
If it is not below, it can be determined as an invalid patch (invalid patch).

또한, 본 실시예의 학습 데이터 증가 방법은 제1 단계 후에 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정하는 단계(제2b 단계)를 포함할 수 있다(S22,S31,S32). 제2b 단계는 제2a 단계와 병렬적으로 수행될 수 있다.In addition, the method of increasing the learning data of the present embodiment may include a step (step 2b) of analyzing and determining a preset effective patch and similar pattern through a histogram analysis after the first step (S22, S31, S32). Step 2b may be performed in parallel with step 2a.

제2b 단계를 상세히 설명하면 다음과 같다. Step 2b will be described in detail as follows.

RGB 채널에 대해서 고정된

Figure 112019134321648-pat00006
에 대해 mean(A(i,j,k))가 유효한 패치들의 (max(B(i,j,k))의 최솟값에 대해 기준 설정 배율보다 적으면 유효하다고 판정한다. 기준 설정 배율은 0.9배일 수 있다. 이러한 기준 설정 배율은 실험에 의해 최적화된 것이다.fixed for RGB channels
Figure 112019134321648-pat00006
It is judged as valid if mean(A(i,j,k)) is less than the reference-setting magnification for the minimum value of (max(B(i,j,k)) of valid patches. The reference-setting magnification is 0.9 times. This reference setting magnification is optimized by experimentation.

제2b 단계를 수식으로 나타내면 다음의 [수학식 3]과 같이 표현할 수 있다. If step 2b is expressed as an equation, it can be expressed as in the following [Equation 3].

Figure 112019134321648-pat00007
Figure 112019134321648-pat00007

또한, 본 실시예의 학습 데이터 증가 방법은 제1 단계 후에 유사성 분석 함수를 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정하는 단계(제2c 단계)를 포함할 수 있다(S23,S31,S32). 제2c 단계(S23)는 제2a 단계(S21) 및 제2b 단계(S22)와 병렬적으로 수행될 수 있다.In addition, the method of increasing the learning data of the present embodiment may include a step of analyzing and determining the degree of similarity for each patch (step 2c) using a similarity analysis function after the first step (S23, S31, S32). Step 2c ( S23 ) may be performed in parallel with step 2a ( S21 ) and step 2b ( S22 ).

제2c단계를 상세히 설명하면 다음과 같다.Step 2c will be described in detail as follows.

각 K 그룹에 대한 유효한 패치

Figure 112019134321648-pat00008
의 차원 3mn의 정규분포를
Figure 112019134321648-pat00009
라고 하자. 그리고, 유효하지 않는 패치의 그룹에 대한 차원 3mn의 정규 분포를
Figure 112019134321648-pat00010
라고 하자.Valid patches for each K group
Figure 112019134321648-pat00008
Normal distribution of dimension 3mn of
Figure 112019134321648-pat00009
let's say Then, we obtain a normal distribution of dimension 3mn for the group of invalid patches.
Figure 112019134321648-pat00010
let's say

주어진 패치의 픽셀 데이터가 그룹 K에 들어갈 확률을

Figure 112019134321648-pat00011
라고 하고, Z에 들어갈 확률을
Figure 112019134321648-pat00012
라고 하면
Figure 112019134321648-pat00013
이 된다.The probability that the pixel data of a given patch will fit into group K is
Figure 112019134321648-pat00011
, and the probability of entering Z is
Figure 112019134321648-pat00012
If you say
Figure 112019134321648-pat00013
becomes this

이때 베이즈 룰을 적용해서 각 K 그룹에 대해 다음의 [수학식 4]를 푼다.At this time, the following [Equation 4] is solved for each K group by applying Bayes' rule.

Figure 112019134321648-pat00014
Figure 112019134321648-pat00014

위의 [수학식 4]에서

Figure 112019134321648-pat00015
의 K+1개의 방정식을 연립해서 풀어서 각
Figure 112019134321648-pat00016
값을 구한 뒤 가장 높은 값으로 대상 패치의 유효그룹을 결정한다.
Figure 112019134321648-pat00017
가 가장 클 경우 대상패치는 유효하지 않은 패치로 분류되고,
Figure 112019134321648-pat00018
가 가장 클 경우 K 그룹중 I번째 그룹에 속하게 된다.In [Equation 4] above
Figure 112019134321648-pat00015
By solving a system of K+1 equations of
Figure 112019134321648-pat00016
After finding the value, the effective group of the target patch is determined with the highest value.
Figure 112019134321648-pat00017
is the largest, the target patch is classified as an invalid patch,
Figure 112019134321648-pat00018
If is the largest, it belongs to the I-th group among K groups.

또한, 본 실시예의 학습 데이터 증가 방법은 제2a 단계, 제2b 단계 및 제2c 단계 모두를 통해 유효성을 분석할 수 있다(S21,S22,S23,S31,S32).In addition, the method of increasing the learning data of this embodiment can analyze the effectiveness through all of the second step 2a, step 2b and step 2c (S21, S22, S23, S31, S32).

또한, 본 실시예의 학습 데이터 증가 방법은 제2a 단계, 제2b 단계 및 제2c 단계 이후에, 유효 판정을 받지 못한 패치들(비유효패치들)을 유효한 병리 영상의 RGB 채널에 대한 정규분포로 추가 변환 및 생성하는 단계(S33)를 포함할 수 있다(도 2 참조). 이를 통해 증가된 개수의 유효패치를 분류할 수 있다(S40).In addition, in the method of increasing the learning data of this embodiment, after steps 2a, 2b, and 2c, patches that have not been validated (invalid patches) are added to the normal distribution for the RGB channel of the valid pathological image. It may include the step of transforming and generating (S33) (refer to FIG. 2). Through this, the increased number of valid patches can be classified (S40).

또한, 본 실시예의 학습 데이터 증가 방법은 추가 변환 및 생성된 패치들에 대하여 제2a 단계, 제2b 단계 및 제2c 단계 모두를 통해 유효성을 다시 분석할 수 있다.In addition, the method of increasing the training data of the present embodiment may re-analyze the validity of the additionally transformed and generated patches through all of the steps 2a, 2b, and 2c.

추가 변환 및 생성하는 단계를 유효패치의 정규분포를 이용하여 처리하는 과정을 나타내면 다음과 같다.The process of processing the additional transformation and generation steps using the normal distribution of effective patches is as follows.

먼저, 유효한정을 받지 않은 패치들을 정규화한다.First, patches that do not receive valid validation are normalized.

그리고, 컨볼루션 연산자(convolution operator)를 이용하여 유효한정을 받은 패치를 RGB 채널에 대한 정규분포로 변환한다. 이를 나타내면 [수학식 5]와 같다.Then, using a convolution operator, the patch that has received a valid definition is converted into a normal distribution for the RGB channel. This is expressed as [Equation 5].

Figure 112019134321648-pat00019
Figure 112019134321648-pat00019

위의 [수학식 5]에서 N nonvalid는 유효한정을 받지 않은 패치의 RGB 채널에 대한 가우시안 분포를 의미한다. 채널이 R,G,B로 3개이므로 총 3개의 N valid는 유효패치의 RGB 채널에 대한 정규분포를 의미한다.In [Equation 5] above, N nonvalid means a Gaussian distribution for the RGB channel of a patch that has not been validated. Since there are 3 channels, R, G, and B, a total of 3 N valid means the normal distribution for the RGB channels of the valid patch.

컨볼루션 연산자는 다음의 수학식 6을 의미한다.The convolution operator means the following Equation (6).

Figure 112019134321648-pat00020
Figure 112019134321648-pat00020

위의 [수학식 5] 및 [수학식 6]에 따르면, 컨볼루션 연산자에 의해 유효패치를 받지 못한 패치의 가우시안 분포는 유효패치의 RGB 채널에 대한 정규분포로 변환된다. 따라서 본 실시예에서는 이를 이용하여 비유효패치를 유효패치로 변환한다.According to [Equation 5] and [Equation 6] above, the Gaussian distribution of the patch not receiving the valid patch by the convolution operator is converted into a normal distribution for the RGB channel of the valid patch. Therefore, in this embodiment, an invalid patch is converted into a valid patch using this.

또한, 본 실시예의 학습 데이터 증가 방법은 위의 과정을 통해 얻은 유효한 패치들에 의해 하나의 이미지를 생성한 후에, 생성된 이미지를 하나의 이미지보다 일정한 작은 배율로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 단계를 더 포함할 수 있다.In addition, the method of increasing the learning data of this embodiment generates an image of a new size by generating a single image by using the valid patches obtained through the above process, and then cutting the generated image at a predetermined smaller magnification than the single image. It may further include the step of

또한, 본 실시예의 학습 데이터 증가 방법은 새로운 크기의 이미지를 생성한 후, 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는 단계를 더 포함할 수 있다.In addition, the method of increasing the learning data of this embodiment may further include the step of re-determining validity by generating an image of a new size, and then analyzing a ratio in which the image of the new size overlaps with the lesion area of an existing effective patch image. .

또한, 본 실시예의 학습 데이터 증가 방법은 새로운 크기의 이미지를 생성한 후, 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 단계 내지 제2c 단계 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 단계를 더 포함할 수 있다.In addition, the method of increasing the learning data of this embodiment generates a patch while rotating the image created in the new size by 360 degrees at an arbitrary angle after generating an image of a new size, and any one of the steps 2a to 2c above. It may further include the step of augmenting the learning data by analyzing the validity of one.

도 4는 본 실시예의 동작을 이용한 인공신경망 학습 방법 및 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.4 is a structural diagram of a convolutional neural network that can be employed in the artificial neural network learning method and apparatus using the operation of the present embodiment.

본 실시예에 따른 동작을 이용한 인공신경망 학습 장치는 인공지능 신경망으로 딥러닝 아키텍처를 이용할 수 있다. 딥러닝 아키텍처는 의료 영상 신호에 대하여 합성곱 신경망(convolutional neural network, CNN), 디컨볼루션(deconvolution), 스킵 컨넥션(skip connection) 등을 사용하여 모션 기반 라벨링에 따라 동작을 학습하고 학습 결과에 따라 외부 신호를 발생시키거나 특정 노이즈를 발생시키는 일련의 과정을 처리하도록 구현될 수 있다.The artificial neural network learning apparatus using the operation according to the present embodiment may use a deep learning architecture as an artificial intelligence neural network. Deep learning architecture uses convolutional neural network (CNN), deconvolution, skip connection, etc. for medical image signals to learn motions according to motion-based labeling, and according to the learning results, It may be implemented to process a series of processes that generate an external signal or generate a specific noise.

일례로, 딥러닝 아키텍처는 컨볼루션 네트워크와 디컨볼루션 네트워크 및 숏컷(shortcut)을 포함한 형태를 구비할 수 있다. 도 3에 도시한 바와 같이, 딥러닝 아키텍처는 의료 영상(X)의 국소적인 특징을 추출하기 위하여 3x3 크기의 컬러 컨볼루션 레이어(convolution layer)와 액티베이션 레이어(ReLU)를 쌓고 2x2 크기의 필터를 스트라이드(stride) 1로 적용하여 다음 하위 깊이 레벨로 연결되는 컨볼루션 블록의 연산을 4회 반복하여 수행하고, 그 다음에 2x2 크기의 디컨볼루션 레이어(deconvolution layer)와 액티베이션 레이어(ReLU)를 적용하여 다음 상위 깊이 레벨로 연결한 후 3x3 크기의 컬러 컨볼루션 레이어와 액티베이션 레이어를 쌓는 역컨볼루션 블록의 연산을 4회 반복하여 수행하며, 여기서 각 레벨의 컨볼루션 블록의 연산을 포함한 컨볼루션 네트워크의 각 레벨의 컨볼루션 블록의 이미지에 동일 레벨의 역컨볼루션 네트워크의 대응 레벨의 컨볼루션 결과를 갖다 붙이고(copy and contatenate) 각 블록에서 컨볼루션 연산을 각각 수행하도록 이루어질 수 있다.As an example, the deep learning architecture may have a form including a convolutional network, a deconvolutional network, and a shortcut. As shown in Fig. 3, the deep learning architecture stacks a 3x3 color convolution layer and an activation layer (ReLU) in order to extract local features of a medical image (X), and strides a 2x2 size filter. By applying (stride) 1, the operation of the convolution block connected to the next lower depth level is repeated 4 times, and then a 2x2 deconvolution layer and an activation layer (ReLU) are applied. After connecting to the next higher depth level, the operation of the inverse convolution block stacking the 3x3 size color convolution layer and the activation layer is repeated 4 times, where each level of the convolution network including the operation of the convolution block of each level It can be made to copy and contate the image of the convolution block of the level with the convolution result of the corresponding level of the inverse convolution network of the same level, and perform a convolution operation in each block.

컨볼루션 네트워크와 디컨볼루션 네트워크 내 컨볼루션 블록은 conv-ReLU-conv 레이어들의 조합으로 구현될 수 있다. 그리고, 딥러닝 아키텍처의 출력은 컨볼루션 네트워크이나 디컨볼루션 네트워크에 연결되는 분류기를 통해 얻어질 수 있으나, 이에 한정되지는 않는다. 분류기는 FCN(fully connectivity network) 기법을 이용하여 영상에서 국소적인 특징을 추출하는데 이용될 수 있다.A convolutional block in a convolutional network and a deconvolutional network can be implemented as a combination of conv-ReLU-conv layers. And, the output of the deep learning architecture may be obtained through a classifier connected to a convolutional network or a deconvolutional network, but is not limited thereto. The classifier can be used to extract local features from an image using a fully connectivity network (FCN) technique.

또한, 딥러닝 아키텍처는 구현에 따라서 컨볼루션 블록 내에 인셉션 모듈(inseption module) 또는 멀티 필터 경로(multi filter pathway)를 추가로 사용하도록 구현될 수 있다. 인셉션 모듈 또는 멀티 필터 경로 내 서로 다른 필터는 1x1 필터를 포함할 수 있다.In addition, the deep learning architecture may be implemented to additionally use an inception module or a multi filter pathway in the convolution block according to implementation. Different filters in the inception module or multi-filter path may include a 1x1 filter.

참고로, 딥러닝 아키텍처에서 입력(input) 이미지가 가로 32, 세로 32, 그리고 RGB 채널을 가지는 경우, 의료 영상에 대응하는 입력 이미지(X)의 크기는 [32x32x3]일 수 있다. 딥러닝 아키텍처의 CNN(convloultional neural network)에서 콘볼루션(convolutional, CONV) 레이어는 입력 이미지의 일부 영역과 연결되며, 이 연결된 영역과 자신의 가중치의 내적 연산(dot product)을 계산하도록 설계될 수 있다.For reference, when the input image has 32 horizontal, 32 vertical, and RGB channels in the deep learning architecture, the size of the input image X corresponding to the medical image may be [32x32x3]. In a deep learning architecture's convolutional neural network (CNN), a convolutional (CONV) layer is connected to some region of the input image, and it can be designed to compute the dot product of the connected region and its weight. .

여기서, ReLU(rectified linear unit) 레이어는 max(0,x)와 같이 각 요소에 적용되는 액티베이션 함수(activation function)이다. ReLU 레이어는 볼륨의 크기를 변화시키지 않는다. POOLING 레이어는 (가로, 세로)로 표현되는 차원에 대해 다운샘플링(downsampling) 또는 서브샘블링(subsampling)을 수행하여 감소된 볼륨을 출력할 수 있다.Here, the rectified linear unit (ReLU) layer is an activation function applied to each element, such as max(0,x). The ReLU layer does not change the size of the volume. The POOLING layer may output a reduced volume by performing downsampling or subsampling on a dimension expressed by (horizontal, vertical).

그리고, 전연결(fully-connected, FC) 레이어는 클래스 점수들을 계산하여 예컨대 [1x1x10]의 크기를 갖는 볼륨을 출력할 수 있다. 이 경우, 10개 숫자들은 10개 카테고리에 대한 클래스 점수에 해당한다. 전연결 레이어는 이전 볼륨의 모든 요소와 연결된다. 거기서, 어떤 레이어는 모수(parameter)를 갖지만 어떤 레이어는 모수를 갖지 않을 수 있다. CONV/FC 레이어들은 액티베이션 함수로서 단순히 입력 볼륨만이 아니라 가중치(weight)와 바이어스(bias)를 포함할 수 있다. 한편, ReLU/POOLING 레이어들은 고정된 함수로서, CONV/FC 레이어의 모수들은 각 이미지에 대한 클래스 점수가 해당 이미지의 레이블과 같아지도록 그라디언트 디센트(gradient descent)로 학습될 수 있다.In addition, the fully-connected (FC) layer may output a volume having a size of, for example, [1x1x10] by calculating class scores. In this case, ten numbers correspond to class scores for ten categories. The preconnect layer connects all elements of the previous volume. There, some layers may have parameters and some layers may not. CONV/FC layers may include not only input volume but also weight and bias as an activation function. Meanwhile, the ReLU/POOLING layers are fixed functions, and the parameters of the CONV/FC layer may be learned by gradient descent so that the class score for each image is the same as the label of the corresponding image.

도 5는 본 발명의 다른 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치에 대한 블록도이다.5 is a block diagram of an apparatus for increasing training data using patch matching according to another embodiment of the present invention.

도 5를 참조하면, 본 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치는, 프로그램을 저장하는 메모리(52), 및 메모리(52)에 연결되어 프로그램을 수행하는 제어부(51)를 구비한다. 또한, 네트워크에 연결되어 의료 영상 신호 등의 신호 및 데이터를 송수신하는 통신부(53)를 더 구비할 수 있다.Referring to FIG. 5 , the apparatus for increasing learning data using patch matching according to the present embodiment includes a memory 52 for storing a program, and a controller 51 connected to the memory 52 to execute a program. In addition, it may further include a communication unit 53 connected to the network for transmitting and receiving signals and data such as medical image signals.

메모리(52)에는 프로그램 또는 소프트웨어 모듈이 탑재될 수 있다. 소프트웨어 모듈은, 패치영상 생성부(521), 제1 판정부(522), 제2 판정부(523), 제3 판정부(524), 유효성 분석부(525), 기본작업 종료부(526), 분류부(527), 제1 이미지 생성부(528a), 제2 이미지 생성부(528b) 및 데이터 증강부(529)를 포함할 수 있다.A program or software module may be loaded in the memory 52 . The software module includes a patch image generation unit 521 , a first determination unit 522 , a second determination unit 523 , a third determination unit 524 , a validity analysis unit 525 , and a basic operation end unit 526 . , a classification unit 527 , a first image generation unit 528a , a second image generation unit 528b , and a data augmentation unit 529 may be included.

패치영상 생성부(521)는 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성한다.The patch image generator 521 generates a patch image by dividing an image into a size specified at an arbitrary angle in the medical image.

제1 판정부(522)는 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정한다.The first determination unit 522 classifies through a clustering technique, and determines through a similarity analysis with a preset valid patch.

제2 판정부(523)는 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정한다.The second determination unit 523 determines by analyzing a preset effective patch and a similar pattern through histogram analysis.

제3 판정부(524)는 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정한다.The third determining unit 524 analyzes and determines the degree of similarity for each patch using the similarity analysis function and the learned artificial neural network.

유효성 분석부(525)는 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제1 내지 제3 판정부 중 중 하나를 통해 유효성을 분석한다.The effectiveness analyzer 525 rotates the medical image at different angles, divides the image into a specified size, generates a patch, and analyzes effectiveness through one of the first to third determining units.

기본작업 종료부(526)는 유효성 분석부의 유효성 분석 후에, 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료한다.The basic operation end unit 526 ends the patch generation when the rotated angle of the medical image becomes 360 degrees after the validity analysis of the validity analysis unit.

분류부(527)는 기본작업 종료부의 종료 동작 후에, 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류한다.The classification unit 527 further classifies the patches that have been validated in the validity analysis by the clustering technique after the end operation of the basic work end unit.

제1 이미지 생성부(528a)는 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성한다.The first image generator 528a generates one image by connecting a plurality of images in the same cluster according to additional classification.

제2 이미지 생성부(528b)는 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성한다.The second image generating unit 528b crops one image generated by the image generating unit to a size smaller than the single image to generate an image of a new size.

데이터 증강부(529)는 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 단계 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시킨다.The data augmentation unit 529 generates a patch while rotating the image generated in a new size from an arbitrary angle to 360 degrees, and analyzes the validity in any one of steps 2a to 2c above to augment the learning data.

전술한 제1 내지 제3 판정부, 유효성 분석부, 분류부 등은 인공신경망으로 학습하도록 이루어질 수 있다. 이러한 학습부를 포함하는 인공신경망 학습 장치는 컴퓨팅 장치에 탑재되거나 컴퓨팅 장치를 포함하도록 구현될 수 있다.The above-described first to third determination units, validity analysis unit, classification unit, etc. may be configured to learn by an artificial neural network. The artificial neural network learning apparatus including such a learning unit may be mounted on a computing device or implemented to include the computing device.

제어부(51)는 마이크로프로세서, 연산처리장치 또는 제어장치에 대응할 수 있고, 중앙 처리 장치(CPU)나 코어(core)를 포함할 수 있으며, 메모리(52)에 저장되는 프로그램이나 소프트웨어 모듈을 실행하여 본 실시예의 방법을 실행하도록 구현될 수 있다. 예를 들면, 도 3에 도시한 바와 같이, 병리 영상의 특정 관심 영역에서 패치를 얻고 이를 분석하여 데이터를 증강하도록 이루어질 수 있다.The control unit 51 may correspond to a microprocessor, an arithmetic processing unit or a control unit, may include a central processing unit (CPU) or a core, and execute a program or software module stored in the memory 52 to It may be implemented to execute the method of the present embodiment. For example, as shown in FIG. 3 , a patch may be obtained from a specific region of interest in a pathological image and data may be augmented by analyzing the patch.

통신부(53)는 인트라넷, 인터넷, 유선 네트워크, 무선 네트워크, 위성망 또는 이들의 조합을 위한 적어도 하나 이상의 서브통신시스템을 구비할 수 있다. 통신부(53)는 MRI 장치나 데이터베이스에 연결되어 의료 영상 신호를 수신하거나 독출하여 획득할 수 있고, 처리된 결과를 디스플레이 장치나 외부 장치 등으로 전송하도록 구현될 수 있다.The communication unit 53 may include at least one sub communication system for an intranet, the Internet, a wired network, a wireless network, a satellite network, or a combination thereof. The communication unit 53 may be connected to an MRI apparatus or a database to receive or read a medical image signal, and may be implemented to transmit a processed result to a display device or an external device.

전술한 장치에 채용가능한 인공지능은 별도의 전처리기, 인식기, 학습기 또는 이들이 조합된 독립적인 기능부 혹은 구성부로서 분류 시스템에 연결되는 형태를 구비하거나 각 구성부에 탑재되는 형태를 구비할 수 있다. 인공지능은 기계학습(machine learning), 인공신경망 또는 딥러닝를 포함하도록 설계될 수 있다. 딥러닝은 합성곱 신경망 등을 포함할 수 있다. 이러한 인공지능이나 이를 포함하는 인공지능 시스템은 학습 수단 등으로 지칭될 수 있다.The artificial intelligence employable in the above-described device may have a form connected to the classification system as a separate preprocessor, recognizer, learner, or a combination thereof as an independent functional unit or component unit, or may have a form mounted on each component unit. . Artificial intelligence can be designed to include machine learning, artificial neural networks, or deep learning. Deep learning may include convolutional neural networks and the like. Such artificial intelligence or an artificial intelligence system including the same may be referred to as a learning means or the like.

본 발명은 도면을 참조한 실시예를 중심으로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점은 자명하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments with reference to the drawings, these are merely exemplary, and it is apparent that various modifications and equivalent other embodiments are possible therefrom by those skilled in the art. Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

Claims (12)

패치영상 생성부가 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 제1 단계;
제1 판정부가 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2a 단계;
제2 판정부가 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2b 단계;
제3 판정부가 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2c 단계; 및
유효성 분석부가 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제2a, 제2b 및 제2c 단계 중 하나를 통해 유효성을 분석하는 제3 단계를 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
A first step of generating a patch image by dividing the image by a patch image generator into a size specified at an arbitrary angle in the medical image;
a second step of classifying by the first determining unit using a clustering technique and determining whether the patch is valid or invalid through a similarity analysis with a preset valid patch;
a second step of determining, by a second determination unit, a valid patch or an invalid patch by analyzing a preset valid patch and a similar pattern through a histogram analysis;
2c step of analyzing the similarity for each patch by using the similarity analysis function and the learned artificial neural network by the third determining unit and determining whether the patch is valid or invalid; and
Including a third step of generating a patch by rotating the medical image by a validity analysis unit at a different angle and dividing the image by a specified size, and analyzing the effectiveness through one of the steps 2a, 2b, and 2c, patch matching A method of increasing training data using
청구항 1에 있어서,
상기 제3 단계 후에, 기본작업 종료부가 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 단계;
상기 종료하는 단계 후에, 분류부가 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 단계; 및
제1 이미지 생성부가 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 단계를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 1,
terminating the patch generation when the rotation angle of the medical image by the basic operation end unit reaches 360 degrees after the third step;
after the terminating step, further classifying the patches for which the classification unit has been validated in the validity analysis using a clustering technique; and
The method of increasing learning data using patch matching further comprising the step of the first image generator generating one image by connecting a plurality of images in the same cluster according to the additional classification.
청구항 2에 있어서,
상기 하나의 이미지를 생성하는 단계 후에,
제2 이미지 생성부가 상기 제1 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 단계를 더 포함하는 패치 정합을 이용한 학습 데이터 증가 방법.
3. The method according to claim 2,
After generating the single image,
The method of increasing training data using patch matching further comprising: a second image generating unit cropping one image generated by the first image generating unit to a size smaller than the single image to generate an image of a new size.
청구항 3에 있어서,
상기 유효성 분석부가 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는 단계를 더 포함하는 패치 정합을 이용한 학습 데이터 증가 방법.
4. The method according to claim 3,
The method of increasing learning data using patch matching further comprising the step of re-determining validity by analyzing, by the validity analysis unit, the overlapping ratio of the image of the new size with the lesion area of the existing effective patch image.
청구항 3에 있어서,
데이터 증강부가 상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 단계 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 단계를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
4. The method according to claim 3,
Further comprising the step of augmenting the learning data by generating a patch while rotating the image generated in the new size by the data augmentation unit from an arbitrary angle to 360 degrees and analyzing the validity in any one of the steps 2a to 2c, A method of increasing training data using patch matching.
청구항 1에 있어서,
상기 유효성 분석부가 상기 유효성 분석에서 얻은 비유효패치를 병리 영상의 RGB 채널에 대한 정규분포로 추가 변환하여 생성하는 단계; 및
상기 유효성 분석부가 상기 추가 변환하여 생성된 패치들에 대하여 상기 제2a 단계 내지 상기 제2c 단계 모두를 통해 유효성을 다시 분석하여 상기 비유효패치를 유효패치로 변환하는 단계를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 1,
generating, by the validity analysis unit, additionally converting the invalid patch obtained from the validity analysis into a normal distribution for the RGB channel of the pathological image; and
Patch matching further comprising the step of re-analyzing the validity of the patches generated by the additional conversion by the validity analysis unit through all of the steps 2a to 2c to convert the invalid patch into a valid patch A method of increasing training data using
의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 패치영상 생성부;
클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 유효한 패치 또는 유효하지 않은 패치로 판정하는 제1 판정부;
히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 유효한 패치 또는 유효하지 않은 패치로 판정하는 제2 판정부;
유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 유효한 패치 또는 유효하지 않은 패치로 판정하는 제3 판정부; 및
상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제1 내지 제3 판정부 중 하나를 통해 유효성을 분석하는 유효성 분석부를 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
a patch image generator for generating a patch image by dividing an image into a size specified at an arbitrary angle in a medical image;
a first judging unit that classifies through a clustering technique and determines whether the patch is valid or invalid through a similarity analysis with a preset valid patch;
a second determination unit that analyzes a preset valid patch and a similar pattern through histogram analysis to determine a valid patch or an invalid patch;
a third determination unit that analyzes the similarity for each patch using the similarity analysis function and the learned artificial neural network and determines whether the patch is valid or invalid; and
An apparatus for increasing learning data using patch matching, including a validity analyzer that rotates the medical image at different angles and divides the image into a specified size to generate a patch and analyzes the effectiveness through one of the first to third determination units .
청구항 7에 있어서,
상기 유효성 분석부의 유효성 분석 후에, 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 기본작업 종료부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
8. The method of claim 7,
After the validity analysis of the validity analysis unit, the apparatus for increasing the learning data using patch matching further comprises a basic operation terminating unit for terminating the patch generation when the rotated angle of the medical image becomes 360 degrees.
청구항 8에 있어서,
상기 기본작업 종료부의 종료 동작 후에, 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 분류부; 및
추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 제1 이미지 생성부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
9. The method of claim 8,
a classification unit for further classifying patches that have been validated in the validity analysis by a clustering technique after the end operation of the basic work end unit; and
The apparatus for increasing learning data using patch matching, further comprising a first image generator configured to generate one image by connecting a plurality of images in the same cluster according to additional classification.
청구항 9에 있어서,
상기 제1 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 제2 이미지 생성부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
10. The method of claim 9,
The apparatus for increasing learning data using patch matching, further comprising a second image generator configured to generate an image of a new size by cropping one image generated by the first image generator to a size smaller than the one image.
청구항 10에 있어서,
상기 유효성 분석부는 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는, 패치 정합을 이용한 학습 데이터 증가 장치.
11. The method of claim 10,
The effectiveness analyzer analyzes the ratio in which the image of the new size overlaps with the lesion area of the existing valid patch image to determine the validity again, an apparatus for increasing learning data using patch matching.
청구항 10에 있어서,
상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제1, 2, 3 판정부 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 데이터 증강부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
11. The method of claim 10,
Further comprising a data augmentation unit that generates a patch while rotating the image generated in the new size from an arbitrary angle to 360 degrees and analyzes the validity with any one of the first, second, and third determination units to augment the learning data, Training data augmentation device using patch matching.
KR1020190175569A 2018-12-27 2019-12-26 Apparatus and method for increasing learning data using patch matching KR102336003B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180171303 2018-12-27
KR1020180171303 2018-12-27

Publications (2)

Publication Number Publication Date
KR20200083303A KR20200083303A (en) 2020-07-08
KR102336003B1 true KR102336003B1 (en) 2021-12-08

Family

ID=71601390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190175569A KR102336003B1 (en) 2018-12-27 2019-12-26 Apparatus and method for increasing learning data using patch matching

Country Status (1)

Country Link
KR (1) KR102336003B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102564750B1 (en) * 2020-07-24 2023-08-09 고려대학교 산학협력단 Deep learning algorithm for Alzheimer's disease prediction using a single brain MR slice
KR102296511B1 (en) * 2020-11-17 2021-09-02 주식회사 트윔 Training data generating apparatus, method for product inspection and product inspection appratus using the training data
KR102615264B1 (en) 2020-12-04 2023-12-19 동의대학교 산학협력단 Device and Method for Deep Learning CMS Dataset Construction Using Rotation Apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144214A1 (en) 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
KR102043672B1 (en) 2019-03-29 2019-11-12 주식회사 딥노이드 System and method for lesion interpretation based on deep learning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372200B1 (en) * 2019-04-16 2022-03-10 서울여자대학교 산학협력단 Method and apparatus for classification of lesion based on learning data applying one or more augmentation method in lesion information augmented patch of medical image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144214A1 (en) 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
KR102043672B1 (en) 2019-03-29 2019-11-12 주식회사 딥노이드 System and method for lesion interpretation based on deep learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Maayan Frid-Adar, et al., "GAN-based Synthetic Medical Image Augmentation for increased CNN Performance in Liver Lesion Classification", Neurocomputing, Volume 321, Pages 321-331 (2018.12.10.)

Also Published As

Publication number Publication date
KR20200083303A (en) 2020-07-08

Similar Documents

Publication Publication Date Title
KR102058884B1 (en) Method of analyzing iris image for diagnosing dementia in artificial intelligence
Kumar et al. U-segnet: fully convolutional neural network based automated brain tissue segmentation tool
KR102336003B1 (en) Apparatus and method for increasing learning data using patch matching
Shaziya et al. Automatic lung segmentation on thoracic CT scans using U-net convolutional network
Lahoud et al. Zero-learning fast medical image fusion
KR102214123B1 (en) Method and system for extracting and integratin and evaluating lesion using pwi-dwi mismatch based on artificial intelligence
KR20230059799A (en) A Connected Machine Learning Model Using Collaborative Training for Lesion Detection
Liu et al. Efficient multi-kernel DCNN with pixel dropout for stroke MRI segmentation
CN111242933B (en) Retinal image artery and vein classification device, apparatus, and storage medium
Chaki et al. A deep learning based four-fold approach to classify brain MRI: BTSCNet
CN110858399B (en) Method and apparatus for providing post-examination images of a virtual tomographic stroke
KR102015224B1 (en) Method and apparatus for diagnosing cerebral hemorrhagic and brain tumor lesions based on deep learning
Wang et al. Automatic real-time CNN-based neonatal brain ventricles segmentation
CN109949288A (en) Tumor type determines system, method and storage medium
Kanchanamala et al. Optimization-enabled hybrid deep learning for brain tumor detection and classification from MRI
Li et al. DFENet: A dual-branch feature enhanced network integrating transformers and convolutional feature learning for multimodal medical image fusion
Ali et al. Multi-level kronecker convolutional neural network (ml-kcnn) for glioma segmentation from multi-modal mri volumetric data
KR102020157B1 (en) Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery
Zhao et al. Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation
KR102056989B1 (en) Method and system for classifying blood clot in gradient echo images based on machine learning
Carmo et al. Extended 2D consensus hippocampus segmentation
Mirchandani et al. Comparing the Architecture and Performance of AlexNet Faster R-CNN and YOLOv4 in the Multiclass Classification of Alzheimer Brain MRI Scans
Erwin et al. BVU-Net: A U-Net Modification by VGG-Batch Normalization for Retinal Blood Vessel Segmentation
CN112242193B (en) Automatic blood vessel puncture method based on deep learning
Carmo et al. Extended 2d volumetric consensus hippocampus segmentation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant