KR20200083303A - Apparatus and method for increasing learning data using patch matching - Google Patents

Apparatus and method for increasing learning data using patch matching Download PDF

Info

Publication number
KR20200083303A
KR20200083303A KR1020190175569A KR20190175569A KR20200083303A KR 20200083303 A KR20200083303 A KR 20200083303A KR 1020190175569 A KR1020190175569 A KR 1020190175569A KR 20190175569 A KR20190175569 A KR 20190175569A KR 20200083303 A KR20200083303 A KR 20200083303A
Authority
KR
South Korea
Prior art keywords
patch
image
learning data
unit
generating
Prior art date
Application number
KR1020190175569A
Other languages
Korean (ko)
Other versions
KR102336003B1 (en
Inventor
김원태
강신욱
이명재
김동민
김동석
Original Assignee
(주)제이엘케이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이엘케이 filed Critical (주)제이엘케이
Publication of KR20200083303A publication Critical patent/KR20200083303A/en
Application granted granted Critical
Publication of KR102336003B1 publication Critical patent/KR102336003B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an apparatus and a method for increasing learning data using patch matching. The method for increasing learning data using patch matching comprises: a first step of generating a patch image by dividing an image into a size designated at an arbitrary angle in a medical image; a 2a step of performing classification through a clustering technique, and performing determination through a preset valid patch and similarity analysis; a 2b step of analyzing and determining the preset valid patch and a similar pattern through histogram analysis; a 2c step of analyzing and determining the degree of similarity for each patch using a similarity analysis function and a learned artificial neural network; and a third step of rotating the medical image at different angles, dividing the image into a specified size to generate a patch, and analyzing validity through one of the 2a, 2b, and 2c steps. The present invention can increase the valid patches.

Description

패치 정합을 이용한 학습 데이터 증가 장치 및 방법{APPARATUS AND METHOD FOR INCREASING LEARNING DATA USING PATCH MATCHING}Apparatus and method for increasing learning data using patch matching{APPARATUS AND METHOD FOR INCREASING LEARNING DATA USING PATCH MATCHING}

본 발명의 실시예는 패치 정합을 이용한 학습 데이터 증가 장치 및 방법에 관한 것이다.An embodiment of the present invention relates to an apparatus and method for increasing learning data using patch matching.

인공지능 기반의 영상 분석 시스템 개발을 위해서는 대용량의 영상 데이터 확보가 필수적이다. 이러한 한계를 극복하기 위하여 대용량의 이미지를 잘게 나누어 이미지 조각 즉 패치를 생성하여 학습하는 방법이 널리 사용되고 있다. 그럼에도 불고하고, 특정 암에 대한 병리 영상과 같은 특수한 영상 데이터의 경우 충분한 숫자의 영상 데이터 확보가 어려운 점이 있다. 또한, 이러한 영상의 경우 분석 대상이 되는 반복되는 패턴의 크기가 불균일하게 반복되는 점이 있어, 패치를 나누어서 학습을 하여도 그 정확도를 확보하기가 어렵다.In order to develop an artificial intelligence-based image analysis system, it is essential to secure a large amount of image data. In order to overcome these limitations, a method of generating an image fragment, that is, a patch, by dividing a large image into small pieces, and learning it is widely used. Nevertheless, it is difficult to secure a sufficient number of image data in the case of special image data such as pathological images for a specific cancer. In addition, in the case of such an image, there is a point in which the size of the repeated pattern to be analyzed is repeated non-uniformly, so it is difficult to secure the accuracy even by learning by dividing the patch.

한편, 의료 영상은 그 종류에 따라 서로 다른 영상 처리 과정을 거쳐야 하므로, 검출 혹은 진단 장치나 그 운용 시스템이 복잡하고 커지는 단점이 있다. 의료 영상들을 이용하여 종래의 병변 검출 기술 대부분은 의료 영상을 토대로 병변을 진단하는데 있어서 의사 등의 사용자의 참여를 필요로 하거나 사용자를 보조하는 수준에 머물러 있고, 자동으로 병변을 진단하거나 병변의 등급을 분석하는데는 아직까지 한계가 있다.On the other hand, since medical images have to undergo different image processing processes according to their types, there is a disadvantage that the detection or diagnosis device or its operating system is complicated and large. Most of the conventional lesion detection techniques using medical images require the user's participation, such as a doctor, to assist the user in diagnosing the lesion based on the medical image, or stay at a level that assists the user, and automatically diagnose the lesion or grade the lesion. There are still limitations in the analysis.

최근, 의료 분야에서 기계학습(machine learning)이나 인공지능(artificial intelligence)을 도입하여 활발한 연구개발을 진행 중에 있다. 하지만, 특정 병변 예컨대 뇌졸중 등의 뇌질환과 관련하여 자동으로 병변을 진단하고 병변의 등급을 분석하는 연구개발 결과는 아직까지 미미한 실정이다.In recent years, in the medical field, machine learning or artificial intelligence has been introduced to promote active research and development. However, research and development results for automatically diagnosing lesions and analyzing the grades of lesions in connection with brain diseases such as stroke, etc. are still insignificant.

본 발명은 기존 기술의 요구에 부응하기 위한 것으로, 본 발명의 목적은 분균일하게 반복되는 패턴이 존재하는 대용량 영상에서 학습에 유효한 패치를 자동으로 나눌 수 있도록 하기 위한 장치 및 방법을 제공하는데 있다.The present invention is intended to meet the needs of the existing technology, and an object of the present invention is to provide an apparatus and method for automatically dividing a patch effective for learning in a large-capacity image having a pattern that is uniformly repeated.

본 발명의 또 다른 목적은 전술한 본 발명의 실시예는 패치 정합을 이용한 학습 데이터 증가 장치 및 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 제공하는데 있다.Another object of the present invention is to provide a computer-readable recording medium recording a program implementing the apparatus and method for increasing learning data using patch matching.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 패치 정합을 이용한 학습 데이터 증가 방법은, 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 제1 단계; 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정하는 제2a 단계; 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정하는 제2b 단계; 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정하는 제2c 단계; 및 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제2a, 제2b 및 제2c 중 하나를 통해 유효성을 분석하는 제3 단계를 포함한다.In order to solve the above technical problem, a method of increasing learning data using patch matching according to an aspect of the present invention includes: a first step of generating a patch image by dividing the image into a specified size at an arbitrary angle in a medical image; A second step of classifying through a clustering technique and determining through a preset valid patch and similarity analysis; A second step of analyzing and determining a predetermined effective patch and a similar pattern through histogram analysis; A 2c step of analyzing and determining similarity for each patch using the similarity analysis function and the learned artificial neural network; And a third step of rotating the medical image at a different angle and dividing the image to a specified size to generate a patch and analyzing the effectiveness through one of the 2a, 2b, and 2c.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 방법은, 상기 제3 단계 후에, 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 단계를 더 포함할 수 있다.In one embodiment, the method of increasing learning data using patch matching may further include, after the third step, ending the patch generation when the rotated angle of the medical image is 360 degrees.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 방법은, 상기 종료하는 단계 후에, 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 단계; 및 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 단계를 더 포함할 수 있다.In one embodiment, a method of increasing learning data using patch matching may include, after the step of terminating, further classifying patches that have been determined to be valid in the validity analysis using a clustering technique; And generating a single image by connecting a plurality of images in the same cluster according to additional classification.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 방법은, 상기 하나의 이미지를 생성하는 단계 후에, 상기 생성하는 단계에서 생성된 이미지를 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 단계를 더 포함할 수 있다.In one embodiment, a method of increasing learning data using patch matching, after generating the one image, crops the image generated in the generating step to a smaller size than one image to generate a new sized image. It may further include a step.

일실시예에서, 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는 단계를 더 포함할 수 있다.In one embodiment, the method may further include determining the validity again by analyzing a ratio of the new sized image overlapping the lesion area of the existing valid patch image.

일실시예에서, 상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 단계를 더 포함할 수 있다.In one embodiment, further comprising the step of generating a patch while rotating the image generated in the new size from 360 to 360 degrees at any angle, and augmenting the training data by analyzing the effectiveness of any one of the 2a to 2c above Can be.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 패치 정합을 이용한 학습 데이터 증가 장치는, 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 패치영상 생성부; 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정하는 제1 판정부; 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정하는 제2 판정부; 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정하는 제3 판정부; 및 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제1 내지 제3 판정부 중 중 하나를 통해 유효성을 분석하는 유효성 분석부를 포함한다.An apparatus for increasing learning data using patch matching according to another aspect of the present invention for solving the above technical problem includes: a patch image generator for dividing an image into a specified size at an arbitrary angle in a medical image to generate a patch image; A first judging unit that classifies through a clustering technique and determines through a preset valid patch and similarity analysis; A second determination unit that analyzes and determines a preset effective patch and similar patterns through histogram analysis; A third determination unit that analyzes and determines similarity for each patch using a similarity analysis function and a learned artificial neural network; And a validity analysis unit that rotates the medical image at a different angle, divides the image to a specified size, generates a patch, and analyzes effectiveness through one of the first to third determination units.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 장치는, 상기 유효성 분석부의 유효성 분석 후에, 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 기본작업 종료부를 더 포함한다,.In one embodiment, the apparatus for increasing learning data using patch matching further includes a basic task termination unit that ends patch generation when the rotated angle of the medical image is 360 degrees after validity analysis of the effectiveness analysis unit.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 장치는, 상기 기본작업 종료부의 종료 동작 후에, 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 분류부; 및 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 제1 이미지 생성부를 더 포함할 수 있다.In one embodiment, the apparatus for increasing learning data using patch matching includes: a classification unit that further classifies patches, which have been determined to be valid in the validity analysis, into a clustering technique after the termination operation of the basic operation termination unit; And a first image generator configured to generate a single image by connecting a plurality of images in the same cluster according to additional classification.

일실시예에서, 패치 정합을 이용한 학습 데이터 증가 장치는, 상기 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 제2 이미지 생성부를 더 포함할 수 있다.In one embodiment, the apparatus for increasing learning data using patch matching further includes a second image generator that crops one image generated by the image generator to a smaller size than the one image to generate a new size image. It can contain.

일실시예에서, 상기 유효성 분석부는 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정할 수 있다.In one embodiment, the effectiveness analysis unit may determine the validity again by analyzing the ratio of the new size of the image overlapping the lesion area of the existing valid patch image.

일실시예에서, 상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 데이터 증강부를 더 포함한다.In one embodiment, further comprising a data augmentation unit for generating a patch while rotating the image generated in the new size to 360 degrees at any angle and analyzing the effectiveness with any one of the above 2a to 2c to enhance learning data do.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 장치는, 전술한 실시예들 중 어느 하나의 패치 정합을 이용한 학습 데이터 증가 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 포함한다.An apparatus according to another aspect of the present invention for solving the above technical problem includes a computer readable recording medium recording a program implementing a method for increasing learning data using patch matching in any one of the above-described embodiments.

전술한 패치 정합을 이용한 학습 데이터 증가 장치 및 방법을 사용하는 경우에는, 불균일하게 반복되는 패턴이 존재하는 대용량 영상에서 학습에 유효한 패치를 자동으로 나눌 수 있고, 또한 유효 패치를 증가시킬 수 있으며, 그에 의해 학습 데이터를 증가시켜 의료 영상을 효과적으로 처리할 수 있는 장점이 있다.In the case of using the apparatus and method for increasing learning data using the above-described patch matching, a patch effective for learning can be automatically divided in a large-capacity image in which a non-uniformly repeated pattern exists, and the effective patch can be increased. By increasing the learning data, there is an advantage that can effectively process the medical image.

도 1은 본 발명의 일실시예에 따른 패치 정합을 이용한 학습 데이터 증가 방법에 대한 흐름도이다.
도 2는 도 1의 방법에서 추가 변환 과정을 설명하기 위한 도면이다.
도 3은 도 1의 방법에서 학습 데이터 증가 과정에 채용할 수 있는 병리 영상의 특정 관심 영역에서 패치를 얻는 과정을 예시한 도면이다.
도 4는 본 실시예의 방법 및 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.
도 5는 본 발명의 다른 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치에 대한 블록도이다.
1 is a flowchart of a method for increasing learning data using patch matching according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining an additional conversion process in the method of FIG. 1.
FIG. 3 is a diagram illustrating a process of obtaining a patch in a specific region of interest of a pathology image that can be employed in the process of increasing learning data in the method of FIG. 1.
4 is a structural diagram of a convolutional neural network employable in the method and apparatus of the present embodiment.
5 is a block diagram of an apparatus for increasing learning data using patch matching according to another embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are exemplified only for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention It can be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can be applied to various changes and can have various forms, so the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosure forms, and includes all modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함한다" 또는 "가진다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “comprises” or “haves” are intended to indicate the presence of features, numbers, steps, operations, elements, parts, or combinations thereof described herein, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

본 명세서에서 사용되는 용어는 다음과 같다.Terms used in the present specification are as follows.

T2 강조 영상(T2-weighted imaging): 자기공명영상(magnetic resonance imaging, MRI)으로부터 특정 펄스열(pulse sequence)에서 획득하는 기법 혹은 이 기법으로 획득된 영상을 지칭하는 것으로, 영상은 주로 인체 내부 조직의 구조적 정보를 제공한다.T2 weighted imaging (T2-weighted imaging): refers to a technique obtained from a specific pulse sequence (magnetic pulse imaging) from magnetic resonance imaging (MRI) or images obtained by this technique. Provide structural information.

FLAIR(Fluid attenuated inversion recovery): 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2 강조영상에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR은 유체 감쇠 반전 복구로 지칭될 수 있다.FLAIR (Fluid attenuated inversion recovery): A signal acquisition technique using magnetic imaging devices or images obtained by this technique that makes it easier to detect lesions that are easily missed in T2-enhanced images by weakening the signals of the cerebrospinal fluid with long reversal and echo times. Refers to. FLAIR can be referred to as fluid attenuation inversion recovery.

DWI(Diffusion weighted imaging): 자기공명영상으로부터 획득하는 확산 강조 영상을 주로 지칭하며, 세포 조직 안의 물 분자가 특정 방향으로 확산하는 정도 및 여부에 대한 정보를 제공한다.DWI (Diffusion weighted imaging): Diffusion-weighted imaging mainly refers to diffusion-weighted images obtained from magnetic resonance imaging, and provides information on the degree and extent of diffusion of water molecules in cell tissues in a specific direction.

PWI(Perfusion weighted imaging): 자기공명영상으로부터 획득하는 관류 강조 영상(간단히, 관류 영상)을 지칭하며, 투입된 조영제의 시간에 따른 농도의 변화를 알려준다.Perfusion weighted imaging (PWI): refers to perfusion-weighted images (simply, perfusion images) obtained from magnetic resonance imaging, and informs the change in concentration over time of the injected contrast agent.

Penumbra: 허혈성 사건이나 색전증 등에 의해서 발생하는 영상 내 반음영 영역으로, 산소 운반 기능이 국부적으로 감소되어 저산소 세포 사멸을 일으키거나 수시간 동안 내의 적절한 처치 시 생존가능한 영역을 가리킨다.Penumbra: A semi-shaded region in an image caused by an ischemic event or embolism, which indicates that the oxygen transport function is locally reduced to cause hypoxic cell death or to be viable upon proper treatment within a few hours.

ADC(Apparent diffusion coefficient): 자기공명영상으로부터 획득하는 겉보기 확산 계수로서, 인체 내부 조직의 확산 방해 요소에 대한 정보를 제공한다.ADC (Apparent diffusion coefficient): This is an apparent diffusion coefficient obtained from a magnetic resonance image, and provides information on a diffusion impeding factor in internal tissues of the human body.

Arterial phase(AP): 자기공명영상으로부터 획득하는 특정 관류의 시기로서, 시간에 따라 투입된 조영제가 동맥 부분을 지나가는 시기를 나타낸다.Arterial phase (AP): A period of specific perfusion obtained from magnetic resonance imaging, which indicates the time when the contrast medium injected over time passes through the artery.

Capillary phase(CP): 자기공명영상으로부터 획득하는 특정 관류의 시기로서, 시간에 따라 투입된 조영제가 모세혈관 부분을 지나가는 시기를 나타낸다.Capillary phase (CP): A period of specific perfusion obtained from magnetic resonance imaging. It indicates the time when the contrast medium injected over time passes through the capillary portion.

Venous phase(VP): 자기공명영상으로부터 획득하는 특정 관류의 시기로서, 시간에 따라 투입된 조영제가 정맥 부분을 지나가는 시기를 나타낸다.Venous phase (VP): A period of specific perfusion obtained from magnetic resonance imaging, which indicates when the contrast medium injected over time passes through the vein.

이하 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치에 대한 블록도이다. 도 2는 도 1의 방법에서 추가 변환 과정을 설명하기 위한 도면이다. 그리고 도 3은 도 1의 장치에서 학습 데이터 증가 과정에 채용할 수 있는 병리 영상의 특정 관심 영역에서 패치를 얻는 과정을 예시한 도면이다.1 is a block diagram of an apparatus for increasing learning data using patch matching according to an embodiment of the present invention. FIG. 2 is a diagram for explaining an additional conversion process in the method of FIG. 1. And FIG. 3 is a diagram illustrating a process of obtaining a patch in a specific region of interest of a pathology image that can be employed in the process of increasing learning data in the apparatus of FIG. 1.

도 1을 참조하면, 본 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 방법(이하 간략히 '학습 데이터 증가 방법'이라 함)은, 의료 영상에서 임의로 지정된 크기의 배수로 패치생성을 진행해 임의로 지정된 크기의 배수가 360도가 되면 패치생성을 종료하는 패치 영상을 생성하는 단계(제1 단계)를 포함한다(S10,S12,S14).Referring to FIG. 1, a method for increasing learning data using patch matching according to the present embodiment (hereinafter simply referred to as a'learning data increase method') is performed by generating a patch at a randomly multiple of a predetermined size in a medical image, and a multiple of a randomly specified size. When it is 360 degrees, it includes a step (first step) of generating a patch image to end patch generation (S10, S12, S14).

다음으로, 학습 데이터 증가 방법은 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정하는 단계(제2a 단계)를 포함한다(S21,S31,S32).Next, the learning data increase method includes classifying through a clustering technique and determining through a preset valid patch and similarity analysis (step 2a) (S21, S31, S32).

제2a 단계를 상세히 설명하면 다음과 같다.The detailed description of step 2a is as follows.

지정된 유효패치를 병변의 클래스(Class) 개수에 따라 K개의 그룹으로 나눈다. 여기서, K는 의료영상의 병변의 종류의 개수이다. 예를 들어 K는 의료영상의 어노테이션(annotation)이 암 말기, 암 중기, 암 초기, 정상으로 되어있다면 병변의 클래스의 개수는 4개이다.The designated effective patch is divided into K groups according to the number of classes of lesions. Here, K is the number of types of lesions on the medical image. For example, K has 4 lesion classes if the medical image has annotation of late cancer, middle cancer, early cancer, and normal.

그리고, 인접한 두 패치 사이의 거리는 다음의 [수학식 1]과 같이 정의된다.And, the distance between two adjacent patches is defined as the following [Equation 1].

Figure pat00001
Figure pat00001

위의 [수학식 1]에서, A(i,j,k)는 3차원 A 패치의 픽셀벡터값을 의미한다. m은 패치의 넓이(width), n은 패치의 높이(height)를 의미한다.In [Equation 1] above, A(i,j,k) means a pixel vector value of a 3D A patch. m is the width of the patch, and n is the height of the patch.

예를 들어, 패치 A가 있다고 할 때, 패치 A로부터 일정 거리(e) 내에 있는 점이 최소 s개 있으면 이 패치를 코어(Core) 패치라고 한다.For example, when there is a patch A, if there are at least s points within a certain distance (e) from the patch A, this patch is called a core patch.

여기서,

Figure pat00002
로 고려되는 집합의 범위를 고정한다. E와 S는 K개의 그룹과 겹쳐지지 않도록 사용자가 미리 결정하여 설정할 수 있다.here,
Figure pat00002
The range of the set considered as is fixed. E and S can be set by the user in advance so as not to overlap with the K groups.

K개의 그룹 내에서 각각의 그룹에 따라 일정 거리(e)를 변화시켜 패치 A로부터 일정 거리 내에 있는 패치의 개수가 최대가 되는 패치(A^)를 구할 수 있다. 최대 개수 패치(A^)를 나타내면 다음의 [수학식 2]와 같다.Within a group of K, a certain distance (e) is changed according to each group to obtain a patch (A^) in which the number of patches within a certain distance from patch A is the maximum. If the maximum number of patches (A^) is indicated, it is as shown in [Equation 2] below.

Figure pat00003
Figure pat00003

유효성 분석에서 각각의 K개의 그룹에 따라 찾은 코어 패치에 기초하여 유사도 분석 대상이 되는 패치들 사이의 거리가

Figure pat00004
이하이면, 유효한 패치로 판정할 수 있다. 유효성 분석에서 유사도 분석 대상이 되는 패치들 사이의 거리가
Figure pat00005
이하가 아니면 유효하지 않은 패치(비유효패치)로 판정할 수 있다.The distance between patches subject to similarity analysis is based on the core patch found according to each K group in the validity analysis.
Figure pat00004
If it is as follows, it can be judged as a valid patch. In the effectiveness analysis, the distance between patches subject to similarity analysis is
Figure pat00005
If not, it can be determined as an invalid patch (ineffective patch).

또한, 본 실시예의 학습 데이터 증가 방법은 제1 단계 후에 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정하는 단계(제2b 단계)를 포함할 수 있다(S22,S31,S32). 제2b 단계는 제2a 단계와 병렬적으로 수행될 수 있다.In addition, the learning data increasing method of the present embodiment may include a step (step 2b) of analyzing and determining a preset effective patch and a similar pattern through histogram analysis after the first step (S22, S31, S32). Step 2b may be performed in parallel with step 2a.

제2b 단계를 상세히 설명하면 다음과 같다. The step 2b will be described in detail as follows.

RGB 채널에 대해서 고정된

Figure pat00006
에 대해 mean(A(i,j,k))가 유효한 패치들의 (max(B(i,j,k))의 최솟값에 대해 기준 설정 배율보다 적으면 유효하다고 판정한다. 기준 설정 배율은 0.9배일 수 있다. 이러한 기준 설정 배율은 실험에 의해 최적화된 것이다.Fixed for RGB channels
Figure pat00006
For mean(A(i,j,k)), it is determined that it is valid if it is less than the reference setting magnification for the minimum value of (max(B(i,j,k)) of valid patches. These reference setting magnifications are optimized by experiments.

제2b 단계를 수식으로 나타내면 다음의 [수학식 3]과 같이 표현할 수 있다. If the step 2b is expressed as an equation, it can be expressed as [Equation 3] below.

Figure pat00007
Figure pat00007

또한, 본 실시예의 학습 데이터 증가 방법은 제1 단계 후에 유사성 분석 함수를 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정하는 단계(제2c 단계)를 포함할 수 있다(S23,S31,S32). 제2c 단계(S23)는 제2a 단계(S21) 및 제2b 단계(S22)와 병렬적으로 수행될 수 있다.In addition, the learning data increasing method of the present embodiment may include a step of analyzing and determining the similarity (step 2c) for each patch using the similarity analysis function after the first step (S23, S31, S32). Step 2c (S23) may be performed in parallel with steps 2a (S21) and 2b (S22).

제2c단계를 상세히 설명하면 다음과 같다.Step 2c will be described in detail as follows.

각 K 그룹에 대한 유효한 패치

Figure pat00008
의 차원 3mn의 정규분포를
Figure pat00009
라고 하자. 그리고, 유효하지 않는 패치의 그룹에 대한 차원 3mn의 정규 분포를
Figure pat00010
라고 하자.Valid patch for each K group
Figure pat00008
Normal distribution of dimension 3mn
Figure pat00009
Let's say. Then, the normal distribution of dimension 3mn for the group of invalid patches
Figure pat00010
Let's say.

주어진 패치의 픽셀 데이터가 그룹 K에 들어갈 확률을

Figure pat00011
라고 하고, Z에 들어갈 확률을
Figure pat00012
라고 하면
Figure pat00013
이 된다.The probability that the pixel data of a given patch will enter group K
Figure pat00011
And the probability of entering Z
Figure pat00012
If you say
Figure pat00013
It becomes.

이때 베이즈 룰을 적용해서 각 K 그룹에 대해 다음의 [수학식 4]를 푼다.At this time, apply the Bayes rule and solve the following [Equation 4] for each K group.

Figure pat00014
Figure pat00014

위의 [수학식 4]에서

Figure pat00015
의 K+1개의 방정식을 연립해서 풀어서 각
Figure pat00016
값을 구한 뒤 가장 높은 값으로 대상 패치의 유효그룹을 결정한다.
Figure pat00017
가 가장 클 경우 대상패치는 유효하지 않은 패치로 분류되고,
Figure pat00018
가 가장 클 경우 K 그룹중 I번째 그룹에 속하게 된다.In [Equation 4] above
Figure pat00015
Solve by solving K+1 equations of each
Figure pat00016
After obtaining the value, the effective group of the target patch is determined with the highest value.
Figure pat00017
If is the largest, the target patch is classified as an invalid patch,
Figure pat00018
If is the largest, it belongs to the I-th group of the K groups.

또한, 본 실시예의 학습 데이터 증가 방법은 제2a 단계, 제2b 단계 및 제2c 단계 모두를 통해 유효성을 분석할 수 있다(S21,S22,S23,S31,S32).In addition, the method for increasing the learning data of the present embodiment can analyze the effectiveness through steps 2a, 2b, and 2c (S21, S22, S23, S31, and S32).

또한, 본 실시예의 학습 데이터 증가 방법은 제2a 단계, 제2b 단계 및 제2c 단계 이후에, 유효 판정을 받지 못한 패치들(비유효패치들)을 유효한 병리 영상의 RGB 챈절에 대한 정규분포로 추가 변환 및 생성하는 단계(S33)를 포함할 수 있다(도 2 참조). 이를 통해 증가된 개수의 유효패치를 분류할 수 있다(S40).In addition, in the method of increasing the learning data of the present embodiment, after steps 2a, 2b, and 2c, patches (ineffective patches) that have not been judged as valid are added as a normal distribution for RGB clauses of valid pathological images. It may include the step of converting and generating (S33) (see FIG. 2). Through this, the increased number of effective patches can be classified (S40).

또한, 본 실시예의 학습 데이터 증가 방법은 추가 변환 및 생성된 패치들에 대하여 제2a 단계, 제2b 단계 및 제2c 단계 모두를 통해 유효성을 다시 분석할 수 있다.In addition, in the method for increasing the learning data of the present embodiment, the effectiveness of the additional transforms and generated patches may be analyzed again through steps 2a, 2b, and 2c.

추가 변환 및 생성하는 단계를 유효패치의 정규분포를 이용하여 처리하는 과정을 나타내면 다음과 같다.The process of processing additional transforms and generating steps using the normal distribution of valid patches is as follows.

먼저, 유효판정을 받지 않은 패치들을 정규화한다.First, patches that have not been validated are normalized.

그리고, 컨볼루션 연산자(convolution operator)를 이용하여 유효판정을 받은 패치를 RGB 채널에 대한 정규분포로 변환한다. 이를 나타내면 [수학식 5]와 같다.Then, the convergence operator converts the patch that has been judged to be a valid distribution for the RGB channel. If this is represented, it is as shown in [Equation 5].

Figure pat00019
Figure pat00019

위의 [수학식 5]에서 N nonvalid는 유효판정을 받지 않은 패치의 RGB 채널에 대한 가우시안 분포를 의미한다. 채널이 R,G,B로 3개이므로 총 3개의 N valid는 유효패치의 RGB 채널에 대한 정규분포를 의미한다.In [Equation 5] above, N nonvalid means the Gaussian distribution for the RGB channel of the patch that has not been validated. Since there are 3 channels in R, G, and B, a total of 3 N valid means the normal distribution for the RGB channels of the valid patch.

컨볼루션 연산자는 다음의 수학식 6을 의미한다.The convolution operator means the following equation (6).

Figure pat00020
Figure pat00020

위의 [수학식 5] 및 [수학식 6]에 따르면, 컨볼루션 연산자에 의해 유효패치를 받지 못한 패치의 가우시안 분포는 유효패치의 RGB 채널에 대한 정규분포로 변환된다. 따라서 본 실시예에서는 이를 이용하여 비유효패치를 유효패치로 변환한다.According to [Equation 5] and [Equation 6] above, the Gaussian distribution of a patch that does not receive a valid patch by the convolution operator is converted into a normal distribution for the RGB channels of the effective patch. Therefore, in this embodiment, an invalid patch is converted into a valid patch using this.

또한, 본 실시예의 학습 데이터 증가 방법은 위의 과정을 통해 얻은 유효한 패치들에 의해 하나의 이미지를 생성한 후에, 생성된 이미지를 하나의 이미지보다 일정한 작은 배율로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 단계를 더 포함할 수 있다.In addition, in the method of increasing the learning data of the present embodiment, after generating one image by valid patches obtained through the above process, the generated image is cropped at a constant small magnification than one image to generate a new size image. It may further include a step.

또한, 본 실시예의 학습 데이터 증가 방법은 새로운 크기의 이미지를 생성한 후, 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는 단계를 더 포함할 수 있다.In addition, the method for increasing the learning data of the present embodiment may further include generating a new sized image and analyzing the ratio of the new sized image overlapping with the lesion area of the existing valid patch image to determine validity again. .

또한, 본 실시예의 학습 데이터 증가 방법은 새로운 크기의 이미지를 생성한 후, 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 단계 내지 제2c 단계 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 단계를 더 포함할 수 있다.In addition, in the method of increasing the learning data of the present embodiment, after generating a new sized image, a patch is generated while rotating the image generated at a new size from an angle to 360 degrees, and any of the above steps 2a to 2c is performed. One may further include the step of augmenting the learning data by analyzing the effectiveness.

도 4는 본 실시예의 동작을 이용한 인공신경망 학습 방법 및 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.4 is a structural diagram of a convolutional neural network employable in an artificial neural network learning method and apparatus using the operation of the present embodiment.

본 실시예에 따른 동작을 이용한 인공신경망 학습 장치는 인공지능 신경망으로 딥러닝 아키텍처를 이용할 수 있다. 딥러닝 아키텍처는 의료 영상 신호에 대하여 합성곱 신경망(convolutional neural network, CNN), 디컨볼루션(deconvolution), 스킵 컨넥션(skip connection) 등을 사용하여 모션 기반 라벨링에 따라 동작을 학습하고 학습 결과에 따라 외부 신호를 발생시키거나 특정 노이즈를 발생시키는 일련의 과정을 처리하도록 구현될 수 있다.The artificial neural network learning apparatus using the motion according to the present embodiment may use a deep learning architecture as an artificial intelligence neural network. The deep learning architecture uses motion convolutional neural network (CNN), deconvolution, and skip connection for medical image signals to learn motion based on motion-based labeling, and according to the learning results. It can be implemented to process a series of processes that generate external signals or generate specific noise.

일례로, 딥러닝 아키텍처는 컨볼루션 네트워크와 디컨볼루션 네트워크 및 숏컷(shortcut)을 포함한 형태를 구비할 수 있다. 도 3에 도시한 바와 같이, 딥러닝 아키텍처는 의료 영상(X)의 국소적인 특징을 추출하기 위하여 3x3 크기의 컬러 컨볼루션 레이어(convolution layer)와 액티베이션 레이어(ReLU)를 쌓고 2x2 크기의 필터를 스트라이드(stride) 1로 적용하여 다음 하위 깊이 레벨로 연결되는 컨볼루션 블록의 연산을 4회 반복하여 수행하고, 그 다음에 2x2 크기의 디컨볼루션 레이어(deconvolution layer)와 액티베이션 레이어(ReLU)를 적용하여 다음 상위 깊이 레벨로 연결한 후 3x3 크기의 컬러 컨볼루션 레이어와 액티베이션 레이어를 쌓는 역컨볼루션 블록의 연산을 4회 반복하여 수행하며, 여기서 각 레벨의 컨볼루션 블록의 연산을 포함한 컨볼루션 네트워크의 각 레벨의 컨볼루션 블록의 이미지에 동일 레벨의 역컨볼루션 네트워크의 대응 레벨의 컨볼루션 결과를 갖다 붙이고(copy and contatenate) 각 블록에서 컨볼루션 연산을 각각 수행하도록 이루어질 수 있다.As an example, the deep learning architecture may have a form including a convolutional network, a deconvolutional network, and a shortcut. As shown in FIG. 3, the deep learning architecture stacks a 3x3 size color convolution layer and an activation layer (ReLU) and extracts a 2x2 size filter to extract local features of the medical image (X). (stride) is applied to 1 to perform the operation of the convolution block that is connected to the next lower depth level 4 times, and then a 2x2 size deconvolution layer and activation layer (ReLU) are applied. After connecting to the next higher depth level, the operation of the inverse convolution block, which stacks a 3x3 size color convolution layer and an activation layer, is repeated 4 times, where each of the convolution networks including the operation of the convolution block of each level is performed. It may be made to copy and contate the result of the convolution of the corresponding level of the inverse convolution network of the same level to the image of the convolution block of the level and perform convolution operations in each block.

컨볼루션 네트워크와 디컨볼루션 네트워크 내 컨볼루션 블록은 conv-ReLU-conv 레이어들의 조합으로 구현될 수 있다. 그리고, 딥러닝 아키텍처의 출력은 컨볼루션 네트워크이나 디컨볼루션 네트워크에 연결되는 분류기를 통해 얻어질 수 있으나, 이에 한정되지는 않는다. 분류기는 FCN(fully connectivity network) 기법을 이용하여 영상에서 국소적인 특징을 추출하는데 이용될 수 있다.The convolution block in the convolution network and the deconvolution network may be implemented by a combination of conv-ReLU-conv layers. Further, the output of the deep learning architecture may be obtained through a classifier connected to a convolutional network or a deconvolutional network, but is not limited thereto. The classifier may be used to extract local features from an image using a fully connectivity network (FCN) technique.

또한, 딥러닝 아키텍처는 구현에 따라서 컨볼루션 블록 내에 인셉션 모듈(inseption module) 또는 멀티 필터 경로(multi filter pathway)를 추가로 사용하도록 구현될 수 있다. 인셉션 모듈 또는 멀티 필터 경로 내 서로 다른 필터는 1x1 필터를 포함할 수 있다.Further, the deep learning architecture may be implemented to additionally use an insulation module or a multi filter pathway in a convolution block depending on the implementation. Different filters in the inception module or multi-filter path may include 1x1 filters.

참고로, 딥러닝 아키텍처에서 입력(input) 이미지가 가로 32, 세로 32, 그리고 RGB 채널을 가지는 경우, 의료 영상에 대응하는 입력 이미지(X)의 크기는 [32x32x3]일 수 있다. 딥러닝 아키텍처의 CNN(convloultional neural network)에서 콘볼루션(convolutional, CONV) 레이어는 입력 이미지의 일부 영역과 연결되며, 이 연결된 영역과 자신의 가중치의 내적 연산(dot product)을 계산하도록 설계될 수 있다.For reference, in the case of an input image in a deep learning architecture having 32 horizontal, 32 vertical, and RGB channels, the size of the input image X corresponding to the medical image may be [32x32x3]. In the deep learning architecture's convolutional neural network (CNN), the convolutional (CONV) layer is connected to some areas of the input image, and can be designed to calculate the dot product of the connected areas and their weights. .

여기서, ReLU(rectified linear unit) 레이어는 max(0,x)와 같이 각 요소에 적용되는 액티베이션 함수(activation function)이다. ReLU 레이어는 볼륨의 크기를 변화시키지 않는다. POOLING 레이어는 (가로, 세로)로 표현되는 차원에 대해 다운샘플링(downsampling) 또는 서브샘블링(subsampling)을 수행하여 감소된 볼륨을 출력할 수 있다.Here, the ReLU (rectified linear unit) layer is an activation function applied to each element, such as max(0,x). The ReLU layer does not change the size of the volume. The POOLING layer may output a reduced volume by performing downsampling or subsampling on a dimension represented by (horizontal, vertical).

그리고, 전연결(fully-connected, FC) 레이어는 클래스 점수들을 계산하여 예컨대 [1x1x10]의 크기를 갖는 볼륨을 출력할 수 있다. 이 경우, 10개 숫자들은 10개 카테고리에 대한 클래스 점수에 해당한다. 전연결 레이어는 이전 볼륨의 모든 요소와 연결된다. 거기서, 어떤 레이어는 모수(parameter)를 갖지만 어떤 레이어는 모수를 갖지 않을 수 있다. CONV/FC 레이어들은 액티베이션 함수로서 단순히 입력 볼륨만이 아니라 가중치(weight)와 바이어스(bias)를 포함할 수 있다. 한편, ReLU/POOLING 레이어들은 고정된 함수로서, CONV/FC 레이어의 모수들은 각 이미지에 대한 클래스 점수가 해당 이미지의 레이블과 같아지도록 그라디언트 디센트(gradient descent)로 학습될 수 있다.Then, the fully-connected (FC) layer may calculate class scores and output a volume having a size of [1x1x10], for example. In this case, 10 numbers correspond to class scores for 10 categories. The pre-connection layer is connected to all elements of the previous volume. There, some layers may have parameters, while some layers may not. CONV/FC layers may include weight and bias as an activation function, not just input volume. Meanwhile, the ReLU/POOLING layers are fixed functions, and the parameters of the CONV/FC layer can be learned with a gradient descent so that the class score for each image is the same as the label of the corresponding image.

도 5는 본 발명의 다른 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치에 대한 블록도이다.5 is a block diagram of an apparatus for increasing learning data using patch matching according to another embodiment of the present invention.

도 5를 참조하면, 본 실시예에 따른 패치 정합을 이용한 학습 데이터 증가 장치는, 프로그램을 저장하는 메모리(52), 및 메모리(52)에 연결되어 프로그램을 수행하는 제어부(51)를 구비한다. 또한, 네트워크에 연결되어 의료 영상 신호 등의 신호 및 데이터를 송수신하는 통신부(53)를 더 구비할 수 있다.Referring to FIG. 5, the apparatus for increasing learning data using patch matching according to the present embodiment includes a memory 52 for storing a program and a control unit 51 connected to the memory 52 to perform a program. In addition, a communication unit 53 connected to a network to transmit and receive signals and data such as medical image signals may be further provided.

메모리(52)에는 프로그램 또는 소프트웨어 모듈이 탑재될 수 있다. 소프트웨어 모듈은, 패치영상 생성부(521), 제1 판정부(522), 제2 판정부(523), 제3 판정부(524), 유효성 분석부(525), 기본작업 종료부(526), 분류부(527), 제1 이미지 생성부(528a), 제2 이미지 생성부(528b) 및 데이터 증강부(529)를 포함할 수 있다.A program or software module may be mounted in the memory 52. The software module includes a patch image generation unit 521, a first determination unit 522, a second determination unit 523, a third determination unit 524, a validity analysis unit 525, and a basic operation termination unit 526. , A classification unit 527, a first image generation unit 528a, a second image generation unit 528b, and a data enhancement unit 529.

패치영상 생성부(521)는 의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성한다.The patch image generation unit 521 generates a patch image by dividing the image into a specified size at an arbitrary angle in the medical image.

제1 판정부(522)는 클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정한다.The first determination unit 522 classifies through a clustering technique, and determines through a preset valid patch and similarity analysis.

제2 판정부(523)는 히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정한다.The second determination unit 523 analyzes and determines a preset effective patch and similar patterns through histogram analysis.

제3 판정부(524)는 유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정한다.The third determination unit 524 analyzes and determines similarity for each patch using the similarity analysis function and the learned artificial neural network.

유효성 분석부(525)는 상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제1 내지 제3 판정부 중 중 하나를 통해 유효성을 분석한다.The validity analysis unit 525 rotates the medical image at a different angle, divides the image to a specified size, and generates a patch, and analyzes the validity through one of the first to third determination units.

기본작업 종료부(526)는 유효성 분석부의 유효성 분석 후에, 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료한다.After the basic analysis of the validity analysis unit, the basic operation termination unit 526 ends patch generation when the rotated angle of the medical image is 360 degrees.

분류부(527)는 기본작업 종료부의 종료 동작 후에, 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류한다.The classification unit 527 further classifies the patches, which have been determined to be valid in the validity analysis, by the clustering technique after the termination operation of the basic operation termination unit.

제1 이미지 생성부(528a)는 추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성한다.The first image generator 528a generates a single image by connecting a plurality of images in the same cluster according to additional classification.

제2 이미지 생성부(528b)는 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성한다.The second image generator 528b cuts one image generated by the image generator to a smaller size than the one image to generate a new size image.

데이터 증강부(529)는 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시킨다.The data augmentation unit 529 generates a patch while rotating the image generated in a new size from an angle to 360 degrees, and augments the learning data by analyzing the validity of any one of the above 2a to 2c.

전술한 제1 내지 제3 판정부, 유효성 분석부, 분류부 등은 인공신경망으로 학습하도록 이루어질 수 있다. 이러한 학습부를 포함하는 인공신경망 학습 장치는 컴퓨팅 장치에 탑재되거나 컴퓨팅 장치를 포함하도록 구현될 수 있다.The above-described first to third determination unit, validity analysis unit, classification unit, etc. may be made to learn with an artificial neural network. The artificial neural network learning apparatus including the learning unit may be mounted on a computing device or implemented to include a computing device.

제어부(51)는 마이크로프로세서, 연산처리장치 또는 제어장치에 대응할 수 있고, 중앙 처리 장치(CPU)나 코어(core)를 포함할 수 있으며, 메모리(52)에 저장되는 프로그램이나 소프트웨어 모듈을 실행하여 본 실시예의 방법을 실행하도록 구현될 수 있다. 예를 들면, 도 3에 도시한 바와 같이, 병리 영상의 특정 관심 영역에서 패치를 얻고 이를 분석하여 데이터를 증강하도록 이루어질 수 있다.The control unit 51 may correspond to a microprocessor, arithmetic processing unit or control unit, may include a central processing unit (CPU) or core, and executes a program or software module stored in the memory 52 It can be implemented to implement the method of this embodiment. For example, as illustrated in FIG. 3, a patch may be obtained from a specific region of interest of a pathology image and analyzed to enhance the data.

통신부(53)는 인트라넷, 인터넷, 유선 네트워크, 무선 네트워크, 위성망 또는 이들의 조합을 위한 적어도 하나 이상의 서브통신시스템을 구비할 수 있다. 통신부(53)는 MRI 장치나 데이터베이스에 연결되어 의료 영상 신호를 수신하거나 독출하여 획득할 수 있고, 처리된 결과를 디스플레이 장치나 외부 장치 등으로 전송하도록 구현될 수 있다.The communication unit 53 may include at least one sub-communication system for an intranet, the Internet, a wired network, a wireless network, a satellite network, or a combination thereof. The communication unit 53 may be connected to an MRI device or a database to receive or read a medical image signal, and may be implemented to transmit the processed result to a display device or an external device.

전술한 장치에 채용가능한 인공지능은 별도의 전처리기, 인식기, 학습기 또는 이들이 조합된 독립적인 기능부 혹은 구성부로서 분류 시스템에 연결되는 형태를 구비하거나 각 구성부에 탑재되는 형태를 구비할 수 있다. 인공지능은 기계학습(machine learning), 인공신경망 또는 딥러닝를 포함하도록 설계될 수 있다. 딥러닝은 합성곱 신경망 등을 포함할 수 있다. 이러한 인공지능이나 이를 포함하는 인공지능 시스템은 학습 수단 등으로 지칭될 수 있다.The artificial intelligence that can be employed in the above-described device may have a separate preprocessor, recognizer, learner, or a combination of independent functional units or components that are connected to the classification system, or may be mounted on each component. . Artificial intelligence can be designed to include machine learning, artificial neural networks, or deep learning. Deep learning may include a convolutional neural network. Such an artificial intelligence or artificial intelligence system including the same may be referred to as a learning means.

본 발명은 도면을 참조한 실시예를 중심으로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점은 자명하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been mainly described with reference to the embodiments with reference to the drawings, it is only an example, and it is obvious that various modifications and equivalent other embodiments are possible from those skilled in the art. Therefore, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

Claims (12)

의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 제1 단계;
클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정하는 제2a 단계;
히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정하는 제2b 단계;
유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정하는 제2c 단계; 및
상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제2a, 제2b 및 제2c 중 하나를 통해 유효성을 분석하는 제3 단계를 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
A first step of generating a patch image by dividing the image into a specified size at an arbitrary angle in the medical image;
A second step of classifying through a clustering technique and determining through a preset valid patch and similarity analysis;
A second step of analyzing and determining a predetermined effective patch and a similar pattern through histogram analysis;
A 2c step of analyzing and determining similarity for each patch using the similarity analysis function and the learned artificial neural network; And
And a third step of rotating the medical image at a different angle, dividing the image to a specified size, generating a patch, and analyzing the effectiveness through one of the 2a, 2b, and 2c. How to increase.
청구항 1에 있어서,
상기 제3 단계 후에, 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 단계;
상기 종료하는 단계 후에, 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 단계; 및
추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 단계를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 1,
After the third step, when the rotated angle of the medical image is 360 degrees, ending the patch generation;
After the step of terminating, further classifying the patches that have been determined to be valid in the validity analysis using a clustering technique; And
Further comprising the step of generating a single image by connecting a plurality of images in the same cluster according to the further classification, the method of increasing learning data using patch matching.
청구항 2에 있어서,
상기 하나의 이미지를 생성하는 단계 후에,
상기 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 단계를 더 포함하는 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 2,
After the step of generating the one image,
And generating a new size image by cropping one image generated by the image generation unit to a smaller size than the one image.
청구항 3에 있어서,
상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는 단계를 더 포함하는 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 3,
A method of increasing learning data using patch matching, further comprising the step of re-determining the validity by analyzing a ratio in which the image of the new size overlaps with the lesion area of the existing valid patch image.
청구항 3에 있어서,
상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 데이터 증강부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 3,
Further comprising a data augmentation unit for generating a patch while rotating the image generated in the new size to 360 degrees at any angle and analyze the effectiveness of any of the above 2a to 2c to enhance the learning data, patch matching How to increase learning data.
청구항 1에 있어서,
상기 유효성 분석에서 얻은 비유효패치를 병리 영상의 RGB 채널에 대한 정규분포로 추가 변환하여 생성하는 단계; 및
상기 추가 변환하여 생성된 패치들에 대하여 상기 제2a 단계 내지 상기 제2c 단계 모두를 통해 유효성을 다시 분석하여 상기 비유효패치를 유효패치로 변환하는 단계를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 방법.
The method according to claim 1,
Generating a non-valid patch obtained in the validity analysis by additionally transforming it into a normal distribution for the RGB channel of the pathological image; And
Further comprising the step of analyzing the validity again through the steps 2a to 2c for the patches generated by the additional conversion, and converting the invalid patch to a valid patch, further increasing learning data using patch matching Way.
의료 영상에서 임의의 각도로 지정된 크기로 영상을 나누어 패치 영상을 생성하는 패치영상 생성부;
클러스터링 기법을 통하여 분류하고, 미리 설정된 유효 패치와 유사도 분석을 통해 판정하는 제1 판정부;
히스토그램 분석을 통하여 미리 설정된 유효 패치와 유사 패턴을 분석하여 판정하는 제2 판정부;
유사성 분석 함수 및 학습된 인공신경망을 사용하여 각각의 패치에 대하여 유사도를 분석하고 판정하는 제3 판정부; 및
상기 의료 영상을 다른 각도로 회전하고 지정된 크기로 영상을 나누어 패치를 생성하고 상기의 제1 내지 제3 판정부 중 중 하나를 통해 유효성을 분석하는 유효성 분석부를 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
A patch image generator for dividing the image into a specified size at an arbitrary angle in the medical image to generate a patch image;
A first judging unit that classifies through a clustering technique and determines through a preset valid patch and similarity analysis;
A second determination unit that analyzes and determines a preset effective patch and similar patterns through histogram analysis;
A third determination unit that analyzes and determines similarity for each patch using a similarity analysis function and a learned artificial neural network; And
Rotating the medical image at a different angle and dividing the image to a specified size to generate a patch and including a validity analysis unit for analyzing the effectiveness through one of the first to third determination unit, increase learning data using patch matching Device.
청구항 7에 있어서,
상기 유효성 분석부의 유효성 분석 후에, 상기 의료 영상의 회전한 각도가 360도가 되면 패치 생성을 종료하는 기본작업 종료부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
The method according to claim 7,
After the validity analysis of the validity analysis unit, when the rotation angle of the medical image is 360 degrees further comprising a basic operation termination unit to end the patch generation, learning data increase apparatus using a patch matching.
청구항 8에 있어서,
상기 기본작업 종료부의 종료 동작 후에, 상기 유효성 분석에서 유효 판정을 받은 패치들을 클러스터링 기법으로 추가 분류하는 분류부; 및
추가 분류에 따라 같은 클러스터에 있는 복수의 영상들을 연결하여 하나의 이미지를 생성하는 제1 이미지 생성부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
The method according to claim 8,
A classification unit further classifying the patches, which have been judged to be valid in the validity analysis, into a clustering technique after the termination operation of the basic operation termination unit; And
Further comprising a first image generating unit for generating a single image by connecting a plurality of images in the same cluster according to the further classification, the apparatus for increasing learning data using patch matching.
청구항 9에 있어서,
상기 이미지 생성부에서 생성되는 하나의 이미지를 상기 하나의 이미지보다 작은 크기로 잘라내기를 하여 새로운 크기의 이미지를 생성하는 제2 이미지 생성부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
The method according to claim 9,
And a second image generator configured to crop one image generated by the image generator to a smaller size than the one image to generate a new size image.
청구항 10에 있어서,
상기 유효성 분석부는 상기 새로운 크기의 이미지가 기존의 유효한 패치영상의 병변영역과 겹치는 비율을 분석해서 유효성을 다시 판정하는, 패치 정합을 이용한 학습 데이터 증가 장치.
The method according to claim 10,
The validity analysis unit analyzes the ratio of the new size of the image overlapping the lesion area of the existing valid patch image to determine the validity again, the apparatus for increasing learning data using patch matching.
청구항 10에 있어서,
상기 새로운 크기로 생성된 이미지를 임의의 각도에서 360도까지 회전하면서 패치를 생성하고 상기의 제2a 내지 제2c 중 어느 하나로 유효성을 분석하여 학습 데이터를 증강시키는 데이터 증강부를 더 포함하는, 패치 정합을 이용한 학습 데이터 증가 장치.
The method according to claim 10,
Further comprising a data augmentation unit for generating a patch while rotating the image generated in the new size to 360 degrees at any angle and analyze the effectiveness of any of the above 2a to 2c to enhance the learning data, patch matching Device used to increase learning data.
KR1020190175569A 2018-12-27 2019-12-26 Apparatus and method for increasing learning data using patch matching KR102336003B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180171303 2018-12-27
KR20180171303 2018-12-27

Publications (2)

Publication Number Publication Date
KR20200083303A true KR20200083303A (en) 2020-07-08
KR102336003B1 KR102336003B1 (en) 2021-12-08

Family

ID=71601390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190175569A KR102336003B1 (en) 2018-12-27 2019-12-26 Apparatus and method for increasing learning data using patch matching

Country Status (1)

Country Link
KR (1) KR102336003B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102296511B1 (en) * 2020-11-17 2021-09-02 주식회사 트윔 Training data generating apparatus, method for product inspection and product inspection appratus using the training data
KR20220013319A (en) * 2020-07-24 2022-02-04 고려대학교 산학협력단 Deep learning algorithm for Alzheimer's disease prediction using a single brain MR slice
KR20220079209A (en) 2020-12-04 2022-06-13 동의대학교 산학협력단 Device and Method for Deep Learning CMS Dataset Construction Using Rotation Apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144214A1 (en) * 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
KR102043672B1 (en) * 2019-03-29 2019-11-12 주식회사 딥노이드 System and method for lesion interpretation based on deep learning
KR20200121558A (en) * 2019-04-16 2020-10-26 서울여자대학교 산학협력단 Method and apparatus for classification of lesion based on learning data applying one or more augmentation method in lesion information augmented patch of medical image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144214A1 (en) * 2016-11-23 2018-05-24 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
KR102043672B1 (en) * 2019-03-29 2019-11-12 주식회사 딥노이드 System and method for lesion interpretation based on deep learning
KR20200121558A (en) * 2019-04-16 2020-10-26 서울여자대학교 산학협력단 Method and apparatus for classification of lesion based on learning data applying one or more augmentation method in lesion information augmented patch of medical image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Maayan Frid-Adar, et al., "GAN-based Synthetic Medical Image Augmentation for increased CNN Performance in Liver Lesion Classification", Neurocomputing, Volume 321, Pages 321-331 (2018.12.10.) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220013319A (en) * 2020-07-24 2022-02-04 고려대학교 산학협력단 Deep learning algorithm for Alzheimer's disease prediction using a single brain MR slice
KR102296511B1 (en) * 2020-11-17 2021-09-02 주식회사 트윔 Training data generating apparatus, method for product inspection and product inspection appratus using the training data
KR20220079209A (en) 2020-12-04 2022-06-13 동의대학교 산학협력단 Device and Method for Deep Learning CMS Dataset Construction Using Rotation Apparatus

Also Published As

Publication number Publication date
KR102336003B1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
KR102058884B1 (en) Method of analyzing iris image for diagnosing dementia in artificial intelligence
KR102336003B1 (en) Apparatus and method for increasing learning data using patch matching
Abbasi-Sureshjani et al. Automatic detection of vascular bifurcations and crossings in retinal images using orientation scores
Jiang et al. Skin lesion segmentation based on multi-scale attention convolutional neural network
KR102214123B1 (en) Method and system for extracting and integratin and evaluating lesion using pwi-dwi mismatch based on artificial intelligence
CN111242933B (en) Retinal image artery and vein classification device, apparatus, and storage medium
Fu et al. MSCNN-AM: A multi-scale convolutional neural network with attention mechanisms for retinal vessel segmentation
KR102020157B1 (en) Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery
CN116681679A (en) Medical image small target segmentation method based on double-branch feature fusion attention
Xie et al. End-to-end fovea localisation in colour fundus images with a hierarchical deep regression network
Kanchanamala et al. Optimization-enabled hybrid deep learning for brain tumor detection and classification from MRI
Li et al. DFENet: A dual-branch feature enhanced network integrating transformers and convolutional feature learning for multimodal medical image fusion
Zhao et al. Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation
Ali et al. Multi-level kronecker convolutional neural network (ml-kcnn) for glioma segmentation from multi-modal mri volumetric data
Bhardwaj et al. A Novel Method for Despeckling of Ultrasound Images Using Cellular Automata-Based Despeckling Filter
Furtado et al. Segmentation of Diabetic Retinopathy Lesions by Deep Learning: Achievements and Limitations.
Wang et al. Infrared and visible image fusion based on Laplacian pyramid and generative adversarial network.
CN116503593A (en) Retina OCT image hydrops segmentation method based on deep learning
CN112242193B (en) Automatic blood vessel puncture method based on deep learning
CN112633086B (en) Near-infrared pedestrian monitoring method, system, medium and equipment based on multitasking EfficientDet
Carmo et al. Extended 2d volumetric consensus hippocampus segmentation
Pisda et al. Deep networks for brachial plexus nerves segmentation and detection using ultrasound images
Vilarino et al. Linear radial patterns characterization for automatic detection of tonic intestinal contractions
Papadopoulos et al. White Matter Lesion Segmentation for Multiple Sclerosis Patients implementing deep learning
Ji et al. Segmentation of lesions in skin image based on salient object detection with deeply supervised learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant