KR20190002957A - A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network - Google Patents

A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network Download PDF

Info

Publication number
KR20190002957A
KR20190002957A KR1020170083306A KR20170083306A KR20190002957A KR 20190002957 A KR20190002957 A KR 20190002957A KR 1020170083306 A KR1020170083306 A KR 1020170083306A KR 20170083306 A KR20170083306 A KR 20170083306A KR 20190002957 A KR20190002957 A KR 20190002957A
Authority
KR
South Korea
Prior art keywords
image
lumen
neural network
ivus
processing unit
Prior art date
Application number
KR1020170083306A
Other languages
Korean (ko)
Inventor
장혁재
김세근
홍윤미
전병환
정성희
장영걸
하성민
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020170083306A priority Critical patent/KR20190002957A/en
Publication of KR20190002957A publication Critical patent/KR20190002957A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method for segmentation of blood vessel walls and lumen in an intravascular ultrasound (IVUS) image, which comprises the following steps of: receiving image data; processing the image data by using a convolution neural network; and displaying a resultant image obtained in the processing step on a display device. Also, the present invention may provide an apparatus for segmentation of blood vessel walls and lumen in an IVUS image, comprising: at least one processing unit for executing computer-executable instructions; a graphic processing unit (GPU) integrated or separately included on the processing unit and one board; and a memory, wherein the CPU performs segmentation of blood vessel walls and lumen in the IVUS image through a convolution neural network.

Description

컨볼루션 신경망을 이용한 혈관내 초음파 영상에서의 혈관벽 및 루멘 영역화 방법{A METHOD FOR SEGMENTATION OF WALL OR LUMEN IN INTRAVASCULAR ULTRASOUND IMAGE WITH USING CONVOLUTION NEURAL NETWORK}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method for forming a vessel wall and a lumen area in an intravascular ultrasound image using a convolutional neural network,

본 발명은 컨볼루션 신경망을 이용하여 혈관내 초음파(intravascular ultrasound: IVUS) 영상 내에서 병변을 영역화하는 방법에 관한 것이다. 구체적으로는, IVUS 영상에 있어서 컨볼루션 신경망을 이용하여 혈관벽 및/또는 루멘(lumen: 내강(內腔))을 영역화함으로써 병변을 정확하게 분석하기 위한 방법에 관한 것이다.The present invention relates to a method for segmenting a lesion in an intravascular ultrasound (IVUS) image using a convolutional neural network. More specifically, the present invention relates to a method for precisely analyzing a lesion by segmenting a vessel wall and / or a lumen by using a convolutional neural network in an IVUS image.

혈관내 초음파(IVUS)는 침습적인 의료영상기술로서, 카테터 끝부분에 연결된 초음파 장비를 이용하여 혈관의 크기와 병변(plaque)의 크기, 종류를 파악할 수 있다. 이에 따라 현재 IVUS 기법은 관상동맥의 병변 분석에 매우 유용하게 사용되고 있다. 그러나 이러한 IVUS 이미지로부터 실제로 정확한 분석을 하기 위해서는 병변을 분석하기 위해서는 이미지에 있어서 혈관벽 및 루멘(내강)을 명확하게 분할해야 하는데, 이는 현재까지는 숙련된 의료영상분석 전문가가 수동으로 진행해야만 한다. 따라서, IVUS 이미지로부터 병변을 분석해내는 작업은 해당 수행자의 숙련도 등 개인차에 의해 고르지 못한 문제가 있다. Intravascular ultrasound (IVUS) is an invasive medical imaging technique. Ultrasound equipment connected to the end of a catheter can be used to determine the size and type of a vein. Therefore, current IVUS technique is very useful for the analysis of coronary artery lesions. However, in order to perform an accurate analysis from these IVUS images, it is necessary to clearly divide the vessel wall and lumen (lumen) in the image in order to analyze the lesion, which must be handled manually by a skilled medical image analysis expert so far. Therefore, the task of analyzing the lesion from the IVUS image is uneven due to individual differences such as proficiency of the performer.

이에 따라, 분석작업을 행하는 수행자의 개인차에 영향을 받지 않는 보다 효과적인 분석방법에 대한 필요성이 대두되고 있다.Accordingly, there is a need for a more effective analysis method that is not affected by the individual differences of the performers performing the analysis work.

본 발명은 상기한 바와 같은 해당 기술에 있어서의 문제점을 해결하기 위한 것으로, IVUS 이미지의 분석을 행하는 수행자 개인의 편차에 영향을 받지 않는 분석방법을 제공하기 위한 것이다.An object of the present invention is to provide an analysis method that is not affected by an individual who performs an analysis of an IVUS image.

본 발명의 일 실시예에 의하면, 전술한 바의 문제점을 해결하기 위해 최근 인공지능 기법 중 하나인 컨볼루션 신경망을 통하여 이미지를 분석하는 방법을 제공할 수 있다. According to an embodiment of the present invention, a method for analyzing an image through a convolutional neural network, which is one of artificial intelligence techniques, can be provided to solve the above-described problems.

본 발명의 또다른 실시예에 의하면, IVUS 이미지로부터 컨볼루션 신경망을 이용하여 혈관내 병변을 영역화하는 장치를 제공할 수 있다. According to another embodiment of the present invention, it is possible to provide an apparatus for segmenting an intravascular lesion using an IVUS image from a convolutional neural network.

본 발명은 전술한 배경기술에 대응하여 안출된 것으로, 혈관에 대한 이미지에 포함된 병변을 효율적으로 그리고 정확하게 식별하는 방법을 제공할 수 있다. 특히 이러한 방법은 식별 및 분석을 행하는 수행자 개인차에 영향을 받지 않는 효과적인 방법이다.The present invention, which is devised corresponding to the background art described above, can provide a method for efficiently and accurately identifying a lesion included in an image for a blood vessel. Particularly, this method is an effective method that is not affected by individual performances of performing identification and analysis.

도 1은 IVUS 이미지에 대해 본 발명의 방법에 따라 혈관벽을 영역화한 결과와 실측정보(ground truth)를 비교한 예시도이다.
도 2는 본 발명에 따른 컴퓨터 장치의 일 실시예의 모식도이다.
FIG. 1 is a diagram illustrating an IVUS image obtained by segmenting a blood vessel wall according to the method of the present invention and comparing ground truth. FIG.
2 is a schematic diagram of an embodiment of a computer apparatus according to the present invention.

본 명세서에서, 다양한 설명들이 본 발명의 이해를 제공하기 위해서 제시된다. 그러나 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다. 다른 예들에서, 공지된 구조 및 장치들은 실시예들의 설명을 용이하게 하기 위해서 블록 다이어그램 형태로 제공된다.In this specification, various explanations are given in order to provide an understanding of the present invention. It will be apparent, however, that such embodiments may be practiced without these specific details. In other instances, well-known structures and devices are provided in block diagram form in order to facilitate describing the embodiments.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정, 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있고, 일 컴포넌트는 하나의 컴퓨터 내에 로컬화될 수 있고, 또는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통한 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다. The terms "component," "module," system, "and the like, as used herein, refer to a computer-related entity, hardware, firmware, software, combination of software and hardware, or execution of software. For example, a component may be, but is not limited to, a process executing on a processor, a processor, an object, an executing thread, a program, and / or a computer. For example, both an application running on a computing device and a computing device may be a component. One or more components may reside within a processor and / or thread of execution, one component may be localized within one computer, or it may be distributed between two or more computers. Further, such components may execute from various computer readable media having various data structures stored therein. The components may be, for example, a signal (e.g., a local system, data from one component interacting with another component in a distributed system, and / or data over a network, such as the Internet, Lt; RTI ID = 0.0 > and / or < / RTI >

IVUS는 말단부에 부착된 소형 초음파 프로브가 있는 특별히 설계된 카테터를 사용하는 의료용 이미징 방법이다. 카테터의 기단부는 컴퓨터화된 초음파 장비에 첨부된다. 이를 통해 압전 변환기 또는 CMUT와 같은 초음파 기술을 적용하여 혈관 내부로부터 혈관 내벽의 시각화에 이용되는 기술이다.IVUS is a medical imaging method using a specially designed catheter with a small ultrasound probe attached to the distal end. The proximal end of the catheter is attached to a computerized ultrasound machine. Through this, it is a technique used for visualizing the inner wall of the blood vessel from inside the blood vessel by applying an ultrasonic technique such as a piezoelectric transducer or CMUT.

관상동맥은 심장 중에서도 IVUS에 가장 많이 적용되는 대상이다. IVUS는 심 외막 관상동맥의 특정 지점에 축적된 죽상경화 병변의 양을 결정하기 위해 관상동맥에 주로 사용되어진다. 이는 초음파를 이용하여 혈관 내부로부터 직접 영상화를 행하는 장치이므로, 다른 비침습적 영상(혈관 조영술 등)의 신뢰성이 부족한 경우에 비해서도 비교적 정확한 혈관 내부 이미지를 제공할 수 있다. Coronary arteries are the most commonly applied IVUS in the heart. IVUS is commonly used in coronary arteries to determine the amount of atherosclerotic lesions accumulated at specific points in the epicardial coronary arteries. This is an apparatus for performing imaging directly from inside the blood vessel using ultrasonic waves, so that it is possible to provide a relatively accurate internal image of the blood vessel as compared with the case where the reliability of other non-invasive images (angiography, etc.) is insufficient.

그러나, 이러한 직접적인 이미지를 제공하는 IVUS 기법에 있어서도, 제공된 이미지로부터 병변을 분석해내는 것은 전적으로 수작업으로 이루어지고 있다. 구체적으로는, 촬영된 이미지로부터 혈관벽 및 루멘을 정확히 분할하고 이로부터 혈관 내에 존재하는 병변의 크기나 종류를 분석해내는 것은 전적으로 의사 개인의 역량에 의존하고 있는바, 개인차에 의해 분석 결과가 고르지 못한 문제가 필연적이다.However, even with the IVUS technique that provides this direct image, it is entirely manual to analyze the lesion from the provided image. Specifically, it is difficult to accurately divide the vessel wall and the lumen from the photographed image, and to analyze the size or type of the lesion present in the blood vessel, it depends entirely on the competence of a physician. As a result, Is inevitable.

한편, 최근 인공지능을 이용한 딥-러닝이 대두되고 있다. 딥러닝, 즉 심층학습은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습 알고리즘의 집합으로 정의되며, 보다 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야라고 할 수 있다.On the other hand, deep-learning using artificial intelligence has recently been emerging. Deep learning, or in-depth learning, is defined as a set of machine learning algorithms that try to achieve a high level of abstraction through a combination of several non-linear transformation techniques. It is a field of machine learning that teaches computers how people think in a larger framework .

어떠한 데이터가 있을때, 이를 컴퓨터가 알아들을 수 있는 형태로 표현하고, 이를 학습에 적용하기 위한 만은 연구가 진행되고 있으며, 이러한 노력의 결과로 다양한 딥 러닝 기법들이 컴퓨터에 의한 시각화, 음성인식, 자연어처리, 음성/신호 처리 등의 분야에 적용되고 있으며, 컨볼루션 신경망도 그 중 하나이다. As a result of these efforts, various deep learning techniques have been applied to computer visualization, speech recognition, natural language processing, Voice / signal processing, and convolution neural networks.

컨볼루션 신경망(Convolutional Neural Network, CNN)은 최소한의 전처리를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥 러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다. Convolutional Neural Network (CNN) is a kind of multilayer perceptrons designed to use minimal preprocessing. CNN is composed of one or several layers of convolutional hierarchy and general artificial neural networks layered on top of it, and utilizes additional weighting and pooling layers. This structure allows CNN to fully utilize the input data of the two-dimensional structure. Compared to other deep-run structures, CNN offers good performance in both video and audio applications. CNN can also be trained through standard reverse delivery. CNN is easier to train than other feedforward artificial neural network techniques and has the advantage of using fewer parameters.

기계학습은 데이터로부터 지식을 추출해내는 직접 학습을 진행할 수도 있지만, 보통 중간 단계인 특징 추출을 거쳐 "데이터 - 특징 - 지식"의 단계로 학습하는 것이 보통이다. 예를 들어 사진 속에서 사물을 인식하기 위해 픽셀값에서 먼저 특징적인 선이나 특징적인 색 분포 등을 먼저 추출한 후, 이를 기반으로 대상 물체가 무엇인지 판단하는 것이다. 이러한 중간 표현단계를 특징지도(feature map)라고 하는데, 기계학습의 성능은 얼마만큼 좋은 특징들을 뽑아내느냐에 따라 그 성능이 크게 좌우된다. 특히, 다단계로 특징을 추출해 학습하는 컨볼루션 신경망이 이미지 인식에 유용하다. Machine learning can be a direct learning process that extracts knowledge from data, but it is common to learn from the stage of "data-feature-knowledge" through feature extraction, which is usually an intermediate step. For example, in order to recognize an object in a photograph, first a characteristic line or a characteristic color distribution is first extracted from a pixel value, and then a target object is determined based on this characteristic line. This intermediate expression step is called a feature map. The performance of machine learning depends largely on how well the features are extracted. In particular, convolution neural networks that extract and learn features in multiple stages are useful for image recognition.

그리고 이러한 컨볼루션 신경망을 이용한 기계학습 또는 데이터 추출은 다음과 같은 기법들을 통해 더욱 향상될 수 있다.Machine learning or data extraction using such a convolutional neural network can be further improved by the following techniques.

1. 데이터 증강(Data Augmentation)1. Data Augmentation

기계학습을 위해서는 많은 양의 데이터가 필요한데, 다양한 케이스에 대한 학습을 행하여 일반적을 추정을 이끌어낼 수 있기 때문이다. 만약 데이터의 양이 적다면 학습한 데이터에 대해서만 잘 추정하게 되고, 이는 오버피팅(over fitting)의 문제로 이어져 인공지능 모델의 성능에 영향을 끼치게 된다. 의료영상은 기술분야의 특성상 데이터의 수가 적은 편에 속한다. 따라서 데이터 수의 부족에 의해 야기될 수 있는 문제를 해결할 필요가 있으며, 이는 이미지를 플리핑(flipping)하는 방법이나 회전하는 방법 등으로 보완될 수 있다.For machine learning, a large amount of data is required, which can lead to general estimation by learning about various cases. If the amount of data is small, only the learned data is estimated well, which leads to the problem of overfitting, which affects the performance of the artificial intelligence model. Medical images belong to a small number of data due to the nature of technology. It is therefore necessary to solve the problems caused by the lack of data, which can be supplemented by flipping or rotating the image.

2. 컨볼루션 필터2. Convolution filter

컨볼루션 신경망은 입력영상에 대하여, 일정한 필터의 사이즈로 해당 사이즈에 포함되는 입력영상의 수치들을 컨볼루션하여 그 결과를 출력한다. 이를 수식으로 표현하면, 필터를 W라 했을 때 컨볼루션 결과는 Wx+b의 형태로 나타낼 수 있다(b는 바이어스). 이는 선형 모델링으로서, 더욱 깊은 층의 인공지능일수록 선형 함수와 비선형 함수의 결합을 통해 더욱 정교한 분류기(classifier)를 설계할 수 있다. The convolutional neural network convolutes the values of the input image included in the size of the input image with a predetermined filter size and outputs the result. Expressing this as an equation, when the filter is W, the convolution result can be expressed as Wx + b (b is a bias). This is linear modeling, and the artificial intelligence of a deeper layer allows a more sophisticated classifier to be designed through the combination of linear and nonlinear functions.

필터의 사이즈와 필터가 영상 안에서 이동하는 보폭(stride)에 따라 컨볼루션을 통한 영상의 크기가 달라진다. 입력영상 크기가 N×N, 필터 사이즈가 F×F라 할 경우, 이 필터를 통해 출력되는 영상의 크기는 (N-F)/stride +1로서, 다음 층의 특징지도가 필터의 크기에 영향을 받는다는 것을 알 수 있다. 기본적으로 필터를 거칠수록 입력영상의 크기는 작아지게 되는 문제가 있다. 이를 방지하기 위하여 입력영상을 증폭시키는 작업이 필요하기도 하다.The size of the image through convolution depends on the size of the filter and the stride on which the filter moves in the image. When the input image size is N × N and the filter size is F × F, the size of the image output through this filter is (NF) / stride +1, and the feature map of the next layer is affected by the size of the filter . Basically, there is a problem in that the size of the input image becomes smaller as the filter becomes rougher. In order to prevent this, it is necessary to amplify the input image.

Figure pat00001
Figure pat00001

3. 최대 풀링(max pooling)3. Max pooling

최대 풀링이란 컨볼루션을 거친 특징 지도를 샘플링하는 작업을 일컫는다. 예를 들어 4×4의 특징지도와 2×2의 필터를 가정할 경우, 2×2 필터 내부의 수치들 중 가장 큰 값을 추출하여 2×2의 결과층을 만드는 방법이다. 이 기법에 의하면 입력영상으로부터 가장 강한 특징들 만으로 특징 지도를 추출할 수 있게 된다.Maximum pooling is the task of sampling a convolved feature map. For example, if a 4 × 4 feature map and a 2 × 2 filter are assumed, a 2 × 2 result layer is created by extracting the largest value among the values within the 2 × 2 filter. According to this technique, the feature map can be extracted from only the strongest features from the input image.

Figure pat00002
Figure pat00002

4. 소프트맥스 층(softmax layer) 및 원 핫 인코딩(one-hot encoding)4. Softmax layer and one-hot encoding.

소프트맥스는 점수로 나온 결과를 전체 합계가 1이 되는 0과 1사이의 값으로 변경하는 작업을 수행한다. 각 점수에 지수(exp)를 취한 후, 정규화 상수로 나누어 총합이 1이 되도록 계산한다. Softmax performs the task of changing the score result to a value between 0 and 1 where the total sum is 1. The exponent (exp) is taken for each score, then divided by the normalization constant so that the sum is 1.

Figure pat00003
Figure pat00003

신경망의 마지막 단에서 해당 클래스에 해당하는 N개의 클래스에 대한 벡터값이 산출되는바, 클래스 개수에 상응하는 벡터는 각각 임의의 값을 가지고 있다. 이 결과가 소프트맥스 층을 거치면 각 결과값들이 0과 1 사이의 벡터값으로 변경된다. 이후, 원 핫 인코딩을 통해 가장 높은 값을 1로, 나머지 값들을 0으로 변환하여, 가장 특징이 우세한 결과를 추출할 수 있게 된다.At the end of the neural network, vector values for N classes corresponding to the class are calculated, and vectors corresponding to the number of classes have arbitrary values. When the result passes through the soft max layer, each result value is changed to a vector value between 0 and 1. Thereafter, the highest value is converted to 1 by the original hot encoding, and the remaining values are converted to 0, thereby extracting the most feature dominant result.

5. 비용함수(cost function) 및 경사 하강법 알고리즘(gradient descent algorithm)5. Cost function and gradient descent algorithm.

인공지능의 웨이트 값을 학습시키기 위해서는 목적함수를 정의한다. 목적함수는 목적에 따라 다르겠지만, 일반적으로 교차 엔트로피(cross entropy) 방법을 사용한다. 소프트맥스 층을 거친 특징 벡터를 사용하여, 알고 있는 실측정보(ground truth)를 상기 목적함수를 이용하여 정의한다. 이때 경사하강법을 이용하면 목적함수의 값이 최소로 되는 방향으로 학습하게 된다. In order to learn the weight value of artificial intelligence, an objective function is defined. The objective function generally depends on the purpose but uses a cross entropy method. The known ground truth is defined using the objective function using a feature vector passing through the soft max layer. At this time, when the gradient descent method is used, the learning is performed in a direction in which the value of the objective function is minimized.

Figure pat00004
Figure pat00004

경사하강법 알고리즘 사용시, 학습 에포크(epoch) 수를 너무 많이 제공하면 신경망은 특정 입력값과 실측정보에만 맞는 결과를 산출하는 경향이 있게 되는데, 예를 들면 학생들이 시험에 임하여 연습문제에만 특화되어 해당 연습문제가 출제되면 정확하게 해결하지만, 다른 문제가 나왔을 경우 결과가 기대한 바에 미치지 못하는 현상이라고 할 수 있다. 이를 방지하기 위해서는 드롭아웃 레이어, 입력 노이즈, 웨이트 노이즈 등을 추가함으로써 오버피팅에 빠지는 문제들을 해결할 수 있다.When using the gradient descent algorithm, if the number of learning epochs is provided too much, the neural network tends to produce results that are specific to specific input values and actual information. For example, Exercise problems can be solved accurately, but if other problems arise, the results are not as expected. To prevent this, we can solve the problems of overfitting by adding dropout layer, input noise, weight noise, and so on.

이에 따라 본 발명의 방법에 있어서 컨볼루션 신경망의 기계 학습은 아래와 같은 단계를 거쳐 수행될 수 있다:Accordingly, in the method of the present invention, the machine learning of the convolutional neural network can be performed through the following steps:

i) 학습 샘플 데이터 및 신경망 데이터 수신i) Receive learning sample data and neural network data

ii) 신경망 데이터를 그래픽 데이터로 준비ii) Prepare neural network data as graphic data

iii) 각 입력 샘플에 대하여iii) For each input sample

- 계산 결과 출력- Output calculation result

- 기대 출력에 대한 오차 계산- Calculation of error for expected output

- 목적함수 결정- Determination of objective function

- 컨볼루션 필터 재설정- Reset Convolution Filter

- 상기 반복- Repeat the above

iv) 다음 샘플 입력 - 반복iv) Enter the following sample - repeat

본 발명에 따른 방법에 의하면, 상기한 바와 같은 컨볼루션 신경망을 이용하여 IVUS 이미지로부터 혈관벽 및 루멘을 정밀하게 영역화하여 표시할 수 있다. 도 1을 참조하면, IVUS 이미지로부터 컨볼루션 신경망을 이용하여 영역화한 결과(가운데 이미지의 붉은 원 표시), 수동으로 영역화를 표시한 우측 이미지의 실측정보와 거의 일치하는 결과를 나타냄을 알 수 있다. According to the method of the present invention, the vessel wall and the lumen can be precisely segmented and displayed from the IVUS image using the convolution neural network as described above. Referring to FIG. 1, it can be seen from the IVUS image that the result of the zoning using the convolutional neural network (display of the red circle of the center image) have.

한편, 본 발명에 의하면 IVUS 이미지로부터 컨볼루션 신경망을 이용하여 혈관내 병변을 영역화하는 장치를 제공할 수 있다. 상기 장치는 본 발명의 기능 또는 용도의 범위에 대해 임의의 한정을 제안하기 위한 것으로 의도된 것이 아니며, 본 발명은 다양한 범용 또는 특수 목적 연산 환경에서 구현될 수 있다.According to the present invention, it is possible to provide an apparatus for segmenting an intravascular lesion using an IVUS image using a convolutional neural network. The apparatus is not intended to suggest any limitation as to the scope of the functionality or use of the invention, and the invention may be implemented in a variety of general purpose or special purpose computing environments.

도 2를 참조하면, 본 발명의 영역화 장치는 적어도 하나의 처리유닛, GPU(그래픽 처리 유닛) 및 메모리를 포함한다. 도 2에서 이러한 가장 기본적인 구성은 파선 내에 포함된다. 처리유닛은 컴퓨터 실행 가능 명령어를 실행하며, 현실 프로세서 또는 가상 프로세서일 수 있다. 다중 처리 시스템에서 다수의 처리 유닛이 컴퓨터 실행가능 명령어를 실행하여 처리 능력을 향상시킨다. 메모리는 휘발성 메모리(예를 들어, 레지스터, 캐시, RAM), 비휘발성 메모리(예를 들어, ROM, EEPROM, 플래시메모리 등) 또는 두가지 메모리의 어떤 조합이 될 수 있다. 메모리는 기술된 인코더/디코더 및 효율적인 변환계수 인코딩/디코딩 기술을 구현하는 소프트웨어를 저장한다. GPU는 하나의 보드 상에서 처리유닛과 통합되거나 또는 별개로 포함될 수 있다. Referring to FIG. 2, the localization apparatus of the present invention includes at least one processing unit, a GPU (graphics processing unit), and a memory. In Figure 2, this most basic configuration is included in the dashed line. The processing unit executes computer-executable instructions and may be a real processor or a virtual processor. In a multiprocessing system, multiple processing units execute computer executable instructions to improve processing capabilities. The memory can be any combination of volatile memory (e.g., registers, cache, RAM), non-volatile memory (e.g., ROM, EEPROM, flash memory, etc.) or two memories. The memory stores the described encoder / decoder and software implementing an efficient transform coefficient encoding / decoding technique. The GPU can be integrated with the processing unit on one board or can be included separately.

본 발명의 영역화 장치는 부가적인 특징을 가질 수 있다. 예를 들어, 저장소, 하나 이상의 입력장치 및 하나 이상의 출력장치, 및 하나 이상의 통신접속을 포함할 수 있다. 버스, 제어기와 같은 상호접속 메카니즘 또는 네트워크는 연산장치의 구성 요소들을 상호접속시킨다. 일반적으로 운영체제 소프트웨어는 연산장치에서 실행되는 다른 소프트웨어를 위한 동작환경을 제공하고, 장치의 구성요소의 동작을 조정한다. The zoning device of the present invention may have additional features. For example, a repository, one or more input devices and one or more output devices, and one or more communication connections. Interconnection mechanisms, such as buses, controllers, or networks interconnect components of computing devices. Typically, operating system software provides an operating environment for other software running on the computing device and coordinates the operation of the components of the device.

저장소는 착탈식 또는 비착탈식일 수 있고, 자기 디스크, 자기 테이프 또는 카세트, CD-ROM, CD-RW, DVD 또는, 정보를 저장하는데 사용될 수 있고 연산 장치 내에서 액세스될 수 있는 임의의 다른 매체를 포함한다. 저장소는 기술된 신경망 처리결과를 구현하는 소프트웨어를 위한 명령어를 저장한다.The storage may be removable or non-removable and may include magnetic disks, magnetic tape or cassettes, CD-ROMs, CD-RWs, DVDs, or any other medium that can be used to store information and that can be accessed within computing devices do. The repository stores instructions for software to implement the described neural network processing results.

입력 장치는 키보드, 마우스, 펜 또는 트랙볼과 같은 접촉 입력 장치, 음성 입력 장치, 스캐닝 장치 또는 연산 장치에 입력을 제공할 수 있는 또 다른 장치일 수 있다. 오디오의 경우, 입력 장치는 아날로그 또는 디지털 형태로 오디오 입력을 받아들이는 유사한 장치 또는 사운드 카드이거나, 연산 장치에 오디오 샘플을 제공하는 CD-ROM 기록기일 수 있다. 출력 장치는 디스플레이, 프린터, 스피커, CD-기록기 또는 연산 장치로부터 출력을 제공받는 또 다른 장치일 수 있다.The input device may be a touch input device such as a keyboard, mouse, pen, or trackball, a voice input device, a scanning device, or another device capable of providing input to a computing device. In the case of audio, the input device may be a similar device or sound card that accepts audio input in analog or digital form, or may be a CD-ROM recorder that provides audio samples to the computing device. The output device may be a display, a printer, a speaker, a CD-recorder, or another device that is provided with output from the computing device.

통신 접속은 통신 매체를 통하여 또 다른 컴퓨팅 장치(computing entity)와의 통신을 가능하게 한다. 통신 매체는 변조된 데이터 신호로 컴퓨터 실행가능 명령어, 압축된 오디오 또는 비디오 정보 또는 다른 데이터와 같은 정보를 운반한다. 변조된 데이터 신호는 신호에 정보를 인코딩하는 것과 같은 방식으로 설정 또는 변경되는 하나 이상의 그것의 특징을 갖는 신호이다. 예컨대, 한정은 아니지만, 통신 매체는 유선 기술 또는 전기, 광학, RF, 적외선, 음향 또는 다른 반송파로 구현되는 무선 기술을 포함한다.A communication connection enables communication with another computing entity via a communication medium. The communication medium carries information such as computer-executable instructions, compressed audio or video information, or other data into the modulated data signal. A modulated data signal is a signal having one or more of its characteristics set or changed in the same manner as encoding information in the signal. By way of example, and not limitation, communication media includes wireless technologies embodied in wireline or electrical, optical, RF, infrared, acoustic, or other carrier waves.

본 문서에서의 디지털 매체 처리 기술은 컴퓨터 판독가능 매체에 대한 일반적인 문맥에서 기술될 수 있다. 컴퓨터 판독가능 매체는 연산 장치 내에서 액세스될 수 있는 임의의 이용가능한 매체이다. 예컨대, 한정은 아니지만, 연산 장치와 함께, 컴퓨터 판독가능 매체는 메모리, 저장소, 통신 매체 및 상기 중 임의의 하나의 조합을 포함한다.Digital media processing techniques in this document may be described in the general context of computer readable media. The computer readable medium is any available medium that can be accessed within the computing device. By way of example, and not limitation, computer readable media, along with computing devices, include memory, storage, communication media, and any combination of the foregoing.

본 문서에서의 신경망 학습 기법은 컴퓨터 실행가능 명령어에 대한 일반적인 문맥에서 기술될 수 있고, 상기 명령어는 타겟 현실 프로세서 또는 타겟 가상 프로세서 상의 연산 장치에서 실행되는 프로그램 모듈에 포함된다. 일반적으로, 프로그램 모듈로서, 특정 작업을 수행하거나 특정한 추상 데이터 유형을 구현하는 루틴, 프로그램, 라이브러리, 객체, 클래스, 구성 요소, 데이터 구조 등이 포함된다. 프로그램 모듈의 기능성은 다양한 실시예에서 원하는 대로 프로그램 모듈 사이에서 조합되거나 분리될 수 있다. 프로그램 모듈을 위한 컴퓨터 실행가능 명령어는 지역 연산 장치 또는 분산 연산 장치 내에서 실행될 수 있다.Neural network learning techniques in this document may be described in the general context of computer executable instructions, which are included in a program module running on a computing device on a target virtual processor or on a target virtual processor. Generally, program modules include routines, programs, libraries, objects, classes, components, data structures, etc. that perform particular tasks or implement particular abstract data types. The functionality of the program modules may be combined or separated among the program modules as desired in various embodiments. The computer executable instructions for the program modules may be executed within a local computing device or a distributed computing device.

표현을 위하여, 상세한 설명에서는 "판정한다", "결정한다", "발생시킨다", "조정한다" 및 "적용한다"와 같은 용어를 사용하여 연산 장치에서의 컴퓨터 동작들을 기술하였다. 이 용어는 컴퓨터가 수행하는 동작을 위한 높은 수준의 추상적 개념이며, 인간이 수행하는 행동과 혼동되어서는 안된다. 이 용어에 대응하는 실제 컴퓨터 동작은 구현에 따라 다르다.For purposes of explanation, the detailed description has described computer operations in computing devices using terms such as "determine", "determine", "generate", "adjust" and "apply". This term is a high-level abstraction for the actions performed by the computer and should not be confused with the actions performed by humans. The actual computer operation corresponding to this term is implementation dependent.

본 명세서에 기술된 기술적 사상의 가능한 다수의 변화를 고려하여, 이하의 청구항 및 그것의 균등물의 범위 내에 속할 수 있는 모든 실시예가 본 발명에 속함을 청구한다.In view of the many possible variations of the technical idea described herein, it is intended that all embodiments falling within the scope of the following claims and their equivalents be claimed.

Claims (4)

혈관내 초음파(IVUS) 영상에서의 혈관벽 및 루멘 영역화 방법으로서,
영상 데이터를 수신하는 단계;
컨볼루션 신경망(convolution neural network)을 이용하여 상기 영상 데이터를 처리하는 단계; 및
상기 처리하는 단계에서 얻어진 결과물 영상을 표시장치에 표시하는 단계
를 포함하는 것을 특징으로 하는 방법.
A method for segmenting a vessel wall and a lumen in an intravascular ultrasound (IVUS)
Receiving image data;
Processing the image data using a convolution neural network; And
Displaying the resultant image obtained in the processing step on a display device
≪ / RTI >
제 1 항에 있어서,
상기 영상 데이터를 처리하는 단계는 데이터 증강, 입력영상의 크기 증폭, 맥스 풀링, 소프트맥스, 원 핫 인코딩, 목적함수 설정, 및 경사하강법 알고리즘으로 이루어진 그룹으로부터 선택되는 하나 또는 그 이상의 기법들의 조합을 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
The processing of the image data may comprise combining one or more techniques selected from the group consisting of data enhancement, magnification of the input image size, Max pooling, soft max, original hot encoding, objective function setting, ≪ / RTI >
혈관내 초음파(IVUS) 영상에서의 혈관벽 및 루멘 영역화 장치로서,
컴퓨터 실행 가능 명령어를 실행하는 적어도 하나의 처리유닛;
상기 처리유닛과 하나의 보드 상에서 통합되거나 또는 별개로 포함되는 GPU(그래픽 처리 유닛); 및 메모리
를 포함하고,
상기 GPU는 컨볼루션 신경망을 통해 상기 초음파 영상에서의 혈관벽 및 루멘을 영역화하는 것을 특징으로 하는 장치.
An apparatus for segmenting a vessel wall and a lumen in an intravascular ultrasound (IVUS)
At least one processing unit for executing computer executable instructions;
A GPU (graphics processing unit) integrated or separately contained on one board with the processing unit; And memory
Lt; / RTI >
Wherein the GPU scales the vessel wall and lumen in the ultrasound image through a convolution neural network.
제 3 항에 있어서,
적어도 하나의 통신 접속, 적어도 하나의 입력 및 출력 장치, 및 저장소를 추가로 포함하는 장치.

The method of claim 3,
At least one communication connection, at least one input and output device, and a storage.

KR1020170083306A 2017-06-30 2017-06-30 A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network KR20190002957A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170083306A KR20190002957A (en) 2017-06-30 2017-06-30 A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170083306A KR20190002957A (en) 2017-06-30 2017-06-30 A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network

Publications (1)

Publication Number Publication Date
KR20190002957A true KR20190002957A (en) 2019-01-09

Family

ID=65017448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170083306A KR20190002957A (en) 2017-06-30 2017-06-30 A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network

Country Status (1)

Country Link
KR (1) KR20190002957A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200141323A (en) * 2019-06-10 2020-12-18 포항공과대학교 산학협력단 Method of generating ultrasonic image and apparatuses performing the same
WO2021187699A1 (en) * 2020-03-19 2021-09-23 주식회사 아이도트 Carotid ultrasound diagnosis system
KR102304339B1 (en) * 2020-11-27 2021-09-23 두에이아이(주) Method and computing device for providing analysis information on intravascular ultrasound images of blood vessels using artificial neural networks

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200141323A (en) * 2019-06-10 2020-12-18 포항공과대학교 산학협력단 Method of generating ultrasonic image and apparatuses performing the same
WO2021187699A1 (en) * 2020-03-19 2021-09-23 주식회사 아이도트 Carotid ultrasound diagnosis system
KR102304339B1 (en) * 2020-11-27 2021-09-23 두에이아이(주) Method and computing device for providing analysis information on intravascular ultrasound images of blood vessels using artificial neural networks
WO2022114822A1 (en) * 2020-11-27 2022-06-02 두에이아이(주) Method and computing device for providing analysis information about vascular ultrasound image by utilizing artificial neural network

Similar Documents

Publication Publication Date Title
WO2020215984A1 (en) Medical image detection method based on deep learning, and related device
Cai et al. A review of the application of deep learning in medical image classification and segmentation
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
CN107492099B (en) Medical image analysis method, medical image analysis system, and storage medium
CN110288597B (en) Attention mechanism-based wireless capsule endoscope video saliency detection method
WO2020133636A1 (en) Method and system for intelligent envelope detection and warning in prostate surgery
CN111476796B (en) Semi-supervised coronary artery segmentation system and segmentation method combining multiple networks
CN112446862A (en) Dynamic breast ultrasound video full-focus real-time detection and segmentation device and system based on artificial intelligence and image processing method
Droste et al. Ultrasound image representation learning by modeling sonographer visual attention
Jo et al. Segmentation of the main vessel of the left anterior descending artery using selective feature mapping in coronary angiography
CN112418166B (en) Emotion distribution learning method based on multi-mode information
KR20200082660A (en) Pathological diagnosis method and apparatus based on machine learning
KR20190002957A (en) A method for segmentation of wall or lumen in intravascular ultrasound image with using convolution neural network
Lachinov et al. Projective skip-connections for segmentation along a subset of dimensions in retinal OCT
JP2023525743A (en) Automatically identify anatomical structures in medical images in a manner that is sensitive to the specific view in which each image was captured
Yuan et al. CSM-Net: Automatic joint segmentation of intima-media complex and lumen in carotid artery ultrasound images
Patel An overview and application of deep convolutional neural networks for medical image segmentation
Liu et al. Yolo-angio: an algorithm for coronary anatomy segmentation
Zhao et al. Automated coronary tree segmentation for x-ray angiography sequences using fully-convolutional neural networks
CN113379691B (en) Breast lesion deep learning segmentation method based on prior guidance
Tang Heart image digital model building and feature extraction analysis based on deep learning
Wahlang et al. A study on abnormalities detection techniques from echocardiogram
Song et al. Two-path augmented directional context aware ultrasound image segmentation
Al-Eiadeh Automatic lung field segmentation using robust deep learning criteria
Li et al. Siamatsn: Real-time carotid plaque tracking and segmentation of ultrasonic videos

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application