KR20200127702A - Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks - Google Patents

Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks Download PDF

Info

Publication number
KR20200127702A
KR20200127702A KR1020190052352A KR20190052352A KR20200127702A KR 20200127702 A KR20200127702 A KR 20200127702A KR 1020190052352 A KR1020190052352 A KR 1020190052352A KR 20190052352 A KR20190052352 A KR 20190052352A KR 20200127702 A KR20200127702 A KR 20200127702A
Authority
KR
South Korea
Prior art keywords
image
convolutional network
optical tomography
tomography image
speckle
Prior art date
Application number
KR1020190052352A
Other languages
Korean (ko)
Other versions
KR102366557B1 (en
Inventor
엄주범
최지연
최장훈
박안진
엄종현
Original Assignee
한국광기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국광기술원 filed Critical 한국광기술원
Priority to KR1020190052352A priority Critical patent/KR102366557B1/en
Publication of KR20200127702A publication Critical patent/KR20200127702A/en
Application granted granted Critical
Publication of KR102366557B1 publication Critical patent/KR102366557B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Algebra (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

The present invention relates to an optical tomography image speckle control device using a convolutional network and a method thereof. The optical tomography image speckle control device using a convolutional network comprises: an input module that receives an optical tomography image; a convolutional network that converts features extracted from the optical tomography image into nonlinear values, and removes speckle noise through a convolution operation to generate a reconstructed image; and an output module that outputs an image from which the speckle noise is removed. Therefore, the optical tomography image speckle control device using a convolutional network automates the process of removing the speckle noise from the optical tomography image obtained from an optical coherence tomography system and converting the same into the optical coherence tomography image from which the speckle noise is removed through convolution network learning to generate an image which is obtained by averaging multiple images and from which the speckle noise is removed only with one optical tomography image, thereby improving processing (acquisition) speed for removing the speckle noise.

Description

컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치 및 그 방법{Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks}Optical tomography image speckle control apparatus using a convolutional network, and its method {Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks}

본 발명은 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 광간섭단층영상(OCT: optical coherence tomography) 시스템으로 획득한 광단층 이미지(cross-sectional image)의 스페클 노이즈(speckle noise)를 제거하는 방법에 관한 것으로, 상세하게는 스페클 노이즈가 포함된 단층 이미지에서 스페클 노이즈가 제거된 단층 이미지로의 변환을 학습하는 컨볼루션 네트워크(convolution network)를 이용하여 실시간으로 스페클 노이즈를 제거하는 장치 및 그 방법에 관한 것이다. The present invention relates to an optical tomography image speckle control apparatus and method using a convolutional network, and more particularly, to a cross-sectional image obtained by an optical coherence tomography (OCT) system. It relates to a method of removing speckle noise of, and in detail, a convolution network learning transformation from a tomographic image including speckle noise to a tomographic image from which speckle noise has been removed. It relates to an apparatus and a method for removing speckle noise in real time by using.

광간섭단층영상(OCT: optical coherence tomography) 시스템은 생물학적 샘플에 대해 마이크로 미터(μm) 고분해능의 광단층 이미지(cross-sectional image)를 획득할 수 있으며, 이런 장점때문에 안과, 피부과를 포함하는 다양한 분야에서 진단 및 치료 목적으로 활용되고 있다. 광단층 이미지는 그러나 간섭파장(wavelength)을 이용하기 때문에 입자를 뿌려 놓은 듯한 스페클 노이즈(speckle noise)를 포함하며, 이는 이미지 품질 저하시키며 이로 인해 질병을 정성적으로 평가하거나 정량적으로 측정할 때 안정적 수행을 어렵게 만든다. 따라서 스페클 노이즈 제거는 광단층 이미지를 진단 및 치료에 활용할 때 신뢰성 보장을 위해 꼭 필요한 단계이다.Optical coherence tomography (OCT) systems can acquire micro-meter (μm) high-resolution cross-sectional images of biological samples, and due to this advantage, various fields including ophthalmology and dermatology It is used for diagnosis and treatment purposes in Optical tomography images, however, contain speckle noise that appears to be sprinkled with particles because they use the wavelength of interference, which degrades the image quality and is therefore stable when assessing disease qualitatively or quantitatively. Makes it difficult to practice Therefore, speckle noise removal is an essential step to ensure reliability when using optical tomography images for diagnosis and treatment.

현재 판매되고 있는 (상용화된) OCT 시스템에서 가장 많이 채택하고 있는 스페클 노이즈 제거 기법은 이미지 평균 기법(frame averaging method)이다[1]. 이 기법은 같은 위치에서 획득한 여러 장의 이미지를 픽셀단위로 평균하여 스페클 노이즈가 제거된 하나의 이미지를 만든다. 이미지 평균 기법은 향상된 품질의 광단층 이미지를 제공하지만, 최종 이미지 하나를 생성하기 위해 여러 장의 광단층 이미지를 획득해야 하기 때문에 획득 시간이 길어지는(초당 프레임 수(FPS: frames per second)가 떨어지는) 단점이 있다. 이 기법은 특히 3차원 스캔이 필요한 경우 획득 시간문제로 인해 in-vivo 환경에서 적용하기는 어렵다. The most widely adopted speckle noise removal technique in the currently sold (commercialized) OCT system is the frame averaging method [1]. This technique produces a single image from which speckle noise has been removed by averaging multiple images acquired at the same location in pixel units. The image averaging technique provides improved quality optical tomography images, but increases acquisition time (low frames per second (FPS)) because multiple optical tomography images must be acquired to produce one final image. There are drawbacks. This technique is difficult to apply in an in-vivo environment due to acquisition time problems, especially when 3D scan is required.

[1] Y. Ma et al., "Speckle noise reduction in optical coherence tomography image based con edge-sensitive cGAN," Biomedical Optics Express, 9(11), pp. 5129-5146, 2018.[1] Y. Ma et al., "Speckle noise reduction in optical coherence tomography image based con edge-sensitive cGAN," Biomedical Optics Express, 9(11), pp. 5129-5146, 2018.

이에 본 출원인은 스페클 노이즈가 포함된 단층 이미지에서 스페클 노이즈가 제거된 단층 이미지로의 변환을 학습하는 컨볼루션 네트워크(convolution network)를 이용하여 실시간으로 스페클 노이즈를 제거하는 장치 및 그 방법을 제안하고자 한다.Accordingly, the applicant of the present invention proposes an apparatus and method for removing speckle noise in real time using a convolution network that learns transformation from a tomography image containing speckle noise to a tomography image from which speckle noise has been removed. I would like to suggest.

대한민국 등록특허 제10-1942219호(2019. 01. 24. 공고)Korean Patent Registration No. 10-1942219 (announced on January 24, 2019)

본 발명의 목적은, 광간섭단층영상 시스템으로 획득한 광단층 이미지로부터 스페클 노이즈를 제거하여 스페클 노이즈가 제거된 단층 이미지로의 변환하는 절차를 컨볼루션 네트워크 학습을 통해 자동화함으로써, 한 장의 광단층 이미지만으로 스페클이 제거된 이미지(여러 장의 이미지를 평균한 결과 이미지)를 생성하여 스페클 노이즈 제거를 위한 처리(획득) 속도를 개선하는데 있다.An object of the present invention is to automate a procedure of removing speckle noise from an optical tomography image acquired by an optical coherence tomography system and converting the speckle noise to a tomographic image from which speckle noise has been removed through learning a convolutional network. It is to improve the processing (acquisition) speed for removing speckle noise by generating an image from which speckles have been removed only with a tomographic image (a result of averaging multiple images).

이러한 기술적 과제를 해결하기 위해 본 발명은 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치로서, 광단층 이미지를 입력받는 입력모듈; 컨볼루션 연산을 통해 상기 광단층 이미지로부터 추출한 특징을 비선형 값으로 변환하여 스페클 노이즈가 제거된 이미지를 재구성하는 컨볼루션 네트워크; 및 스페클 노이즈가 제거된 이미지를 출력하는 출력모듈을 포함하는 것을 특징으로 한다.In order to solve this technical problem, the present invention is an optical tomographic image speckle control apparatus using a convolutional network, comprising: an input module for receiving an optical tomographic image; A convolutional network for reconstructing an image from which speckle noise has been removed by converting features extracted from the optical tomography image into nonlinear values through a convolution operation; And an output module outputting an image from which speckle noise has been removed.

바람직하게는, 컨볼루션 네트워크는 f×f×d 크기의 필터를 통해 각 픽셀에 곱셈 연산을 수행하는 컨볼루션 연산을 통해 상기 광단층 이미지로부터 특징을 추출하는 연산부를 포함하는 것을 특징으로 한다.Preferably, the convolutional network is characterized in that it includes an operation unit for extracting features from the optical tomography image through a convolution operation that multiplies each pixel through a filter having a size of f×f×d.

컨볼루션 네트워크는, 활성화 함수인 ReLU(Rectified Linear Unit)을 통해 비선형 변환을 수행하는 것을 특징으로 한다.The convolutional network is characterized in that nonlinear transformation is performed through an activation function ReLU (Rectified Linear Unit).

전술한 장치를 기반으로 하는 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법은, 입력모듈이 광단층 이미지를 입력받는 (a) 단계; 컨볼루션 네트워크가 컨볼루션 연산을 통해 광단층 이미지로부터 특징을 추출하는 (b) 단계; 컨볼루션 네트워크가 추출한 특징을 비선형 값으로 변환하는 (c) 단계; 컨볼루션 네트워크가 비선형 값으로 변환한 이미지로부터 스페클 노이즈가 제거된 이미지를 재구성하는 (d) 단계; 및 출력모듈이 스페클 노이즈가 제거된 이미지를 출력하는 (e) 단계를 포함한다.An optical tomography image speckle control method using a convolutional network according to an embodiment of the present invention based on the above-described apparatus includes: (a) receiving an optical tomography image by an input module; (B) the convolutional network extracts features from the optical tomography image through a convolution operation; (C) converting the features extracted by the convolutional network into nonlinear values; (D) reconstructing an image from which speckle noise has been removed from the image converted by the convolutional network to a nonlinear value; And (e) outputting, by the output module, an image from which speckle noise has been removed.

(b) 단계는, 컨볼루션 네트워크의 연산부가 f×f×d 크기의 필터를 통해 광단층 이미지의 각 픽셀에 곱셈 연산을 수행하여 feature map을 생성하는 (b-1) 단계; 컨볼루션 네트워크의 연산부가 feature map으로부터 특징을 추출하는 (b-2) 단계; 컨볼루션 네트워크의 연산부가 f×f×d 크기의 복수개의 필터를 통해 광단층 이미지의 각 픽셀에 곱셈 연산을 수행하여 고차원의 feature map을 생성하는 (b-3) 단계; 및 컨볼루션 네트워크의 연산부가 고차원의 feature map으로부터 특징을 추출하는 (b-4) 단계를 포함하는 것을 특징으로 한다.The step (b) includes the step (b-1) of generating a feature map by performing a multiplication operation on each pixel of the optical tomography image through a filter having a size of f × f × d by the operation unit of the convolution network; (B-2) the operation unit of the convolutional network extracts features from the feature map; (B-3) generating a high-dimensional feature map by performing a multiplication operation on each pixel of the optical tomography image through a plurality of filters of size f×f×d, by the operation unit of the convolutional network; And (b-4) extracting a feature from a high-dimensional feature map by a computing unit of the convolutional network.

상기와 같은 본 발명의 실시예에 따르면, 광간섭단층영상 시스템으로 획득한 광단층 이미지로부터 스페클 노이즈를 제거하여 스페클 노이즈가 제거된 단층 이미지로의 변환하는 절차를 컨볼루션 네트워크 학습을 통해 자동화함으로써, 한 장의 광단층 이미지만으로 스페클이 제거된 이미지(여러 장의 이미지를 평균한 결과 이미지)를 생성하여 스페클 노이즈 제거를 위한 처리(획득) 속도를 향상시킬 수 있다.According to the embodiment of the present invention as described above, the procedure of removing speckle noise from an optical tomography image acquired by an optical coherence tomography system and converting it to a tomography image from which speckle noise has been removed is automated through convolutional network learning. By doing so, it is possible to increase the processing (acquisition) speed for removing speckle noise by generating an image from which speckles have been removed (a result of averaging multiple images) with only one optical tomography image.

도 1은 종래의 스페클 노이즈를 포함하고 있는 광단층 이미지로부터 스페클 노이즈를 제거한 것을 도시한 예시도.
도 2는 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치를 도시한 구성도.
도 3은 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치의 입력과 출력에 대한 실험 결과를 도시한 예시도.
도 4는 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치의 입력 데이터와 레이블 데이터로 구성된 4 쌍의 학습 데이터를 도시한 예시도.
도 5는 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법을 도시한 순서도.
도 6을 참조하여 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법의 제S502단계의 세부과정을 도시한 순서도.
1 is an exemplary view showing that speckle noise is removed from a conventional optical tomography image including speckle noise.
2 is a block diagram showing an optical tomography image speckle control apparatus using a convolutional network according to an embodiment of the present invention.
3 is an exemplary diagram showing experimental results for input and output of an optical tomography image speckle control apparatus using a convolution network according to an embodiment of the present invention.
4 is an exemplary view showing four pairs of training data consisting of input data and label data of an optical tomography image speckle control apparatus using a convolutional network according to an embodiment of the present invention.
5 is a flowchart illustrating a method of controlling an optical tomographic image speckle using a convolutional network according to an embodiment of the present invention.
Referring to FIG. 6, a flow chart showing a detailed process of step S502 of the method of controlling an optical tomography image speckle using a convolutional network according to an embodiment of the present invention.

본 발명의 구체적인 특징 및 장점들은 첨부 도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 그 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다. 또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. Prior to this, terms or words used in the present specification and claims correspond to the technical idea of the present invention based on the principle that the inventor can appropriately define the concept in order to describe his or her invention in the best way. It should be interpreted as meaning and concept. In addition, when it is determined that a detailed description of known functions and configurations thereof related to the present invention may unnecessarily obscure the subject matter of the present invention, it should be noted that the detailed description has been omitted.

도 1은 스페클 노이즈를 포함하고 있는 광단층 이미지(101-104)와 종래 방법인 이미지 평균 기법으로 스페클 노이즈를 제거한 결과(105) 예시를 도시한 도면이다.FIG. 1 is a diagram showing an example of an optical tomography image 101-104 including speckle noise and a result 105 of removing speckle noise by an image averaging method, which is a conventional method.

OCT 시스템에서 획득한 광단층 이미지는 간섭파장(wavelength) 특성으로 인해 기본적으로 스페클 노이즈를 포함하고 있으며, 도 1에 도시된 바와 같이, 동일한 위치에서 4장 이미지(101-104)를 획득하고 픽셀단위로 평균하여 스페클 노이즈가 제거된 이미지를 생성하게 된다.The optical tomography image acquired by the OCT system basically contains speckle noise due to the characteristic of the interference wavelength, and as shown in FIG. 1, four images 101-104 are acquired at the same location and pixel An image from which speckle noise is removed is generated by averaging in units.

이처럼 도 1에 도시된 바와 같은 종래의 방법은 스페클 노이즈 제거에 효과적이지만, 스페클 노이즈가 제거된 한 장의 이미지를 생성하기 위해서는 동일한 위치에서 4번 이미지를 획득해야 하기 때문에 영상획득시간이 길어지는 불이익을 감수해야 한다. As such, the conventional method as shown in FIG. 1 is effective in removing speckle noise, but in order to generate a single image from which speckle noise has been removed, the image acquisition time is increased because the fourth image must be acquired at the same position. You have to bear the penalty.

도 2를 참조하면, 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치(200)는, 광단층 이미지를 입력받는 입력모듈(201), 3개의 층으로 구성되어 컨볼루션 연산을 통해 상기 광단층 이미지로부터 추출한 특징을 비선형 값으로 변환하여 스페클 노이즈가 제거된 이미지를 재구성하는 컨볼루션 네트워크(202, 203, 204), 및 스페클 노이즈가 제거된 이미지를 출력하는 출력모듈(205)을 포함하여 구성된다.Referring to FIG. 2, an optical tomography image speckle control apparatus 200 using a convolutional network according to an embodiment of the present invention includes an input module 201 for receiving an optical tomography image, and consists of three layers. Convolutional networks (202, 203, 204) reconstructing an image from which speckle noise has been removed by converting features extracted from the optical tomography image through a lusion operation into a nonlinear value, and an output that outputs an image from which speckle noise has been removed It comprises a module (205).

이러한, 컨볼루션 네트워크(202, 203)의 연산부(202a, 203a)는 f×f×d 크기의 필터를 통해 각 픽셀에 곱셈 연산을 수행하는 컨볼루션 연산을 통해 광단층 이미지로부터 특징을 추출한다.The calculation units 202a and 203a of the convolution networks 202 and 203 extract features from the optical tomography image through a convolution operation that multiplies each pixel through a filter having a size of f×f×d.

여기서, f×f는 필터의 크기이고, n은 필터의 개수이다.Here, f×f is the size of the filter, and n is the number of filters.

예컨대, 입력 이미지가 8×8×3 (H×W×c) 이고, 필터의 크기가 3×3 (f×f) 이라고 정의하면, 필터 한 개가 가지는 파라미터 수는 3×3×3 (f×f×c) = 27 이 되고, 만약 필터가 4개 존재한다면, 해당 컨볼루션 레이어의 총 파라미터 수는 3×3×3×4 (f×f×c×n) 만큼 지니게 됩니다. 여기서 W는 이미지 가로길이(width), H는 이미지 세로길이(height), c는 채널 수이다.For example, if the input image is 8×8×3 (H×W×c) and the filter size is 3×3 (f×f), the number of parameters for one filter is 3×3×3 (f× f×c) = 27, and if there are 4 filters, the total number of parameters of the convolution layer will be 3×3×3×4 (f×f×c×n). Here, W is the image width, H is the image height, and c is the number of channels.

또한, 연산부(202a, 203a)는 필터 하나에 하나의 feature map을 생성하고, 고차원 특징을 추출하기 위해 여러개의 필터를 통해 고차원의 feature map을 생성한다.In addition, the calculation units 202a and 203a generate one feature map per filter, and generate a high-dimensional feature map through several filters to extract a high-dimensional feature.

또한, 컨볼루션 네트워크(202, 203)의 함수부(202b, 203b)는 활성화 함수(activation function)로 구성되어 필터 결과값을 비선형 값으로 변환하는 기능을 수행하되, 활성화 함수인 ReLU(Rectified Linear Unit)을 통해 비선형 변환을 수행한다.In addition, the function units 202b and 203b of the convolutional networks 202 and 203 are composed of an activation function and perform a function of converting the filter result into a nonlinear value, but the activation function ReLU (Rectified Linear Unit) ) To perform nonlinear transformation.

한편, 컨볼루션 네트워크(204)은 함수부(202b, 203b)에 의해 변환된 비선형 값과 대응하도록 컨볼루션 연산을 통해 이미지를 재구성(reconstruction)하여 출력모듈(205)로 전달한다.Meanwhile, the convolutional network 204 reconstructs the image through a convolution operation to correspond to the nonlinear values converted by the function units 202b and 203b and transmits the reconstruction to the output module 205.

도 3은 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치의 입력과 출력에 대한 실험 결과를 도시한 예시도이다.3 is an exemplary diagram showing experimental results for input and output of an optical tomography image speckle control apparatus using a convolutional network according to an embodiment of the present invention.

도 3에 도시된 첫 번째 컨볼루션 레이어의 입력은 OCT 시스템에서 입력 받은 이미지(301)이며, 크기는 W×H×c 이다. 이때, OCT 시스템은 그레이(gray) 이미지를 입력으로 받기 때문에 c는 1로 고정된다.The input of the first convolution layer shown in FIG. 3 is an image 301 received from the OCT system, and the size is W×H×c. At this time, since the OCT system receives a gray image as an input, c is fixed to 1.

먼저, 컨볼루션 연산을 위해 사용된 필터의 크기는

Figure pat00001
이며, 고차원 feature map 생성을 위해
Figure pat00002
개 필터를 사용하였다. 첫 번째 컨볼루션 레이어의 출력은
Figure pat00003
크기의 feature map(302)이다. First, the size of the filter used for the convolution operation is
Figure pat00001
And for high-dimensional feature map generation
Figure pat00002
Dog filters were used. The output of the first convolution layer is
Figure pat00003
It is a feature map 302 of size.

두 번째 컨볼루션 레이어의 입력은 첫 번째 컨볼루션 레이어의 출력인

Figure pat00004
크기의 feature map이며, 컨볼루션 연산을 위한 필터 크기는
Figure pat00005
이다. 두 번째 컨볼루션 레이어는 개의 필터를 사용하여 컨볼루션 연산을 수행하였으며, 출력은
Figure pat00006
크기의 feature map(303)이다. The input of the second convolution layer is the output of the first convolution layer.
Figure pat00004
It is a feature map of size, and the filter size for convolution operation is
Figure pat00005
to be. The second convolution layer performed convolution operation using four filters, and the output
Figure pat00006
It is a feature map 303 of size.

세 번째 컨볼루션 레이어의 입력은 두 번째 컨볼루션 레이어의 출력인

Figure pat00007
크기의 feature map이며, 컨볼루션 연산을 위한 필터의 크기는
Figure pat00008
이다. 세 번째 컨볼루션 레이어는 개 필터를 사용하여 컨볼루션 연산을 수행하며,
Figure pat00009
크기의 이미지(304)를 출력한다.The input of the third convolution layer is the output of the second convolution layer.
Figure pat00007
It is a feature map of size, and the size of the filter for convolution operation is
Figure pat00008
to be. The third convolution layer uses dog filters to perform convolution operations,
Figure pat00009
The size of the image 304 is output.

도 4는 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치의 입력 데이터와 레이블 데이터로 구성된 4 쌍의 학습 데이터를 도시한 예시도이다.4 is an exemplary diagram showing four pairs of training data consisting of input data and label data of an optical tomography image speckle control apparatus using a convolutional network according to an embodiment of the present invention.

컨볼루션 네트워크에 이미지를 입력하면 컨볼루션 연산을 순차적으로 수행하여 출력 이미지를 생성하게 되는데, 스페클 노이즈 제거를 위해 목적에 맞는 필터 가중치를 설정(학습(training))하는 과정이 수반된다.When an image is input to a convolutional network, an output image is generated by sequentially performing a convolution operation, and a process of setting (training) a filter weight suitable for a purpose to remove speckle noise is involved.

네트워크 학습을 위해서는 학습 데이터가 필요한데, 학습 데이터는 스페클 노이즈가 포함된 이미지(입력 데이터)와 스페클 노이즈가 제어된 이미지(레이블 데이터) 쌍으로 구성되며, 같은 위치에서 획득한 여러 장의 이미지를 입력 데이터로, 여러 장의 이미지를 평균한 이미지를 레이블 데이터로 사용하였다.Training data is required for network training.The training data consists of a pair of images with speckle noise (input data) and images with speckle noise controlled (label data), and multiple images acquired at the same location are input. As data, an image obtained by averaging several images was used as label data.

도 4에 도시된 바와 같이, 4개의 이미지로 스페클 제어 이미지를 생성한 경우 4개의 입력/레이블 데이터 쌍을 생성되고, 학습 데이터가 주어지면 학습은 입력 데이터가 네트워크를 통해 변환된 출력 이미지와 입력 데이터와 한 쌍인 레이블 이미지의 차이를 최소화되게 필터의 가중치를 수정한다.As shown in FIG. 4, when the speckle control image is generated with 4 images, 4 input/label data pairs are generated, and when training data is given, training is performed by converting the input data to the output image and input The weight of the filter is modified to minimize the difference between the data and the paired label image.

이러한 출력 이미지와 레이블 이미지의 차이를 토대로으로 가중치를 수정하기 위해 gradient descent 알고리즘 중 하나인 Adam(adaptive moment estimation)을 활용하였으며, RMSprop, Adagrad 등 다양한 알고리즘이 활용될 수 있다.Adam (adaptive moment estimation), one of the gradient descent algorithms, was used to correct the weight based on the difference between the output image and the label image, and various algorithms such as RMSprop and Adagrad can be used.

네트워크가 학습되면 한 장의 이미지만으로 스페클이 제거된 이미지를 생성할 수 있다. 이는 종례 기법인 이미지 평균 기법과 비교하여 스페클이 제거된 이미지를 빠르게 획득할 수 있다. 예를 들어 4장의 이미지로 한 장의 스페클 제어 이미지를 생성하는 방법과 비교해서 수치상으로 4배 빠른 획득이 가능하다. 실험에서 네트워크 구조를 다음과 같이 설정하면 i7-6850K CPU @ 3.60 GHz를 사용하는 PC 환경에서 200 FPS(frames per second)의 성능을 보인다.When the network is trained, it is possible to create an image with speckle removed with only one image. This can quickly obtain an image from which speckles have been removed compared to the conventional image averaging technique. For example, compared to the method of generating one speckle control image from four images, it is possible to acquire numerically 4 times faster. In the experiment, if the network structure is set as follows, the performance of 200 FPS (frames per second) is shown in a PC environment using i7-6850K CPU @ 3.60 GHz.

Figure pat00010
Figure pat00010

또한, 본 발명의 일 실시예는 앞서 언급한 도 2에 도시된 세 개의 컨볼루션 레이어로 네트워크를 표현하였지만 더 많은 컨볼루션 레이어를 추가할 수 있고, 네트워크 설정도 더 큰 값으로 수정이 가능하다.In addition, in an embodiment of the present invention, although the network is represented by the three convolutional layers shown in FIG. 2 mentioned above, more convolutional layers can be added, and the network configuration can be modified to a larger value.

다만, 컨볼루션 레이어의 수가 많아질수록 네트워크 설정 값이 커질수록 처리시간 길어지는 단점이 있다. PC 환경과 원하는 성능에 따라 네트워크 설정 및 컨볼루션 레이어 수는 수정이 가능하다.However, as the number of convolution layers increases, the processing time increases as the network configuration value increases. Network settings and the number of convolution layers can be modified according to the PC environment and desired performance.

전술한 바와 같은 본 발명의 일 실시예에 따르면, 일반 PC 환경에서 빠른 획득 속도를 보였으며, 이로 인해 in-vivo 환경에서의 이미지 품질이 향상된(스페클이 제거된) 3D 스캔을 기대할 수 있다.According to the exemplary embodiment of the present invention as described above, a fast acquisition speed is shown in a general PC environment, and thus, a 3D scan with improved image quality (with speckle removed) in an in-vivo environment can be expected.

이하, 도 5를 참조하여 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법에 대해 살피면 아래와 같다.Hereinafter, a method of controlling an optical tomography image speckle using a convolutional network according to an embodiment of the present invention will be described with reference to FIG. 5.

먼저, 입력모듈(201)이 광단층 이미지를 입력받는다(S501).First, the input module 201 receives an optical tomography image (S501).

이어서, 컨볼루션 네트워크(202, 203)가 컨볼루션 연산을 통해 광단층 이미지로부터 특징을 추출한다(S502).Subsequently, the convolution networks 202 and 203 extract features from the optical tomography image through a convolution operation (S502).

뒤이어, 컨볼루션 네트워크(202, 203)가 추출한 특징을 비선형 값으로 변환한다(S503).Subsequently, the features extracted by the convolutional networks 202 and 203 are converted into nonlinear values (S503).

이어서, 컨볼루션 네트워크(204)가 비선형 값으로 변환한 이미지로부터 스페클 노이즈가 제거된 이미지를 재구성한다(S504).Subsequently, the convolutional network 204 reconstructs an image from which speckle noise has been removed from the image converted to a nonlinear value (S504).

그리고, 출력모듈(205)이 스페클 노이즈가 제거된 이미지를 출력한다(S505).Then, the output module 205 outputs an image from which speckle noise has been removed (S505).

이하, 도 6을 참조하여 본 발명의 일 실시예에 따른 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법의 제S502단계의 세부과정을 살피면 아래와 같다.Hereinafter, a detailed process of step S502 of the method for controlling an optical tomography image speckle using a convolutional network according to an embodiment of the present invention will be described with reference to FIG. 6.

제S501단계 이후, 컨볼루션 네트워크(202)의 연산부(202a)가 f×f×d 크기의 필터를 통해 광단층 이미지의 각 픽셀에 곱셈 연산을 수행하여 feature map을 생성한다(S601).After step S501, the operation unit 202a of the convolutional network 202 performs a multiplication operation on each pixel of the optical tomography image through a filter having a size of f×f×d to generate a feature map (S601).

이어서, 컨볼루션 네트워크(202)의 연산부(202a)가 feature map으로부터 특징을 추출한다(S602).Subsequently, the calculation unit 202a of the convolutional network 202 extracts features from the feature map (S602).

뒤이어, 컨볼루션 네트워크(203)의 연산부(203a)가 f×f×d 크기의 복수개의 필터를 통해 광단층 이미지의 각 픽셀에 곱셈 연산을 수행하여 고차원의 feature map을 생성한다(S603).Subsequently, the operation unit 203a of the convolutional network 203 generates a high-dimensional feature map by performing a multiplication operation on each pixel of the optical tomography image through a plurality of filters having a size of f×f×d (S603).

그리고, 컨볼루션 네트워크(203)의 연산부(203a)가 고차원의 feature map으로부터 특징을 추출한다(S604).Then, the calculation unit 203a of the convolutional network 203 extracts features from the high-dimensional feature map (S604).

이처럼 전술한 바와 같은 본 발명의 일 실시예에 의하면 한 장의 입력 이미지만으로 스페클이 제거된 이미지(여러 장의 이미지를 평균한 결과 이미지)를 생성할 수 있다.As described above, according to an embodiment of the present invention as described above, an image from which speckles are removed (a result of averaging multiple images) can be generated with only one input image.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예를 중심으로 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈하지 않는 범위에서 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.As described above and illustrated with a focus on preferred embodiments for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as illustrated and described as described above, and does not depart from the scope of the technical idea. It will be well understood by those skilled in the art that many changes and modifications are possible to the present invention within the scope. Accordingly, all such appropriate changes and modifications and equivalents should be considered to be within the scope of the present invention.

101, 102, 103, 104: 스페클 노이즈를 포함하고 있는 광단층 이미지
201: 입력모듈
202, 203, 204: 컨볼루션 네트워크
202a, 203a: 연산부
202b, 203b: 함수부
205: 출력모듈
101, 102, 103, 104: Optical tomography image containing speckle noise
201: input module
202, 203, 204: convolutional network
202a, 203a: operation unit
202b, 203b: function unit
205: output module

Claims (5)

광단층 이미지를 입력받는 입력모듈;
컨볼루션 연산을 통해 상기 광단층 이미지로부터 추출한 특징을 비선형 값으로 변환하여 스페클 노이즈가 제거된 이미지를 재구성하는 컨볼루션 네트워크; 및
스페클 노이즈가 제거된 이미지를 출력하는 출력모듈을
포함하는 것을 특징으로 하는 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치.
An input module for receiving an optical tomography image;
A convolutional network for reconstructing an image from which speckle noise has been removed by converting features extracted from the optical tomography image into nonlinear values through a convolution operation; And
An output module that outputs an image with speckle noise removed
Optical tomography image speckle control apparatus using a convolutional network, comprising.
제1항에 있어서,
상기 컨볼루션 네트워크는,
f×f×d 크기의 필터를 통해 각 픽셀에 곱셈 연산을 수행하는 컨볼루션 연산을 통해 상기 광단층 이미지로부터 특징을 추출하는 연산부를
포함하는 것을 특징으로 하는 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치.
The method of claim 1,
The convolutional network,
An operation unit for extracting features from the optical tomography image through a convolution operation that performs a multiplication operation on each pixel through a filter of size f×f×d
Optical tomography image speckle control apparatus using a convolutional network, comprising.
제1항에 있어서,
상기 컨볼루션 네트워크는,
활성화 함수인 ReLU(Rectified Linear Unit)을 통해 비선형 변환을 수행하는 것을 특징으로 하는 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치.
The method of claim 1,
The convolutional network,
An optical tomographic image speckle control device using a convolutional network, characterized in that nonlinear transformation is performed through an activation function ReLU (Rectified Linear Unit).
(a) 입력모듈이 광단층 이미지를 입력받는 단계;
(b) 컨볼루션 네트워크가 컨볼루션 연산을 통해 광단층 이미지로부터 특징을 추출하는 단계;
(c) 컨볼루션 네트워크가 추출한 특징을 비선형 값으로 변환하는 단계;
(d) 컨볼루션 네트워크가 비선형 값으로 변환한 이미지로부터 스페클 노이즈가 제거된 이미지를 재구성하는 단계; 및
(d) 출력모듈이 스페클 노이즈가 제거된 이미지를 출력하는 단계를
포함하는 것을 특징으로 하는 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법.
(a) receiving, by the input module, an optical tomography image;
(b) extracting features from the optical tomography image through a convolution operation, by a convolutional network;
(c) converting the features extracted by the convolutional network into nonlinear values;
(d) reconstructing an image from which speckle noise has been removed from the image converted by the convolutional network into a nonlinear value; And
(d) The output module outputs an image from which speckle noise has been removed.
Optical tomography image speckle control method using a convolutional network, comprising.
제4항에 있어서,
상기 (b) 단계는,
(b-1) 컨볼루션 네트워크의 연산부가 f×f×d 크기의 필터를 통해 광단층 이미지의 각 픽셀에 곱셈 연산을 수행하여 feature map을 생성하는 단계;
(b-2) 컨볼루션 네트워크의 연산부가 feature map으로부터 특징을 추출하는 단계;
(b-3) 컨볼루션 네트워크의 연산부가 f×f×d 크기의 복수개의 필터를 통해 광단층 이미지의 각 픽셀에 곱셈 연산을 수행하여 고차원의 feature map을 생성하는 단계; 및
(b-4) 컨볼루션 네트워크의 연산부가 고차원의 feature map으로부터 특징을 추출하는 단계를
포함하는 것을 특징으로 하는 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 방법.
The method of claim 4,
The step (b),
(b-1) generating a feature map by performing a multiplication operation on each pixel of the optical tomography image through a filter having a size of f×f×d by an operator of the convolutional network;
(b-2) extracting features from the feature map by a computing unit of the convolutional network;
(b-3) generating a high-dimensional feature map by performing a multiplication operation on each pixel of the optical tomography image through a plurality of filters having a size of f×f×d by a computing unit of the convolutional network; And
(b-4) The operation unit of the convolutional network performs the step of extracting features from a high-dimensional feature map.
Optical tomography image speckle control method using a convolutional network, comprising.
KR1020190052352A 2019-05-03 2019-05-03 Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks KR102366557B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190052352A KR102366557B1 (en) 2019-05-03 2019-05-03 Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190052352A KR102366557B1 (en) 2019-05-03 2019-05-03 Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks

Publications (2)

Publication Number Publication Date
KR20200127702A true KR20200127702A (en) 2020-11-11
KR102366557B1 KR102366557B1 (en) 2022-02-23

Family

ID=73451842

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190052352A KR102366557B1 (en) 2019-05-03 2019-05-03 Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks

Country Status (1)

Country Link
KR (1) KR102366557B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220095532A (en) 2020-12-30 2022-07-07 주식회사 쿠오핀 Method to divide the processing capabilities of artificial intelligence between devices and servers in a network environment
KR20220095533A (en) 2020-12-30 2022-07-07 주식회사 쿠오핀 Neural network processing unit with Network Processor and convolution array
CN116385319A (en) * 2023-05-29 2023-07-04 中国人民解放军国防科技大学 Radar image speckle filtering method and device based on scene cognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3404611A1 (en) * 2017-05-19 2018-11-21 RetinAI Medical GmbH Reducing noise in an image
KR101942219B1 (en) 2018-07-05 2019-01-24 고재성 Apparatus and method for waste image identification using convolution neural network
KR20200044222A (en) * 2018-10-12 2020-04-29 한국과학기술원 Method for processing unmatched low dose x-ray computed tomography image using artificial neural network and apparatus therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3404611A1 (en) * 2017-05-19 2018-11-21 RetinAI Medical GmbH Reducing noise in an image
KR101942219B1 (en) 2018-07-05 2019-01-24 고재성 Apparatus and method for waste image identification using convolution neural network
KR20200044222A (en) * 2018-10-12 2020-04-29 한국과학기술원 Method for processing unmatched low dose x-ray computed tomography image using artificial neural network and apparatus therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FFDNet: Toward a Fast and Flexible Solution for CNN-Based Image Denoising. Kai Zhang et al. IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 27, NO. 9, 4608-4622. 2018.9. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220095532A (en) 2020-12-30 2022-07-07 주식회사 쿠오핀 Method to divide the processing capabilities of artificial intelligence between devices and servers in a network environment
KR20220095533A (en) 2020-12-30 2022-07-07 주식회사 쿠오핀 Neural network processing unit with Network Processor and convolution array
CN116385319A (en) * 2023-05-29 2023-07-04 中国人民解放军国防科技大学 Radar image speckle filtering method and device based on scene cognition
CN116385319B (en) * 2023-05-29 2023-08-15 中国人民解放军国防科技大学 Radar image speckle filtering method and device based on scene cognition

Also Published As

Publication number Publication date
KR102366557B1 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
US11170258B2 (en) Reducing noise in an image
CN110461228B (en) Improving quality of medical images using multi-contrast and deep learning
Ren et al. Reconstructing seen image from brain activity by visually-guided cognitive representation and adversarial learning
EP2942776B1 (en) System and method for enhancing displayed images
EP2760338B1 (en) Anisotropic processing of laser speckle images
EP3221842A1 (en) Speckle reduction in optical coherence tomography images
KR101351583B1 (en) Medical image imaging method, medical diagnostic apparatus thereof, and recording device thereof
KR20200127702A (en) Apparatus and Method of Speckle Reduction in Optical Coherence Tomography using Convolutional Networks
KR102233996B1 (en) Device and method for reconstructing magnetic resonance image thereof
WO2014194334A2 (en) Reconstruction of optical coherent tomography (oct) images of morphological features
CN103561654A (en) Medical image processing device, x-ray diagnostic device, medical image processing method, and x-ray diagnostic method
WO2022045210A1 (en) Image processing device, image processing method, learning device, learning method, and program
CN110689486A (en) Image processing method, device, equipment and computer storage medium
Sheer et al. The effect of regularization parameter within non-blind restoration algorithm using modified iterative wiener filter for medical image
CN112085830A (en) Optical coherent angiography imaging method based on machine learning
Feshki et al. Deep Learning Empowered Fresnel-based Lensless Fluorescence Microscopy
JP2020057373A5 (en)
de Almeida Simões Image Quality Improvement of Medical Images Using Deep Learning for Computer-Aided Diagnosis
Kumar et al. Fractional Sailfish Optimizer with Deep Convolution Neural Network for Compressive Sensing Based Magnetic Resonance Image Reconstruction
JP2016116775A (en) Image reconstruction device, image reconstruction method, and program
Kashihara Deep convolutional neural networks improve vein image quality
Adiga et al. Matching the characteristics of fundus and smartphone camera images
Indira et al. Performance evaluation of gradient based PCNN for fusion of medical images
Kumar et al. Analysis of Medical Image Fusion Using Transform-Based Function and Neural Network
Mekhail et al. Fibre-Bundle-Basis Compressive Sensing for In-vivo Endoscopy

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right