KR102553001B1 - 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치 - Google Patents
인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치 Download PDFInfo
- Publication number
- KR102553001B1 KR102553001B1 KR1020210131537A KR20210131537A KR102553001B1 KR 102553001 B1 KR102553001 B1 KR 102553001B1 KR 1020210131537 A KR1020210131537 A KR 1020210131537A KR 20210131537 A KR20210131537 A KR 20210131537A KR 102553001 B1 KR102553001 B1 KR 102553001B1
- Authority
- KR
- South Korea
- Prior art keywords
- honeycomb
- image
- artifact
- artifacts
- optical fiber
- Prior art date
Links
- 239000013307 optical fiber Substances 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013473 artificial intelligence Methods 0.000 title description 8
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000013507 mapping Methods 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 230000009021 linear effect Effects 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 230000008030 elimination Effects 0.000 claims description 5
- 238000003379 elimination reaction Methods 0.000 claims description 5
- 239000002131 composite material Substances 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 230000009022 nonlinear effect Effects 0.000 claims 1
- 239000000835 fiber Substances 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000003786 synthesis reaction Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000004321 preservation Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 208000003174 Brain Neoplasms Diseases 0.000 description 1
- 206010068052 Mosaicism Diseases 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000005350 fused silica glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T5/001—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/04—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings formed by bundles of fibres
- G02B6/06—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings formed by bundles of fibres the relative position of the fibres being the same at both ends, e.g. for transporting images
- G02B6/065—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings formed by bundles of fibres the relative position of the fibres being the same at both ends, e.g. for transporting images with dynamic image improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G06T5/006—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
광섬유 이미지 장치에서 수신된 이미지에서 허니컴 아티팩트를 허니컴 아티팩트 제거 모델을 통해 제거하는 허니컴 아티팩트 제거 장치 및 방법이 제공된다. 실시예에 따른 허니컴 아티팩트 제거 장치는 학습 데이터 세트를 생성하며, 상기 구축된 학습 데이터로 상기 허니컴 아티팩트 제거 모델을 구축하고, 입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하도록 구성된 제어부를 포함하며, 상기 제어부는 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통해 허니컴 아티팩트 이미지를 획득하며, 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 합성한 허니컴 아티팩트 합성 이미지를 생성하며, 상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성된다.
Description
본 발명은 이미지에서 허니컴 아티팩트를 인공지능 모델을 이용하여 효율적으로 제거할 수 있는 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치에 관한 것이다.
[국가지원 연구개발에 대한 설명]
본 연구는 과학기술정보통신부, 바이오.의료기술개발(R&D) [난치성 뇌종양의 미세 정밀 수술을 위한 다기능 핸드헬드 수술 로봇 개발 및 시스템 통합, 과제고유번호: 1711131233, 세부과제번호: 2019M3A9E2061784]의 지원에 의하여 이루어진 것이다.
광섬유 이미지 장치(fiber bundle endomicroscopy)은 높은 유연성과 소형화된 구조를 가지며, in-vivo 및 in-situ 광학 진단에 널리 적용되고 있다. 도 1은 광섬유 이미지 장치의 구조를 개략적으로 도시한다. 광섬유 이미지 장치는 복수의 렌즈(lens), 광섬유 다발(fiber bundle) 및 카메라(camera)를 포함한다. 대상물(object)에서 반사된 빛은 렌즈를 통해 광섬유 다발을 이동되며, 카메라는 광섬유 다발을 통해 전달되는 빛을 통해 이미지를 생성하게 된다. 여기서, 광섬유 다발은 복수의 광섬유로 구성되며, 광섬유 사이에는 빈 공간에 해당하는 보이드가 형성된다. 이러한 보이드는 카메라에서 생성되는 이미지에서 허니컴 아티팩트와 같은 아티팩트로 나타난다. 이미지에서 허니컴 아티팩트는 이미지의 전체적인 품질을 저하시키며, 정확한 진단을 방해하는 요인을 작용하게 된다.
이미지의 허니컴 아티팩트를 제거하기 위해, 종래 Median/Gaussian Filter와 같은 공간 필터링 방법이 제안되었으나, 필터를 통한 패턴 제거 방법은 기존 이미지의 왜곡을 발생시키고 기존 이미지의 선명도(contrast)가 저하되게 되는 문제점을 가진다.
또한, 핵심 픽셀(core pixel) 영역을 찾고 이를 기반으로 허니컴 아티팩트에 해당하는 보이드 픽셀(void pixel)을 보간하여 기존 이미지 픽셀의 세기(intensity)를 보존하는 보간(Interpolation) 기반의 허니컴 아티팩트 제거 방법도 종래 제안되었으나, 핵심 픽셀(core pixel)의 위치 검출 정확도에 따라 그 결과가 민감하게 변화하여 허니컴 아티팩트의 이동과 회전 변화에 강건하게 대응하지 못하는 단점을 가지고 있다.
본 발명의 목적은, 이미지에서 허니컴 아티팩트를 인공지능 모델을 이용하여 효율적으로 제거할 수 있는 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치를 제공하는 것이다.
본 발명의 목적은, 기존 이미지의 선명도(contrast)가 저하되지 않으면서, 허니컴 아티팩트의 이동과 회전 변화에 강건하게 대응할 수 있는 이미지의 허니컴 아티팩트 제거 방법 및 장치를 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치는 학습 데이터 세트를 생성하며, 상기 구축된 학습 데이터로 상기 허니컴 아티팩트 제거 모델을 구축하고, 입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하도록 구성된 제어부를 포함하며, 상기 제어부는 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통해 허니컴 아티팩트 이미지를 획득하며, 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 합성한 허니컴 아티팩트 합성 이미지를 생성하며, 상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성된다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 방법은 광섬유 이미지 장치에서 수신된 이미지에서 허니컴 아티팩트를 허니컴 아티팩트 제거 모델을 통해 제거하는 방법으로, 상기 방법은: 학습 데이터를 구축하는 단계; 상기 구축된 학습 데이터로 상기 허니컴 아티팩트 제거 모델을 구축하는 단계; 및 입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하는 단계를 포함하며, 상기 학습 데이터를 구축하는 단계는, 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통해 허니컴 아티팩트 이미지를 획득하며, 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 합성한 허니컴 아티팩트 합성 이미지를 생성하는 것을 포함하며, 상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성된다.
본 발명의 실시예에 따른 기록매체는 컴퓨터 판독 가능 명령을 저장하는 컴퓨터 판독 가능 기록매체로서, 상기 명령은 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서가 단계들을 수행하도록 하며, 상기 단계들은, 학습 데이터를 구축하는 단계; 상기 구축된 학습 데이터로 상기 허니컴 아티팩트 제거 모델을 구축하는 단계; 및 입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하는 단계를 포함하며, 상기 학습 데이터를 구축하는 단계는, 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통해 허니컴 아티팩트 이미지를 획득하며, 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 합성한 허니컴 아티팩트 합성 이미지를 생성하는 것을 포함하며, 상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성된다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치 및 방법은 허니컴 아티팩트 제거 모델을 통해 광섬유 다발 이미지에서 허니컴 아티팩트가 없는 이미지로의 종단 간 매핑을 제공할 수 있으며, 기존의 다른 방법에 비해 허니컴 아티팩트 제거, 실시간 디테일 보존 및 광섬유 다발 이미지의 작은 시야를 확대하기 위한 이미지 모자이크에서 성능 향상을 제공한다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치 및 방법은 아티팩트와 샘플 패턴을 모두 흐리게 하는 공간 및 스펙트럼 필터링 방법의 한계를 극복할 수 있으며, 또한, 광섬유 다발의 코어 위치에 대한 변화에 강건하게 대응할 수 있어 보간 기반 방법의 한계 또한 극복할 수 있다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치 및 방법은 이미지 데이터베이스의 일반 이미지에 허니컴 아티팩트를 오버레이, 합성하는 방식을 통해 학습 기반 접근 방식에서 정답 데이터 수집을 위한 추가 광학 하드웨어를 설정하는 부담을 감소시킬 수 있다.
도 1은 광섬유 이미지 장치의 구조를 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 시스템의 구성도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 학습을 위한 허니컴 아티팩트를 삽입한 훈련 이미지(허니컴 아티팩트 합성 이미지)를 생성하여 허니컴 아티팩트 제거 모델을 학습하는 과정을 도시한다.
도 4는 일반 이미지를 허니컴 아티팩트 합성 이미지로 변환하는 과정을 예시적으로 나타낸다.
도 5는 허니컴 아티팩트 합성 이미지를 통해 허니컴 아티팩트 제거 모델을 학습하는 과정을 예시적으로 나타낸다.
도 6은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들을 각각 도시한다.
도 7은 도 6에 따른 이미지들의 세기를 측정한 비교 결과 그래프이다.
도 8은 도 6에 따른 이미지의 평탄화, 선 분해능 지표를 측정한 결과를 도시한다.
도 9는 도 6에 따른 이미지에 대한 이진화 결과를 각각 도시한다.
도 10은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들에서 관측되는 특징점의 수를 각각 도시한다.
도 11은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들에 대한 모자이킹 성능을 측정한 결과를 각각 도시한다.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 시스템의 구성도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 학습을 위한 허니컴 아티팩트를 삽입한 훈련 이미지(허니컴 아티팩트 합성 이미지)를 생성하여 허니컴 아티팩트 제거 모델을 학습하는 과정을 도시한다.
도 4는 일반 이미지를 허니컴 아티팩트 합성 이미지로 변환하는 과정을 예시적으로 나타낸다.
도 5는 허니컴 아티팩트 합성 이미지를 통해 허니컴 아티팩트 제거 모델을 학습하는 과정을 예시적으로 나타낸다.
도 6은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들을 각각 도시한다.
도 7은 도 6에 따른 이미지들의 세기를 측정한 비교 결과 그래프이다.
도 8은 도 6에 따른 이미지의 평탄화, 선 분해능 지표를 측정한 결과를 도시한다.
도 9는 도 6에 따른 이미지에 대한 이진화 결과를 각각 도시한다.
도 10은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들에서 관측되는 특징점의 수를 각각 도시한다.
도 11은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들에 대한 모자이킹 성능을 측정한 결과를 각각 도시한다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 시스템의 구성도를 도시한다. 이하 사용되는 '…부', '…기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
도 2를 참조하면, 이미지 처리 시스템(10)은 광섬유 이미지 장치(100)와, 광섬유 이미지 장치(100)에 연결된 허니컴 아티팩트 제거 장치(200)를 포함한다.
광섬유 이미지 장치(100)는 예시적으로 도 1에 따른 종래의 광섬유 이미지 장치일 수 있으며, 상술한 구성을 포함할 수 있다. 광섬유 이미지 장치(100)는 대상에서 복수의 광섬유 다발을 통해 전달된 빛을 통해 상기 대상에 대한 이미지를 생성할 수 있다. 도 1을 참조하면, 광섬유 다발이 전체적으로 원형을 이루도록 구성되어 있으므로, 이미지에서 광섬유 다발에 대응하는 관심 영역이 원형으로 도시되는 것을 알 수 있으며, 광섬유 다발의 외부 영역은 블랙 마스크 처리된 것을 알 수 있다. 또한, 관심 영역 내부에는 광섬유 사이 빈 공간에 해당하는 보이드에 의한 허니컴 아티팩트가 형성된 것을 알 수 있다. 이와 같이 생성된 이미지는 허니컴 아티팩트 제거 장치(200)로 전달된다.
허니컴 아티팩트 제거 장치(200)는 광섬유 이미지 장치(100)로부터 촬영된 이미지를 수신하고, 수집된 이미지를 처리할 수 있다. 허니컴 아티팩트 제거 장치(200)는 수집된 이미지에서 허니컴 아티팩트를 선택적으로 제거하고 아티팩트가 삭제 보정된 이미지를 사용자에게 출력하도록 구성될 수 있다.
도 2에 도시된 바와 같이 허니컴 아티팩트 제거 장치(200)는 허니컴 아티팩트 제거 장치(200)의 전반적인 동작을 제어하는 제어부(210), 사용자 명령을 입력받는 입력부(220), 소리, 화면을 출력하는 출력부(230), 데이터를 저장하는 저장부(240) 및 광섬유 이미지 장치(100)와 데이터를 주고받는 통신부(250)를 포함할 수 있다.
제어부(210)는 허니컴 아티팩트 제거 장치(200)의 전반적인 동작을 제어한다. 제어부(210)는 통신부(250)를 통해 신호의 송수신을 제어한다. 또한, 제어부(210)는 저장부(240)에 데이터를 기록하고, 읽는다. 광섬유 이미지 장치(100)로부터 촬영된 이미지를 수신하고, 이들 이미지를 처리하고 허니컴 아티팩트를 제거하여 보정 이미지를 생성한다. 이러한, 보정 이미지의 생성은 실시간으로 수행될 수 있다.
제어부(210)는 통신부(250)를 통해 수신된 광섬유 이미지 장치(100)로부터 촬영된 이미지를 처리하여 보정 이미지를 생성한다. 이 때, 인공지능 기반으로 허니컴 아티팩트가 포함된 이미지에서 허니컴 아티팩트가 제거될 수 있다. 제어부(210)는 광섬유 다발 사이의 보이드로 인한 허니컴 아티팩트가 제거된 보정 이미지를 획득하기 위해, 인공지능 알고리즘을 이용할 수 있다. 인공지능 알고리즘의 예로는 기계 학습, 신경망, 유전자, 딥러닝, 분류 알고리즘이 있는데, 이들 중 적어도 하나를 이용하여 학습을 통해 다양한 허니컴 아티팩트가 포함된 데이터와 여기서 허니컴 아티팩트가 제거된 데이터 셋을 통해 학습하여 구축된 허니컴 아티팩트 제거 모델을 이용하여 허니컴 아티팩트가 없는 이미지에 가깝게 허니컴 아티팩트를 제거할 수 있다. 신경망 알고리즘으로는, 예를 들어 합성곱 신경망(CNN, convolution neural network) 방식 등이 있다.
제어부(210)는 학습된 허니컴 아티팩트 제거 모델을 이용하여 광섬유 다발 사이의 보이드로 인해 허니컴 아티팩트가 생긴 이미지로부터 허니컴 아티팩트가 제거된 이미지를 효과적으로 생성할 수 있다.
상술한 제어부(210)의 동작은 하나 이상의 프로세서(processor)에 의해 수행될 수 있다. 예를 들어, 허니컴 아티팩트 제거를 위한 학습과 학습된 알고리즘에 기반해 허니컴 아티팩트를 제거하는 동작은 각각 별개의 하나 이상의 프로세서에 의해서 수행될 수도 있고, 동일한 프로세서에 의해 수행될 수도 있다. 각 동작은 동일한 프로세서에서 별개의 소프트웨어 블록으로 구분되어 실행될 수 있다. 제어부(210)는 입력부(220), 출력부(230), 저장부(240) 및 통신부(250)와 연결되어 이들의 전반적인 동작을 제어할 수 있다.
입력부(220)는 사용자의 명령을 입력받는 인터페이스를 제공할 수 있다. 예를 들어, 입력부(220)는 키보드, 터치 패널, 버튼 입력 장치, 마우스, 펜 센서, 마이크 등 다양한 형태로 제공될 수 있다. 입력부(220)를 통한 사용자 입력은 제어부(210)로 전달되고, 제어부(210)에 의해 다양한 설정 변경으로 저장부(240)에 저장되거나, 출력부(230)로 관련 내용을 출력하도록 제어될 수 있다.
출력부(230)는 제어부(210)에 의해 처리된 정보, 통신부(250)를 통해 수신된 정보를 출력한다. 출력 형태는 음성 신호, 이미지 신호, 진동 형태일 수 있다. 출력부(230)는 음성 신호 형태의 경고음 등을 출력하는 오디오, 화면에 다양한 문자, 이미지 등 이미지 신호를 출력하는 디스플레이 등을 포함할 수 있다. 예를 들어, 출력부(230)를 통해 보정 이미지가 사용자에게 제공될 수 있다.
저장부(240)는 허니컴 아티팩트 제거 장치(200)에서 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보가 저장된다. 저장부(240)는 통신부(250)를 통해 광섬유 이미지 장치(100)로부터 수집된 이미지, 처리된 보정 이미지, 학습을 위해 생성된 데이터 셋이나, 허니컴 아티팩트 제거 또는 이미지 처리를 위한 다양한 설정, 판단 기준 등이 저장될 수 있다. 저장부(240)는 허니컴 아티팩트 제거 장치(200)에 포함된 메모리일 수도 있으나, 허니컴 아티팩트 제거 장치(200) 외부에 연결된 외부 저장 장치일 수도 있다.
통신부(250)는 유/무선 방식으로 광섬유 이미지 장치(100)와 연결된다. 통신부(250)는 네트워크를 통해 연결된 광섬유 이미지 장치(100)로부터 수집된 이미지를 수신하고, 제어부(210)로부터의 광섬유 이미지 장치(100)에 대한 제어 명령을 광섬유 이미지 장치(100)로 전송한다.
본 실시예에 따른 허니컴 아티팩트 제거 장치(200)는 상술한 바와 같이 허니컴 아티팩트 제거 모델을 통해 입력된 이미지에서 허니컴 아티팩트를 제거할 수 있다. 다만, 이러한 허니컴 아티팩트 제거 모델을 학습하기 위해서는 허니컴 아티팩트가 없는 정답(ground truth) 이미지가 다수 필요하며, 이를 수집하기 위해서 시간, 비용 및 추가적인 하드웨어 장치가 요구되게 된다. 본 실시예에 따른 허니컴 아티팩트 제거 장치(200)는 정답(ground truth) 데이터를 수집하기 위한 추가적인 하드웨어 없이 데이터 베이스(저장부, 240)에 존재하는 일반적인 이미지에 가상의 허니컴 아티팩트를 합성하여 다수의 학습 데이터를 구축하고 이를 기반으로 이미지에서 허니컴 아티팩트를 제거하도록 허니컴 아티팩트 제거 모델을 학습시킬 수 있다.
도 3은 본 발명의 일 실시예에 따른 학습을 위한 허니컴 아티팩트를 삽입한 훈련 이미지(허니컴 아티팩트 합성 이미지)를 생성하여 허니컴 아티팩트 제거 모델을 학습하는 과정을 도시한다. 도 4는 일반 이미지를 허니컴 아티팩트 합성 이미지로 변환하는 과정을 예시적으로 나타낸다. 도 5는 허니컴 아티팩트 합성 이미지를 통해 허니컴 아티팩트 제거 모델을 학습하는 과정을 예시적으로 나타낸다.
도 3 내지 도 4를 참조하면, 제어부(210)는 학습을 위한 허니컴 아티팩트를 삽입한 훈련 이미지(허니컴 아티팩트 합성 이미지)를 생성할 수 있다. 먼저, 제어부(210)는 허니컴 아티팩트 이미지를 획득한다. 허니컴 아티팩트 이미지는 광섬유 이미지 장치(100)를 통해 백색 배경의 오브젝트를 촬영하여 생성된 백색 레퍼런스 이미지(White reference image)일 수 있다. 즉, 허니컴 아티팩트 이미지는 백색 바탕에 허니컴 아티팩트가 형성된 이미지로, 광섬유 다발의 핵심 위치와 보이드 이미징 영역(허니컴 아티팩트 영역)을 각각 밝고 어둡게 표시할 수 있다. 허니컴 아티팩트 이미지의 크기는 광섬유 이미지 장치(100)의 카메라의 사양에 따라 결정될 수 있으며, 허니컴 아티팩트의 위치 및 개수는 광섬유 이미지 장치(100)의 광섬유 다발의 사양에 따라 결정될 수 있다. 제어부(210)는 관심 영역을 나타내는 원형 바이너리 마스크를 생성된 허니컴 아티팩트 이미지에 적용한다. 즉, 광섬유 다발의 외부 영역은 검은색으로 마스킹 처리되며, 합성을 위한 허니컴 아티팩트 합성 이미지를 최종적으로 생성하게 된다.
허니컴 아티팩트 제거 장치(200)는 저장부(240)에 허니컴 아티팩트가 형성되지 않은 원본 이미지를 포함하고 있다. 허니컴 아티팩트 제거 장치(200)는 원본 이미지에 대한 전처리를 수행할 수 있다. 허니컴 아티팩트 제거 장치(200)는 원본 이미지가 컬러 이미지인 경우, 회색조(gray)로 변환하는 전처리를 수행할 수 있다. 회색조로 변환된 원본 이미지는 허니컴 아티팩트 이미지의 사이즈에 대응되도록 사이즈가 조정되는 전처리가 수행되게 된다. 또한, 제어부(210)는 관심 영역에 대한 원형 바이너리 마스크를 생성하여 전처리 작업이 수행된, 즉, 사이즈가 조정된 원본 이미지에 적용할 수 있다. 전처리된 원본 이미지는 허니컴 아티팩트를 포함하지 않은 허니컴 아티팩트 프리 이미지일 수 있다. 이러한 전처리된 원본 이미지는 정답 데이터일 수 있으며, 허니컴 아티팩트 제거 모델 학습을 위한 출력 데이터로 활용될 수 있다.
제어부(210)는 전처리된 원본 이미지에 허니컴 아티팩트 이미지를 합성하여 허니컴 아티팩트 합성 이미지를 생성한다. 제어부(210)는 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 픽셀 단위로 합성을 수행할 수 있다. 허니컴 아티팩트 이미지는 원본 이미지의 픽셀의 강도를 유지하기 위해 0에서 1 사이로 정규화된 값을 가질 수 있으며, 해당 값이 합성에 적용되어 허니컴 아티팩트 합성 이미지가 생성될 수 있다. 허니컴 아티팩트 합성 이미지는 허니컴 아티팩트 제거 모델 학습을 위한 입력 데이터(training image)로 활용될 수 있다.
제어부(210)는 상술한 과정을 저장부(250)에 저장된 복수의 원본 이미지 각각에 적용하여, 허니컴 아티팩트 제거 모델 학습을 위한 학습 데이터 세트를 구성할 수 있다. 즉, 제어부(210)는 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통해 허니컴 아티팩트 이미지를 획득하며, 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 합성한 허니컴 아티팩트 합성 이미지를 생성하며, 상기 허니컴 아티팩트 합성 이미지를 입력 데이터로 상기 전처리된 원본 이미지를 출력 데이터로 매핑하여 상기 학습 데이터 세트를 구성할 수 있다. 구성된 학습 데이터 세트는 저장부(250)에 다시 저장될 수 있다. 제어부(210)는 구성된 학습 데이터 세트를 통해 도 5에 도시된 바와 같이 허니컴 아티팩트 제거 모델 학습을 수행할 수 있다.
본 발명에서 허니컴 아티팩트 제거 모델은 입력된 이미지를 처리하여 허니컴 아티팩트가 제거된 이미지를 출력하도록 학습될 수 있다. 허니컴 아티팩트 제거 모델은 패치 추출 레이어, 비선형 매핑 레이어 및 재구성 레이어로 구성될 수 있다. 패치 추출 레이어는 단일 허니컴 픽셀을 포함하는 이미지 패치 세트를 생성한다. 비선형 매핑 레이어는 추출된 이미지 패치 세트의 고차원 벡터를 저차원 벡터로 변환하여 허니컴 아티팩트에 대한 비선형 특성을 처리하도록 설계된다. 재구성 레이어는 이웃 픽셀과의 컨볼루션을 통해 이미지를 재구성하여 출력하며, 원본 이미지의 해상도에 대응하는 크기의 이미지가 출력하도록 구성된다. 각 레이어의 하이퍼 파라미터에 따라 속도와 성능 사이에 트레이드오프(trade-off)가 있기 때문에 적절한 커널의 공간적 크기와 특징 맵의 수가 설정되어야 한다. 특히, 허니컴 아티팩트의 효율적인 제거를 위해서는 패치 추출 레이어의 필터 크기를 결정하는 것이 중요하다. 패치 추출 레이어의 필터 크기는 적어도 하나의 허니컴 아티팩트를 충분히 둘러싸도록 구성되어야 하며, 두 개의 인접한 코어 사이의 거리를 고려하여 결정될 수 있다.
예를 들어, 1024x1024 이미지 크기에서 두 개의 인접한 코어 사이의 거리가 약 5 - 6픽셀에 해당한다. 패치 추출 레이어의 필터 크기는 허니컴 아티팩트를 충분히 둘러쌀 수 있도록 9x9로 설정될 수 있다. 비선형 매핑 레이어의 필터 크기는 64개의 피쳐 맵을 사용하여 1x1로 설정되었으며, 이는 충분한 비선형 필터링을 제공하고 높은 계산 효율을 제공할 수 있다. 마지막으로 재구성 레이어의 필터 크기를 32개의 피쳐 맵으로 5x5로 설정될 수 있다. 또한, 배치 크기는 128로 설정되었고 평균 제곱 오차(MSE)가 손실 함수로 사용되었다. 첫 번째 및 두 번째 레이어의 활성화 함수는 ReLU(Rectified Linear Unit)로 채택되었으며, 경사 하강법 옵티마이저를 통해 훈련을 수행하였다.
제어부(210)는 구축된 허니컴 아티팩트 제거 모델을 저장부(250)에 저장한다. 제어부(210)는 신경망 모델을 광섬유 이미지 장치(100)에서 입력된 허니컴 다발 이미지에서 허니컴 아티팩트를 제거한 허니컴 다발 보정 이미지를 생성하여, 사용자에게 제공할 수 있다. 제어부(210)는 실시간 처리를 위한 그래픽 처리 장치를 더 포함할 수 있으며, 입력된 원본 이미지에서 허니컴 아티팩트의 제거는 10ms 이내에 완료될 수 있다. 즉, 이러한, 허니컴 아티팩트의 제거가 광섬유 이미지 장치(100)의 동작과 연계되어 실시간으로 수행되는 것이 보장될 수 있으며, 더욱 선명한 대상물의 이미지를 실시간으로 사용자에게 제공할 수 있다.
실험예
상술한 실시예에 허니컴 아티팩트 제거 장치의 허니컴 아티팩트 제거 모델을 구축하고, 구축된 허니컴 아티팩트 제거 모델과 종래 기술에 따른 허니컴 아티팩트 제거 방법의 성능을 비교 분석하는 실험을 수행하였다. 실험에 사용된 광섬유 이미지 장치(100)는 광섬유 번들(FIGH-30-650S, Fujikura Ltd.,), 10X 대물 렌즈(RMS10X, 0.25NA, 10.6mm WD, Olympus Corp.), 튜브 렌즈(TTL200. -A, Thorlabs Inc.) 및 sCMOS 카메라(Zyla 4.2 PLUS, Oxford Instruments)로 구성되었다. 섬유 다발에는 직경 650μm의 용융 실리카 클래딩이 있는 30,000개의 섬유 코어가 포함되어 있다. 섬유 다발의 말단부는 20mm 간격에서 2.2mm의 FOV를 제공하는 FOV 확대를 위해 3mm 직경의 비구면 렌즈(#15-271, Edmund Optics Inc.)와 결합된다. 대상에서. 입사광은 섬유 다발을 통해 전파되고 고속 이미징을 위해 100Hz에서 1024 x 1024 픽셀 해상도로 sCMOS 카메라에서 이미징된다. 허니컴 아티팩트 제거 장치(200)는 상술한 과정을 통해 학습용 데이터를 구축하였다. 허니컴 아티팩트 제거 모델을 훈련하여, 입력된 이미지에서 허니컴 아티팩트를 제거하는 허니컴 아티팩트 제거 모델(HAR-CNN)을 구현하였다. HAR-CNN을 훈련시키기 위해 총 130개의 이미지(훈련용 100개, 검증용 30개)가 사용되었다. 그런 다음 훈련 이미지를 33 x 33 크기와 14보폭의 하위 이미지로 분해하여 총 2,073,600개의 하위 이미지를 훈련에 제공하였다. 배치 크기는 128로 설정되었고 평균 제곱 오차(MSE)가 손실 함수로 사용되었다. 첫 번째 및 두 번째 레이어의 활성화 함수는 ReLU(Rectified Linear Unit)로 채택되었다. 네트워크 모델은 TensorFlow를 사용하여 10,000 epoch에 대해 학습률이 1e-4인 확률적 경사하강법 옵티마이저로 훈련되었다.
도 6은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들을 각각 도시한다.
도 6을 참조하면, 원본 이미지(Raw), 상기 원본 이미지(Raw)를 공간 필터링 방법인 Median, 공간 필터링 방법인 Gaussian, 보간(Interpolation) 기법, 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)을 통해 각각 처리한 이미지들이 도시된 것을 알 수 있다. 원본 이미지(Raw)의 확대도를 통해 허니컴 아티팩트가 육안으로 관측되는 것을 알 수 있다. Median, Gaussian, Interpolation, HAR-CNN의 경우 이러한 허니컴 아티팩트가 육안으로 관측되지 않을 정도로 제거된 상태인 것을 알 수 있다.
도 7은 도 6에 따른 이미지들의 세기를 측정한 비교 결과 그래프이다. 도 8은 도 6에 따른 이미지의 평탄화, 선 분해능 지표를 측정한 결과를 도시한다.
각 이미지들의 픽셀의 세기(intensity)를 도 7에 도시된 바와 같은 붉은 화살표 방향을 따라 측정하였고, 결과를 그래프로 함께 도시하였다. 허니컴 아티팩트가 형성된 픽셀의 경우 이웃하는 픽셀과 비교하여 픽셀의 세기가 감소하게 된다. 원본 이미지(Raw)의 경우, 이웃하는 픽셀 사이의 세기 변화가 두드러지게 관측되는 것을 알 수 있다. 또한, Median, Gaussian 방법의 경우 허니컴 아티팩트가 제거되어 이웃하는 픽셀 사이의 세기 변화가 크게 나타나진 않으나, 전체적인 픽셀의 세기가 전체적으로 감소된 것을 알 수 있다. 즉, 전체적인 선명도가 감소되는 것을 확인할 수 있다. Interpolation, HAR-CNN의 경우 이러한 픽셀 세기의 전체적인 감소는 나타나지 않았으며, 이웃하는 픽셀 사이의 세기 변화 또한 나타나지 않았다. 또한, 본 실시예에 따른 HAR-CNN은 Interpolation 기법보다 더욱 높은 픽셀 세기를 나타내는 것을 알 수 있다. 즉, 본 실시예에 따른 HAR-CNN은 Interpolation 기법보다 기존 이미지의 픽셀 세기를 더욱 보존하여 높은 품질의 이미지를 출력하는 것을 확인할 수 있다.
본 발명의 정량적인 성능은 도 8에 도시된 이미지의 평탄화(s), 선 분해능 지표(r)를 통해서도 확인할 수 있다. 평탄화(Smoothness)는 허니컴 아티팩트가 얼마나 잘 완화되고 평활화 되는 지를 설명하는 정량적인 지표에 해당하며, 원본 이미지와 복원된 이미지의 분산 간의 비율로 정의될 수 있다. 복원된 이미지의 편차가 작을수록, 즉, 더욱 원본 이미지에 가깝게 복원될수록 평탄화(s)는 높아진다. 도 8을 참조하면, 본 실시예에 따른 HAR-CNN이 가장 높은 평탄화(s) 수치를 나타내는 것을 알 수 있다. 각 알고리즘이 허니컴 아티팩트를 제거한 후 세부 사항을 보존하는 방법을 평가하기 위해 Rayleigh 기반의 선 분해능 기표(r)가 적용될 수 있다. 세부 사항의 보존 성능에 해당하는 선 분해능 지표(r) 또한 본 실시예에 따른 HAR-CNN이 가장 나타나는 것을 알 수 있다. 또한, 허니컴 제거 성능과 세부 사항 보존을 모두 고려하기 위해 이 두 가지 메트릭 s와 r을 결합하여 가중치 품질 측정 지수 q를 하기 수학식 1과 같이 조사하였다.
[수학식 1]
가중 계수 0.5 및 0.8 모두 적용한 품질 측정 지수 q의 경우에도, 본 실시예에 따른 HAR-CNN이 가장 높은 지수가 나타나는 것을 확인할 수 있다.
또한, 획득된 영상으로부터 병변을 특정하기 위해서는 주변 조직과 특정 형광으로 염색이 되어 있는 조직-세포를 구분할 수 있어야 하며, 검출해야 하는 타겟에 대한 선명도가 보장되어야 한다. 즉, 허니컴 아티팩트가 효율적으로 제거되어야 백그라운드를 효과적으로 제거될 수 있다.
도 9는 도 6에 따른 이미지에 대한 이진화 결과를 각각 도시한다.
도 9를 참조하면, 본 발명의 실시예에 따른 HAR-CNN이 타 기술 대비 타겟을 가장 잘 보존하면서 동시에 백그라운드를 효과적으로 제거하는 것을 알 수 있다.
또한, 측정 대상, 예를 들어, 수정체 조직 샘플의 구조를 시각화하기 위해서는 작은 FOV를 가지는 광섬유 이미지 장치를 이동하여 가면 복수의 이미지를 획득하고, 복수의 이미지들을 연결하여 하나로 구성하는 이미지 모자이크가 필요하다. 이미지 모자이크를 위한 일반적인 방법은 먼저 특징점(예: 별개의 모서리 점)을 추출한 다음 후속 프레임에서 해당 항목을 일치시키는 것이다. 따라서 광섬유 다발 이미징에서 이미지 모자이크를 성공적으로 달성하려면 허니컴 아티팩트를 제거해야 한다. 그렇지 않으면 고정되고 뚜렷한 허니컴 아티팩트가 이동된 샘플 이미지 대신 이미지 특징으로 인식될 가능성이 높으며, 정확한 이미지 모자이킹이 방해될 수 있다. 이러한 종래 기술과 본 발명의 실시예에 따른 HAR-CNN를 적용한 이미지들에 대한 이미지 모자이킹 성능 비교 또한 수행하였다.
도 10은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들에서 관측되는 특징점의 수를 각각 도시한다. 도 11은 원본 이미지, 종래 기술과 본 발명의 허니컴 아티팩트 제거 모델(HAR-CNN)에 허니컴 아티팩트가 제거된 이미지들에 대한 모자이킹 성능을 측정한 결과를 각각 도시한다. 광섬유 이미지 장치의 스캔 방향은 아래에서 위로 향하였고, 이에 따라 센싱된 이미지들을 특징점을 기초로 연결하여 함께 도시하였다.
도 10을 참조하면, 이미지 프레임 별 수집되는 특징점의 개수 또한 본 발명의 실시예에 따른 허니컴 아티팩트 제거 모델(HAR-CNN)이 가장 많은 것을 알 수 있다. 도 11을 참조하면, 본 발명의 실시예에 따른 허니컴 아티팩트 제거 모델(HAR-CNN)은 이동 방향에 따라 이미지들이 잘 연결된 것을 알 수 있으나, 종래 기술 및 원본 이미지는 이러한 이미지들의 연결이 이동 방향에 대응되지 않는 것을 알 수 있다. 즉, 본 발명의 실시예에 따른 허니컴 아티팩트 제거 모델(HAR-CNN)은 허니컴 아티팩트를 효과적으로 제거함으로써, 특징점이 정확하게 추출될 수 있으며, 추출된 특징점을 기초로 우수한 성능의 이미지 모자이킹이 수행되는 것을 지원할 수 있다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치는 허니컴 아티팩트 제거 모델을 통해 광섬유 다발 이미지에서 허니컴 아티팩트가 없는 이미지로의 종단 간 매핑을 제공할 수 있으며, 기존의 다른 방법에 비해 허니컴 아티팩트 제거, 실시간 디테일 보존 및 광섬유 다발 이미지의 작은 시야를 확대하기 위한 이미지 모자이크에서 성능 향상을 제공한다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치는 아티팩트와 샘플 패턴을 모두 흐리게 하는 공간 및 스펙트럼 필터링 방법의 한계를 극복할 수 있으며, 또한, 광섬유 다발의 코어 위치에 대한 변화에 강건하게 대응할 수 있어 보간 기반 방법의 한계 또한 극복할 수 있다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 장치는 이미지 데이터베이스의 일반 이미지에 허니컴 아티팩트를 오버레이, 합성하는 방식을 통해 학습 기반 접근 방식에서 정답 데이터 수집을 위한 추가 광학 하드웨어를 설정하는 부담을 감소시킬 수 있다.
본 발명의 실시예에 따른 허니컴 아티팩트 제거 방법은 광섬유 이미지 장치에서 수신된 이미지에서 허니컴 아티팩트를 허니컴 아티팩트 제거 모델을 통해 제거하는 방법으로, 상기 방법은: 학습 데이터를 구축하는 단계; 상기 구축된 학습 데이터로 상기 허니컴 아티팩트 제거 모델을 구축하는 단계; 및 입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하는 단계를 포함한다.
상기 실시예에 따른 방법은 허니컴 아티팩트 제거 장치의 제어부에서 수행되며, 본 실시예에 따른 방법의 설명을 위해 도 1 내지 도 11 및 관련된 설명이 참조될 수 있다.
본 실시예에서, 상기 학습 데이터를 구축하는 단계는, 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통해 허니컴 아티팩트 이미지를 획득하며, 전처리된 원본 이미지와 허니컴 아티팩트 이미지를 합성한 허니컴 아티팩트 합성 이미지를 생성하는 것을 포함할 수 있다. 상기 허니컴 아티팩트 이미지는 광섬유 다발의 핵심 위치와 허니컴 아티팩트 영역이 각각 밝고 어둡게 표시될 수 있다.
본 실시예에서, 상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성될 수 있다.
본 실시예에서, 상기 원본 이미지에 대한 전처리는, 상기 원본 이미지의 사이즈를 상기 허니컴 아티팩트 이미지의 사이즈에 대응되도록 사이즈를 조정하는 것을 포함하며, 상기 학습 데이터를 구축하는 단계는, 상기 전처리된 원본 이미지와 상기 허니컴 아티팩트 이미지에 원형 바이너리 마스크를 적용하는 것을 더 포함할 수 있다.
본 실시예에서, 상기 전처리된 원본 이미지와 상기 허니컴 아티팩트 이미지는 픽셀 단위로 합성이 수행되어 상기 허니컴 아티팩트 합성 이미지가 생성될 수 있다.
본 실시예에서, 상기 허니컴 아티팩트 제거 모델은 합성곱 신경망을 통해 구현될 수 있다. 상기 허니컴 아티팩트 제거 모델은, 단일 허니컴 픽셀을 포함하는 이미지 패치 세트를 생성하는 패치 추출 레이어, 이미지 패치 세트의 고차원 벡터를 저차원 벡터로 변환하여 허니컴 아티팩트에 대한 비선형 특성을 처리하는 비선형 매핑 레이어, 및 이웃 픽셀과의 컨볼루션을 통해 이미지를 재구성하여 출력하는 재구성 레이어를 포함할 수 있다.
이러한 실시예들에 따른 허니컴 아티팩트 제거 방법은, 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
10: 이미지 처리 시스템
100: 광섬유 이미지 장치
200: 허니컴 아티팩트 제거 장치
100: 광섬유 이미지 장치
200: 허니컴 아티팩트 제거 장치
Claims (9)
- 광섬유 이미지 장치에서 수신된 이미지에서 허니컴 아티팩트를 허니컴 아티팩트 제거 모델을 통해 제거하는 허니컴 아티팩트 제거 장치로서,
학습 데이터 세트를 생성하며, 상기 학습 데이터 세트로 상기 허니컴 아티팩트 제거 모델을 구축하고, 입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하도록 구성된 제어부를 포함하며,
상기 제어부는 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통하여 획득된 백색 레퍼런스 이미지(White reference image)로부터 0에서 1 사이의 단위로 스케일된 허니컴 아티팩트 이미지를 생성하고, 전처리된 원본 이미지와 상기 허니컴 아티팩트 이미지를 픽셀 단위로 합성한 허니컴 아티팩트 합성 이미지를 생성하며,
상기 원본 이미지에 대한 전처리는, 상기 원본 이미지의 사이즈를 상기 허니컴 아티팩트 이미지의 사이즈에 대응되도록 사이즈를 조정하는 것을 포함하며,
상기 제어부는 상기 전처리된 원본 이미지 또는 상기 허니컴 아티팩트 이미지에 원형 바이너리 마스크를 적용하는 것을 더 수행하도록 구성되고,
상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성되는 것을 특징으로 하는, 허니컴 아티팩트 제거 장치.
- 삭제
- 삭제
- 제1 항에 있어서,
상기 허니컴 아티팩트 이미지는 광섬유 다발의 핵심 위치와 허니컴 아티팩트 영역이 각각 밝고 어둡게 표시되는 것을 특징으로 하는, 허니컴 아티팩트 제거 장치.
- 제1 항에 있어서,
상기 허니컴 아티팩트 제거 모델은 합성곱 신경망을 통해 구현되는 것을 특징으로 하는, 허니컴 아티팩트 제거 장치.
- 제5 항에 있어서,
상기 허니컴 아티팩트 제거 모델은,
단일 허니컴 픽셀을 포함하는 이미지 패치 세트를 생성하는 패치 추출 레이어,
이미지 패치 세트의 고차원 벡터를 저차원 벡터로 변환하여 허니컴 아티팩트에 대한 비선형 특성을 처리하는 비선형 매핑 레이어, 및
이웃 픽셀과의 컨볼루션을 통해 이미지를 재구성하여 출력하는 재구성 레이어를 포함하는, 허니컴 아티팩트 제거 장치.
- 제1 항에 있어서,
네트워크를 통해 상기 광섬유 이미지 장치와 연결되는 통신부;
상기 허니컴 아티팩트 제거 장치의 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보가 저장되는 저장부;
사용자의 명령을 입력받는 인터페이스를 제공하는 입력부; 및
상기 보정 이미지를 상기 사용자에게 출력하도록 구성되는 출력부를 더 포함하는, 허니컴 아티팩트 제거 장치.
- 광섬유 이미지 장치에서 수신된 이미지에서 허니컴 아티팩트를 허니컴 아티팩트 제거 모델을 통해 제거하는 방법으로, 상기 방법은:
학습 데이터 세트를 구축하는 단계;
상기 구축된 학습 데이터 세트로 상기 허니컴 아티팩트 제거 모델을 구축하는 단계; 및
입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하는 단계를 포함하며,
상기 학습 데이터를 구축하는 단계는, 원본 이미지에 대한 전처리를 수행하고, 상기 광섬유 이미지 장치를 통하여 획득된 백색 레퍼런스 이미지(White reference image)로부터 0에서 1 사이의 단위로 스케일된 허니컴 아티팩트 이미지를 생성하고, 전처리된 원본 이미지와 상기 허니컴 아티팩트 이미지를 픽셀 단위로 합성한 허니컴 아티팩트 합성 이미지를 생성하고,
상기 원본 이미지에 대한 전처리는, 상기 원본 이미지의 사이즈를 상기 허니컴 아티팩트 이미지의 사이즈에 대응되도록 사이즈를 조정하는 것을 포함하며,
상기 전처리된 원본 이미지 또는 상기 허니컴 아티팩트 이미지에 원형 바이너리 마스크를 적용하는 것을 더 수행하도록 구성되는 것을 포함하며,
상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성되는 것을 특징으로 하는, 허니컴 아티팩트 제거 방법.
- 컴퓨터 판독 가능 명령을 저장하는 컴퓨터 판독 가능 기록매체로서, 상기 명령은 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서가 단계들을 수행하도록 하며, 상기 단계들은,
학습 데이터 세트를 구축하는 단계;
상기 구축된 학습 데이터 세트로 허니컴 아티팩트 제거 모델을 구축하는 단계; 및
입력되는 이미지에서 상기 구축된 허니컴 아티팩트 제거 모델을 통해 허니컴 아티팩트를 제거하여 보정 이미지를 출력하는 단계를 포함하며,
상기 학습 데이터를 구축하는 단계는, 원본 이미지에 대한 전처리를 수행하고, 광섬유 이미지 장치를 통하여 획득된 백색 레퍼런스 이미지(White reference image)로부터 0에서 1 사이의 단위로 스케일된 허니컴 아티팩트 이미지를 생성하고, 전처리된 원본 이미지와 상기 허니컴 아티팩트 이미지를 픽셀 단위로 합성한 허니컴 아티팩트 합성 이미지를 생성하고,
상기 원본 이미지에 대한 전처리는, 상기 원본 이미지의 사이즈를 상기 허니컴 아티팩트 이미지의 사이즈에 대응되도록 사이즈를 조정하는 것을 포함하며,
상기 전처리된 원본 이미지 또는 상기 허니컴 아티팩트 이미지에 원형 바이너리 마스크를 적용하는 것을 더 수행하도록 구성되는 것을 포함하며,
상기 학습 데이터 세트는 상기 허니컴 아티팩트 합성 이미지가 입력 데이터로, 상기 전처리된 원본 이미지가 출력 데이터로 매핑되어 구성되는 것을 특징으로 하는, 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210131537A KR102553001B1 (ko) | 2021-10-05 | 2021-10-05 | 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치 |
US17/742,027 US20230105073A1 (en) | 2021-10-05 | 2022-05-11 | Method and apparatus for removing honeycomb artifacts from optical fiber bundle images based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210131537A KR102553001B1 (ko) | 2021-10-05 | 2021-10-05 | 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230048744A KR20230048744A (ko) | 2023-04-12 |
KR102553001B1 true KR102553001B1 (ko) | 2023-07-10 |
Family
ID=85774394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210131537A KR102553001B1 (ko) | 2021-10-05 | 2021-10-05 | 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230105073A1 (ko) |
KR (1) | KR102553001B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118115406A (zh) * | 2024-04-23 | 2024-05-31 | 南京鸿照科技有限公司 | 用于光纤成像束的蜂窝状伪影消除方法、系统与介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006011707B4 (de) | 2006-03-14 | 2010-11-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme |
CN107678153B (zh) * | 2017-10-16 | 2020-08-11 | 苏州微景医学科技有限公司 | 光纤束图像处理方法和装置 |
KR102033743B1 (ko) * | 2017-11-20 | 2019-11-08 | 주식회사 클라리파이 | 딥러닝 기반 ct 이미지 잡음 저감 장치 및 방법 |
US12053147B2 (en) * | 2017-12-18 | 2024-08-06 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Multi-field miniaturized micro-endoscope |
GB201904857D0 (en) * | 2019-04-05 | 2019-05-22 | Univ Oxford Innovation Ltd | Quality assessment in video endosscopy |
CN110390394B (zh) * | 2019-07-19 | 2021-11-05 | 深圳市商汤科技有限公司 | 批归一化数据的处理方法及装置、电子设备和存储介质 |
US11393077B2 (en) * | 2020-05-13 | 2022-07-19 | Adobe Inc. | Correcting dust and scratch artifacts in digital images |
-
2021
- 2021-10-05 KR KR1020210131537A patent/KR102553001B1/ko active IP Right Grant
-
2022
- 2022-05-11 US US17/742,027 patent/US20230105073A1/en active Pending
Non-Patent Citations (2)
Title |
---|
Jianbo Shao ET AL:"Fiber bundle image restoration using deep learning", Optics Letters Vol. 44, Issue 5, pp. 1080-1083, 19 Feb. 2019(2019.02.19.) 1부.* |
Pu Wang ET AL:"Fiber pattern removal and image reconstruction method for snapshot mosaic hyperspectral endoscopic images", Biomedical Optics Express Vol. 9, Issue 2, pp. 780-790, 25 Jan. 2018(2018.01.25.) 1부.* |
Also Published As
Publication number | Publication date |
---|---|
US20230105073A1 (en) | 2023-04-06 |
KR20230048744A (ko) | 2023-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020139835A1 (en) | Systems and methods for two-dimensional fluorescence wave propagation onto surfaces using deep learning | |
KR20080049121A (ko) | 태스크-기반의 이미징 시스템 | |
CN116343052B (zh) | 一种基于注意力和多尺度的双时相遥感图像变化检测网络 | |
KR102553001B1 (ko) | 인공지능 기반의 이미지의 허니컴 아티팩트 제거 방법 및 장치 | |
CN107621463A (zh) | 图像重建方法、装置及显微成像装置 | |
CN112651469A (zh) | 一种红外与可见光图像融合方法及系统 | |
CN111784686A (zh) | 一种内窥镜出血区域的动态智能检测方法、系统及可读存储介质 | |
KR102561360B1 (ko) | 보정을 사용하지 않고 파이버스코프 이미지를 처리하는 방법 및 이를 수행하는 파이버스코프 시스템 | |
CN116503258B (zh) | 超分辨计算成像方法、装置、电子设备及存储介质 | |
CN112200726B (zh) | 基于无透镜显微成像的尿沉渣有形成分检测方法及系统 | |
CN117575923A (zh) | 基于局部主方向多尺度的多模态内镜图像配准融合方法 | |
Dumripatanachod et al. | A fast depixelation method of fiber bundle image for an embedded system | |
JP5740403B2 (ja) | 網膜の異常を検出するためのシステムおよび方法 | |
EP3839884A1 (en) | Method, system and computer program product for image transformation | |
JP2009244944A (ja) | 画像回復装置および撮影装置 | |
CN111815692A (zh) | 无伪影数据及有伪影数据的生成方法、系统及存储介质 | |
CN116579959A (zh) | 用于高光谱图像的融合成像方法及装置 | |
CN115760622A (zh) | 一种拼接显微图像的无监督自适应条纹校正方法 | |
CN113421231B (zh) | 一种出血点检测方法、装置及系统 | |
JP5924408B2 (ja) | 画像処理装置 | |
CN117315792B (zh) | 一种基于卧姿人体测量的实时调控系统 | |
CN111968067B (zh) | 基于硅传感器相机的短波红外图像处理方法、装置及设备 | |
CN117745808B (zh) | 一种基于摄影测量的心电图像定位比对方法 | |
Das et al. | Region selective information augmentation for retinal images | |
CN117746037A (zh) | 全局与局部信息融合的视网膜血管分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |