KR102174246B1 - 카테터 추적 시스템 및 제어 방법 - Google Patents

카테터 추적 시스템 및 제어 방법 Download PDF

Info

Publication number
KR102174246B1
KR102174246B1 KR1020180054790A KR20180054790A KR102174246B1 KR 102174246 B1 KR102174246 B1 KR 102174246B1 KR 1020180054790 A KR1020180054790 A KR 1020180054790A KR 20180054790 A KR20180054790 A KR 20180054790A KR 102174246 B1 KR102174246 B1 KR 102174246B1
Authority
KR
South Korea
Prior art keywords
catheter
tracking system
patch
preset
pixel
Prior art date
Application number
KR1020180054790A
Other languages
English (en)
Other versions
KR20190130310A (ko
Inventor
박상현
이흐산 울라
원동규
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180054790A priority Critical patent/KR102174246B1/ko
Publication of KR20190130310A publication Critical patent/KR20190130310A/ko
Application granted granted Critical
Publication of KR102174246B1 publication Critical patent/KR102174246B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Hematology (AREA)
  • Anesthesiology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Pulmonology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

카테터 추적 시스템 및 제어 방법이 개시된다. 카테터 추적 시스템의 제어 방법은 카테터를 촬영하는 단계, 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계, 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하는 단계, 합성곱 신경망(convolutional neural network)에 기초하여 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 카테터의 영역을 식별하는 단계 및 식별된 카테터의 영역에 기초하여 카테터의 위치 정보를 추출하는 단계를 포함한다.

Description

카테터 추적 시스템 및 제어 방법{CATHETER TRACKING SYSTEM AND CONTROLLING METHOD THEREOF}
본 개시는 카테터 추적 시스템 및 제어 방법에 관한 것으로, 더욱 상세하게는 신경망 학습을 이용한 카테터 위치를 추적하는 카테터 추적 시스템 및 제어 방법에 관한 것이다.
최근 의료로봇 기술의 발전에 따라 최소한의 절개를 통해 카테터와 같은 소형의 의료도구를 이용하여 수술을 수행하는 의료 장치가 개발되고 있다. 카테터와 같은 소형의 의료도구를 이용하여 수술을 수행하는 의료장치가 효율적으로 제어되기 위해서 영상 내에서 카테터 위치를 실시간으로 식별할 수 있는 기술이 필요하다.
로봇 카테터와 같은 의료 장치는 시술의 성공률을 높이기 위해 정교하게 제어되어야 하는데, 정교한 제어를 위해 카테터 위치를 실시간으로 추적하는 기술이 필요하다. 임계값(Thresholding)을 이용한 이진화나 헤시안 필터링(hessian filter) 등을 이용한 기본적인 영상처리 기법은 처리 속도는 빠르지만 영상 잡음에 약하고, 일반적인 학습모델을 기반으로 하는 머신러닝 기법은 높은 계산량을 필요로 하기 때문에 카테터 제어를 위한 실시간 추적에 부적합하다.
또한, 신체에 마커를 부착하여 카테터의 위치정보를 획득하는 기술이 제안되기도 하였다. 그러나, 카테터 위치 산출을 위해 의사가 수술 전에 환자의 신체 표면에 복수의 마커를 부착해야 한다. 환자의 신체에 마커를 부착하는 작업은 불편함을 초래한다. 그리고, 마커 부착 위치, 개수 등에 따라 촬영된 영상의 정확성이 떨어지고, 마커 부착 위치와 환자들의 움직임에 따라 오류가 발생하는 문제점이 있다.
따라서, 카테터의 위치 추적이나 영상 보정 등을 위한 마커와 같은 추가 장치 및 추가 장치 부착 작업이 필요없고, 카테터의 위치 검출의 정확도와 검출 속도를 높일 수 있는 기술에 대한 필요성이 존재한다.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 본 개시의 목적은 마커와 같은 추가 장치 없이 카테터의 위치를 정확하게 검출할 수 있는 카테터 추적 시스템 및 제어 방법을 제공하는 것이다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 카테터 추적 시스템의 제어 방법은 카테터를 촬영하는 단계, 상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하는 단계, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하는 단계 및 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는 단계를 포함한다.
그리고, 상기 합성곱 신경망은 U-net 구조이고, 상기 식별하는 단계는 상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별할 수 있다.
또한, 상기 U-net 구조는 컨벌루션 레이어와 디컨벌루션 레이어를 포함하고, 상기 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행할 수 있다.
또한, 상기 디컨벌루션 레이어는 드롭아웃 과정을 수행할 수 있다.
한편, 상기 식별하는 단계는 상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.
그리고, 상기 추출하는 단계는 상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다.
또한, 상기 추출하는 단계는 상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출할 수 있다.
한편, 카테터 추적 시스템의 제어 방법은 상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는 단계를 더 포함할 수 있다.
그리고, 카테터 추적 시스템의 제어 방법은 상기 분할된 일부 영역의 패치에 상기 카테터의 영역이 포함되지 않은 경우, 상기 다음 이미지 프레임 전체를 기 설정된 크기의 패치로 분할하고, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산에 기초하여 상기 카테터의 영역을 식별하는 단계를 더 포함할 수 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 카테터 추적 시스템은 카테터, 상기 카테터를 촬영하는 카메라 및 상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 프로세서를 포함하고, 상기 프로세서는 상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하고, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하며, 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출한다.
그리고, 상기 합성곱 신경망은 U-net 구조이고, 상기 프로세서는 상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별할 수 있다.
또한, 상기 프로세서는 상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.
또한, 상기 프로세서는 상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다.
그리고, 상기 프로세서는 상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출할 수 있다.
또한, 상기 프로세서는 상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별할 수 있다.
이상 설명한 바와 같이, 본 개시의 다양한 실시 예에 따르면, 카테터 추적 시스템 및 제어 방법은 마커와 같은 추가 장치가 필요하지 않고, 부착 작업과 같이 추가 작업이 필요하지 않기 때문에 편리하다.
그리고, 카테터 추적 시스템 및 제어 방법은 수행 속도가 빨라 카테터 영역이 포함된 영상을 자동으로 실시간 처리할 수 있다.
또한, 카테터 추적 시스템 및 제어 방법은 카테터의 빠른 위치 변화와 영상 잡음 등과 같은 변수에 대해 강인한 추적 성능을 얻을 수 있다.
또한, 카테터 추적 시스템 및 제어 방법은 카테터를 신속하게 추적할 수 있고, 검출 정확도를 향상시킬 수 있다.
도 1은 본 개시의 일 실시 예에 따른 카테터 추적 시스템을 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 카테터 추적 시스템의 프레임워크를 설명하는 도면이다.
도 3은 본 개시의 일 실시 예에 따른 첫번째 프레임의 이후 프레임으로부터 카테터를 검출하는 과정을 설명하는 도면이다.
도 4는 본 개시에 따른 방법과 기존 방법의 정확도의 비교 결과이다.
도 5는 본 개시의 일 실시 예에 따른 카테터 추적 시스템 제어 방법의 흐름도이다.
도 6은 본 개시의 일 실시 예에 따른 두번째 프레임 이후의 제어 방법 흐름도이다.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 제어부에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.
도 1은 본 개시의 일 실시 예에 따른 카테터 추적 시스템을 설명하는 도면이다.
도 1을 참조하면, 카테터 추적 시스템(100)은 카테터(110), 카메라(120) 및 프로세서(130)를 포함한다. 카테터(110)는 환자(1)의 환부를 검사하거나 환부를 치료하기 위해 환자의 몸에 삽입되는 의료용 도구일 수 있다. 카메라(120)는 카테터(110)를 포함하는 동영상을 촬영한다. 카메라(120)는 카테터(110)와 환자(1)를 촬영할 수 있는 위치에 배치될 수 있다.
프로세서(130)는 카테터(110)가 촬영된 동영상의 제1 이미지 프레임을 기 설정된 크기의 패치로 분할한다. 예를 들어, 제1 이미지 프레임의 해상도는 960×960일 수 있고, 프로세서(130)는 제1 이미지 프레임을 160×160 크기의 패치로 분할할 수 있다. 즉, 프로세서(130)는 제1 이미지 프레임을 36개의 패치로 분할할 수 있다. 상술한 제1 이미지 프레임의 해상도, 분할된 패치의 크기 등은 일 실시 예이며, 카테터 추적 시스템(100)은 다양한 해상도로 촬영할 수 있고, 다양한 크기의 패치로 분할할 수 있다.
프로세서(130)는 분할된 패치 각각에 대해 픽셀 계조(gray scale)의 분산을 산출한다. 예를 들어, 프로세서(130)는 160×160 크기의 제1 패치에 대해 25600개의 픽셀의 계조에 기초하여 제1 패치의 픽셀 계조의 분산을 산출한다. 동일한 방식으로, 프로세서(130)는 36개의 분할된 패치에 대해 픽셀 계조의 분산을 산출할 수 있다. 프로세서(130)는 합성곱 신경망(convolution neural network)에 기초하여 산출된 분산이 기 설정된 임계값 범위 내인 패치에 대해 카테터의 영역을 식별한다. 분할된 패치에 카테터(110)가 포함된 경우, 분할된 패치 내의 카테터 영역의 계조는 높은 값으로 나타날 수 있다. 반면에, 나머지 영역의 계조는 상대적으로 낮은 값으로 나타날 수 있다. 따라서, 카테터 영역이 포함된 패치의 분산은 카테터 영역이 포함되지 않은 패치의 분산에 비해 높을 수 있다.
기 설정된 임계값의 범위는 카메라(120)에서 촬영된 이미지에 기초하여 다양한 범위로 설정될 수 있다. 예를 들어, 기 설정된 임계값의 범위는 10 내지 150일 수 있다. 제1 패치의 픽셀 계조의 분산이 10보다 작거나 150보다 큰 경우, 프로세서(130)는 제1 패치에서 카테터의 영역을 식별하는 과정을 수행하지 않는다. 즉, 프로세서(130)는 제1 패치를 스킵할 수 있다. 제2 패치의 픽셀 계조의 분산이 10보다 크고 150보다 작은 경우, 프로세서(130)는 제2 패치에서 카테터의 영역을 식별하는 과정을 수행한다.
예를 들어, 카테터 영역을 식별하는 과정은 U-net 구조의 합성곱 신경망에 기초하여 수행될 수 있다. U-net 구조의 합성곱 신경망에 카테터가 포함된 이미지 프레임을 입력시켜 카테터의 영역을 식별하는 과정을 학습시킬 수 있다. 카테터 영역을 식별하는 과정이 학습된 U-net 구조의 합성곱 신경망은 이후 촬영된 새로운 이미지 프레임으로부터 카테터의 영역을 식별할 수 있다. 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치에서 카테터로 식별된 픽셀은 전경(foreground) 값으로 매핑하고, 나머지 픽셀은 배경(background) 값으로 매핑하여 바이너리 맵을 생성할 수 있다. 예를 들어, 전경 값은 1, 배경 값은 0일 수 있다. 카테터의 영역을 식별하는 구체적인 과정은 후술한다.
프로세서(130)는 식별된 카테터의 영역에 기초하여 카테터의 위치 정보(또는, 카테터 끝단(tip)의 위치 정보)를 추출한다. 상술한 바와 같이, 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치에 대해 바이너리 맵을 생성할 수 있다. 그리고, 프로세서(130)는 분산이 기 설정된 임계값 범위를 벗어나는 패치에 대해 모든 픽셀을 배경 값으로 매핑시킨 바이너리 맵을 생성할 수 있다. 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다. 그리고, 프로세서(130)는 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터 위치 정보를 추출할 수 있다. 상술한 예는 일 실시 예이며, 프로세서(130)는 카테터로 식별된 픽셀 중 외곽 픽셀의 좌표 정보만을 추출하여 카테터 위치 정보를 추출할 수도 있으며, 카테터로 식별된 픽셀 중 특정 픽셀의 좌표 정보만을 추출하여 카테터 위치 정보를 추출할 수도 있다. 예를 들어, 특정 픽셀은 카테터의 오른쪽 끝단 픽셀, 오른쪽 끝단으로부터 3 픽셀 등으로 설정될 수 있다.
한편, 카테터 추적 시스템은 카테터, 카메라 및 프로세서가 별개의 장치인 시스템 형태로 구현될 수 있고, 하나의 장치로 구현된 카테터 장치 또는 카테터 로봇일 수도 있다.
도 2는 본 개시의 일 실시 예에 따른 카테터 추적 시스템의 프레임워크를 설명하는 도면이다.
카테터 추적 시스템은 카테터를 포함하는 이미지 프레임(11)을 촬영한다. 예를 들어, 카테터가 촬영된 이미지 프레임(11)의 해상도는 960×960일 수 있다. 카테터 추적 시스템은 촬영된 제1 이미지 프레임(11)을 복수 개의 패치로 분할(12)한다. 예를 들어, 분할된 패치의 크기는 160×160일 수 있다. 카테터 추적 시스템은 분할된 패치에 포함된 모든 픽셀 계조의 분산을 산출하고, 기 설정된 임계값 범위 내인지 판단할 수 있다. 예를 들어, 기 설정된 임계값 범위는 10 내지 150으로 설정될 수 있고, 180 내지 350으로 설정될 수도 있다. 기 설정된 임계값의 범위는 카메라(120)에서 촬영된 이미지의 특성 등에 기초하여 적절한 범위로 설정될 수 있다.
카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치(12-1)에 대해 카테터의 영역을 식별할 수 있다. 일 실시 예로서, 카테터 영역을 식별하는 과정은 U-net 구조의 합성곱 신경망에 기초하여 수행될 수 있다. U-net 구조의 합성곱 신경망은 U 형태로 데이터를 처리하는 신경망으로 복수의 컨벌루션 레이어(convolution layer), 복수의 디컨벌루션 레이어(deconvolution layer), 복수의 풀링 레이어(pooling layer), 복수의 언풀링 레이어(unpooling layer) 등을 포함할 수 있다. 일 실시 예로서, U-net 구조의 합성곱 신경망은 10개의 컨벌루션 레이어, 4개의 풀링 레이어, 4개의 언풀링 레이어, 9개의 디컨벌루션 레이어를 포함할 수 있다. 컨벌루션 레이어와 풀링 레이어는 이미지의 크기를 줄여가며 낮은 차원부터 높은 차원으로 특징을 추출할 수 있다. 그리고, 언풀링 레이어 및 디컨벌루션 레이어는 크기를 늘려 전경 영역(예, 카테터 영역)과 배경 영역을 예측할 수 있다. U-net 구조의 합성곱 신경망은 컨벌루션 레이어의 출력을 대응되는 디컨벌루션 레이어에서 입력으로 사용함으로써 다른 기법에 비해 이미지 복원력을 향상시킬 수 있다. U-net 구조의 합성곱 신경망은 카테터가 포함된 이미지 프레임을 입력시켜 상술한 과정을 통해 카테터의 영역을 식별하도록 학습될 수 있다. 카테터 영역을 식별하는 과정이 학습된 U-net 구조의 합성곱 신경망은 이후 촬영된 새로운 이미지 프레임으로부터 카테터의 영역을 식별할 수 있다.
카테터 추적 시스템은 패치 내에서 카테터로 식별된 픽셀은 전경 값으로 매핑하고, 나머지 픽셀은 배경 값으로 매핑한 바이너리 맵(13-1)을 생성할 수 있다. 예를 들어, 전경 값은 1, 배경 값은 0일 수 있다. 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 모든 패치를 기초로 상술한 과정을 통해 각각의 패치에 대응되는 바이너리 맵을 생성할 수 있다. 그리고, 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위를 벗어나는 패치의 모든 픽셀을 배경 값으로 매핑한 바이너리 맵을 생성할 수 있다. 카테터 추적 시스템은 생성된 바이너리 맵을 재구성(reconstruction)하여 원본 크기의 전체 바이너리 맵(13)을 생성할 수 있다.
간혹, 카테터 영역의 경계 부분에 잡음이 추출될 수 있다. 따라서, 카테터 영역 경계 부분에 대한 잡음 제거 과정이 수행될 수 있다. 카테터 추적 시스템은 카테터로 식별된 픽셀의 계조가 기 설정된 전경 임계값보다 작은 경우, 생성된 바이너리 맵에서 기 설정된 전경 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다. 예를 들어, 카테터 추적 시스템에는 전경 임계값이 100으로 설정될 수 있다. 그리고, 카테터 영역의 경계 부분의 두 개의 픽셀 계조는 각각 180, 80일 수 있다. 처음에는 카테터 추적 시스템은 두 개의 픽셀을 모두 전경 값으로 매핑시킬 수 있다. 그러나, 잡음 제거 과정에서 카테터 추적 시스템은 전경 임계값보다 작은 80인 픽셀의 매핑 값을 전경 값에서 배경 값으로 수정할 수 있다. 카테터 추적 시스템은 상술한 과정을 통해 카테터 영역의 잡음을 줄일 수 있다.
카테터 추적 시스템은 전체 바이너리 맵(13)을 원본 이미지 프레임(14)에 매핑할 수 있다. 카테터 추적 시스템은 전체 바이너리 맵(13)에 기초하여 카테터의 위치 정보를 추출할 수 있다. 카테터 추적 시스템은 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터 위치 정보를 추출할 수 있다. 추출된 카테터 위치 정보는 상대적인 위치 정보일 수 있다. 또한, 일 실시 예로서, 카메라는 고정되어 있으므로 카테터 추적 시스템은 카메라 캘리브레이션(calibration) 정보 및 이미지 프레임 내의 카테터의 좌표 정보에 기초하여 카테터의 절대적인 위치 정보를 식별할 수도 있다.
한편, 컨벌루션 레이어와 디컨벌루션 레이어는 학습 과정에서 학습 속도(또는, 수렴 속도(convergence speed)를 향상시키기 위해 일괄 정규화(batch normalization, BN) 과정을 수행할 수 있다. 일괄 정규화 과정이 수행되는 경우, U-net 구조의 합성곱 신경망은 학습 속도가 향상될 수 있고, 나쁜 초기 값에 대해 더 강인해질 수 있다. 일 실시 예로서, 일괄 정규화 과정은 2번째 컨벌루션 레이어 및 마지막으로부터 2번째 디컨벌루션 레이어에서 수행될 수 있다.
또한, 합성곱 신경망의 디컨벌루션 레이어는 오버피팅(overfitting)을 방지하기 위해 드롭아웃 과정을 수행할 수 있다. 합성곱 신경망은 제한된 데이터를 기초로 학습되기 때문에 학습 모델에 대해서만 좋은 성능을 나타내는 오버피팅 문제가 발생될 수 있다. 따라서, 합성곱 신경망은 디컨벌루션 레이어에서 드롭아웃 과정을 수행함으로써 새로 입력되는 데이터에 대해서도 좋은 성능을 나타낼 수 있다.
카테터 추적 시스템은 학습 최적화를 위해 학습비율(learning rate)이 0.001로 설정되어 학습될 수 있다. 카테터 추적 시스템이 학습될 때, 손실함수(loss function)가 정의되고, 손실함수를 최소화하는 파라미터를 경사하강법을 이용하여 찾는 과정이 수행될 수 있다. 학습비율은 경사하강법의 경사를 따라 움직이는 정도를 의미한다.
상술한 바와 같이, 본 개시의 카테터 추적 시스템은 외부 마커없이 이미지 프레임의 일부 패치에 대해서만 합성곱 신경망의 학습 및 추적 과정을 수행한다. 따라서, 본 개시의 카테터 추적 시스템은 상술한 과정을 통해 마커 부착 과정이 필요없고, 마커의 변수에 의한 오류가 발생하지 않으며, 잡음에 강인하고, 빠른 데이터 처리에 의한 실시간 카테터 추적이 가능하며, 정확한 카테터 추적이 가능하다.
지금까지 촬영된 이미지 중 첫번째 이미지 프레임에서 카테터의 위치 정보를 추출하는 과정을 설명하였다. 아래에서는 두번째 이후 이미지 프레임에서 카테터의 위치 정보를 추출하는 과정을 설명한다.
도 3은 본 개시의 일 실시 예에 따른 첫번째 프레임의 이후 프레임으로부터 카테터를 검출하는 과정을 설명하는 도면이다.
이후 프레임부터는 프레임 간 카테터의 위치 변화가 일정수준 이하라는 점을 고려하여 카테터 추적 시스템은 이전 프레임에서 찾아낸 카테터의 중심 위치를 기초로 160×160 크기의 패치를 생성할 수 있다.
도 3을 참조하면, 카테터(3-2)가 포함된 두번째 이미지 프레임(20)이 도시되어 있다. 점선으로 표시된 카테터(3-1)은 첫번째 이미지 프레임에 포함된 카테터를 의미한다. 즉, 첫번째 이미지 프레임에 포함된 점선으로 표시된 카테터(3-1)는 약간 이동하여 두번째 이미지 프레임(20)에는 첫번째 이미지 프레임과 다른 위치에 카테터(3-2)가 포함될 수 있다.
카테터 추적 시스템은 제1 이미지 프레임에서 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 다음 이미지 프레임을 기 설정된 크기의 패치로 분할할 수 있다. 예를 들어, 카테터 추적 시스템은 제1 이미지 프레임에서 추출된 카테터의 중심 위치 정보를 기초로 주변 일부 영역에 대해 기 설정된 크기의 패치로 분할할 수 있다. 일 실시 예로서, 도 3에 도시된 바와 같이, 카테터 추적 시스템은 제1 이미지 프레임에서 카테터(3-1)의 위치 정보를 추출한다. 제1 이미지 프레임에서 추출된 카테터(3-1)의 위치 정보(예, 중심 위치 정보)는 제1 패치(21-1)에 포함될 수 있다. 카테터 추적 시스템은 이전 이미지 프레임에서 추출된 카테터(3-1)의 위치 정보를 포함하는 제1 패치(21-1)를 중심으로 주변 일부 영역을 패치(21-2, 25-1)로 분할할 수 있다. 상술한 바와 같이, 카테터는 연속하는 이미지 프레임에서 주변 일부 영역의 패치 중 제2 패치(25-1)에 포함될 수 있다. 따라서, 카테터 추적 시스템은 주변 일부 영역의 패치에 대한 픽셀 계조의 분산을 산출하고, 산출된 분산이 기 설정된 임계값 범위 내인 패치에 대해 카테터의 영역을 식별할 수 있다. 도 3의 예에서, 카테터 추적 시스템은 제2 패치(25-1)에 대해서만 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다. 카테터 영역의 식별 과정 및 추출 과정은 상술한 과정과 동일하다.
카테터 추적 시스템은 두번째 이후 이미지 프레임에 대해서 상술한 과정과 동일한 방식으로 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다.
한편, 카테터의 위치 변화가 급격하여 분할된 주변 패치 내에 카테터가 포함되지 않을 수 있다. 따라서, 카테터 추적 시스템은 분할된 주변 패치 내에 카테터가 포함되지 않은 경우, 상술한 제1 이미지 프레임에서 카테터의 영역을 추출하는 과정을 수행할 수 있다. 카테터 추적 시스템은 분할된 주변 패치에 대한 픽셀 계조의 분산이 기 설정된 임계값 범위 내가 아니거나 U-net의 추정 결과가 모두 배경으로 나오는 경우, 분할된 주변 패치에는 카테터가 포함되지 않은 것으로 판단할 수 있다.
도 4는 본 개시에 따른 방법과 기존 방법의 정확도의 비교 결과이다.
본 개시의 평가를 위해 DGIST-ETH 마이크로로봇 연구센터에서 취득한 로봇 카테터 동영상 11개가 실험데이터로 사용되었다. 각 이미지 프레임의 카테터 레이블을 생성해주기 위해 사용자 입력을 필요로 하는 반자동 파티클 필터 기반 추적 기법이 모든 동영상에 적용되어 끝단 레이블을 만들어주었다.
검증을 위해 데이터를 둘로 나누어 교차 검증이 실시되었고, 본 개시의 기법으로 얻은 결과와 레이블간의 다이스 점수(dice score)에 기초하여 검출의 정확도가 판단되었다. 또한 기존 기법과의 비교를 위해 전체 영상에 대해 U-net 구조의 합성곱 신경망이 적용된 검출 결과를 기초로 검출 정확도와 수행시간의 비교 결과가 도 4에 도시되어 있다.
U-net 구조의 합성곱 신경망이 전체영상에 적용되는 경우, 평균 88.1%의 다이스 점수가 얻어졌지만, 본 개시의 기법은 93.8%의 정확성을 보였다. 수행 시간의 경우, NVIDIA GTX 1080 그래픽카드가 장착된 PC를 사용하였을 때 기존 기법은 평균 71 ms가 소요되었지만, 본 개시의 기법은 5 ms가 소요되었다. 따라서, 본 개시의 기법은 약 14배 빠르게 동작하면서 약 5% 가량 높은 검출 성능을 나타낸다.
지금까지, 카테터 추적 시스템의 다양한 실시 예를 설명하였다. 아래에서는, 카테터 추적 시스템 제어 방법의 흐름도를 설명한다.
도 5는 본 개시의 일 실시 예에 따른 카테터 추적 시스템 제어 방법의 흐름도이다.
카테터 추적 시스템은 카테터를 촬영한다(S510). 카테터 추적 시스템은 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할한다(S520). 예를 들어, 제1 이미지 프레임의 해상도는 960×960일 수 있고, 분할되는 패치의 크기는 160×160일 수 있다. 카테터 추적 시스템은 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출한다(S530).
카테터 추적 시스템은 합성곱 신경망에 기초하여 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 카테터의 영역을 식별한다(S540). 예를 들어, 합성곱 신경망은 U-net 구조일 수 있다. U-net 구조는 컨벌루션 레이어, 풀링 레이어, 디컨벌루션 레이어 및 언풀링 레이어를 포함할 수 있고, 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행할 수 있다. 또한, 디컨벌루션 레이어는 오버피팅을 방지하기 위해 드롭아웃 과정을 수행할 수 있다.
카테터 추적 시스템은 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성할 수 있다. 또한, 카테터 추적 시스템은 기 설정된 제1 임계값 범위에 포함되지 않는 패치의 모든 픽셀을 배경 값으로 매핑하는 바이너리 맵을 생성할 수 있다. 한편, 카테터 추적 시스템은 잡음 제거 과정을 추가로 수행할 수 있다. 예를 들어, 카테터 추적 시스템은 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.
카테터 추적 시스템은 식별된 카테터의 영역에 기초하여 카테터의 위치 정보를 추출한다(S550). 카테터 추적 시스템은 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다. 그리고, 카테터 추적 시스템은 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터의 위치 정보를 추출할 수 있다. 예를 들어, 카테터의 위치 정보는 카테터의 중심 위치 정보일 수 있고, 특정 영역의 위치 정보일 수도 있다.
한편, 카테터 추적 시스템은 두번째 이후 이미지 프레임에 대해서는 보다 간략한 방식으로 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 두번째 프레임 이후의 제어 방법 흐름도이다.
도 6을 참조하면, 카테터 추적 시스템은 카테터를 촬영한다(S610). 카테터 추적 시스템은 추출된 카테터의 위치 정보에 기초하여 카테터가 촬영된 다음 이미지 프레임의 일부 영역에 대해 기 설정된 크기의 패치로 분할한다(S620). 대부분의 경우, 연속하는 이미지 프레임 내에서 카테터의 움직임은 작을 수 있다. 따라서, 카테터 추적 시스템은 이전 프레임에서 추출된 카테터의 위치 정보를 중심으로 주변 일부 영역에 대해서만 기 설정된 크기의 패치로 분할할 수 있다.
카테터 추적 시스템은 분할된 일부 영역의 패치에 기초하여 픽셀 계조의 분산을 산출한다(S630). 카테터 추적 시스템은 카테터의 영역이 존재하는지 판단한다(S640). 카테터 추적 시스템은 패치의 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치가 존재하는 경우, 카테터의 영역이 존재한다고 판단할 수 있다. 카테터 추적 시스템은 카테터의 영역이 존재한다고 판단하는 경우, 도 5에서 설명한 S540 및 S550 과정을 수행하여 카테터를 식별하고 카테터의 위치 정보를 추출할 수 있다.
한편, 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치가 없는 경우 또는 U-net의 추정결과가 모두 배경으로 나오는 경우, 일부 영역의 패치 내에는 카테터의 영역이 존재하지 않는다고 판단할 수 있다. 카테터 추적 시스템은 도 5에서 설명한 바와 유사하게, 전체 이미지 프레임에 대해 S520 내지 S550 과정을 수행하여 카테터를 식별하고 카테터의 위치 정보를 추출할 수 있다.
상술한 다양한 실시 예에 따른 카테터 추적 시스템의 제어 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 카테터 추적 시스템 110: 카테터
120: 카메라 130: 프로세서

Claims (15)

  1. 카테터를 촬영하는 단계;
    상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계;
    상기 분할된 패치 각각에 대해 분할된 패치에 포함된 모든 픽셀 각각에 대한 픽셀 계조를 획득하고, 상기 획득된 픽셀 계조에 기초하여 상기 분할된 패치의 픽셀 계조의 분산을 산출하는 단계;
    합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터가 포함된 영역으로 식별하는 단계; 및
    상기 식별된 카테터가 포함된 영역에 기초하여 상기 카테터의 위치 정보를 추출하는 단계;를 포함하는 카테터 추적 시스템의 제어 방법.
  2. 제1항에 있어서,
    상기 합성곱 신경망은 U-net 구조이고,
    상기 식별하는 단계는,
    상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터가 포함된 영역으로 식별하는, 카테터 추적 시스템의 제어 방법.
  3. 제2항에 있어서,
    상기 U-net 구조는 컨벌루션 레이어와 디컨벌루션 레이어를 포함하고, 상기 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행하는, 카테터 추적 시스템의 제어 방법.
  4. 제3항에 있어서,
    상기 디컨벌루션 레이어는 드롭아웃 과정을 수행하는, 카테터 추적 시스템의 제어 방법.
  5. 제2항에 있어서,
    상기 식별하는 단계는,
    상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정하는, 카테터 추적 시스템의 제어 방법.
  6. 제2항에 있어서,
    상기 추출하는 단계는,
    상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성하는, 카테터 추적 시스템의 제어 방법.
  7. 제6항에 있어서,
    상기 추출하는 단계는,
    상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템의 제어 방법.
  8. 제1항에 있어서,
    상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터가 포함된 영역으로 식별하는 단계;를 더 포함하는 카테터 추적 시스템의 제어 방법.
  9. 제8항에 있어서,
    상기 분할된 일부 영역의 패치에 상기 카테터가 포함된 영역이 포함되지 않은 경우, 상기 다음 이미지 프레임 전체를 기 설정된 크기의 패치로 분할하고, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산에 기초하여 상기 카테터가 포함된 영역으로 식별하는 단계;를 더 포함하는 카테터 추적 시스템의 제어 방법.
  10. 카테터;
    상기 카테터를 촬영하는 카메라; 및
    상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 분할된 패치 각각에 대해 분할된 패치에 포함된 모든 픽셀 각각에 대한 픽셀 계조를 획득하고, 상기 획득된 픽셀 계조에 기초하여 상기 분할된 패치의 픽셀 계조의 분산을 산출하고, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터가 포함된 영역으로 식별하며, 상기 식별된 카테터가 포함된 영역에 기초하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템.
  11. 제10항에 있어서,
    상기 합성곱 신경망은 U-net 구조이고,
    상기 프로세서는,
    상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터가 포함된 영역으로 식별하는, 카테터 추적 시스템.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정하는, 카테터 추적 시스템.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성하는, 카테터 추적 시스템.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템.
  15. 제10항에 있어서,
    상기 프로세서는,
    상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터가 포함된 영역으로 식별하는, 카테터 추적 시스템.
KR1020180054790A 2018-05-14 2018-05-14 카테터 추적 시스템 및 제어 방법 KR102174246B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180054790A KR102174246B1 (ko) 2018-05-14 2018-05-14 카테터 추적 시스템 및 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180054790A KR102174246B1 (ko) 2018-05-14 2018-05-14 카테터 추적 시스템 및 제어 방법

Publications (2)

Publication Number Publication Date
KR20190130310A KR20190130310A (ko) 2019-11-22
KR102174246B1 true KR102174246B1 (ko) 2020-11-04

Family

ID=68730948

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180054790A KR102174246B1 (ko) 2018-05-14 2018-05-14 카테터 추적 시스템 및 제어 방법

Country Status (1)

Country Link
KR (1) KR102174246B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235804A1 (ko) 2020-05-18 2021-11-25 주식회사 루닛 메디컬 장치의 이상을 결정하는 방법 및 시스템

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101159469B1 (ko) * 2009-05-14 2012-06-25 국립암센터 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템
KR102592076B1 (ko) * 2015-12-14 2023-10-19 삼성전자주식회사 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 3*

Also Published As

Publication number Publication date
KR20190130310A (ko) 2019-11-22

Similar Documents

Publication Publication Date Title
KR102275452B1 (ko) 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치
US11600008B2 (en) Human-tracking methods, systems, and storage media
US11893789B2 (en) Deep neural network pose estimation system
CN110807427B (zh) 一种视线追踪方法、装置、计算机设备和存储介质
CN109285142B (zh) 一种头颈部肿瘤检测方法、装置及计算机可读存储介质
EP3939006A1 (en) Feature point detection
KR20150099463A (ko) 강건한 안구/시선 추적을 위한 장치 및 방법
CN106372629A (zh) 一种活体检测方法和装置
CN112037287B (zh) 相机标定方法、电子设备及存储介质
WO2019061659A1 (zh) 人脸图像眼镜去除方法、装置及存储介质
CN113190117B (zh) 瞳孔、光斑定位方法、数据计算方法及相关装置
CN112102141B (zh) 水印的检测方法、装置、存储介质以及电子设备
CN111539911B (zh) 一种口呼吸面容识别方法、设备和存储介质
WO2007105107A2 (en) Methods, apparatus and computer-readable media for image segmentation
CN111191482B (zh) 一种刹车灯识别方法、装置及电子设备
KR102174246B1 (ko) 카테터 추적 시스템 및 제어 방법
US20140079303A1 (en) Systems and methods for automatic detection and testing of images for clinical relevance
US20160140395A1 (en) Adaptive sampling for efficient analysis of ego-centric videos
KR102007525B1 (ko) 통계적 적응식 추정함수 모델링 기법을 통한 진단 의료 영상의 대비 향상 방법
US11900615B2 (en) Tracking device, endoscope system, and tracking method
CN112800966B (zh) 一种视线的追踪方法及电子设备
US11113815B2 (en) Video processing methods and software architectures for analyzing transformation in objects
KR102074977B1 (ko) 전자 장치 및 그의 제어 방법
CN108573230B (zh) 人脸跟踪方法和人脸跟踪装置
CN112052859A (zh) 一种自由场景下的车牌精准定位方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right