KR20190130310A - Catheter tracking system and controlling method thereof - Google Patents

Catheter tracking system and controlling method thereof Download PDF

Info

Publication number
KR20190130310A
KR20190130310A KR1020180054790A KR20180054790A KR20190130310A KR 20190130310 A KR20190130310 A KR 20190130310A KR 1020180054790 A KR1020180054790 A KR 1020180054790A KR 20180054790 A KR20180054790 A KR 20180054790A KR 20190130310 A KR20190130310 A KR 20190130310A
Authority
KR
South Korea
Prior art keywords
catheter
tracking system
patch
patches
image frame
Prior art date
Application number
KR1020180054790A
Other languages
Korean (ko)
Other versions
KR102174246B1 (en
Inventor
박상현
이흐산 울라
원동규
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180054790A priority Critical patent/KR102174246B1/en
Publication of KR20190130310A publication Critical patent/KR20190130310A/en
Application granted granted Critical
Publication of KR102174246B1 publication Critical patent/KR102174246B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Hematology (AREA)
  • Anesthesiology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Pulmonology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Disclosed are a catheter tracking system capable of accurately detecting the position of a catheter without additional devices such as markers and a control method thereof. The control method of the catheter tracking system comprises the steps of: photographing a catheter; dividing the first image frame photographed by the catheter into patches of a predetermined size; calculating the variance of pixel gradations for each of the divided patches; identifying the area of the catheter for patches with variance in a preset first threshold range, wherein the variance of the patches is calculated based on a convolutional neural network; and extracting position information of the catheter based on the identified area of the catheter.

Description

카테터 추적 시스템 및 제어 방법{CATHETER TRACKING SYSTEM AND CONTROLLING METHOD THEREOF}Catheter tracking system and control method {CATHETER TRACKING SYSTEM AND CONTROLLING METHOD THEREOF}

본 개시는 카테터 추적 시스템 및 제어 방법에 관한 것으로, 더욱 상세하게는 신경망 학습을 이용한 카테터 위치를 추적하는 카테터 추적 시스템 및 제어 방법에 관한 것이다.The present disclosure relates to a catheter tracking system and control method, and more particularly to a catheter tracking system and control method for tracking the catheter position using neural network learning.

최근 의료로봇 기술의 발전에 따라 최소한의 절개를 통해 카테터와 같은 소형의 의료도구를 이용하여 수술을 수행하는 의료 장치가 개발되고 있다. 카테터와 같은 소형의 의료도구를 이용하여 수술을 수행하는 의료장치가 효율적으로 제어되기 위해서 영상 내에서 카테터 위치를 실시간으로 식별할 수 있는 기술이 필요하다. Recently, according to the development of medical robot technology, a medical device for performing surgery using a small medical tool such as a catheter through minimal incision has been developed. In order to efficiently control a medical device performing surgery using a small medical tool such as a catheter, a technique for identifying a catheter position in real time in an image is required.

로봇 카테터와 같은 의료 장치는 시술의 성공률을 높이기 위해 정교하게 제어되어야 하는데, 정교한 제어를 위해 카테터 위치를 실시간으로 추적하는 기술이 필요하다. 임계값(Thresholding)을 이용한 이진화나 헤시안 필터링(hessian filter) 등을 이용한 기본적인 영상처리 기법은 처리 속도는 빠르지만 영상 잡음에 약하고, 일반적인 학습모델을 기반으로 하는 머신러닝 기법은 높은 계산량을 필요로 하기 때문에 카테터 제어를 위한 실시간 추적에 부적합하다.Medical devices, such as robotic catheter, must be precisely controlled to increase the success rate of the procedure, which requires techniques to track the catheter position in real time for precise control. Basic image processing techniques, such as binarization using thresholding and hessian filtering, are fast, but weak in image noise, and machine learning techniques based on general learning models require high computational throughput. It is not suitable for real-time tracking for catheter control.

또한, 신체에 마커를 부착하여 카테터의 위치정보를 획득하는 기술이 제안되기도 하였다. 그러나, 카테터 위치 산출을 위해 의사가 수술 전에 환자의 신체 표면에 복수의 마커를 부착해야 한다. 환자의 신체에 마커를 부착하는 작업은 불편함을 초래한다. 그리고, 마커 부착 위치, 개수 등에 따라 촬영된 영상의 정확성이 떨어지고, 마커 부착 위치와 환자들의 움직임에 따라 오류가 발생하는 문제점이 있다. In addition, a technique of acquiring position information of a catheter by attaching a marker to a body has been proposed. However, the catheter position calculation requires the surgeon to attach a plurality of markers to the patient's body surface prior to surgery. Attaching the marker to the patient's body causes inconvenience. In addition, there is a problem in that the accuracy of the image taken according to the marker attachment position, number, etc. is reduced, and an error occurs according to the marker attachment position and the movement of the patients.

따라서, 카테터의 위치 추적이나 영상 보정 등을 위한 마커와 같은 추가 장치 및 추가 장치 부착 작업이 필요없고, 카테터의 위치 검출의 정확도와 검출 속도를 높일 수 있는 기술에 대한 필요성이 존재한다.Therefore, there is no need for additional devices such as markers for catheter position tracking or image correction, and for attaching additional devices, and there is a need for a technique capable of increasing the accuracy and detection speed of catheter position detection.

본 개시는 상술한 문제점을 해결하기 위한 것으로, 본 개시의 목적은 마커와 같은 추가 장치 없이 카테터의 위치를 정확하게 검출할 수 있는 카테터 추적 시스템 및 제어 방법을 제공하는 것이다.SUMMARY The present disclosure is directed to solving the above-described problems, and an object of the present disclosure is to provide a catheter tracking system and a control method capable of accurately detecting the position of a catheter without an additional device such as a marker.

이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 카테터 추적 시스템의 제어 방법은 카테터를 촬영하는 단계, 상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하는 단계, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하는 단계 및 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는 단계를 포함한다.According to an embodiment of the present disclosure for achieving the above object, the control method of the catheter tracking system comprises the steps of photographing the catheter, dividing the first image frame photographed by the catheter into a patch of a predetermined size, Calculating a variance of pixel gradations for each of the divided patches; identifying a region of the catheter for a patch whose calculated variance is within a preset first threshold range based on a convolutional neural network And extracting location information of the catheter based on the identified area of the catheter.

그리고, 상기 합성곱 신경망은 U-net 구조이고, 상기 식별하는 단계는 상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별할 수 있다.In addition, the convolutional neural network has a U-net structure, and the identifying may include: a pixel identified by the catheter based on a patch within the preset first threshold range, a foreground value, and the remaining pixels are a background. By generating a binary map that maps to the value of) can be identified the area of the catheter.

또한, 상기 U-net 구조는 컨벌루션 레이어와 디컨벌루션 레이어를 포함하고, 상기 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행할 수 있다.In addition, the U-net structure may include a convolutional layer and a deconvolutional layer, and each of the convolutional layer and the deconvolutional layer may perform a batch normalization process to reduce a learning time.

또한, 상기 디컨벌루션 레이어는 드롭아웃 과정을 수행할 수 있다.In addition, the deconvolution layer may perform a dropout process.

한편, 상기 식별하는 단계는 상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.On the other hand, if the gray level of the pixel identified by the catheter is less than the second preset threshold value, the identifying may modify the mapping value of the pixel of the gray scale smaller than the second preset threshold value in the binary map as a background value. Can be.

그리고, 상기 추출하는 단계는 상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다.The extracting may include generating the entire binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the binary map of the remaining patches in which all pixels are mapped to the background value. Can be.

또한, 상기 추출하는 단계는 상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출할 수 있다.The extracting may include extracting coordinate information of each pixel identified by the catheter based on the generated binary map, and extracting location information of the catheter by averaging the extracted coordinate information.

한편, 카테터 추적 시스템의 제어 방법은 상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는 단계를 더 포함할 수 있다.The control method of the catheter tracking system divides a next image frame of the first image frame into a patch having a predetermined size for a partial region based on the extracted position information of the catheter, and patches the divided partial region. The method may further include identifying an area of the catheter based on the method.

그리고, 카테터 추적 시스템의 제어 방법은 상기 분할된 일부 영역의 패치에 상기 카테터의 영역이 포함되지 않은 경우, 상기 다음 이미지 프레임 전체를 기 설정된 크기의 패치로 분할하고, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산에 기초하여 상기 카테터의 영역을 식별하는 단계를 더 포함할 수 있다.If the patch of the divided partial region does not include the catheter region, the control method of the catheter tracking system divides the entire next image frame into patches having a predetermined size, and pixels for each of the divided patches. The method may further include identifying the area of the catheter based on the variance of the gray level.

이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 카테터 추적 시스템은 카테터, 상기 카테터를 촬영하는 카메라 및 상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 프로세서를 포함하고, 상기 프로세서는 상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하고, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하며, 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출한다.According to an embodiment of the present disclosure for achieving the above object, a catheter tracking system includes a processor for dividing a catheter, a camera for photographing the catheter, and a first image frame in which the catheter is photographed into patches of a predetermined size. Wherein the processor calculates a variance of pixel gradations for each of the divided patches and based on a convolutional neural network, the catheter for the patch for which the calculated variance is within a preset first threshold range. Identifying the area of the, and extracting the location information of the catheter based on the identified area of the catheter.

그리고, 상기 합성곱 신경망은 U-net 구조이고, 상기 프로세서는 상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별할 수 있다.In addition, the convolutional neural network has a U-net structure, and the processor determines that a pixel identified as the catheter is a foreground value and the remaining pixels are a background value based on a patch within the preset first threshold range. By generating a binary map that is mapped to can identify the area of the catheter.

또한, 상기 프로세서는 상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.In addition, when the gray level of the pixel identified by the catheter is smaller than a second preset threshold value, the processor may modify a mapping value of a pixel of gray scale smaller than the second preset threshold value in the binary map as a background value. .

또한, 상기 프로세서는 상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다.The processor may generate the entire binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the binary map of the remaining patches in which all pixels are mapped to the background value. .

그리고, 상기 프로세서는 상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출할 수 있다.The processor may extract coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extract location information of the catheter by averaging the extracted coordinate information.

또한, 상기 프로세서는 상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별할 수 있다.The processor may divide a next image frame of the first image frame into a patch having a predetermined size for a partial region based on the extracted location information of the catheter, and based on the patch of the divided partial region, The area of the catheter can be identified.

이상 설명한 바와 같이, 본 개시의 다양한 실시 예에 따르면, 카테터 추적 시스템 및 제어 방법은 마커와 같은 추가 장치가 필요하지 않고, 부착 작업과 같이 추가 작업이 필요하지 않기 때문에 편리하다.As described above, according to various embodiments of the present disclosure, the catheter tracking system and the control method are convenient because no additional device such as a marker is needed and no additional work such as an attaching operation is required.

그리고, 카테터 추적 시스템 및 제어 방법은 수행 속도가 빨라 카테터 영역이 포함된 영상을 자동으로 실시간 처리할 수 있다.In addition, the catheter tracking system and control method can perform a real-time processing of the image including the catheter region automatically because the performance is fast.

또한, 카테터 추적 시스템 및 제어 방법은 카테터의 빠른 위치 변화와 영상 잡음 등과 같은 변수에 대해 강인한 추적 성능을 얻을 수 있다.In addition, catheter tracking systems and control methods can achieve robust tracking performance for variables such as catheter's rapid position change and image noise.

또한, 카테터 추적 시스템 및 제어 방법은 카테터를 신속하게 추적할 수 있고, 검출 정확도를 향상시킬 수 있다.In addition, catheter tracking systems and control methods can quickly track catheter and improve detection accuracy.

도 1은 본 개시의 일 실시 예에 따른 카테터 추적 시스템을 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 카테터 추적 시스템의 프레임워크를 설명하는 도면이다.
도 3은 본 개시의 일 실시 예에 따른 첫번째 프레임의 이후 프레임으로부터 카테터를 검출하는 과정을 설명하는 도면이다.
도 4는 본 개시에 따른 방법과 기존 방법의 정확도의 비교 결과이다.
도 5는 본 개시의 일 실시 예에 따른 카테터 추적 시스템 제어 방법의 흐름도이다.
도 6은 본 개시의 일 실시 예에 따른 두번째 프레임 이후의 제어 방법 흐름도이다.
1 is a diagram illustrating a catheter tracking system according to an embodiment of the present disclosure.
2 is a diagram illustrating a framework of a catheter tracking system according to an embodiment of the present disclosure.
3 is a diagram illustrating a process of detecting a catheter from a frame after the first frame according to an embodiment of the present disclosure.
4 is a comparison result of the accuracy of the method according to the present disclosure and the existing method.
5 is a flowchart illustrating a catheter tracking system control method according to an exemplary embodiment.
6 is a flowchart illustrating a control method after a second frame according to an embodiment of the present disclosure.

이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments will be described in more detail with reference to the accompanying drawings. Embodiments described herein may be variously modified. Specific embodiments are depicted in the drawings and may be described in detail in the detailed description. However, the specific embodiments disclosed in the accompanying drawings are only for easily understanding the various embodiments. Therefore, the technical spirit is not limited by the specific embodiments disclosed in the accompanying drawings, and it should be understood to include all equivalents or substitutes included in the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinal numbers such as first and second may be used to describe various components, but these components are not limited by the terms described above. The terms described above are used only for the purpose of distinguishing one component from another.

본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In this specification, the terms "comprises" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 제어부에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.On the other hand, "module" or "unit" for the components used in the present specification performs at least one function or operation. The module or unit may perform a function or an operation by hardware, software, or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "parts" other than a "module" or a "part" to be performed in specific hardware or performed by at least one control unit may be integrated into at least one module. Singular expressions include plural expressions unless the context clearly indicates otherwise.

그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.In addition, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be abbreviated or omitted. Meanwhile, although each embodiment may be independently implemented or operated, each embodiment may be implemented or operated in combination.

도 1은 본 개시의 일 실시 예에 따른 카테터 추적 시스템을 설명하는 도면이다.1 is a diagram illustrating a catheter tracking system according to an embodiment of the present disclosure.

도 1을 참조하면, 카테터 추적 시스템(100)은 카테터(110), 카메라(120) 및 프로세서(130)를 포함한다. 카테터(110)는 환자(1)의 환부를 검사하거나 환부를 치료하기 위해 환자의 몸에 삽입되는 의료용 도구일 수 있다. 카메라(120)는 카테터(110)를 포함하는 동영상을 촬영한다. 카메라(120)는 카테터(110)와 환자(1)를 촬영할 수 있는 위치에 배치될 수 있다.Referring to FIG. 1, the catheter tracking system 100 includes a catheter 110, a camera 120, and a processor 130. The catheter 110 may be a medical instrument inserted into the patient's body to examine or treat the affected area of the patient 1. The camera 120 captures a video including the catheter 110. The camera 120 may be disposed at a position where the catheter 110 and the patient 1 may be photographed.

프로세서(130)는 카테터(110)가 촬영된 동영상의 제1 이미지 프레임을 기 설정된 크기의 패치로 분할한다. 예를 들어, 제1 이미지 프레임의 해상도는 960×960일 수 있고, 프로세서(130)는 제1 이미지 프레임을 160×160 크기의 패치로 분할할 수 있다. 즉, 프로세서(130)는 제1 이미지 프레임을 36개의 패치로 분할할 수 있다. 상술한 제1 이미지 프레임의 해상도, 분할된 패치의 크기 등은 일 실시 예이며, 카테터 추적 시스템(100)은 다양한 해상도로 촬영할 수 있고, 다양한 크기의 패치로 분할할 수 있다.The processor 130 divides the first image frame of the video photographed by the catheter 110 into a patch having a predetermined size. For example, the resolution of the first image frame may be 960 × 960, and the processor 130 may divide the first image frame into patches of 160 × 160 size. That is, the processor 130 may divide the first image frame into 36 patches. The above-described resolution of the first image frame, the size of the divided patch, and the like are exemplary embodiments, and the catheter tracking system 100 may shoot at various resolutions and may split the patch into various sizes.

프로세서(130)는 분할된 패치 각각에 대해 픽셀 계조(gray scale)의 분산을 산출한다. 예를 들어, 프로세서(130)는 160×160 크기의 제1 패치에 대해 25600개의 픽셀의 계조에 기초하여 제1 패치의 픽셀 계조의 분산을 산출한다. 동일한 방식으로, 프로세서(130)는 36개의 분할된 패치에 대해 픽셀 계조의 분산을 산출할 수 있다. 프로세서(130)는 합성곱 신경망(convolution neural network)에 기초하여 산출된 분산이 기 설정된 임계값 범위 내인 패치에 대해 카테터의 영역을 식별한다. 분할된 패치에 카테터(110)가 포함된 경우, 분할된 패치 내의 카테터 영역의 계조는 높은 값으로 나타날 수 있다. 반면에, 나머지 영역의 계조는 상대적으로 낮은 값으로 나타날 수 있다. 따라서, 카테터 영역이 포함된 패치의 분산은 카테터 영역이 포함되지 않은 패치의 분산에 비해 높을 수 있다. The processor 130 calculates a variance of the gray scale for each of the divided patches. For example, the processor 130 calculates the variance of the pixel gray levels of the first patch based on the gray levels of 25600 pixels for the 160 × 160 first patch. In the same manner, the processor 130 may calculate the variance of the pixel gray levels for the 36 divided patches. The processor 130 identifies the area of the catheter for the patch whose variance calculated based on the convolutional neural network is within a preset threshold range. When the catheter 110 is included in the divided patch, the gray level of the catheter region in the divided patch may appear as a high value. On the other hand, the gradation of the remaining areas may appear to be relatively low. Therefore, the dispersion of the patch including the catheter region may be higher than the dispersion of the patch without the catheter region.

기 설정된 임계값의 범위는 카메라(120)에서 촬영된 이미지에 기초하여 다양한 범위로 설정될 수 있다. 예를 들어, 기 설정된 임계값의 범위는 10 내지 150일 수 있다. 제1 패치의 픽셀 계조의 분산이 10보다 작거나 150보다 큰 경우, 프로세서(130)는 제1 패치에서 카테터의 영역을 식별하는 과정을 수행하지 않는다. 즉, 프로세서(130)는 제1 패치를 스킵할 수 있다. 제2 패치의 픽셀 계조의 분산이 10보다 크고 150보다 작은 경우, 프로세서(130)는 제2 패치에서 카테터의 영역을 식별하는 과정을 수행한다.The preset threshold range may be set to various ranges based on the image photographed by the camera 120. For example, the range of the preset threshold may be 10 to 150. When the variance of the pixel gray levels of the first patch is less than 10 or greater than 150, the processor 130 does not perform the process of identifying the area of the catheter in the first patch. In other words, the processor 130 may skip the first patch. When the variance of pixel gray levels of the second patch is greater than 10 and less than 150, the processor 130 performs a process of identifying a region of the catheter in the second patch.

예를 들어, 카테터 영역을 식별하는 과정은 U-net 구조의 합성곱 신경망에 기초하여 수행될 수 있다. U-net 구조의 합성곱 신경망에 카테터가 포함된 이미지 프레임을 입력시켜 카테터의 영역을 식별하는 과정을 학습시킬 수 있다. 카테터 영역을 식별하는 과정이 학습된 U-net 구조의 합성곱 신경망은 이후 촬영된 새로운 이미지 프레임으로부터 카테터의 영역을 식별할 수 있다. 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치에서 카테터로 식별된 픽셀은 전경(foreground) 값으로 매핑하고, 나머지 픽셀은 배경(background) 값으로 매핑하여 바이너리 맵을 생성할 수 있다. 예를 들어, 전경 값은 1, 배경 값은 0일 수 있다. 카테터의 영역을 식별하는 구체적인 과정은 후술한다.For example, the process of identifying the catheter region may be performed based on the convolutional neural network of the U-net structure. The process of identifying the catheter region can be learned by inputting the image frame including the catheter to the composite product neural network of the U-net structure. The multiplicative neural network of the U-net structure trained in identifying the catheter region may identify the catheter region from the new image frame. The processor 130 may generate a binary map by mapping a pixel identified as a catheter to a foreground value and mapping the remaining pixels to a background value in a patch whose dispersion is within a preset threshold range. For example, the foreground value may be 1 and the background value may be 0. A detailed process of identifying the area of the catheter will be described later.

프로세서(130)는 식별된 카테터의 영역에 기초하여 카테터의 위치 정보(또는, 카테터 끝단(tip)의 위치 정보)를 추출한다. 상술한 바와 같이, 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치에 대해 바이너리 맵을 생성할 수 있다. 그리고, 프로세서(130)는 분산이 기 설정된 임계값 범위를 벗어나는 패치에 대해 모든 픽셀을 배경 값으로 매핑시킨 바이너리 맵을 생성할 수 있다. 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다. 그리고, 프로세서(130)는 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터 위치 정보를 추출할 수 있다. 상술한 예는 일 실시 예이며, 프로세서(130)는 카테터로 식별된 픽셀 중 외곽 픽셀의 좌표 정보만을 추출하여 카테터 위치 정보를 추출할 수도 있으며, 카테터로 식별된 픽셀 중 특정 픽셀의 좌표 정보만을 추출하여 카테터 위치 정보를 추출할 수도 있다. 예를 들어, 특정 픽셀은 카테터의 오른쪽 끝단 픽셀, 오른쪽 끝단으로부터 3 픽셀 등으로 설정될 수 있다.The processor 130 extracts the location information of the catheter (or the location information of the catheter tip) based on the identified area of the catheter. As described above, the processor 130 may generate a binary map for a patch whose distribution is within a preset threshold range. In addition, the processor 130 may generate a binary map in which all pixels are mapped to a background value for a patch whose variance is out of a preset threshold range. The processor 130 may generate the entire binary map of the size of the first image frame based on the binary map of the patch in which the variance is within a preset threshold range and all the pixels mapped to the background value. The processor 130 may extract coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extract catheter position information by averaging the extracted coordinate information. The above-described example is an embodiment, and the processor 130 may extract only the coordinate information of the outer pixel among the pixels identified as the catheter and extract the catheter position information, and extract only the coordinate information of a specific pixel among the pixels identified as the catheter. Catheter position information can be extracted. For example, the particular pixel may be set to the right end pixel of the catheter, 3 pixels from the right end, and so on.

한편, 카테터 추적 시스템은 카테터, 카메라 및 프로세서가 별개의 장치인 시스템 형태로 구현될 수 있고, 하나의 장치로 구현된 카테터 장치 또는 카테터 로봇일 수도 있다.The catheter tracking system may be implemented in the form of a system in which the catheter, camera and processor are separate devices, or may be a catheter device or a catheter robot implemented as one device.

도 2는 본 개시의 일 실시 예에 따른 카테터 추적 시스템의 프레임워크를 설명하는 도면이다.2 is a diagram illustrating a framework of a catheter tracking system according to an embodiment of the present disclosure.

카테터 추적 시스템은 카테터를 포함하는 이미지 프레임(11)을 촬영한다. 예를 들어, 카테터가 촬영된 이미지 프레임(11)의 해상도는 960×960일 수 있다. 카테터 추적 시스템은 촬영된 제1 이미지 프레임(11)을 복수 개의 패치로 분할(12)한다. 예를 들어, 분할된 패치의 크기는 160×160일 수 있다. 카테터 추적 시스템은 분할된 패치에 포함된 모든 픽셀 계조의 분산을 산출하고, 기 설정된 임계값 범위 내인지 판단할 수 있다. 예를 들어, 기 설정된 임계값 범위는 10 내지 150으로 설정될 수 있고, 180 내지 350으로 설정될 수도 있다. 기 설정된 임계값의 범위는 카메라(120)에서 촬영된 이미지의 특성 등에 기초하여 적절한 범위로 설정될 수 있다.The catheter tracking system captures an image frame 11 containing the catheter. For example, the resolution of the image frame 11 in which the catheter is photographed may be 960 × 960. The catheter tracking system divides 12 the photographed first image frame 11 into a plurality of patches. For example, the size of the divided patch may be 160 × 160. The catheter tracking system may calculate a variance of all pixel gray levels included in the divided patch and determine whether the catheter tracking system is within a preset threshold range. For example, the preset threshold range may be set to 10 to 150 and may be set to 180 to 350. The range of the preset threshold may be set to an appropriate range based on characteristics of the image photographed by the camera 120.

카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치(12-1)에 대해 카테터의 영역을 식별할 수 있다. 일 실시 예로서, 카테터 영역을 식별하는 과정은 U-net 구조의 합성곱 신경망에 기초하여 수행될 수 있다. U-net 구조의 합성곱 신경망은 U 형태로 데이터를 처리하는 신경망으로 복수의 컨벌루션 레이어(convolution layer), 복수의 디컨벌루션 레이어(deconvolution layer), 복수의 풀링 레이어(pooling layer), 복수의 언풀링 레이어(unpooling layer) 등을 포함할 수 있다. 일 실시 예로서, U-net 구조의 합성곱 신경망은 10개의 컨벌루션 레이어, 4개의 풀링 레이어, 4개의 언풀링 레이어, 9개의 디컨벌루션 레이어를 포함할 수 있다. 컨벌루션 레이어와 풀링 레이어는 이미지의 크기를 줄여가며 낮은 차원부터 높은 차원으로 특징을 추출할 수 있다. 그리고, 언풀링 레이어 및 디컨벌루션 레이어는 크기를 늘려 전경 영역(예, 카테터 영역)과 배경 영역을 예측할 수 있다. U-net 구조의 합성곱 신경망은 컨벌루션 레이어의 출력을 대응되는 디컨벌루션 레이어에서 입력으로 사용함으로써 다른 기법에 비해 이미지 복원력을 향상시킬 수 있다. U-net 구조의 합성곱 신경망은 카테터가 포함된 이미지 프레임을 입력시켜 상술한 과정을 통해 카테터의 영역을 식별하도록 학습될 수 있다. 카테터 영역을 식별하는 과정이 학습된 U-net 구조의 합성곱 신경망은 이후 촬영된 새로운 이미지 프레임으로부터 카테터의 영역을 식별할 수 있다.The catheter tracking system may identify the area of the catheter for the patch 12-1 in which the variance of the pixel gray levels is within a preset threshold range. In one embodiment, the process of identifying the catheter region may be performed based on the convolutional neural network of the U-net structure. Synthetic multiplication neural network of U-net structure is a neural network that processes data in U shape, and includes a plurality of convolution layers, a plurality of deconvolution layers, a plurality of pooling layers, and a plurality of unpooling data. And an unpooling layer. In one embodiment, the multiplicative neural network of the U-net structure may include 10 convolutional layers, four pulling layers, four unpooling layers, and nine deconvolution layers. Convolutional and pooling layers reduce the size of the image and can extract features from low to high dimensions. The unpooling layer and the deconvolution layer may increase in size to predict the foreground area (eg, catheter area) and the background area. The multiplicative neural network of U-net structure can improve the image resilience compared to other techniques by using the output of the convolutional layer as input in the corresponding deconvolutional layer. The convolutional neural network of the U-net structure may be trained to identify an area of the catheter by inputting an image frame including a catheter. The multiplicative neural network of the U-net structure trained in identifying the catheter region may identify the catheter region from the new image frame.

카테터 추적 시스템은 패치 내에서 카테터로 식별된 픽셀은 전경 값으로 매핑하고, 나머지 픽셀은 배경 값으로 매핑한 바이너리 맵(13-1)을 생성할 수 있다. 예를 들어, 전경 값은 1, 배경 값은 0일 수 있다. 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 모든 패치를 기초로 상술한 과정을 통해 각각의 패치에 대응되는 바이너리 맵을 생성할 수 있다. 그리고, 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위를 벗어나는 패치의 모든 픽셀을 배경 값으로 매핑한 바이너리 맵을 생성할 수 있다. 카테터 추적 시스템은 생성된 바이너리 맵을 재구성(reconstruction)하여 원본 크기의 전체 바이너리 맵(13)을 생성할 수 있다.The catheter tracking system may generate a binary map 13-1 in which the pixels identified as catheter in the patch are mapped to the foreground value and the remaining pixels are mapped to the background value. For example, the foreground value may be 1 and the background value may be 0. The catheter tracking system may generate a binary map corresponding to each patch through the above-described process based on all the patches whose distribution of pixel gray levels is within a preset threshold range. In addition, the catheter tracking system may generate a binary map in which all pixels of the patch whose variance of pixel gradations fall outside a preset threshold range are mapped to a background value. The catheter tracking system may reconstruct the generated binary map to produce a full binary map 13 of original size.

간혹, 카테터 영역의 경계 부분에 잡음이 추출될 수 있다. 따라서, 카테터 영역 경계 부분에 대한 잡음 제거 과정이 수행될 수 있다. 카테터 추적 시스템은 카테터로 식별된 픽셀의 계조가 기 설정된 전경 임계값보다 작은 경우, 생성된 바이너리 맵에서 기 설정된 전경 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다. 예를 들어, 카테터 추적 시스템에는 전경 임계값이 100으로 설정될 수 있다. 그리고, 카테터 영역의 경계 부분의 두 개의 픽셀 계조는 각각 180, 80일 수 있다. 처음에는 카테터 추적 시스템은 두 개의 픽셀을 모두 전경 값으로 매핑시킬 수 있다. 그러나, 잡음 제거 과정에서 카테터 추적 시스템은 전경 임계값보다 작은 80인 픽셀의 매핑 값을 전경 값에서 배경 값으로 수정할 수 있다. 카테터 추적 시스템은 상술한 과정을 통해 카테터 영역의 잡음을 줄일 수 있다.Occasionally, noise may be extracted at the boundary portion of the catheter region. Therefore, the noise removal process for the catheter region boundary portion may be performed. If the gray level of the pixel identified as the catheter is smaller than the preset foreground threshold value, the catheter tracking system may modify the mapping value of the pixel of the gray level smaller than the preset foreground threshold value in the generated binary map as the background value. For example, the catheter tracking system may have a foreground threshold set to 100. The two pixel gray levels of the boundary portion of the catheter region may be 180 and 80, respectively. Initially, the catheter tracking system can map both pixels to foreground values. However, during the noise reduction process, the catheter tracking system can modify the mapping value of 80 pixels smaller than the foreground threshold from the foreground value to the background value. The catheter tracking system can reduce noise in the catheter region through the above-described process.

카테터 추적 시스템은 전체 바이너리 맵(13)을 원본 이미지 프레임(14)에 매핑할 수 있다. 카테터 추적 시스템은 전체 바이너리 맵(13)에 기초하여 카테터의 위치 정보를 추출할 수 있다. 카테터 추적 시스템은 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터 위치 정보를 추출할 수 있다. 추출된 카테터 위치 정보는 상대적인 위치 정보일 수 있다. 또한, 일 실시 예로서, 카메라는 고정되어 있으므로 카테터 추적 시스템은 카메라 캘리브레이션(calibration) 정보 및 이미지 프레임 내의 카테터의 좌표 정보에 기초하여 카테터의 절대적인 위치 정보를 식별할 수도 있다.The catheter tracking system may map the entire binary map 13 to the original image frame 14. The catheter tracking system may extract the location information of the catheter based on the entire binary map 13. The catheter tracking system may extract coordinate information of each pixel identified by the catheter based on the generated binary map, and extract catheter position information by averaging the extracted coordinate information. The extracted catheter position information may be relative position information. Also, as an example, since the camera is fixed, the catheter tracking system may identify absolute position information of the catheter based on camera calibration information and coordinate information of the catheter in the image frame.

한편, 컨벌루션 레이어와 디컨벌루션 레이어는 학습 과정에서 학습 속도(또는, 수렴 속도(convergence speed)를 향상시키기 위해 일괄 정규화(batch normalization, BN) 과정을 수행할 수 있다. 일괄 정규화 과정이 수행되는 경우, U-net 구조의 합성곱 신경망은 학습 속도가 향상될 수 있고, 나쁜 초기 값에 대해 더 강인해질 수 있다. 일 실시 예로서, 일괄 정규화 과정은 2번째 컨벌루션 레이어 및 마지막으로부터 2번째 디컨벌루션 레이어에서 수행될 수 있다.Meanwhile, the convolutional layer and the deconvolutional layer may perform a batch normalization (BN) process to improve the learning speed (or convergence speed) in the learning process. The multiplicative neural network of U-net structure can improve the learning speed and become more robust against bad initial values In one embodiment, the batch normalization process is performed in the second convolutional layer and the second deconvolutional layer from the last. Can be performed.

또한, 합성곱 신경망의 디컨벌루션 레이어는 오버피팅(overfitting)을 방지하기 위해 드롭아웃 과정을 수행할 수 있다. 합성곱 신경망은 제한된 데이터를 기초로 학습되기 때문에 학습 모델에 대해서만 좋은 성능을 나타내는 오버피팅 문제가 발생될 수 있다. 따라서, 합성곱 신경망은 디컨벌루션 레이어에서 드롭아웃 과정을 수행함으로써 새로 입력되는 데이터에 대해서도 좋은 성능을 나타낼 수 있다.In addition, the deconvolution layer of the convolutional neural network may perform a dropout process to prevent overfitting. Since the multiplicative neural network is trained based on limited data, an overfitting problem can be generated that shows good performance only for the learning model. Therefore, the convolutional neural network may exhibit good performance on newly input data by performing a dropout process on the deconvolution layer.

카테터 추적 시스템은 학습 최적화를 위해 학습비율(learning rate)이 0.001로 설정되어 학습될 수 있다. 카테터 추적 시스템이 학습될 때, 손실함수(loss function)가 정의되고, 손실함수를 최소화하는 파라미터를 경사하강법을 이용하여 찾는 과정이 수행될 수 있다. 학습비율은 경사하강법의 경사를 따라 움직이는 정도를 의미한다.The catheter tracking system may be learned with a learning rate set to 0.001 for learning optimization. When the catheter tracking system is trained, a loss function is defined and the process of finding a parameter that minimizes the loss function using gradient descent may be performed. The learning rate refers to the degree of movement along the slope of the gradient descent method.

상술한 바와 같이, 본 개시의 카테터 추적 시스템은 외부 마커없이 이미지 프레임의 일부 패치에 대해서만 합성곱 신경망의 학습 및 추적 과정을 수행한다. 따라서, 본 개시의 카테터 추적 시스템은 상술한 과정을 통해 마커 부착 과정이 필요없고, 마커의 변수에 의한 오류가 발생하지 않으며, 잡음에 강인하고, 빠른 데이터 처리에 의한 실시간 카테터 추적이 가능하며, 정확한 카테터 추적이 가능하다.As described above, the catheter tracking system of the present disclosure performs the training and tracking of the composite product neural network only on a partial patch of the image frame without an external marker. Therefore, the catheter tracking system of the present disclosure does not require a marker attachment process through the above-described process, does not cause an error due to a variable of the marker, is robust to noise, enables real-time catheter tracking by fast data processing, and accurate Catheter tracking is possible.

지금까지 촬영된 이미지 중 첫번째 이미지 프레임에서 카테터의 위치 정보를 추출하는 과정을 설명하였다. 아래에서는 두번째 이후 이미지 프레임에서 카테터의 위치 정보를 추출하는 과정을 설명한다.So far, the process of extracting the catheter's position information from the first image frame has been described. The following describes the process of extracting the catheter's position information from the second and subsequent image frames.

도 3은 본 개시의 일 실시 예에 따른 첫번째 프레임의 이후 프레임으로부터 카테터를 검출하는 과정을 설명하는 도면이다.3 is a diagram illustrating a process of detecting a catheter from a frame after the first frame according to an embodiment of the present disclosure.

이후 프레임부터는 프레임 간 카테터의 위치 변화가 일정수준 이하라는 점을 고려하여 카테터 추적 시스템은 이전 프레임에서 찾아낸 카테터의 중심 위치를 기초로 160×160 크기의 패치를 생성할 수 있다. Afterwards, the catheter tracking system can generate a 160 × 160 patch based on the center position of the catheter found in the previous frame, considering that the position change of the catheter between frames is less than a certain level.

도 3을 참조하면, 카테터(3-2)가 포함된 두번째 이미지 프레임(20)이 도시되어 있다. 점선으로 표시된 카테터(3-1)은 첫번째 이미지 프레임에 포함된 카테터를 의미한다. 즉, 첫번째 이미지 프레임에 포함된 점선으로 표시된 카테터(3-1)는 약간 이동하여 두번째 이미지 프레임(20)에는 첫번째 이미지 프레임과 다른 위치에 카테터(3-2)가 포함될 수 있다.Referring to FIG. 3, there is shown a second image frame 20 that includes a catheter 3-2. The catheter 3-1 indicated by a dotted line means a catheter included in the first image frame. That is, the catheter 3-1 indicated by the dotted line included in the first image frame is slightly moved so that the catheter 3-2 may be included in the second image frame 20 at a different position from the first image frame.

카테터 추적 시스템은 제1 이미지 프레임에서 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 다음 이미지 프레임을 기 설정된 크기의 패치로 분할할 수 있다. 예를 들어, 카테터 추적 시스템은 제1 이미지 프레임에서 추출된 카테터의 중심 위치 정보를 기초로 주변 일부 영역에 대해 기 설정된 크기의 패치로 분할할 수 있다. 일 실시 예로서, 도 3에 도시된 바와 같이, 카테터 추적 시스템은 제1 이미지 프레임에서 카테터(3-1)의 위치 정보를 추출한다. 제1 이미지 프레임에서 추출된 카테터(3-1)의 위치 정보(예, 중심 위치 정보)는 제1 패치(21-1)에 포함될 수 있다. 카테터 추적 시스템은 이전 이미지 프레임에서 추출된 카테터(3-1)의 위치 정보를 포함하는 제1 패치(21-1)를 중심으로 주변 일부 영역을 패치(21-2, 25-1)로 분할할 수 있다. 상술한 바와 같이, 카테터는 연속하는 이미지 프레임에서 주변 일부 영역의 패치 중 제2 패치(25-1)에 포함될 수 있다. 따라서, 카테터 추적 시스템은 주변 일부 영역의 패치에 대한 픽셀 계조의 분산을 산출하고, 산출된 분산이 기 설정된 임계값 범위 내인 패치에 대해 카테터의 영역을 식별할 수 있다. 도 3의 예에서, 카테터 추적 시스템은 제2 패치(25-1)에 대해서만 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다. 카테터 영역의 식별 과정 및 추출 과정은 상술한 과정과 동일하다.The catheter tracking system may divide the next image frame into a patch of a predetermined size for a partial region based on the location information of the catheter extracted from the first image frame. For example, the catheter tracking system may divide the patch into a patch having a predetermined size for a portion of the surrounding area based on the center position information of the catheter extracted from the first image frame. As an example, as shown in FIG. 3, the catheter tracking system extracts location information of the catheter 3-1 from the first image frame. Position information (eg, center position information) of the catheter 3-1 extracted from the first image frame may be included in the first patch 21-1. The catheter tracking system divides some peripheral areas into patches 21-2 and 25-1 around the first patch 21-1 including the position information of the catheter 3-1 extracted from the previous image frame. Can be. As described above, the catheter may be included in the second patch 25-1 of the patches of the partial peripheral area in successive image frames. Accordingly, the catheter tracking system can calculate the variance of pixel gray levels for the patches of the peripheral partial regions, and identify the area of the catheter for the patch whose calculated variance is within a preset threshold range. In the example of FIG. 3, the catheter tracking system can identify the catheter region only for the second patch 25-1 and extract the catheter's location information. The process of identifying and extracting the catheter region is the same as the process described above.

카테터 추적 시스템은 두번째 이후 이미지 프레임에 대해서 상술한 과정과 동일한 방식으로 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다.The catheter tracking system may identify the catheter region and extract the catheter's location information in the same manner as the above-described process for the second and subsequent image frames.

한편, 카테터의 위치 변화가 급격하여 분할된 주변 패치 내에 카테터가 포함되지 않을 수 있다. 따라서, 카테터 추적 시스템은 분할된 주변 패치 내에 카테터가 포함되지 않은 경우, 상술한 제1 이미지 프레임에서 카테터의 영역을 추출하는 과정을 수행할 수 있다. 카테터 추적 시스템은 분할된 주변 패치에 대한 픽셀 계조의 분산이 기 설정된 임계값 범위 내가 아니거나 U-net의 추정 결과가 모두 배경으로 나오는 경우, 분할된 주변 패치에는 카테터가 포함되지 않은 것으로 판단할 수 있다.Meanwhile, the catheter may not be included in the divided peripheral patch due to the sudden change in the position of the catheter. Therefore, when the catheter is not included in the divided peripheral patch, the catheter tracking system may perform a process of extracting the area of the catheter from the above-described first image frame. The catheter tracking system may determine that the divided peripheral patches do not include the catheter when the variance of pixel gray level for the divided peripheral patches is not within the preset threshold range or when the U-net estimation results are all in the background. have.

도 4는 본 개시에 따른 방법과 기존 방법의 정확도의 비교 결과이다.4 is a comparison result of the accuracy of the method according to the present disclosure and the existing method.

본 개시의 평가를 위해 DGIST-ETH 마이크로로봇 연구센터에서 취득한 로봇 카테터 동영상 11개가 실험데이터로 사용되었다. 각 이미지 프레임의 카테터 레이블을 생성해주기 위해 사용자 입력을 필요로 하는 반자동 파티클 필터 기반 추적 기법이 모든 동영상에 적용되어 끝단 레이블을 만들어주었다. For the evaluation of the present disclosure, 11 robot catheter videos obtained from the DGIST-ETH microrobot research center were used as experimental data. A semi-automatic particle filter-based tracking technique that requires user input to generate a catheter label for each image frame was applied to all the videos to create the end label.

검증을 위해 데이터를 둘로 나누어 교차 검증이 실시되었고, 본 개시의 기법으로 얻은 결과와 레이블간의 다이스 점수(dice score)에 기초하여 검출의 정확도가 판단되었다. 또한 기존 기법과의 비교를 위해 전체 영상에 대해 U-net 구조의 합성곱 신경망이 적용된 검출 결과를 기초로 검출 정확도와 수행시간의 비교 결과가 도 4에 도시되어 있다.Cross-validation was performed by dividing the data into two for verification, and the accuracy of the detection was determined based on the results obtained by the technique of the present disclosure and the dice score between the labels. In addition, a comparison result of detection accuracy and execution time is shown in FIG. 4 based on a detection result of applying a multiplicative neural network having a U-net structure to the entire image for comparison with an existing technique.

U-net 구조의 합성곱 신경망이 전체영상에 적용되는 경우, 평균 88.1%의 다이스 점수가 얻어졌지만, 본 개시의 기법은 93.8%의 정확성을 보였다. 수행 시간의 경우, NVIDIA GTX 1080 그래픽카드가 장착된 PC를 사용하였을 때 기존 기법은 평균 71 ms가 소요되었지만, 본 개시의 기법은 5 ms가 소요되었다. 따라서, 본 개시의 기법은 약 14배 빠르게 동작하면서 약 5% 가량 높은 검출 성능을 나타낸다.When the multiplicative neural network of the U-net structure was applied to the whole image, an average score of 88.1% was obtained, but the technique of the present disclosure showed 93.8% accuracy. In terms of execution time, the conventional technique took an average of 71 ms when using a PC equipped with an NVIDIA GTX 1080 graphics card, but the technique of the present disclosure took 5 ms. Thus, the technique of the present disclosure exhibits about 5% higher detection performance while operating about 14 times faster.

지금까지, 카테터 추적 시스템의 다양한 실시 예를 설명하였다. 아래에서는, 카테터 추적 시스템 제어 방법의 흐름도를 설명한다.So far, various embodiments of the catheter tracking system have been described. In the following, a flowchart of a catheter tracking system control method is described.

도 5는 본 개시의 일 실시 예에 따른 카테터 추적 시스템 제어 방법의 흐름도이다.5 is a flowchart illustrating a catheter tracking system control method according to an exemplary embodiment.

카테터 추적 시스템은 카테터를 촬영한다(S510). 카테터 추적 시스템은 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할한다(S520). 예를 들어, 제1 이미지 프레임의 해상도는 960×960일 수 있고, 분할되는 패치의 크기는 160×160일 수 있다. 카테터 추적 시스템은 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출한다(S530).The catheter tracking system captures the catheter (S510). The catheter tracking system divides the first image frame in which the catheter is photographed into patches of a predetermined size (S520). For example, the resolution of the first image frame may be 960 × 960, and the size of the divided patch may be 160 × 160. The catheter tracking system calculates a variance of pixel gray levels for each of the divided patches (S530).

카테터 추적 시스템은 합성곱 신경망에 기초하여 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 카테터의 영역을 식별한다(S540). 예를 들어, 합성곱 신경망은 U-net 구조일 수 있다. U-net 구조는 컨벌루션 레이어, 풀링 레이어, 디컨벌루션 레이어 및 언풀링 레이어를 포함할 수 있고, 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행할 수 있다. 또한, 디컨벌루션 레이어는 오버피팅을 방지하기 위해 드롭아웃 과정을 수행할 수 있다.The catheter tracking system identifies the area of the catheter for the patch whose variance calculated based on the convolutional neural network is within a preset first threshold range (S540). For example, the convolutional neural network may be a U-net structure. The U-net structure may include a convolutional layer, a pooling layer, a deconvolutional layer, and an unpooling layer, and each of the convolutional layer and the deconvolutional layer may perform a batch normalization process to reduce learning time. . In addition, the deconvolution layer may perform a dropout process to prevent overfitting.

카테터 추적 시스템은 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성할 수 있다. 또한, 카테터 추적 시스템은 기 설정된 제1 임계값 범위에 포함되지 않는 패치의 모든 픽셀을 배경 값으로 매핑하는 바이너리 맵을 생성할 수 있다. 한편, 카테터 추적 시스템은 잡음 제거 과정을 추가로 수행할 수 있다. 예를 들어, 카테터 추적 시스템은 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.The catheter tracking system may generate a binary map in which pixels identified by the catheter are mapped to a foreground value and remaining pixels are mapped to a background value based on a patch within a preset first threshold range. In addition, the catheter tracking system may generate a binary map that maps all pixels of the patch not included in the preset first threshold range to the background value. Meanwhile, the catheter tracking system may further perform a noise canceling process. For example, when the gray level of the pixel identified as the catheter is smaller than the second preset threshold, the catheter tracking system may modify the mapping value of the pixel of the gray scale smaller than the second preset threshold value in the binary map as a background value. Can be.

카테터 추적 시스템은 식별된 카테터의 영역에 기초하여 카테터의 위치 정보를 추출한다(S550). 카테터 추적 시스템은 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다. 그리고, 카테터 추적 시스템은 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터의 위치 정보를 추출할 수 있다. 예를 들어, 카테터의 위치 정보는 카테터의 중심 위치 정보일 수 있고, 특정 영역의 위치 정보일 수도 있다.The catheter tracking system extracts location information of the catheter based on the identified catheter's area (S550). The catheter tracking system may generate the entire binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the binary map of the remaining patches in which all pixels are mapped to the background value. The catheter tracking system may extract coordinate information of each pixel identified by the catheter based on the generated binary map, and extract the catheter position information by averaging the extracted coordinate information. For example, the location information of the catheter may be center location information of the catheter or may be location information of a specific area.

한편, 카테터 추적 시스템은 두번째 이후 이미지 프레임에 대해서는 보다 간략한 방식으로 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다.On the other hand, the catheter tracking system can identify the catheter region and extract the catheter's location information in a simpler manner for the second and subsequent image frames.

도 6은 본 개시의 일 실시 예에 따른 두번째 프레임 이후의 제어 방법 흐름도이다.6 is a flowchart illustrating a control method after a second frame according to an embodiment of the present disclosure.

도 6을 참조하면, 카테터 추적 시스템은 카테터를 촬영한다(S610). 카테터 추적 시스템은 추출된 카테터의 위치 정보에 기초하여 카테터가 촬영된 다음 이미지 프레임의 일부 영역에 대해 기 설정된 크기의 패치로 분할한다(S620). 대부분의 경우, 연속하는 이미지 프레임 내에서 카테터의 움직임은 작을 수 있다. 따라서, 카테터 추적 시스템은 이전 프레임에서 추출된 카테터의 위치 정보를 중심으로 주변 일부 영역에 대해서만 기 설정된 크기의 패치로 분할할 수 있다. Referring to FIG. 6, the catheter tracking system captures the catheter (S610). The catheter tracking system divides the catheter into a patch having a predetermined size for a portion of the image frame after the catheter is photographed based on the extracted location information of the catheter (S620). In most cases, the movement of the catheter in successive image frames can be small. Therefore, the catheter tracking system may divide the patch into a patch having a predetermined size with respect to the area around the catheter extracted from the previous frame.

카테터 추적 시스템은 분할된 일부 영역의 패치에 기초하여 픽셀 계조의 분산을 산출한다(S630). 카테터 추적 시스템은 카테터의 영역이 존재하는지 판단한다(S640). 카테터 추적 시스템은 패치의 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치가 존재하는 경우, 카테터의 영역이 존재한다고 판단할 수 있다. 카테터 추적 시스템은 카테터의 영역이 존재한다고 판단하는 경우, 도 5에서 설명한 S540 및 S550 과정을 수행하여 카테터를 식별하고 카테터의 위치 정보를 추출할 수 있다.The catheter tracking system calculates a variance of pixel grayscales based on the patches of the divided partial regions (S630). The catheter tracking system determines whether an area of the catheter exists (S640). The catheter tracking system may determine that a region of the catheter exists when there is a patch whose distribution of pixel gray levels of the patch is within a preset threshold range. If the catheter tracking system determines that there is an area of the catheter, the catheter may be identified and the location information of the catheter may be extracted by performing the steps S540 and S550 described with reference to FIG. 5.

한편, 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치가 없는 경우 또는 U-net의 추정결과가 모두 배경으로 나오는 경우, 일부 영역의 패치 내에는 카테터의 영역이 존재하지 않는다고 판단할 수 있다. 카테터 추적 시스템은 도 5에서 설명한 바와 유사하게, 전체 이미지 프레임에 대해 S520 내지 S550 과정을 수행하여 카테터를 식별하고 카테터의 위치 정보를 추출할 수 있다.On the other hand, the catheter tracking system may determine that there is no catheter region in the patch of some regions when there is no patch whose pixel gradation is within a preset threshold range or when the U-net estimation results are all in the background. Can be. The catheter tracking system may identify the catheter and extract the catheter's position information by performing processes S520 to S550 on the entire image frame, as described with reference to FIG. 5.

상술한 다양한 실시 예에 따른 카테터 추적 시스템의 제어 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.The control method of the catheter tracking system according to the various embodiments described above may be provided as a computer program product. The computer program product may include a software program itself or a non-transitory computer readable medium in which the software program is stored.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. The non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the above-described specific embodiment, the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

100: 카테터 추적 시스템 110: 카테터
120: 카메라 130: 프로세서
100: catheter tracking system 110: catheter
120: camera 130: processor

Claims (15)

카테터를 촬영하는 단계;
상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계;
상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하는 단계;
합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하는 단계; 및
상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는 단계;를 포함하는 카테터 추적 시스템의 제어 방법.
Photographing the catheter;
Dividing the first image frame photographed by the catheter into a patch having a predetermined size;
Calculating a variance of pixel gray levels for each of the divided patches;
Identifying a region of the catheter for a patch whose calculated variance is within a preset first threshold range based on a convolutional neural network; And
Extracting location information of the catheter based on the identified area of the catheter; and controlling the catheter tracking system.
제1항에 있어서,
상기 합성곱 신경망은 U-net 구조이고,
상기 식별하는 단계는,
상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별하는, 카테터 추적 시스템의 제어 방법.
The method of claim 1,
The composite product neural network is a U-net structure,
The identifying step,
Identifying a region of the catheter by generating a binary map in which a pixel identified as the catheter is mapped to a foreground value and remaining pixels are mapped to a background value based on a patch within the preset first threshold range; Control method of catheter tracking system.
제2항에 있어서,
상기 U-net 구조는 컨벌루션 레이어와 디컨벌루션 레이어를 포함하고, 상기 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행하는, 카테터 추적 시스템의 제어 방법.
The method of claim 2,
The U-net structure includes a convolutional layer and a deconvolutional layer, and each of the convolutional layer and the deconvolutional layer performs a batch normalization process to reduce a learning time.
제3항에 있어서,
상기 디컨벌루션 레이어는 드롭아웃 과정을 수행하는, 카테터 추적 시스템의 제어 방법.
The method of claim 3,
The deconvolution layer performs a dropout process.
제2항에 있어서,
상기 식별하는 단계는,
상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정하는, 카테터 추적 시스템의 제어 방법.
The method of claim 2,
The identifying step,
If the gray level of the pixel identified as the catheter is smaller than a second preset threshold, controlling the catheter tracking system to modify the mapping value of the pixel of the gray scale smaller than the second preset threshold value in the binary map to a background value Way.
제2항에 있어서,
상기 추출하는 단계는,
상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성하는, 카테터 추적 시스템의 제어 방법.
The method of claim 2,
The extracting step,
And generating a full binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the remaining binary map of all the patches mapped to all background pixels. .
제6항에 있어서,
상기 추출하는 단계는,
상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템의 제어 방법.
The method of claim 6,
The extracting step,
And extracting coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extracting location information of the catheter by averaging the extracted coordinate information.
제1항에 있어서,
상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는 단계;를 더 포함하는 카테터 추적 시스템의 제어 방법.
The method of claim 1,
The next image frame of the first image frame is divided into patches having the predetermined size for the partial region based on the extracted positional information of the catheter, and the region of the catheter is identified based on the divided partial region patches. And controlling the catheter tracking system.
제8항에 있어서,
상기 분할된 일부 영역의 패치에 상기 카테터의 영역이 포함되지 않은 경우, 상기 다음 이미지 프레임 전체를 기 설정된 크기의 패치로 분할하고, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산에 기초하여 상기 카테터의 영역을 식별하는 단계;를 더 포함하는 카테터 추적 시스템의 제어 방법.
The method of claim 8,
When the patch of the divided partial region does not include the region of the catheter, the entire next image frame is divided into patches having a predetermined size, and the catheter of the catheter is based on the distribution of pixel gray levels for each of the divided patches. Identifying an area; further comprising a catheter tracking system.
카테터;
상기 카테터를 촬영하는 카메라; 및
상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 프로세서;를 포함하고,
상기 프로세서는,
상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하고, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하며, 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템.
Catheter;
A camera for photographing the catheter; And
And dividing the first image frame photographed by the catheter into a patch having a predetermined size.
The processor,
Calculating a variance of pixel gradations for each of the divided patches, identifying a region of the catheter for a patch whose calculated variance is within a preset first threshold range based on a convolutional neural network, A catheter tracking system for extracting location information of the catheter based on the identified catheter region.
제10항에 있어서,
상기 합성곱 신경망은 U-net 구조이고,
상기 프로세서는,
상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별하는, 카테터 추적 시스템.
The method of claim 10,
The composite product neural network is a U-net structure,
The processor,
Identifying a region of the catheter by generating a binary map in which a pixel identified as the catheter is mapped to a foreground value and remaining pixels are mapped to a background value based on a patch within the preset first threshold range; Catheter tracking system.
제11항에 있어서,
상기 프로세서는,
상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정하는, 카테터 추적 시스템.
The method of claim 11,
The processor,
And when the gray level of the pixel identified as the catheter is smaller than a second preset threshold value, modifying a mapping value of the pixel of gray scale smaller than the second preset threshold value in the binary map to a background value.
제11항에 있어서,
상기 프로세서는,
상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성하는, 카테터 추적 시스템.
The method of claim 11,
The processor,
And generating a full binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the rest of the patch's binary map that maps all pixels to a background value.
제13항에 있어서,
상기 프로세서는,
상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템.
The method of claim 13,
The processor,
And extracting coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extracting the location information of the catheter by averaging the extracted coordinate information.
제10항에 있어서,
상기 프로세서는,
상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는, 카테터 추적 시스템.
The method of claim 10,
The processor,
The next image frame of the first image frame is divided into patches having the predetermined size for the partial region based on the extracted positional information of the catheter, and the region of the catheter is identified based on the divided partial region patches. Catheter tracking system.
KR1020180054790A 2018-05-14 2018-05-14 Catheter tracking system and controlling method thereof KR102174246B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180054790A KR102174246B1 (en) 2018-05-14 2018-05-14 Catheter tracking system and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180054790A KR102174246B1 (en) 2018-05-14 2018-05-14 Catheter tracking system and controlling method thereof

Publications (2)

Publication Number Publication Date
KR20190130310A true KR20190130310A (en) 2019-11-22
KR102174246B1 KR102174246B1 (en) 2020-11-04

Family

ID=68730948

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180054790A KR102174246B1 (en) 2018-05-14 2018-05-14 Catheter tracking system and controlling method thereof

Country Status (1)

Country Link
KR (1) KR102174246B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235804A1 (en) * 2020-05-18 2021-11-25 주식회사 루닛 Method and system for determining abnormality of medical device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100123160A (en) * 2009-05-14 2010-11-24 국립암센터 Method of detection for surgical instruments, recording media of the same, surgical system of using the same and surgical subsystem of using the same
KR20170070715A (en) * 2015-12-14 2017-06-22 삼성전자주식회사 Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100123160A (en) * 2009-05-14 2010-11-24 국립암센터 Method of detection for surgical instruments, recording media of the same, surgical system of using the same and surgical subsystem of using the same
KR20170070715A (en) * 2015-12-14 2017-06-22 삼성전자주식회사 Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 3* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021235804A1 (en) * 2020-05-18 2021-11-25 주식회사 루닛 Method and system for determining abnormality of medical device
US11844632B2 (en) 2020-05-18 2023-12-19 Lunit Inc. Method and system for determining abnormality in medical device

Also Published As

Publication number Publication date
KR102174246B1 (en) 2020-11-04

Similar Documents

Publication Publication Date Title
KR102275452B1 (en) Method for tracking image in real time considering both color and shape at the same time and apparatus therefor
CN111127425B (en) Target detection positioning method and device based on retina fundus image
US10891473B2 (en) Method and device for use in hand gesture recognition
JP2021536057A (en) Lesion detection and positioning methods, devices, devices, and storage media for medical images
US11600008B2 (en) Human-tracking methods, systems, and storage media
US11893789B2 (en) Deep neural network pose estimation system
US20140003738A1 (en) Method and apparatus for gaze point mapping
CN110176010B (en) Image detection method, device, equipment and storage medium
CN106372629A (en) Living body detection method and device
CN109285142B (en) Method and device for detecting head and neck tumors and computer readable storage medium
US11417003B2 (en) Method and apparatus for tracking eyes of user and method of generating inverse-transform image
JP2021530331A (en) Methods and systems for automatically generating and analyzing fully quantitative pixel-based myocardial blood flow and myocardial blood flow reserve maps to detect ischemic heart disease using cardiac perfusion magnetic resonance imaging
JP6756406B2 (en) Image processing equipment, image processing method and image processing program
CN112037287B (en) Camera calibration method, electronic equipment and storage medium
CN110969046B (en) Face recognition method, face recognition device and computer-readable storage medium
CN113190117B (en) Pupil and light spot positioning method, data calculation method and related device
US11875257B2 (en) Normalization method for machine-learning and apparatus thereof
JP2019512821A (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
US20230015384A1 (en) Method, Apparatus, Storage Medium and Processor for Medical Image Auto-segmentation
KR102174246B1 (en) Catheter tracking system and controlling method thereof
US11054903B2 (en) Method, eyetracker and computer program for determining eye positions in digital image data
US20160140395A1 (en) Adaptive sampling for efficient analysis of ego-centric videos
US11900615B2 (en) Tracking device, endoscope system, and tracking method
KR102074977B1 (en) Electronic devices and methods thereof
US11430126B2 (en) Method and image processing apparatus for the segmentation of image data and computer program product

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right