KR20190130310A - Catheter tracking system and controlling method thereof - Google Patents
Catheter tracking system and controlling method thereof Download PDFInfo
- Publication number
- KR20190130310A KR20190130310A KR1020180054790A KR20180054790A KR20190130310A KR 20190130310 A KR20190130310 A KR 20190130310A KR 1020180054790 A KR1020180054790 A KR 1020180054790A KR 20180054790 A KR20180054790 A KR 20180054790A KR 20190130310 A KR20190130310 A KR 20190130310A
- Authority
- KR
- South Korea
- Prior art keywords
- catheter
- tracking system
- patch
- patches
- image frame
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M25/00—Catheters; Hollow probes
- A61M25/01—Introducing, guiding, advancing, emplacing or holding catheters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Robotics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Hematology (AREA)
- Anesthesiology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Pulmonology (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
본 개시는 카테터 추적 시스템 및 제어 방법에 관한 것으로, 더욱 상세하게는 신경망 학습을 이용한 카테터 위치를 추적하는 카테터 추적 시스템 및 제어 방법에 관한 것이다.The present disclosure relates to a catheter tracking system and control method, and more particularly to a catheter tracking system and control method for tracking the catheter position using neural network learning.
최근 의료로봇 기술의 발전에 따라 최소한의 절개를 통해 카테터와 같은 소형의 의료도구를 이용하여 수술을 수행하는 의료 장치가 개발되고 있다. 카테터와 같은 소형의 의료도구를 이용하여 수술을 수행하는 의료장치가 효율적으로 제어되기 위해서 영상 내에서 카테터 위치를 실시간으로 식별할 수 있는 기술이 필요하다. Recently, according to the development of medical robot technology, a medical device for performing surgery using a small medical tool such as a catheter through minimal incision has been developed. In order to efficiently control a medical device performing surgery using a small medical tool such as a catheter, a technique for identifying a catheter position in real time in an image is required.
로봇 카테터와 같은 의료 장치는 시술의 성공률을 높이기 위해 정교하게 제어되어야 하는데, 정교한 제어를 위해 카테터 위치를 실시간으로 추적하는 기술이 필요하다. 임계값(Thresholding)을 이용한 이진화나 헤시안 필터링(hessian filter) 등을 이용한 기본적인 영상처리 기법은 처리 속도는 빠르지만 영상 잡음에 약하고, 일반적인 학습모델을 기반으로 하는 머신러닝 기법은 높은 계산량을 필요로 하기 때문에 카테터 제어를 위한 실시간 추적에 부적합하다.Medical devices, such as robotic catheter, must be precisely controlled to increase the success rate of the procedure, which requires techniques to track the catheter position in real time for precise control. Basic image processing techniques, such as binarization using thresholding and hessian filtering, are fast, but weak in image noise, and machine learning techniques based on general learning models require high computational throughput. It is not suitable for real-time tracking for catheter control.
또한, 신체에 마커를 부착하여 카테터의 위치정보를 획득하는 기술이 제안되기도 하였다. 그러나, 카테터 위치 산출을 위해 의사가 수술 전에 환자의 신체 표면에 복수의 마커를 부착해야 한다. 환자의 신체에 마커를 부착하는 작업은 불편함을 초래한다. 그리고, 마커 부착 위치, 개수 등에 따라 촬영된 영상의 정확성이 떨어지고, 마커 부착 위치와 환자들의 움직임에 따라 오류가 발생하는 문제점이 있다. In addition, a technique of acquiring position information of a catheter by attaching a marker to a body has been proposed. However, the catheter position calculation requires the surgeon to attach a plurality of markers to the patient's body surface prior to surgery. Attaching the marker to the patient's body causes inconvenience. In addition, there is a problem in that the accuracy of the image taken according to the marker attachment position, number, etc. is reduced, and an error occurs according to the marker attachment position and the movement of the patients.
따라서, 카테터의 위치 추적이나 영상 보정 등을 위한 마커와 같은 추가 장치 및 추가 장치 부착 작업이 필요없고, 카테터의 위치 검출의 정확도와 검출 속도를 높일 수 있는 기술에 대한 필요성이 존재한다.Therefore, there is no need for additional devices such as markers for catheter position tracking or image correction, and for attaching additional devices, and there is a need for a technique capable of increasing the accuracy and detection speed of catheter position detection.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 본 개시의 목적은 마커와 같은 추가 장치 없이 카테터의 위치를 정확하게 검출할 수 있는 카테터 추적 시스템 및 제어 방법을 제공하는 것이다.SUMMARY The present disclosure is directed to solving the above-described problems, and an object of the present disclosure is to provide a catheter tracking system and a control method capable of accurately detecting the position of a catheter without an additional device such as a marker.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 카테터 추적 시스템의 제어 방법은 카테터를 촬영하는 단계, 상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하는 단계, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하는 단계 및 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는 단계를 포함한다.According to an embodiment of the present disclosure for achieving the above object, the control method of the catheter tracking system comprises the steps of photographing the catheter, dividing the first image frame photographed by the catheter into a patch of a predetermined size, Calculating a variance of pixel gradations for each of the divided patches; identifying a region of the catheter for a patch whose calculated variance is within a preset first threshold range based on a convolutional neural network And extracting location information of the catheter based on the identified area of the catheter.
그리고, 상기 합성곱 신경망은 U-net 구조이고, 상기 식별하는 단계는 상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별할 수 있다.In addition, the convolutional neural network has a U-net structure, and the identifying may include: a pixel identified by the catheter based on a patch within the preset first threshold range, a foreground value, and the remaining pixels are a background. By generating a binary map that maps to the value of) can be identified the area of the catheter.
또한, 상기 U-net 구조는 컨벌루션 레이어와 디컨벌루션 레이어를 포함하고, 상기 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행할 수 있다.In addition, the U-net structure may include a convolutional layer and a deconvolutional layer, and each of the convolutional layer and the deconvolutional layer may perform a batch normalization process to reduce a learning time.
또한, 상기 디컨벌루션 레이어는 드롭아웃 과정을 수행할 수 있다.In addition, the deconvolution layer may perform a dropout process.
한편, 상기 식별하는 단계는 상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.On the other hand, if the gray level of the pixel identified by the catheter is less than the second preset threshold value, the identifying may modify the mapping value of the pixel of the gray scale smaller than the second preset threshold value in the binary map as a background value. Can be.
그리고, 상기 추출하는 단계는 상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다.The extracting may include generating the entire binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the binary map of the remaining patches in which all pixels are mapped to the background value. Can be.
또한, 상기 추출하는 단계는 상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출할 수 있다.The extracting may include extracting coordinate information of each pixel identified by the catheter based on the generated binary map, and extracting location information of the catheter by averaging the extracted coordinate information.
한편, 카테터 추적 시스템의 제어 방법은 상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는 단계를 더 포함할 수 있다.The control method of the catheter tracking system divides a next image frame of the first image frame into a patch having a predetermined size for a partial region based on the extracted position information of the catheter, and patches the divided partial region. The method may further include identifying an area of the catheter based on the method.
그리고, 카테터 추적 시스템의 제어 방법은 상기 분할된 일부 영역의 패치에 상기 카테터의 영역이 포함되지 않은 경우, 상기 다음 이미지 프레임 전체를 기 설정된 크기의 패치로 분할하고, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산에 기초하여 상기 카테터의 영역을 식별하는 단계를 더 포함할 수 있다.If the patch of the divided partial region does not include the catheter region, the control method of the catheter tracking system divides the entire next image frame into patches having a predetermined size, and pixels for each of the divided patches. The method may further include identifying the area of the catheter based on the variance of the gray level.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 카테터 추적 시스템은 카테터, 상기 카테터를 촬영하는 카메라 및 상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 프로세서를 포함하고, 상기 프로세서는 상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하고, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하며, 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출한다.According to an embodiment of the present disclosure for achieving the above object, a catheter tracking system includes a processor for dividing a catheter, a camera for photographing the catheter, and a first image frame in which the catheter is photographed into patches of a predetermined size. Wherein the processor calculates a variance of pixel gradations for each of the divided patches and based on a convolutional neural network, the catheter for the patch for which the calculated variance is within a preset first threshold range. Identifying the area of the, and extracting the location information of the catheter based on the identified area of the catheter.
그리고, 상기 합성곱 신경망은 U-net 구조이고, 상기 프로세서는 상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별할 수 있다.In addition, the convolutional neural network has a U-net structure, and the processor determines that a pixel identified as the catheter is a foreground value and the remaining pixels are a background value based on a patch within the preset first threshold range. By generating a binary map that is mapped to can identify the area of the catheter.
또한, 상기 프로세서는 상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.In addition, when the gray level of the pixel identified by the catheter is smaller than a second preset threshold value, the processor may modify a mapping value of a pixel of gray scale smaller than the second preset threshold value in the binary map as a background value. .
또한, 상기 프로세서는 상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다.The processor may generate the entire binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the binary map of the remaining patches in which all pixels are mapped to the background value. .
그리고, 상기 프로세서는 상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출할 수 있다.The processor may extract coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extract location information of the catheter by averaging the extracted coordinate information.
또한, 상기 프로세서는 상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별할 수 있다.The processor may divide a next image frame of the first image frame into a patch having a predetermined size for a partial region based on the extracted location information of the catheter, and based on the patch of the divided partial region, The area of the catheter can be identified.
이상 설명한 바와 같이, 본 개시의 다양한 실시 예에 따르면, 카테터 추적 시스템 및 제어 방법은 마커와 같은 추가 장치가 필요하지 않고, 부착 작업과 같이 추가 작업이 필요하지 않기 때문에 편리하다.As described above, according to various embodiments of the present disclosure, the catheter tracking system and the control method are convenient because no additional device such as a marker is needed and no additional work such as an attaching operation is required.
그리고, 카테터 추적 시스템 및 제어 방법은 수행 속도가 빨라 카테터 영역이 포함된 영상을 자동으로 실시간 처리할 수 있다.In addition, the catheter tracking system and control method can perform a real-time processing of the image including the catheter region automatically because the performance is fast.
또한, 카테터 추적 시스템 및 제어 방법은 카테터의 빠른 위치 변화와 영상 잡음 등과 같은 변수에 대해 강인한 추적 성능을 얻을 수 있다.In addition, catheter tracking systems and control methods can achieve robust tracking performance for variables such as catheter's rapid position change and image noise.
또한, 카테터 추적 시스템 및 제어 방법은 카테터를 신속하게 추적할 수 있고, 검출 정확도를 향상시킬 수 있다.In addition, catheter tracking systems and control methods can quickly track catheter and improve detection accuracy.
도 1은 본 개시의 일 실시 예에 따른 카테터 추적 시스템을 설명하는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 카테터 추적 시스템의 프레임워크를 설명하는 도면이다.
도 3은 본 개시의 일 실시 예에 따른 첫번째 프레임의 이후 프레임으로부터 카테터를 검출하는 과정을 설명하는 도면이다.
도 4는 본 개시에 따른 방법과 기존 방법의 정확도의 비교 결과이다.
도 5는 본 개시의 일 실시 예에 따른 카테터 추적 시스템 제어 방법의 흐름도이다.
도 6은 본 개시의 일 실시 예에 따른 두번째 프레임 이후의 제어 방법 흐름도이다.1 is a diagram illustrating a catheter tracking system according to an embodiment of the present disclosure.
2 is a diagram illustrating a framework of a catheter tracking system according to an embodiment of the present disclosure.
3 is a diagram illustrating a process of detecting a catheter from a frame after the first frame according to an embodiment of the present disclosure.
4 is a comparison result of the accuracy of the method according to the present disclosure and the existing method.
5 is a flowchart illustrating a catheter tracking system control method according to an exemplary embodiment.
6 is a flowchart illustrating a control method after a second frame according to an embodiment of the present disclosure.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments will be described in more detail with reference to the accompanying drawings. Embodiments described herein may be variously modified. Specific embodiments are depicted in the drawings and may be described in detail in the detailed description. However, the specific embodiments disclosed in the accompanying drawings are only for easily understanding the various embodiments. Therefore, the technical spirit is not limited by the specific embodiments disclosed in the accompanying drawings, and it should be understood to include all equivalents or substitutes included in the spirit and scope of the invention.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including ordinal numbers such as first and second may be used to describe various components, but these components are not limited by the terms described above. The terms described above are used only for the purpose of distinguishing one component from another.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In this specification, the terms "comprises" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 제어부에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.On the other hand, "module" or "unit" for the components used in the present specification performs at least one function or operation. The module or unit may perform a function or an operation by hardware, software, or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "parts" other than a "module" or a "part" to be performed in specific hardware or performed by at least one control unit may be integrated into at least one module. Singular expressions include plural expressions unless the context clearly indicates otherwise.
그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다. 한편, 각 실시 예는 독립적으로 구현되거나 동작될 수도 있지만, 각 실시 예는 조합되어 구현되거나 동작될 수도 있다.In addition, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be abbreviated or omitted. Meanwhile, although each embodiment may be independently implemented or operated, each embodiment may be implemented or operated in combination.
도 1은 본 개시의 일 실시 예에 따른 카테터 추적 시스템을 설명하는 도면이다.1 is a diagram illustrating a catheter tracking system according to an embodiment of the present disclosure.
도 1을 참조하면, 카테터 추적 시스템(100)은 카테터(110), 카메라(120) 및 프로세서(130)를 포함한다. 카테터(110)는 환자(1)의 환부를 검사하거나 환부를 치료하기 위해 환자의 몸에 삽입되는 의료용 도구일 수 있다. 카메라(120)는 카테터(110)를 포함하는 동영상을 촬영한다. 카메라(120)는 카테터(110)와 환자(1)를 촬영할 수 있는 위치에 배치될 수 있다.Referring to FIG. 1, the
프로세서(130)는 카테터(110)가 촬영된 동영상의 제1 이미지 프레임을 기 설정된 크기의 패치로 분할한다. 예를 들어, 제1 이미지 프레임의 해상도는 960×960일 수 있고, 프로세서(130)는 제1 이미지 프레임을 160×160 크기의 패치로 분할할 수 있다. 즉, 프로세서(130)는 제1 이미지 프레임을 36개의 패치로 분할할 수 있다. 상술한 제1 이미지 프레임의 해상도, 분할된 패치의 크기 등은 일 실시 예이며, 카테터 추적 시스템(100)은 다양한 해상도로 촬영할 수 있고, 다양한 크기의 패치로 분할할 수 있다.The
프로세서(130)는 분할된 패치 각각에 대해 픽셀 계조(gray scale)의 분산을 산출한다. 예를 들어, 프로세서(130)는 160×160 크기의 제1 패치에 대해 25600개의 픽셀의 계조에 기초하여 제1 패치의 픽셀 계조의 분산을 산출한다. 동일한 방식으로, 프로세서(130)는 36개의 분할된 패치에 대해 픽셀 계조의 분산을 산출할 수 있다. 프로세서(130)는 합성곱 신경망(convolution neural network)에 기초하여 산출된 분산이 기 설정된 임계값 범위 내인 패치에 대해 카테터의 영역을 식별한다. 분할된 패치에 카테터(110)가 포함된 경우, 분할된 패치 내의 카테터 영역의 계조는 높은 값으로 나타날 수 있다. 반면에, 나머지 영역의 계조는 상대적으로 낮은 값으로 나타날 수 있다. 따라서, 카테터 영역이 포함된 패치의 분산은 카테터 영역이 포함되지 않은 패치의 분산에 비해 높을 수 있다. The
기 설정된 임계값의 범위는 카메라(120)에서 촬영된 이미지에 기초하여 다양한 범위로 설정될 수 있다. 예를 들어, 기 설정된 임계값의 범위는 10 내지 150일 수 있다. 제1 패치의 픽셀 계조의 분산이 10보다 작거나 150보다 큰 경우, 프로세서(130)는 제1 패치에서 카테터의 영역을 식별하는 과정을 수행하지 않는다. 즉, 프로세서(130)는 제1 패치를 스킵할 수 있다. 제2 패치의 픽셀 계조의 분산이 10보다 크고 150보다 작은 경우, 프로세서(130)는 제2 패치에서 카테터의 영역을 식별하는 과정을 수행한다.The preset threshold range may be set to various ranges based on the image photographed by the
예를 들어, 카테터 영역을 식별하는 과정은 U-net 구조의 합성곱 신경망에 기초하여 수행될 수 있다. U-net 구조의 합성곱 신경망에 카테터가 포함된 이미지 프레임을 입력시켜 카테터의 영역을 식별하는 과정을 학습시킬 수 있다. 카테터 영역을 식별하는 과정이 학습된 U-net 구조의 합성곱 신경망은 이후 촬영된 새로운 이미지 프레임으로부터 카테터의 영역을 식별할 수 있다. 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치에서 카테터로 식별된 픽셀은 전경(foreground) 값으로 매핑하고, 나머지 픽셀은 배경(background) 값으로 매핑하여 바이너리 맵을 생성할 수 있다. 예를 들어, 전경 값은 1, 배경 값은 0일 수 있다. 카테터의 영역을 식별하는 구체적인 과정은 후술한다.For example, the process of identifying the catheter region may be performed based on the convolutional neural network of the U-net structure. The process of identifying the catheter region can be learned by inputting the image frame including the catheter to the composite product neural network of the U-net structure. The multiplicative neural network of the U-net structure trained in identifying the catheter region may identify the catheter region from the new image frame. The
프로세서(130)는 식별된 카테터의 영역에 기초하여 카테터의 위치 정보(또는, 카테터 끝단(tip)의 위치 정보)를 추출한다. 상술한 바와 같이, 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치에 대해 바이너리 맵을 생성할 수 있다. 그리고, 프로세서(130)는 분산이 기 설정된 임계값 범위를 벗어나는 패치에 대해 모든 픽셀을 배경 값으로 매핑시킨 바이너리 맵을 생성할 수 있다. 프로세서(130)는 분산이 기 설정된 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다. 그리고, 프로세서(130)는 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터 위치 정보를 추출할 수 있다. 상술한 예는 일 실시 예이며, 프로세서(130)는 카테터로 식별된 픽셀 중 외곽 픽셀의 좌표 정보만을 추출하여 카테터 위치 정보를 추출할 수도 있으며, 카테터로 식별된 픽셀 중 특정 픽셀의 좌표 정보만을 추출하여 카테터 위치 정보를 추출할 수도 있다. 예를 들어, 특정 픽셀은 카테터의 오른쪽 끝단 픽셀, 오른쪽 끝단으로부터 3 픽셀 등으로 설정될 수 있다.The
한편, 카테터 추적 시스템은 카테터, 카메라 및 프로세서가 별개의 장치인 시스템 형태로 구현될 수 있고, 하나의 장치로 구현된 카테터 장치 또는 카테터 로봇일 수도 있다.The catheter tracking system may be implemented in the form of a system in which the catheter, camera and processor are separate devices, or may be a catheter device or a catheter robot implemented as one device.
도 2는 본 개시의 일 실시 예에 따른 카테터 추적 시스템의 프레임워크를 설명하는 도면이다.2 is a diagram illustrating a framework of a catheter tracking system according to an embodiment of the present disclosure.
카테터 추적 시스템은 카테터를 포함하는 이미지 프레임(11)을 촬영한다. 예를 들어, 카테터가 촬영된 이미지 프레임(11)의 해상도는 960×960일 수 있다. 카테터 추적 시스템은 촬영된 제1 이미지 프레임(11)을 복수 개의 패치로 분할(12)한다. 예를 들어, 분할된 패치의 크기는 160×160일 수 있다. 카테터 추적 시스템은 분할된 패치에 포함된 모든 픽셀 계조의 분산을 산출하고, 기 설정된 임계값 범위 내인지 판단할 수 있다. 예를 들어, 기 설정된 임계값 범위는 10 내지 150으로 설정될 수 있고, 180 내지 350으로 설정될 수도 있다. 기 설정된 임계값의 범위는 카메라(120)에서 촬영된 이미지의 특성 등에 기초하여 적절한 범위로 설정될 수 있다.The catheter tracking system captures an
카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치(12-1)에 대해 카테터의 영역을 식별할 수 있다. 일 실시 예로서, 카테터 영역을 식별하는 과정은 U-net 구조의 합성곱 신경망에 기초하여 수행될 수 있다. U-net 구조의 합성곱 신경망은 U 형태로 데이터를 처리하는 신경망으로 복수의 컨벌루션 레이어(convolution layer), 복수의 디컨벌루션 레이어(deconvolution layer), 복수의 풀링 레이어(pooling layer), 복수의 언풀링 레이어(unpooling layer) 등을 포함할 수 있다. 일 실시 예로서, U-net 구조의 합성곱 신경망은 10개의 컨벌루션 레이어, 4개의 풀링 레이어, 4개의 언풀링 레이어, 9개의 디컨벌루션 레이어를 포함할 수 있다. 컨벌루션 레이어와 풀링 레이어는 이미지의 크기를 줄여가며 낮은 차원부터 높은 차원으로 특징을 추출할 수 있다. 그리고, 언풀링 레이어 및 디컨벌루션 레이어는 크기를 늘려 전경 영역(예, 카테터 영역)과 배경 영역을 예측할 수 있다. U-net 구조의 합성곱 신경망은 컨벌루션 레이어의 출력을 대응되는 디컨벌루션 레이어에서 입력으로 사용함으로써 다른 기법에 비해 이미지 복원력을 향상시킬 수 있다. U-net 구조의 합성곱 신경망은 카테터가 포함된 이미지 프레임을 입력시켜 상술한 과정을 통해 카테터의 영역을 식별하도록 학습될 수 있다. 카테터 영역을 식별하는 과정이 학습된 U-net 구조의 합성곱 신경망은 이후 촬영된 새로운 이미지 프레임으로부터 카테터의 영역을 식별할 수 있다.The catheter tracking system may identify the area of the catheter for the patch 12-1 in which the variance of the pixel gray levels is within a preset threshold range. In one embodiment, the process of identifying the catheter region may be performed based on the convolutional neural network of the U-net structure. Synthetic multiplication neural network of U-net structure is a neural network that processes data in U shape, and includes a plurality of convolution layers, a plurality of deconvolution layers, a plurality of pooling layers, and a plurality of unpooling data. And an unpooling layer. In one embodiment, the multiplicative neural network of the U-net structure may include 10 convolutional layers, four pulling layers, four unpooling layers, and nine deconvolution layers. Convolutional and pooling layers reduce the size of the image and can extract features from low to high dimensions. The unpooling layer and the deconvolution layer may increase in size to predict the foreground area (eg, catheter area) and the background area. The multiplicative neural network of U-net structure can improve the image resilience compared to other techniques by using the output of the convolutional layer as input in the corresponding deconvolutional layer. The convolutional neural network of the U-net structure may be trained to identify an area of the catheter by inputting an image frame including a catheter. The multiplicative neural network of the U-net structure trained in identifying the catheter region may identify the catheter region from the new image frame.
카테터 추적 시스템은 패치 내에서 카테터로 식별된 픽셀은 전경 값으로 매핑하고, 나머지 픽셀은 배경 값으로 매핑한 바이너리 맵(13-1)을 생성할 수 있다. 예를 들어, 전경 값은 1, 배경 값은 0일 수 있다. 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 모든 패치를 기초로 상술한 과정을 통해 각각의 패치에 대응되는 바이너리 맵을 생성할 수 있다. 그리고, 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위를 벗어나는 패치의 모든 픽셀을 배경 값으로 매핑한 바이너리 맵을 생성할 수 있다. 카테터 추적 시스템은 생성된 바이너리 맵을 재구성(reconstruction)하여 원본 크기의 전체 바이너리 맵(13)을 생성할 수 있다.The catheter tracking system may generate a binary map 13-1 in which the pixels identified as catheter in the patch are mapped to the foreground value and the remaining pixels are mapped to the background value. For example, the foreground value may be 1 and the background value may be 0. The catheter tracking system may generate a binary map corresponding to each patch through the above-described process based on all the patches whose distribution of pixel gray levels is within a preset threshold range. In addition, the catheter tracking system may generate a binary map in which all pixels of the patch whose variance of pixel gradations fall outside a preset threshold range are mapped to a background value. The catheter tracking system may reconstruct the generated binary map to produce a full
간혹, 카테터 영역의 경계 부분에 잡음이 추출될 수 있다. 따라서, 카테터 영역 경계 부분에 대한 잡음 제거 과정이 수행될 수 있다. 카테터 추적 시스템은 카테터로 식별된 픽셀의 계조가 기 설정된 전경 임계값보다 작은 경우, 생성된 바이너리 맵에서 기 설정된 전경 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다. 예를 들어, 카테터 추적 시스템에는 전경 임계값이 100으로 설정될 수 있다. 그리고, 카테터 영역의 경계 부분의 두 개의 픽셀 계조는 각각 180, 80일 수 있다. 처음에는 카테터 추적 시스템은 두 개의 픽셀을 모두 전경 값으로 매핑시킬 수 있다. 그러나, 잡음 제거 과정에서 카테터 추적 시스템은 전경 임계값보다 작은 80인 픽셀의 매핑 값을 전경 값에서 배경 값으로 수정할 수 있다. 카테터 추적 시스템은 상술한 과정을 통해 카테터 영역의 잡음을 줄일 수 있다.Occasionally, noise may be extracted at the boundary portion of the catheter region. Therefore, the noise removal process for the catheter region boundary portion may be performed. If the gray level of the pixel identified as the catheter is smaller than the preset foreground threshold value, the catheter tracking system may modify the mapping value of the pixel of the gray level smaller than the preset foreground threshold value in the generated binary map as the background value. For example, the catheter tracking system may have a foreground threshold set to 100. The two pixel gray levels of the boundary portion of the catheter region may be 180 and 80, respectively. Initially, the catheter tracking system can map both pixels to foreground values. However, during the noise reduction process, the catheter tracking system can modify the mapping value of 80 pixels smaller than the foreground threshold from the foreground value to the background value. The catheter tracking system can reduce noise in the catheter region through the above-described process.
카테터 추적 시스템은 전체 바이너리 맵(13)을 원본 이미지 프레임(14)에 매핑할 수 있다. 카테터 추적 시스템은 전체 바이너리 맵(13)에 기초하여 카테터의 위치 정보를 추출할 수 있다. 카테터 추적 시스템은 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터 위치 정보를 추출할 수 있다. 추출된 카테터 위치 정보는 상대적인 위치 정보일 수 있다. 또한, 일 실시 예로서, 카메라는 고정되어 있으므로 카테터 추적 시스템은 카메라 캘리브레이션(calibration) 정보 및 이미지 프레임 내의 카테터의 좌표 정보에 기초하여 카테터의 절대적인 위치 정보를 식별할 수도 있다.The catheter tracking system may map the entire
한편, 컨벌루션 레이어와 디컨벌루션 레이어는 학습 과정에서 학습 속도(또는, 수렴 속도(convergence speed)를 향상시키기 위해 일괄 정규화(batch normalization, BN) 과정을 수행할 수 있다. 일괄 정규화 과정이 수행되는 경우, U-net 구조의 합성곱 신경망은 학습 속도가 향상될 수 있고, 나쁜 초기 값에 대해 더 강인해질 수 있다. 일 실시 예로서, 일괄 정규화 과정은 2번째 컨벌루션 레이어 및 마지막으로부터 2번째 디컨벌루션 레이어에서 수행될 수 있다.Meanwhile, the convolutional layer and the deconvolutional layer may perform a batch normalization (BN) process to improve the learning speed (or convergence speed) in the learning process. The multiplicative neural network of U-net structure can improve the learning speed and become more robust against bad initial values In one embodiment, the batch normalization process is performed in the second convolutional layer and the second deconvolutional layer from the last. Can be performed.
또한, 합성곱 신경망의 디컨벌루션 레이어는 오버피팅(overfitting)을 방지하기 위해 드롭아웃 과정을 수행할 수 있다. 합성곱 신경망은 제한된 데이터를 기초로 학습되기 때문에 학습 모델에 대해서만 좋은 성능을 나타내는 오버피팅 문제가 발생될 수 있다. 따라서, 합성곱 신경망은 디컨벌루션 레이어에서 드롭아웃 과정을 수행함으로써 새로 입력되는 데이터에 대해서도 좋은 성능을 나타낼 수 있다.In addition, the deconvolution layer of the convolutional neural network may perform a dropout process to prevent overfitting. Since the multiplicative neural network is trained based on limited data, an overfitting problem can be generated that shows good performance only for the learning model. Therefore, the convolutional neural network may exhibit good performance on newly input data by performing a dropout process on the deconvolution layer.
카테터 추적 시스템은 학습 최적화를 위해 학습비율(learning rate)이 0.001로 설정되어 학습될 수 있다. 카테터 추적 시스템이 학습될 때, 손실함수(loss function)가 정의되고, 손실함수를 최소화하는 파라미터를 경사하강법을 이용하여 찾는 과정이 수행될 수 있다. 학습비율은 경사하강법의 경사를 따라 움직이는 정도를 의미한다.The catheter tracking system may be learned with a learning rate set to 0.001 for learning optimization. When the catheter tracking system is trained, a loss function is defined and the process of finding a parameter that minimizes the loss function using gradient descent may be performed. The learning rate refers to the degree of movement along the slope of the gradient descent method.
상술한 바와 같이, 본 개시의 카테터 추적 시스템은 외부 마커없이 이미지 프레임의 일부 패치에 대해서만 합성곱 신경망의 학습 및 추적 과정을 수행한다. 따라서, 본 개시의 카테터 추적 시스템은 상술한 과정을 통해 마커 부착 과정이 필요없고, 마커의 변수에 의한 오류가 발생하지 않으며, 잡음에 강인하고, 빠른 데이터 처리에 의한 실시간 카테터 추적이 가능하며, 정확한 카테터 추적이 가능하다.As described above, the catheter tracking system of the present disclosure performs the training and tracking of the composite product neural network only on a partial patch of the image frame without an external marker. Therefore, the catheter tracking system of the present disclosure does not require a marker attachment process through the above-described process, does not cause an error due to a variable of the marker, is robust to noise, enables real-time catheter tracking by fast data processing, and accurate Catheter tracking is possible.
지금까지 촬영된 이미지 중 첫번째 이미지 프레임에서 카테터의 위치 정보를 추출하는 과정을 설명하였다. 아래에서는 두번째 이후 이미지 프레임에서 카테터의 위치 정보를 추출하는 과정을 설명한다.So far, the process of extracting the catheter's position information from the first image frame has been described. The following describes the process of extracting the catheter's position information from the second and subsequent image frames.
도 3은 본 개시의 일 실시 예에 따른 첫번째 프레임의 이후 프레임으로부터 카테터를 검출하는 과정을 설명하는 도면이다.3 is a diagram illustrating a process of detecting a catheter from a frame after the first frame according to an embodiment of the present disclosure.
이후 프레임부터는 프레임 간 카테터의 위치 변화가 일정수준 이하라는 점을 고려하여 카테터 추적 시스템은 이전 프레임에서 찾아낸 카테터의 중심 위치를 기초로 160×160 크기의 패치를 생성할 수 있다. Afterwards, the catheter tracking system can generate a 160 × 160 patch based on the center position of the catheter found in the previous frame, considering that the position change of the catheter between frames is less than a certain level.
도 3을 참조하면, 카테터(3-2)가 포함된 두번째 이미지 프레임(20)이 도시되어 있다. 점선으로 표시된 카테터(3-1)은 첫번째 이미지 프레임에 포함된 카테터를 의미한다. 즉, 첫번째 이미지 프레임에 포함된 점선으로 표시된 카테터(3-1)는 약간 이동하여 두번째 이미지 프레임(20)에는 첫번째 이미지 프레임과 다른 위치에 카테터(3-2)가 포함될 수 있다.Referring to FIG. 3, there is shown a
카테터 추적 시스템은 제1 이미지 프레임에서 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 다음 이미지 프레임을 기 설정된 크기의 패치로 분할할 수 있다. 예를 들어, 카테터 추적 시스템은 제1 이미지 프레임에서 추출된 카테터의 중심 위치 정보를 기초로 주변 일부 영역에 대해 기 설정된 크기의 패치로 분할할 수 있다. 일 실시 예로서, 도 3에 도시된 바와 같이, 카테터 추적 시스템은 제1 이미지 프레임에서 카테터(3-1)의 위치 정보를 추출한다. 제1 이미지 프레임에서 추출된 카테터(3-1)의 위치 정보(예, 중심 위치 정보)는 제1 패치(21-1)에 포함될 수 있다. 카테터 추적 시스템은 이전 이미지 프레임에서 추출된 카테터(3-1)의 위치 정보를 포함하는 제1 패치(21-1)를 중심으로 주변 일부 영역을 패치(21-2, 25-1)로 분할할 수 있다. 상술한 바와 같이, 카테터는 연속하는 이미지 프레임에서 주변 일부 영역의 패치 중 제2 패치(25-1)에 포함될 수 있다. 따라서, 카테터 추적 시스템은 주변 일부 영역의 패치에 대한 픽셀 계조의 분산을 산출하고, 산출된 분산이 기 설정된 임계값 범위 내인 패치에 대해 카테터의 영역을 식별할 수 있다. 도 3의 예에서, 카테터 추적 시스템은 제2 패치(25-1)에 대해서만 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다. 카테터 영역의 식별 과정 및 추출 과정은 상술한 과정과 동일하다.The catheter tracking system may divide the next image frame into a patch of a predetermined size for a partial region based on the location information of the catheter extracted from the first image frame. For example, the catheter tracking system may divide the patch into a patch having a predetermined size for a portion of the surrounding area based on the center position information of the catheter extracted from the first image frame. As an example, as shown in FIG. 3, the catheter tracking system extracts location information of the catheter 3-1 from the first image frame. Position information (eg, center position information) of the catheter 3-1 extracted from the first image frame may be included in the first patch 21-1. The catheter tracking system divides some peripheral areas into patches 21-2 and 25-1 around the first patch 21-1 including the position information of the catheter 3-1 extracted from the previous image frame. Can be. As described above, the catheter may be included in the second patch 25-1 of the patches of the partial peripheral area in successive image frames. Accordingly, the catheter tracking system can calculate the variance of pixel gray levels for the patches of the peripheral partial regions, and identify the area of the catheter for the patch whose calculated variance is within a preset threshold range. In the example of FIG. 3, the catheter tracking system can identify the catheter region only for the second patch 25-1 and extract the catheter's location information. The process of identifying and extracting the catheter region is the same as the process described above.
카테터 추적 시스템은 두번째 이후 이미지 프레임에 대해서 상술한 과정과 동일한 방식으로 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다.The catheter tracking system may identify the catheter region and extract the catheter's location information in the same manner as the above-described process for the second and subsequent image frames.
한편, 카테터의 위치 변화가 급격하여 분할된 주변 패치 내에 카테터가 포함되지 않을 수 있다. 따라서, 카테터 추적 시스템은 분할된 주변 패치 내에 카테터가 포함되지 않은 경우, 상술한 제1 이미지 프레임에서 카테터의 영역을 추출하는 과정을 수행할 수 있다. 카테터 추적 시스템은 분할된 주변 패치에 대한 픽셀 계조의 분산이 기 설정된 임계값 범위 내가 아니거나 U-net의 추정 결과가 모두 배경으로 나오는 경우, 분할된 주변 패치에는 카테터가 포함되지 않은 것으로 판단할 수 있다.Meanwhile, the catheter may not be included in the divided peripheral patch due to the sudden change in the position of the catheter. Therefore, when the catheter is not included in the divided peripheral patch, the catheter tracking system may perform a process of extracting the area of the catheter from the above-described first image frame. The catheter tracking system may determine that the divided peripheral patches do not include the catheter when the variance of pixel gray level for the divided peripheral patches is not within the preset threshold range or when the U-net estimation results are all in the background. have.
도 4는 본 개시에 따른 방법과 기존 방법의 정확도의 비교 결과이다.4 is a comparison result of the accuracy of the method according to the present disclosure and the existing method.
본 개시의 평가를 위해 DGIST-ETH 마이크로로봇 연구센터에서 취득한 로봇 카테터 동영상 11개가 실험데이터로 사용되었다. 각 이미지 프레임의 카테터 레이블을 생성해주기 위해 사용자 입력을 필요로 하는 반자동 파티클 필터 기반 추적 기법이 모든 동영상에 적용되어 끝단 레이블을 만들어주었다. For the evaluation of the present disclosure, 11 robot catheter videos obtained from the DGIST-ETH microrobot research center were used as experimental data. A semi-automatic particle filter-based tracking technique that requires user input to generate a catheter label for each image frame was applied to all the videos to create the end label.
검증을 위해 데이터를 둘로 나누어 교차 검증이 실시되었고, 본 개시의 기법으로 얻은 결과와 레이블간의 다이스 점수(dice score)에 기초하여 검출의 정확도가 판단되었다. 또한 기존 기법과의 비교를 위해 전체 영상에 대해 U-net 구조의 합성곱 신경망이 적용된 검출 결과를 기초로 검출 정확도와 수행시간의 비교 결과가 도 4에 도시되어 있다.Cross-validation was performed by dividing the data into two for verification, and the accuracy of the detection was determined based on the results obtained by the technique of the present disclosure and the dice score between the labels. In addition, a comparison result of detection accuracy and execution time is shown in FIG. 4 based on a detection result of applying a multiplicative neural network having a U-net structure to the entire image for comparison with an existing technique.
U-net 구조의 합성곱 신경망이 전체영상에 적용되는 경우, 평균 88.1%의 다이스 점수가 얻어졌지만, 본 개시의 기법은 93.8%의 정확성을 보였다. 수행 시간의 경우, NVIDIA GTX 1080 그래픽카드가 장착된 PC를 사용하였을 때 기존 기법은 평균 71 ms가 소요되었지만, 본 개시의 기법은 5 ms가 소요되었다. 따라서, 본 개시의 기법은 약 14배 빠르게 동작하면서 약 5% 가량 높은 검출 성능을 나타낸다.When the multiplicative neural network of the U-net structure was applied to the whole image, an average score of 88.1% was obtained, but the technique of the present disclosure showed 93.8% accuracy. In terms of execution time, the conventional technique took an average of 71 ms when using a PC equipped with an NVIDIA GTX 1080 graphics card, but the technique of the present disclosure took 5 ms. Thus, the technique of the present disclosure exhibits about 5% higher detection performance while operating about 14 times faster.
지금까지, 카테터 추적 시스템의 다양한 실시 예를 설명하였다. 아래에서는, 카테터 추적 시스템 제어 방법의 흐름도를 설명한다.So far, various embodiments of the catheter tracking system have been described. In the following, a flowchart of a catheter tracking system control method is described.
도 5는 본 개시의 일 실시 예에 따른 카테터 추적 시스템 제어 방법의 흐름도이다.5 is a flowchart illustrating a catheter tracking system control method according to an exemplary embodiment.
카테터 추적 시스템은 카테터를 촬영한다(S510). 카테터 추적 시스템은 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할한다(S520). 예를 들어, 제1 이미지 프레임의 해상도는 960×960일 수 있고, 분할되는 패치의 크기는 160×160일 수 있다. 카테터 추적 시스템은 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출한다(S530).The catheter tracking system captures the catheter (S510). The catheter tracking system divides the first image frame in which the catheter is photographed into patches of a predetermined size (S520). For example, the resolution of the first image frame may be 960 × 960, and the size of the divided patch may be 160 × 160. The catheter tracking system calculates a variance of pixel gray levels for each of the divided patches (S530).
카테터 추적 시스템은 합성곱 신경망에 기초하여 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 카테터의 영역을 식별한다(S540). 예를 들어, 합성곱 신경망은 U-net 구조일 수 있다. U-net 구조는 컨벌루션 레이어, 풀링 레이어, 디컨벌루션 레이어 및 언풀링 레이어를 포함할 수 있고, 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행할 수 있다. 또한, 디컨벌루션 레이어는 오버피팅을 방지하기 위해 드롭아웃 과정을 수행할 수 있다.The catheter tracking system identifies the area of the catheter for the patch whose variance calculated based on the convolutional neural network is within a preset first threshold range (S540). For example, the convolutional neural network may be a U-net structure. The U-net structure may include a convolutional layer, a pooling layer, a deconvolutional layer, and an unpooling layer, and each of the convolutional layer and the deconvolutional layer may perform a batch normalization process to reduce learning time. . In addition, the deconvolution layer may perform a dropout process to prevent overfitting.
카테터 추적 시스템은 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성할 수 있다. 또한, 카테터 추적 시스템은 기 설정된 제1 임계값 범위에 포함되지 않는 패치의 모든 픽셀을 배경 값으로 매핑하는 바이너리 맵을 생성할 수 있다. 한편, 카테터 추적 시스템은 잡음 제거 과정을 추가로 수행할 수 있다. 예를 들어, 카테터 추적 시스템은 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정할 수 있다.The catheter tracking system may generate a binary map in which pixels identified by the catheter are mapped to a foreground value and remaining pixels are mapped to a background value based on a patch within a preset first threshold range. In addition, the catheter tracking system may generate a binary map that maps all pixels of the patch not included in the preset first threshold range to the background value. Meanwhile, the catheter tracking system may further perform a noise canceling process. For example, when the gray level of the pixel identified as the catheter is smaller than the second preset threshold, the catheter tracking system may modify the mapping value of the pixel of the gray scale smaller than the second preset threshold value in the binary map as a background value. Can be.
카테터 추적 시스템은 식별된 카테터의 영역에 기초하여 카테터의 위치 정보를 추출한다(S550). 카테터 추적 시스템은 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성할 수 있다. 그리고, 카테터 추적 시스템은 생성된 전체 바이너리 맵에 기초하여 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 추출된 좌표 정보를 평균하여 카테터의 위치 정보를 추출할 수 있다. 예를 들어, 카테터의 위치 정보는 카테터의 중심 위치 정보일 수 있고, 특정 영역의 위치 정보일 수도 있다.The catheter tracking system extracts location information of the catheter based on the identified catheter's area (S550). The catheter tracking system may generate the entire binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the binary map of the remaining patches in which all pixels are mapped to the background value. The catheter tracking system may extract coordinate information of each pixel identified by the catheter based on the generated binary map, and extract the catheter position information by averaging the extracted coordinate information. For example, the location information of the catheter may be center location information of the catheter or may be location information of a specific area.
한편, 카테터 추적 시스템은 두번째 이후 이미지 프레임에 대해서는 보다 간략한 방식으로 카테터 영역을 식별하고, 카테터의 위치 정보를 추출할 수 있다.On the other hand, the catheter tracking system can identify the catheter region and extract the catheter's location information in a simpler manner for the second and subsequent image frames.
도 6은 본 개시의 일 실시 예에 따른 두번째 프레임 이후의 제어 방법 흐름도이다.6 is a flowchart illustrating a control method after a second frame according to an embodiment of the present disclosure.
도 6을 참조하면, 카테터 추적 시스템은 카테터를 촬영한다(S610). 카테터 추적 시스템은 추출된 카테터의 위치 정보에 기초하여 카테터가 촬영된 다음 이미지 프레임의 일부 영역에 대해 기 설정된 크기의 패치로 분할한다(S620). 대부분의 경우, 연속하는 이미지 프레임 내에서 카테터의 움직임은 작을 수 있다. 따라서, 카테터 추적 시스템은 이전 프레임에서 추출된 카테터의 위치 정보를 중심으로 주변 일부 영역에 대해서만 기 설정된 크기의 패치로 분할할 수 있다. Referring to FIG. 6, the catheter tracking system captures the catheter (S610). The catheter tracking system divides the catheter into a patch having a predetermined size for a portion of the image frame after the catheter is photographed based on the extracted location information of the catheter (S620). In most cases, the movement of the catheter in successive image frames can be small. Therefore, the catheter tracking system may divide the patch into a patch having a predetermined size with respect to the area around the catheter extracted from the previous frame.
카테터 추적 시스템은 분할된 일부 영역의 패치에 기초하여 픽셀 계조의 분산을 산출한다(S630). 카테터 추적 시스템은 카테터의 영역이 존재하는지 판단한다(S640). 카테터 추적 시스템은 패치의 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치가 존재하는 경우, 카테터의 영역이 존재한다고 판단할 수 있다. 카테터 추적 시스템은 카테터의 영역이 존재한다고 판단하는 경우, 도 5에서 설명한 S540 및 S550 과정을 수행하여 카테터를 식별하고 카테터의 위치 정보를 추출할 수 있다.The catheter tracking system calculates a variance of pixel grayscales based on the patches of the divided partial regions (S630). The catheter tracking system determines whether an area of the catheter exists (S640). The catheter tracking system may determine that a region of the catheter exists when there is a patch whose distribution of pixel gray levels of the patch is within a preset threshold range. If the catheter tracking system determines that there is an area of the catheter, the catheter may be identified and the location information of the catheter may be extracted by performing the steps S540 and S550 described with reference to FIG. 5.
한편, 카테터 추적 시스템은 픽셀 계조의 분산이 기 설정된 임계값 범위 내인 패치가 없는 경우 또는 U-net의 추정결과가 모두 배경으로 나오는 경우, 일부 영역의 패치 내에는 카테터의 영역이 존재하지 않는다고 판단할 수 있다. 카테터 추적 시스템은 도 5에서 설명한 바와 유사하게, 전체 이미지 프레임에 대해 S520 내지 S550 과정을 수행하여 카테터를 식별하고 카테터의 위치 정보를 추출할 수 있다.On the other hand, the catheter tracking system may determine that there is no catheter region in the patch of some regions when there is no patch whose pixel gradation is within a preset threshold range or when the U-net estimation results are all in the background. Can be. The catheter tracking system may identify the catheter and extract the catheter's position information by performing processes S520 to S550 on the entire image frame, as described with reference to FIG. 5.
상술한 다양한 실시 예에 따른 카테터 추적 시스템의 제어 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.The control method of the catheter tracking system according to the various embodiments described above may be provided as a computer program product. The computer program product may include a software program itself or a non-transitory computer readable medium in which the software program is stored.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. The non-transitory readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like. Specifically, the various applications or programs described above may be stored and provided in a non-transitory readable medium such as a CD, a DVD, a hard disk, a Blu-ray disk, a USB, a memory card, a ROM, or the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the above-described specific embodiment, the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.
100: 카테터 추적 시스템 110: 카테터
120: 카메라 130: 프로세서100: catheter tracking system 110: catheter
120: camera 130: processor
Claims (15)
상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 단계;
상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하는 단계;
합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하는 단계; 및
상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는 단계;를 포함하는 카테터 추적 시스템의 제어 방법.Photographing the catheter;
Dividing the first image frame photographed by the catheter into a patch having a predetermined size;
Calculating a variance of pixel gray levels for each of the divided patches;
Identifying a region of the catheter for a patch whose calculated variance is within a preset first threshold range based on a convolutional neural network; And
Extracting location information of the catheter based on the identified area of the catheter; and controlling the catheter tracking system.
상기 합성곱 신경망은 U-net 구조이고,
상기 식별하는 단계는,
상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별하는, 카테터 추적 시스템의 제어 방법.The method of claim 1,
The composite product neural network is a U-net structure,
The identifying step,
Identifying a region of the catheter by generating a binary map in which a pixel identified as the catheter is mapped to a foreground value and remaining pixels are mapped to a background value based on a patch within the preset first threshold range; Control method of catheter tracking system.
상기 U-net 구조는 컨벌루션 레이어와 디컨벌루션 레이어를 포함하고, 상기 컨벌루션 레이어 및 상기 디컨벌루션 레이어 각각은 학습 시간을 줄이기 위한 일괄 정규화(batch normalization) 과정을 수행하는, 카테터 추적 시스템의 제어 방법.The method of claim 2,
The U-net structure includes a convolutional layer and a deconvolutional layer, and each of the convolutional layer and the deconvolutional layer performs a batch normalization process to reduce a learning time.
상기 디컨벌루션 레이어는 드롭아웃 과정을 수행하는, 카테터 추적 시스템의 제어 방법.The method of claim 3,
The deconvolution layer performs a dropout process.
상기 식별하는 단계는,
상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정하는, 카테터 추적 시스템의 제어 방법.The method of claim 2,
The identifying step,
If the gray level of the pixel identified as the catheter is smaller than a second preset threshold, controlling the catheter tracking system to modify the mapping value of the pixel of the gray scale smaller than the second preset threshold value in the binary map to a background value Way.
상기 추출하는 단계는,
상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성하는, 카테터 추적 시스템의 제어 방법.The method of claim 2,
The extracting step,
And generating a full binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the remaining binary map of all the patches mapped to all background pixels. .
상기 추출하는 단계는,
상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템의 제어 방법.The method of claim 6,
The extracting step,
And extracting coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extracting location information of the catheter by averaging the extracted coordinate information.
상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는 단계;를 더 포함하는 카테터 추적 시스템의 제어 방법.The method of claim 1,
The next image frame of the first image frame is divided into patches having the predetermined size for the partial region based on the extracted positional information of the catheter, and the region of the catheter is identified based on the divided partial region patches. And controlling the catheter tracking system.
상기 분할된 일부 영역의 패치에 상기 카테터의 영역이 포함되지 않은 경우, 상기 다음 이미지 프레임 전체를 기 설정된 크기의 패치로 분할하고, 상기 분할된 패치 각각에 대한 픽셀 계조의 분산에 기초하여 상기 카테터의 영역을 식별하는 단계;를 더 포함하는 카테터 추적 시스템의 제어 방법.The method of claim 8,
When the patch of the divided partial region does not include the region of the catheter, the entire next image frame is divided into patches having a predetermined size, and the catheter of the catheter is based on the distribution of pixel gray levels for each of the divided patches. Identifying an area; further comprising a catheter tracking system.
상기 카테터를 촬영하는 카메라; 및
상기 카테터가 촬영된 제1 이미지 프레임을 기 설정된 크기의 패치로 분할하는 프로세서;를 포함하고,
상기 프로세서는,
상기 분할된 패치 각각에 대한 픽셀 계조의 분산을 산출하고, 합성곱 신경망(convolutional neural network)에 기초하여 상기 산출된 분산이 기 설정된 제1 임계값 범위 내인 패치에 대해 상기 카테터의 영역을 식별하며, 상기 식별된 카테터의 영역에 기초하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템.Catheter;
A camera for photographing the catheter; And
And dividing the first image frame photographed by the catheter into a patch having a predetermined size.
The processor,
Calculating a variance of pixel gradations for each of the divided patches, identifying a region of the catheter for a patch whose calculated variance is within a preset first threshold range based on a convolutional neural network, A catheter tracking system for extracting location information of the catheter based on the identified catheter region.
상기 합성곱 신경망은 U-net 구조이고,
상기 프로세서는,
상기 기 설정된 제1 임계값 범위 내인 패치를 기초로 상기 카테터로 식별된 픽셀은 전경(foreground) 값, 나머지 픽셀은 배경(background) 값으로 매핑되는 바이너리 맵을 생성하여 상기 카테터의 영역을 식별하는, 카테터 추적 시스템.The method of claim 10,
The composite product neural network is a U-net structure,
The processor,
Identifying a region of the catheter by generating a binary map in which a pixel identified as the catheter is mapped to a foreground value and remaining pixels are mapped to a background value based on a patch within the preset first threshold range; Catheter tracking system.
상기 프로세서는,
상기 카테터로 식별된 픽셀의 계조가 기 설정된 제2 임계값보다 작은 경우, 상기 바이너리 맵에서 상기 기 설정된 제2 임계값보다 작은 계조의 픽셀의 매핑 값을 배경 값으로 수정하는, 카테터 추적 시스템.The method of claim 11,
The processor,
And when the gray level of the pixel identified as the catheter is smaller than a second preset threshold value, modifying a mapping value of the pixel of gray scale smaller than the second preset threshold value in the binary map to a background value.
상기 프로세서는,
상기 기 설정된 제1 임계값 범위 내인 패치의 바이너리 맵과 모든 픽셀을 배경 값으로 매핑시킨 나머지 패치의 바이너리 맵에 기초하여 상기 제1 이미지 프레임 크기의 전체 바이너리 맵을 생성하는, 카테터 추적 시스템.The method of claim 11,
The processor,
And generating a full binary map of the first image frame size based on the binary map of the patch within the preset first threshold range and the rest of the patch's binary map that maps all pixels to a background value.
상기 프로세서는,
상기 생성된 전체 바이너리 맵에 기초하여 상기 카테터로 식별된 픽셀 각각의 좌표 정보를 추출하고, 상기 추출된 좌표 정보를 평균하여 상기 카테터의 위치 정보를 추출하는, 카테터 추적 시스템.The method of claim 13,
The processor,
And extracting coordinate information of each pixel identified by the catheter based on the generated whole binary map, and extracting the location information of the catheter by averaging the extracted coordinate information.
상기 프로세서는,
상기 제1 이미지 프레임의 다음 이미지 프레임을 상기 추출된 카테터의 위치 정보에 기초하여 일부 영역에 대해 상기 기 설정된 크기의 패치로 분할하고, 상기 분할된 일부 영역의 패치에 기초하여 상기 카테터의 영역을 식별하는, 카테터 추적 시스템.
The method of claim 10,
The processor,
The next image frame of the first image frame is divided into patches having the predetermined size for the partial region based on the extracted positional information of the catheter, and the region of the catheter is identified based on the divided partial region patches. Catheter tracking system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180054790A KR102174246B1 (en) | 2018-05-14 | 2018-05-14 | Catheter tracking system and controlling method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180054790A KR102174246B1 (en) | 2018-05-14 | 2018-05-14 | Catheter tracking system and controlling method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190130310A true KR20190130310A (en) | 2019-11-22 |
KR102174246B1 KR102174246B1 (en) | 2020-11-04 |
Family
ID=68730948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180054790A KR102174246B1 (en) | 2018-05-14 | 2018-05-14 | Catheter tracking system and controlling method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102174246B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021235804A1 (en) * | 2020-05-18 | 2021-11-25 | 주식회사 루닛 | Method and system for determining abnormality of medical device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100123160A (en) * | 2009-05-14 | 2010-11-24 | 국립암센터 | Method of detection for surgical instruments, recording media of the same, surgical system of using the same and surgical subsystem of using the same |
KR20170070715A (en) * | 2015-12-14 | 2017-06-22 | 삼성전자주식회사 | Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof |
-
2018
- 2018-05-14 KR KR1020180054790A patent/KR102174246B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100123160A (en) * | 2009-05-14 | 2010-11-24 | 국립암센터 | Method of detection for surgical instruments, recording media of the same, surgical system of using the same and surgical subsystem of using the same |
KR20170070715A (en) * | 2015-12-14 | 2017-06-22 | 삼성전자주식회사 | Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof |
Non-Patent Citations (1)
Title |
---|
논문 3* * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021235804A1 (en) * | 2020-05-18 | 2021-11-25 | 주식회사 루닛 | Method and system for determining abnormality of medical device |
US11844632B2 (en) | 2020-05-18 | 2023-12-19 | Lunit Inc. | Method and system for determining abnormality in medical device |
Also Published As
Publication number | Publication date |
---|---|
KR102174246B1 (en) | 2020-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102275452B1 (en) | Method for tracking image in real time considering both color and shape at the same time and apparatus therefor | |
CN111127425B (en) | Target detection positioning method and device based on retina fundus image | |
US10891473B2 (en) | Method and device for use in hand gesture recognition | |
JP2021536057A (en) | Lesion detection and positioning methods, devices, devices, and storage media for medical images | |
US11600008B2 (en) | Human-tracking methods, systems, and storage media | |
US11893789B2 (en) | Deep neural network pose estimation system | |
US20140003738A1 (en) | Method and apparatus for gaze point mapping | |
CN110176010B (en) | Image detection method, device, equipment and storage medium | |
CN106372629A (en) | Living body detection method and device | |
CN109285142B (en) | Method and device for detecting head and neck tumors and computer readable storage medium | |
US11417003B2 (en) | Method and apparatus for tracking eyes of user and method of generating inverse-transform image | |
JP2021530331A (en) | Methods and systems for automatically generating and analyzing fully quantitative pixel-based myocardial blood flow and myocardial blood flow reserve maps to detect ischemic heart disease using cardiac perfusion magnetic resonance imaging | |
JP6756406B2 (en) | Image processing equipment, image processing method and image processing program | |
CN112037287B (en) | Camera calibration method, electronic equipment and storage medium | |
CN110969046B (en) | Face recognition method, face recognition device and computer-readable storage medium | |
CN113190117B (en) | Pupil and light spot positioning method, data calculation method and related device | |
US11875257B2 (en) | Normalization method for machine-learning and apparatus thereof | |
JP2019512821A (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
US20230015384A1 (en) | Method, Apparatus, Storage Medium and Processor for Medical Image Auto-segmentation | |
KR102174246B1 (en) | Catheter tracking system and controlling method thereof | |
US11054903B2 (en) | Method, eyetracker and computer program for determining eye positions in digital image data | |
US20160140395A1 (en) | Adaptive sampling for efficient analysis of ego-centric videos | |
US11900615B2 (en) | Tracking device, endoscope system, and tracking method | |
KR102074977B1 (en) | Electronic devices and methods thereof | |
US11430126B2 (en) | Method and image processing apparatus for the segmentation of image data and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |