KR102195850B1 - Method and system for segmentation of vessel using deep learning - Google Patents

Method and system for segmentation of vessel using deep learning Download PDF

Info

Publication number
KR102195850B1
KR102195850B1 KR1020180148548A KR20180148548A KR102195850B1 KR 102195850 B1 KR102195850 B1 KR 102195850B1 KR 1020180148548 A KR1020180148548 A KR 1020180148548A KR 20180148548 A KR20180148548 A KR 20180148548A KR 102195850 B1 KR102195850 B1 KR 102195850B1
Authority
KR
South Korea
Prior art keywords
image
deep learning
infrared fluorescence
blood vessel
vessel classification
Prior art date
Application number
KR1020180148548A
Other languages
Korean (ko)
Other versions
KR20200062764A (en
Inventor
박성철
안재성
차준혁
이선화
Original Assignee
울산대학교 산학협력단
재단법인 아산사회복지재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단, 재단법인 아산사회복지재단 filed Critical 울산대학교 산학협력단
Priority to KR1020180148548A priority Critical patent/KR102195850B1/en
Publication of KR20200062764A publication Critical patent/KR20200062764A/en
Application granted granted Critical
Publication of KR102195850B1 publication Critical patent/KR102195850B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

본 발명의 일 실시예에 따르면, 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득부; 가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine green infrared angiography) 영상을 같은 위치로 매칭시켜 매칭 정보를 생성하는 영상 매칭부; 상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding) 혹은 타종류 알고리즘으로 변환하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작부; 상기 매칭 정보에 기반하고 상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련부; 를 포함하는 딥러닝 혈관 구분 시스템이 제공된다. 실지검증정보 제작부와 훈련부 및 검증부는 하나의 딥러닝 네트워크로 통합되어 운영될 수 있다.According to an embodiment of the present invention, there is provided an image acquisition unit for obtaining a visible ray image and an indocyanin green infrared fluorescence angiography image; An image matching unit for generating matching information by matching a visible ray image and an indocyanine green infrared angiography image to the same location; A verification image production unit for producing ground truth information by converting the indocyanine green infrared fluorescence angiography image to thresholding or other types of algorithms; A training unit for supervised training a deep learning vessel classification algorithm based on the matching information and using the actual verification information as a correct answer image; Deep learning blood vessel classification system comprising a is provided. The field verification information production section, the training section, and the verification section can be integrated and operated as a single deep learning network.

Description

딥러닝 기반 혈관 구분 방법 및 시스템{METHOD AND SYSTEM FOR SEGMENTATION OF VESSEL USING DEEP LEARNING}Deep learning based vessel classification method and system {METHOD AND SYSTEM FOR SEGMENTATION OF VESSEL USING DEEP LEARNING}

본 발명은 딥러닝 기반 혈관 구분 방법 및 시스템에 관한 것으로, 보다 상세하게는 인도시아닌 그린 적외선 형광 조영술 영상을 이용하여 생성한 실지 검증 정보로 딥러닝 혈관 구분 알고리즘을 훈련하여 정확도 높은 혈관 구분 알고리즘을 제공하는 것에 관한 방법 및 시스템이다.The present invention relates to a deep learning-based blood vessel classification method and system, and more particularly, a deep learning blood vessel classification algorithm with field verification information generated using an indocyanine green infrared fluorescence angiography image to provide a highly accurate blood vessel classification algorithm. It is a method and system for providing.

기계학습알고리즘은 학습방법에 따라 지도학습(supervised learning)과 자율학습(unsupervised learning)으로 나뉠 수 있다. 지도학습은 데이터의 최적화를 위해서 라벨링된 데이터(labeled data)가 사용되고, 자율학습은 라벨링이 되지 않은 데이터가 사용되는 점에서 양 자는 구분된다.Machine learning algorithms can be divided into supervised learning and unsupervised learning according to the learning method. In supervised learning, labeled data is used for data optimization, and unlabeled data is used in self-study, so the two are distinct.

기존의 뇌파분석 등 전기생리학적 신호 및 의료 영상 등 의료 데이터의 자동분석을 위해 기계학습알고리즘을 활용할 때에 있어서, 지도학습의 경우, 라벨링된 데이터를 그 분야의 전문가가 판단한 결과를 기초로 하여 필요한 결과를 도출해왔기에, 데이터의 양이 방대해지면 방대해질수록 전문가의 판단을 기초로 하는 방법은 시간과 비용이 많이 소모될 뿐만 아니라, 전문가의 역량에 따라 정확도가 일정하지 못한 문제점이 존재했다. 기존의 방법에 따르면, 전문가가 뇌파 및 의료 영상 등에서 병적 소견과 병적이지 않은 소견들을 직접 표지함으로서 기계 학습(machine learning)을 지도학습시키기 위한 데이터를 제공해 왔다.When using machine learning algorithms for automatic analysis of medical data such as electrophysiological signals such as electrophysiological signals such as conventional EEG analysis and medical images, in the case of supervised learning, the required result based on the result of the judgment of the expert in the field of the labeled data As the amount of data became enormous, the method based on the expert's judgment required a lot of time and cost, and the accuracy was not constant depending on the competence of the expert. According to the existing method, experts have provided data for supervising machine learning by directly marking pathological and non-pathological findings in EEG and medical images.

기존에는 영상 데이터 혹은 수술 후 예후와 관련된 수술결과데이터가 수집되면, 분석방법(또는 진단방법)과 그 분석방법에서 적용할 탐지역치(detection threshold) 및 판단 기준을 의학전문가가 직접 지정하여, 그 지정된 분석방법 및 탐지역치에 따라 수술결과데이터를 분석했으므로, 전문가의 판단에 지나치게 의존적이었다. 그리고 대규모의 전문가 의견을 수집하기 위해서는 높은 비용이 소요될 수 있다. 특히, 위와 같은 방법에 의하면, 전적으로 전문가의 소견에 의해서만 데이터를 분석하기 위한 진단방법이 결정되기 때문에 전문가의 소견보다 더 정확성이 높은 방법의 개발이 원천적으로 불가능하다는 점도 문제점으로 지적되어 왔다.Conventionally, when image data or surgical result data related to postoperative prognosis is collected, the analysis method (or diagnosis method) and the detection threshold and criteria to be applied in the analysis method are directly designated by a medical expert, and Since the surgical result data was analyzed according to the analysis method and detection threshold, it was too dependent on the expert's judgment. And it can be expensive to collect large-scale expert opinions. In particular, according to the above method, it has been pointed out as a problem that it is fundamentally impossible to develop a method with higher accuracy than that of an expert because the diagnosis method for analyzing data is determined solely by the opinion of an expert.

영상소견, 전기생리학적 신호 등 생체 신호 관련 소견, 수술결과 또는 치료결과에 대한 데이터가 전문가에 의해 라벨링된 데이터(expert labeled data)가 된 이후에 기계학습알고리즘 등을 적용하여 분석하는 것이 아닌, 전문가가 labeling하지 않아도 얻을 수 있는 참값 정보에 기반한 지도학습(supervised learning without manual labelling by experts)을 통한 데이터 분석방법이 개발된다면, 전문가의 오판에 의한 잘못된 진단을 방지할 수 있을 뿐만 아니라, 관련 데이터가 축적되면 축적될수록 더 정확도가 높은 의료 영상 및 데이터 분석방법의 개발이 가능하게 될 것이다.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2016-0064562호(2016.06.08. 공개, 발명의 명칭: 3D CTA영상으로부터 관상동맥의 구조를 모델링하는 방법 및 장치)에 개시되어 있다.
Experts who do not analyze by applying machine learning algorithms, etc. after data on bio-signal-related findings, surgical results, or treatment results such as imaging findings, electrophysiological signals, etc. have become expert labeled data If a data analysis method through supervised learning without manual labeling by experts is developed based on true value information that can be obtained without labeling, it is possible not only to prevent false diagnosis by experts, but also to accumulate related data. As it is accumulated, it will be possible to develop medical images and data analysis methods with higher accuracy.
The background technology of the present invention is disclosed in Korean Patent Application Publication No. 10-2016-0064562 (published on June 8, 2016, title of the invention: a method and apparatus for modeling the structure of a coronary artery from a 3D CTA image).

본 발명은 딥러닝에 기반하여 수동으로 영상분할 및 분류 용 라벨 마킹 없이도 수술 영상에서 혈관을 구분하는 알고리즘을 개발하는 것을 일 목적으로 한다.An object of the present invention is to develop an algorithm for classifying blood vessels in surgical images without manually marking images for segmentation and classification based on deep learning.

본 발명은 혈관의 종류 별로 혈관을 구분하는 알고리즘을 개발하는 것을 다른 목적으로 한다.Another object of the present invention is to develop an algorithm for classifying blood vessels according to types of blood vessels.

본 발명을 혈관 구분 알고리즘을 통해 수술 관련 응용 시스템, 수술용 네비게이션 및 로봇 등의 정확도를 향상시키고 수술 중 의도치 않은 혈관 손상을 방지하여 안전을 향상시키는 것을 목적으로 한다.An object of the present invention is to improve the accuracy of a surgery-related application system, a surgical navigation system, and a robot through a blood vessel classification algorithm, and to prevent accidental damage to blood vessels during surgery, thereby improving safety.

본 발명의 일 실시예에 따르면 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득부; 가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine-green infrared angiography) 영상을 같은 위치로 매칭시켜 매칭 정보를 생성하는 영상 매칭부; 상기 인도시아닌-그린 적외선 형광 조영술 영상을 조영 artery, vein 혹은 전체 vessel phase별로 분할 및 스레숄딩(thresholding) 후 필요시 병합하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작부; 상기 매칭 정보에 기반하고 상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련부; 를 포함하는 딥러닝 혈관 구분 시스템이 제공된다.According to an embodiment of the present invention, an image acquisition unit for acquiring a visible ray image and an indocyanine green infrared fluorescence angiography image; An image matching unit for generating matching information by matching the visible ray image and the indocyanine-green infrared angiography image to the same location; A verification image production unit for producing ground truth information by dividing and thresholding the indocyanine-green infrared fluorescence angiography image by contrast artery, vein, or entire vessel phase, and then merging them if necessary; A training unit for supervised training a deep learning vessel classification algorithm based on the matching information and using the actual verification information as a correct answer image; Deep learning blood vessel classification system comprising a is provided.

본 발명에 있어서, 상기 영상 획득부는 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 동시에 획득할 수 있다.In the present invention, the image acquisition unit may simultaneously acquire the visible light image and the indocyanine green infrared fluorescence angiography image.

본 발명에 있어서, 상기 영상 매칭부는, 크기 변경(resizing), 코레지스트레이션(coregistration), 변형(deformation), 영역 선택(area selection), 프레임 이동 중 하나 이상의 방법을 이용하여 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 매칭시킬 수 있다.In the present invention, the image matching unit uses one or more of resizing, coregistration, deformation, area selection, and frame movement to provide the visible light image and the guide. Cyanine green infrared fluorescence angiography images can be matched.

본 발명에 있어서, 상기 영상 매칭부는 상기 인도시아닌그린 적외선 형광 조영술 영상을 구역 별로 분할하거나 3차원 시야 관계에 기초하여 코레지스트레이션을 수행할 수 있다. 이는 가시광선 recording camera와 인도시아닌그린 적외선 영상 기록 카메라의 위치가 유사하더라도 3 차원 공간 상의 약간의 차이가 있을 수 있기 때문이다.In the present invention, the image matching unit may divide the indocyanine green infrared fluorescence angiography image for each area or perform co-registration based on a three-dimensional visual field relationship. This is because even though the positions of the visible light recording camera and the indocyanin green infrared image recording camera are similar, there may be slight differences in the three-dimensional space.

본 발명에 있어서, 상기 검증 이미지 제작부는, 오츠 방법(Otsu's method)혹은 다른 알고리즘을 사용하여 상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩할 수 있다.In the present invention, the verification image production unit may threshold the indocyanin green infrared fluorescence angiography image using an Otsu's method or another algorithm.

본 발명에 있어서, 상기 딥러닝 혈관 구분 알고리즘은 풀-컨볼루션 신경망, 컴볼루션 오토인코더 등 의미론적 영상분할 및 이에 추가로 공간구조 분석 (structure-aware) 및 토폴로지 (topology) 및 위계적 구조 분석 (Hierarchical structure)이 가능한 수준의 딥러닝 알고리즘에 기초한 것일 수 있다.In the present invention, the deep learning blood vessel classification algorithm includes semantic image segmentation such as a full-convolution neural network, a comvolution auto-encoder, and additionally, a structure-aware analysis, a topology, and a hierarchical structure analysis ( Hierarchical structure) may be based on a deep learning algorithm at a possible level.

본 발명에 있어서, 상기 딥러닝 혈관 구분 시스템은, 상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증할 수 있다.In the present invention, the deep learning vessel classification system may verify the deep learning vessel classification algorithm by applying unused data to the trained vessel classification algorithm.

본 발명의 일 실시예에 따르면 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득부; 상기 인도시아닌그린 적외선 형광 조영술 영상을 조영 phase 별로 분할 및 스레숄딩(thresholding) 및 병합하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작부; According to an embodiment of the present invention, an image acquisition unit for acquiring a visible ray image and an indocyanine green infrared fluorescence angiography image; A verification image production unit for producing ground truth information by dividing, thresholding, and merging the indocyanin green infrared fluorescence angiography image by contrast phase;

상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련부; 상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증하는 검증부; 를 포함하는 딥러닝 혈관 구분 시스템이 제공된다.A training unit for supervised training a deep learning vessel classification algorithm using the actual verification information as a correct answer image; A verification unit for verifying the deep learning blood vessel classification algorithm by applying unused data to the trained blood vessel classification algorithm; Deep learning blood vessel classification system comprising a is provided.

본 발명의 일 실시예에 따르면 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득 단계; 가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine green infrared angiography) 영상을 같은 위치로 매칭시켜 매칭 정보를 생성하는 영상 매칭 단계; 상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding)하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작 단계; 상기 매칭 정보에 기반하고 상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련 단계; 를 포함하는 딥러닝 혈관 구분 방법이 제공된다.According to an embodiment of the present invention, an image acquisition step of obtaining a visible ray image and an indocyanine green infrared fluorescence angiography image; An image matching step of generating matching information by matching the visible light image and the indocyanine green infrared angiography image to the same location; A verification image production step of producing ground truth information by thresholding the indocyanine green infrared fluorescence angiography image; A training step of supervised training a deep learning vessel classification algorithm based on the matching information and using the actual verification information as a correct answer image; Deep learning vessel classification method comprising a is provided.

본 발명에 있어서, 상기 영상 획득 단계는 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 동시에 획득할 수 있다.In the present invention, in the image acquisition step, the visible light image and the indocyanin green infrared fluorescence angiography image may be simultaneously acquired.

본 발명에 있어서, 상기 영상 매칭 단계는, 크기 변경(resizing), 코레지스트레이션(coregistration), 변형(deformation), 영역 선택(area selection), 프레임 이동 중 하나 이상의 방법을 이용하여 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 매칭시킬 수 있다.In the present invention, the image matching step includes the visible light image and the visible ray image using one or more methods of resizing, coregistration, deformation, area selection, and frame movement. Indocyanin green infrared fluorescence angiography images can be matched.

본 발명에 있어서, 상기 영상 매칭 단계는 상기 인도시아닌그린 적외선 형광 조영술 영상을 구역 별로 분할하거나 3차원 시야 관계에 기초하여 코레지스트레이션을 수행할 수 있다.In the present invention, in the image matching step, the indocyanine green infrared fluorescence angiography image may be divided by region or co-registration may be performed based on a three-dimensional visual field relationship.

본 발명에 있어서, 상기 검증 이미지 제작 단계는, 오츠 방법(Otsu's method)을 사용하여 상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩할 수 있다.In the present invention, in the step of producing the verification image, the indocyanin green infrared fluorescence angiography image may be thresholded using an Otsu's method.

본 발명에 있어서, 상기 딥러닝 혈관 구분 알고리즘을 풀 컨볼루션 신경망에 기초한 것일 수 있다.In the present invention, the deep learning blood vessel classification algorithm may be based on a full convolutional neural network.

본 발명에 있어서, 상기 딥러닝 혈관 구분 방법은, 상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증할 수 있다.In the present invention, the deep learning vessel classification method may verify the deep learning vessel classification algorithm by applying unused data to the trained vessel classification algorithm.

본 발명의 일 실시예에 따르면 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득 단계; 상기 인도시아닌그린 적외선 형광 조영술 영상을 phase별로 분할 및 스레숄딩(thresholding) 후 필요시 병합하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작 단계; 상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련 단계; 상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증하는 검증 단계; 를 포함하는 딥러닝 혈관 구분 방법이 제공된다.According to an embodiment of the present invention, an image acquisition step of obtaining a visible ray image and an indocyanine green infrared fluorescence angiography image; A verification image production step of producing ground truth information by dividing and thresholding the indocyanin green infrared fluorescence angiography image for each phase and then merging them if necessary; A training step of supervised training a deep learning blood vessel classification algorithm using the actual verification information as a correct answer image; A verification step of verifying the deep learning blood vessel classification algorithm by applying unused data to the trained blood vessel classification algorithm; Deep learning vessel classification method comprising a is provided.

응용 단계: 본 방법을 적용하여 수술용 네비게이션의 정확도를 향상하고 수술 중 혈관 손상 방지 및 혈관을 대상으로 하는 수술 목표 설정에 활용함.Application stage: This method is applied to improve the accuracy of surgical navigation, prevent damage to blood vessels during surgery, and use it to set surgical targets for blood vessels.

또한, 본 발명에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 제공된다.Also provided is a computer-readable recording medium for recording a computer program for executing the method according to the present invention.

본 발명에 의하면, 인도시아닌그린 적외선 형광 조영술 영상이 labelled ground truth데이터로 사용되기 때문에 전문가에 의한 수동 마킹 없이도 혈관을 구분하는 딥러닝 알고리즘을 훈련할 수 있다.According to the present invention, since indocyanine green infrared fluorescence angiography images are used as labeled ground truth data, a deep learning algorithm for classifying blood vessels can be trained without manual marking by an expert.

본 발명에 의하면, 인도시아닌그린 적외선 형광 조영술 영상의 동맥이 먼저 조영되고 나중에 모세혈관, 정맥 및 전체 혈관이 조영되는 시간적 특성을 이용하여 혈관 종류를 구별할 수 있다.According to the present invention, the types of blood vessels can be distinguished using temporal characteristics in which an artery in an indocyanin green infrared fluorescence angiography image is first imaged and later capillaries, veins, and entire blood vessels are imaged.

본 발명에 의하면 정확하게 수술 시야 상에서 파악된 혈관 위치 정보로 수술용 네비게이션 위치 정보 정확도를 향상시키고 수술 중 혈관 손상 방지, 혈관 대상 수술 목표 설정 등에 활용할 수 있다.According to the present invention, it is possible to improve the accuracy of surgical navigation location information with blood vessel location information accurately identified on the surgical field of view, prevent damage to blood vessels during surgery, and set surgical targets for blood vessels.

도 1 은 본 발명의 일 실시예에 따른 뇌수술 및 기타 수술 및 혈관 영상 분석 시스템의 구성 례를 간략히 나타낸 것이다. 네트워크를 통해 다양한 기기에서 수술 중 혹은 수술 외 시간, 장소 및 장비에서 구동할 수 있다.
도 2 는 본 발명의 일 실시예에 따른 서버 내부 프로세서의 구성을 나타낸 도면이다.
도 3 은 본 발명의 일 실시예에 따른 딥러닝 기반 혈관 구별 방법을 시계열적으로 나타낸 것이다.
도 4 는 본 발명의 일 실시예에 따른 가시광선 영상 및 인도시아닌그린 적외선 형광 조영술 영상을 나타낸 것이다.
도 5 는 본 발명의 일 실시예에 따른 매칭시키는 예시를 나타낸 것이다.
도 6 은 본 발명의 일 실시예에 따른 시맨틱 세그멘테이션 학습을 예시한 것이다.
도 7 은 본 발명의 일 실시예에 따라 혈관 종류를 구분하는 예시를 나타낸 도면이다.;
도 8 은 본 발명을 이용하여 수술용 네비게이션의 정확도를 향상시키는 예시이다.
도 9 은 본 발명을 이용하여 수술 중 혈관손상 위험 경보 및 수술 로봇 위치 제한 및 혈관 대상 수술 목표 설정을 하는 방법의 예시이다.
1 is a schematic diagram of a configuration example of a brain surgery and other surgery and vascular image analysis system according to an embodiment of the present invention. Through the network, various devices can be operated at times, places, and equipment during or outside surgery.
2 is a diagram showing the configuration of a server internal processor according to an embodiment of the present invention.
3 is a time series diagram illustrating a deep learning-based blood vessel distinction method according to an embodiment of the present invention.
4 shows a visible ray image and an indocyanin green infrared fluorescence angiography image according to an embodiment of the present invention.
5 shows an example of matching according to an embodiment of the present invention.
6 illustrates semantic segmentation learning according to an embodiment of the present invention.
7 is a diagram showing an example of classifying blood vessel types according to an embodiment of the present invention;
8 is an example of improving the accuracy of surgical navigation using the present invention.
9 is an illustration of a method of setting a blood vessel damage risk warning and a surgical robot position limit and a blood vessel target surgery target using the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.DETAILED DESCRIPTION OF THE INVENTION The detailed description of the present invention to be described below refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced. These embodiments are described in detail sufficient to enable those skilled in the art to practice the present invention. It is to be understood that the various embodiments of the present invention are different from each other but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be changed from one embodiment to another and implemented without departing from the spirit and scope of the present invention. In addition, it should be understood that the positions or arrangements of individual elements in each embodiment may be changed without departing from the spirit and scope of the present invention. Therefore, the detailed description to be described below is not made in a limiting sense, and the scope of the present invention should be taken as encompassing the scope claimed by the claims of the claims and all scopes equivalent thereto. Like reference numerals in the drawings indicate the same or similar elements over several aspects.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily implement the present invention.

도 1 은 본 발명의 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.1 is a diagram illustrating an example of a network environment according to an embodiment of the present invention.

도 1의 네트워크 환경은 복수의 사용자 단말들(110, 120, 130, 140), 서버(150) 및 네트워크(160)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 사용자 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다. The network environment of FIG. 1 shows an example including a plurality of user terminals 110, 120, 130, 140, a server 150, and a network 160. 1 is an example for explaining the invention, and the number of user terminals or the number of servers is not limited as shown in FIG. 1.

복수의 사용자 단말들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 사용자 단말들(110, 120, 130, 140)은 서버(150)를 제어하는 관리자의 단말일 수 있다. 복수의 사용자 단말들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 사용자 단말 1(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(160)를 통해 다른 사용자 단말들(120, 130, 140) 및/또는 서버(150)와 통신할 수 있다.The plurality of user terminals 110, 120, 130, and 140 may be a fixed terminal implemented as a computer device or a mobile terminal. The plurality of user terminals 110, 120, 130, and 140 may be terminals of an administrator controlling the server 150. Examples of the plurality of user terminals 110, 120, 130, and 140 include smart phones, mobile phones, navigation, computers, notebook computers, digital broadcasting terminals, personal digital assistants (PDAs), and portable multimedia players (PMPs). ), tablet PC, etc. For example, the user terminal 1 110 may communicate with other user terminals 120, 130, 140 and/or the server 150 through the network 160 using a wireless or wired communication method.

통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and short-range wireless communication between devices as well as a communication method using a communication network (for example, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network 160 may include may be included. For example, the network 160 includes a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , Internet, and the like. In addition, the network 160 may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, etc. Not limited.

서버(150)는 복수의 사용자 단말들(110, 120, 130, 140)과 네트워크(160)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 150 is a computer device or a plurality of computer devices that communicates with a plurality of user terminals 110, 120, 130, 140 and a network 160 to provide commands, codes, files, contents, services, etc. Can be implemented.

일례로, 서버(150)는 네트워크(160)를 통해 접속한 사용자 단말 1(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말 1(110)은 서버(150)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 사용자 단말 1(110)이 포함하는 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(150)에 접속하여 서버(150)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 다른 예로, 서버(150)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 복수의 사용자 단말들(110, 120, 130, 140)간의 데이터 송수신을 라우팅할 수도 있다.For example, the server 150 may provide a file for installing an application to the user terminal 1 110 accessed through the network 160. In this case, the user terminal 1 110 may install an application using a file provided from the server 150. In addition, by accessing the server 150 under the control of an operating system (OS) included in the user terminal 1 110 and at least one program (for example, a browser or an installed application), the service provided by the server 150 Content can be provided. As another example, the server 150 may establish a communication session for data transmission/reception, and may route data transmission/reception between a plurality of user terminals 110, 120, 130, and 140 through the established communication session.

본 발명의 일 실시예에 따른 딥러닝 혈관 구분 방법 및 시스템은, 수술 영상의 혈관을 딥러닝을 통해 탐지 및 분별, 경계를 정하는 방법 및 시스템에 관한 것이다. 보다 상세히, 본 발명의 일 실시예에 따른 딥러닝 혈관 구분 방법 및 시스템은 시맨틱 세그멘테이션(semantic segmentation)을 이용하여 사물의 경계에 대한 정보를 영상으로 주어서 풀 컨볼루션 신경망(fully convolutional neural network) 혹은 컴볼루션 오토인코더 (convolutional autoencoder)과 같은 딥러닝 알고리즘을 지도 훈련(supervised training)시킨다.The method and system for distinguishing deep-learning blood vessels according to an embodiment of the present invention relates to a method and system for detecting, discriminating, and demarcating a blood vessel in a surgical image through deep learning. In more detail, the deep learning vessel classification method and system according to an embodiment of the present invention provides information on the boundary of an object as an image using semantic segmentation to provide a fully convolutional neural network or a combol A deep learning algorithm such as a convolutional autoencoder is supervised training.

이러한 지도 훈련을 위해서는 학습 영상이 필요한데, 본 발명에 따르면 학습을 위한 혈관 정보 영상은 인도시아닌그린 적외선 형광 조영술 영상에 기반할 수 있다. 또한, 인도시아닌그린 적외선 형광 조영술 영상이 시간적인 위상(phase)에 따라 표시하는 혈관의 종류가 다른 것을 이용하여, 동맥, 소동맥, 정맥, 소정맥, 모세혈관 등의 분별 및 혈관 종류 별로 분화된 클래스(class) 별 훈련 및 분류가 가능한다. 본 발명은, 다양한 분야의 수술 및 현미경 영상 등에서 적용 가능하며, 특히 뇌수술 현미경 영상에서 뇌혈관 구분을 위해 사용될 수 있으나, 반드시 이에 국한되지는 않는다. 이하에서는, 서버(150)의 내부 구성을 중심으로 본 발명에 대해 보다 상세히 살펴보기로 한다.A learning image is required for such instructional training. According to the present invention, the blood vessel information image for learning may be based on an indocyanin green infrared fluorescence angiography image. In addition, the classification of arteries, arterioles, veins, predetermined veins, capillaries, etc., using different types of blood vessels displayed according to the temporal phase of the indocyanin green infrared fluorescence angiography image Training and classification by (class) are possible. The present invention can be applied to various fields of surgery and microscopic images, and in particular, may be used to distinguish cerebrovascular blood vessels in brain surgery microscopic images, but is not limited thereto. Hereinafter, the present invention will be described in more detail, focusing on the internal configuration of the server 150.

도 2 는 본 발명의 일 실시예에 있어서, 서버의 내부 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating an internal configuration of a server according to an embodiment of the present invention.

도 2에서는 서버(150)의 내부 구성을 설명한다. 서버(150)는 메모리(221), 프로세서(222), 통신 모듈(223) 그리고 입출력 인터페이스(224)를 포함할 수 있다. 메모리(221)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(221)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 사용자 단말 1(110)에 설치되어 구동되는 브라우저나 상술한 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism)을 이용하여 메모리(221)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(223)을 통해 메모리(221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(150))이 네트워크(160)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(221)에 로딩될 수 있다.In FIG. 2, the internal configuration of the server 150 will be described. The server 150 may include a memory 221, a processor 222, a communication module 223, and an input/output interface 224. The memory 221 is a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), read only memory (ROM), and a disk drive. In addition, the memory 221 may store an operating system and at least one program code (for example, a browser installed and driven in the user terminal 1 110 or a code for the above-described application). These software components may be loaded from a computer-readable recording medium separate from the memory 221 using a drive mechanism. Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into the memory 221 through the communication module 223 rather than a computer-readable recording medium. For example, at least one program is a program installed by files provided through the network 160 by a file distribution system (for example, the server 150 described above) for distributing the installation files of developers or applications (example It may be loaded into the memory 221 based on the above-described application).

프로세서(222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(221) 또는 통신 모듈(223)에 의해 프로세서(222)로 제공될 수 있다. 예를 들어 프로세서(222)는 메모리(221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 프로세서(222)는 영상 획득부(111), 영상 매칭부(112), 검증 이미지 제작부(113), 훈련부(114)를 포함할 수 있다.The processor 222 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to the processor 222 by the memory 221 or the communication module 223. For example, the processor 222 may be configured to execute a command received according to a program code stored in a recording device such as the memory 221. The processor 222 may include an image acquisition unit 111, an image matching unit 112, a verification image production unit 113, and a training unit 114.

통신 모듈(223)은 네트워크(160)를 통해 사용자 단말 1(110)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 사용자 단말(일례로 사용자 단말 2(120)) 또는 다른 서버(일례로 서버(150))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 사용자 단말 1(110)의 프로세서가 메모리와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈의 제어에 따라 네트워크(160)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(160)를 거쳐 사용자 단말 1(110)의 통신 모듈을 통해 사용자 단말 1(110)로 수신될 수 있다. 예를 들어 통신 모듈을 통해 수신된 서버(150)의 제어 신호나 명령 등은 프로세서나 메모리로 전달될 수 있다.The communication module 223 may provide a function for the user terminal 1 110 and the server 150 to communicate with each other through the network 160, and other user terminals (for example, user terminal 2 120) or other A function for communicating with a server (for example, the server 150) may be provided. For example, a request generated by the processor of the user terminal 1 110 according to a program code stored in a recording device such as a memory may be transmitted to the server 150 through the network 160 under control of a communication module. Conversely, control signals, commands, contents, files, etc. provided under the control of the processor 222 of the server 150 are transmitted through the communication module 223 and the network 160 to the communication module of the user terminal 1 110. It may be received through the user terminal 1 (110). For example, control signals or commands of the server 150 received through the communication module may be transmitted to a processor or memory.

입출력 인터페이스(224)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(224)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 서버(150)의 프로세서(222)는 메모리(221)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 사용자 단말 2(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(224)를 통해 디스플레이에 표시될 수 있다.The input/output interface 224 may be a means for an interface with an input/output device. For example, the input device may include a device such as a keyboard or a mouse, and the output device may include a device such as a display for displaying a communication session of an application. As another example, the input/output interface 224 may be a means for an interface with a device in which input and output functions are integrated into one, such as a touch screen. As a more specific example, the processor 222 of the server 150 inputs/outputs a service screen or contents configured using data provided by the user terminal 2 120 in processing a command of a computer program loaded in the memory 221 It may be displayed on the display through the interface 224.

또한, 다른 실시예들에서 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 서버(150)는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.In addition, in other embodiments, the server 150 may include more components than those of FIG. 2. However, there is no need to clearly show most of the prior art components. For example, the server 150 may further include other components such as a transceiver, a Global Positioning System (GPS) module, a camera, various sensors, and a database.

이하에서는, 도 2 의 프로세서(222)의 구성 별로 본 발명에 대해 보다 상세히 살펴보도록 한다.Hereinafter, the present invention will be described in more detail for each configuration of the processor 222 of FIG. 2.

도 3 은 본 발명의 일 실시예에 따른 딥러닝 기반 혈관 구별 방법을 시계열적으로 나타낸 것이다.3 is a time series diagram illustrating a deep learning-based blood vessel distinction method according to an embodiment of the present invention.

먼저, 영상 획득부(111)는 수술 시 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 동시에 획득한다(S1)First, the image acquisition unit 111 simultaneously acquires a visible light image and an indocyanin green infrared fluorescence angiography image during surgery (S1).

다음으로, 영상 매칭부(112)는 가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine green infrared angiography) 영상을 같은 위치로 매칭시킨다(S2). 이하의 본 발명의 명세서에서는 가시광선 영상은 제1 영상, 인도시아닌그린 적외선 형광 조영술 영상은 제2 영상이라 지칭할 수 있다Next, the image matching unit 112 matches the visible light image and the indocyanine green infrared angiography image to the same location (S2). In the following specification of the present invention, a visible ray image may be referred to as a first image, and an indocyanine green infrared fluorescence angiography image may be referred to as a second image.

다음으로, 검증 이미지 제작부(113)는 상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding), Otsu's method, 다른 종류의 머신러닝 혹은 딥러닝 알고리즘 등으로 처리하여 실지 검증 정보(ground truth image)를 제작한다(S3). 여기에 사용되는 딥러닝 알고리즘으로는 딥 컨볼류션 신경망 (deep convolutional neural network), 딥 리커런트 신경망 (deep recurrent neural network) 및 딥 오토인코더 (deep autoencoder) 등이 사용될 수 있고 여러 영상 frame의 데이터를 종합하는 샴 (Siamese) 혹은 퓨젼 (fusion) 구조의 딥 네트워크 알고리즘이 사용될 수 있다.Next, the verification image production unit 113 processes the indocyanin green infrared fluorescence angiography image with thresholding, Otsu's method, other types of machine learning or deep learning algorithms, etc. to provide ground truth image. To produce (S3). Deep learning algorithms used here include a deep convolutional neural network, a deep recurrent neural network, and a deep autoencoder, and data of multiple image frames can be used. A Siamese or fusion structured deep network algorithm can be used.

다음으로, 훈련부(114)는 매칭 정보에 기반하고 실지 검증 정보를 정답 영상으로 하여 딥려닝 혈관 구분 알고리즘을 지도 훈련(supervised training)한다(S4). 이때, 딥러닝 알고리즘을 지도 훈련할 때 풀 컨볼루션 신경망(fully convolution neural network), 컨볼류션 오토인코더 (convolutional autoencoder), 하이퍼컬럼 (Hypercolumn) 혹은 구조 인식 (structure-aware)이 가능한 영상분할 네트워크 등 의미론적 영상분할 (semantic segmentation)이 가능한 알고리즘을 사용할 수 있다. 그리고 앞의 실지 검증 정보를 제작하는 과정을 별로 두지 않고 샴 구조 네트워크의 입력으로 통합하여 단일 딥러닝 네트워크로 동시에 처리할 수도 있다.Next, the training unit 114 supervised training the deep-rowing vessel classification algorithm based on the matching information and using the actual verification information as the correct answer image (S4). In this case, a fully convolutional neural network, a convolutional autoencoder, a hypercolumn, or an image segmentation network capable of structure-aware, etc. An algorithm capable of semantic segmentation can be used. In addition, it is possible to simultaneously process as a single deep learning network by integrating it as an input of a Siamese structured network without putting much of the process of producing the above actual verification information.

다음으로, 훈련된 딥러닝 혈관 구분 알고리즘에 훈련에 사용되지 않았던 새로운 데이터를 적용하여 해당 검증하고, 검증된 딥러닝 혈관 구분 알고리즘을 실제 수술 시야 분석 혹은 다른 어플리케이션, 네비게이션 위치 보정 (adjustment for neuronavigation accuracy) (도 8), 수술 시야 투영용 가상현실 장비 (operativ microscope virtual reality application), 수술 보조 및 자동 경보 시스템 (surgical assistance and automatic warning system) (도 9), 혈관 및 혈류 분석 시스템 (vascularture and vascular flow analysis system), 구조 인식 네트워크 (structure-aware network) 등에 정보 전달하여 사용한다.Next, apply new data that has not been used for training to the trained deep learning vessel classification algorithm to verify the data, and then apply the verified deep learning vessel classification algorithm to actual surgical field analysis or other application, adjustment for neuronavigation accuracy. (Fig. 8), operating microscope virtual reality application, surgical assistance and automatic warning system (Fig. 9), vascularture and vascular flow analysis system), structure-aware network, etc.

이하에서는, 각 구성을 중심으로 본 발명과 본 발명의 적용 례에 대해 보다 상세히 살펴보기로 한다.Hereinafter, the present invention and examples of application of the present invention will be described in more detail, focusing on each configuration.

먼저, 영상 획득부(111)는 수술 시 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 동시에 획득한다. 인도시아닌그린 적외선 영상은 혈관이 잘 드러나지만 사람이 혈관 이외의 다른 해부적 구조를 이해하기 힘들고, 가시광선 영상은 혈관이 보이기는 하나 추가적인 정보없이 혈관만을 분별하여 분별하는 것은 현재의 머신 러닝 및 딥러닝 알고리즘으로는 용이하지 않다. 그리고 외과의사등 상기 영상 분야의 전문가가 볼 경우에도 혈관 식별이 확실치 않아 인도시아닌 그린 적외선 영상 정보를 참조할 때가 있다. 가시광선 영상은 다른 해부적 구조를 파악하기에 적합하다. 가시광선 영상은 인도시아닌 그린이 정맥 주입되었을 때에만 일시적으로 조영되는 인도시아닌 그린 영상과는 달리 수술 중에 지속적으로 사용된다. 따라서, 본 발명의 일 실시예에 따르면 딥러닝 혈관 구분 시스템은 가시광선 영상에서 혈관을 구분하여 사람이 인지하기 쉽게 표식을 부가하는 것을 목표로 한다. 이때, 부가되는 표식의 위치는 인도시아닌그린 적외선 형광 조영술 영상에 기반하여 딥러닝 알고리즘을 훈련하여 얻을 수 있다. 이를 위해서는, 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상은 서로 매칭되어야 할 필요가 잇다. 따라서, 사진은 동시에 혹은 동시에 가까운 시간 내에 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상이 함께 촬영될 필요가 있다. First, the image acquisition unit 111 simultaneously acquires a visible ray image and an indocyanin green infrared fluorescence angiography image during surgery. Indocyanine green infrared image reveals blood vessels well, but it is difficult for humans to understand other anatomical structures other than blood vessels, and visible ray images show blood vessels, but discriminating and discriminating only blood vessels without additional information is currently in machine learning and It is not easy with a deep learning algorithm. In addition, even when an expert in the imaging field such as a surgeon sees it, the identification of blood vessels is not clear, and thus, sometimes refer to the indocyanine green infrared image information. Visible light imaging is suitable for identifying different anatomical structures. Visible light images are continuously used during surgery, unlike indocyanine green images, which are temporarily contrasted only when indocyanine green is injected intravenously. Accordingly, according to an embodiment of the present invention, a deep learning blood vessel classification system aims to classify blood vessels in a visible ray image and add a mark to facilitate human recognition. At this time, the position of the added mark can be obtained by training a deep learning algorithm based on the indocyanin green infrared fluorescence angiography image. To this end, it is necessary to match the visible light image and the indocyanin green infrared fluorescence angiography image. Therefore, it is necessary to take a picture at the same time or simultaneously with a visible ray image and an indocyanin green infrared fluorescence angiography image within a short time.

다음으로, 영상 매칭부(112)는 가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine green infrared angiography)을 같은 위치로 매칭시킨다. 이를 위해, 영상 매칭부(112)는 제1 영상과 제2 영상을 크기 변경(resizing), 코레지스트레이션(coregistration), 변형(deformation), 영역 선택(area selection), 프레임 이동, 혹은 다른 딥러닝 기반 feature 분석 및 coregistration 알고리즘 등을 이용한 자동 및 수동 프로세스를 통해 같은 위치로 매칭 시킨다. Next, the image matching unit 112 matches the visible ray image and indocyanine green infrared angiography to the same location. To this end, the image matching unit 112 resizes the first image and the second image, coregistration, deformation, area selection, frame movement, or other deep learning based It matches to the same location through automatic and manual processes using feature analysis and coregistration algorithm.

도 4 는 본 발명의 일 실시예에 따른 가시광선 영상 및 인도시아닌그린 적외선 형광 조영술 영상을 나타낸 것이다. 도 4 의 (a)는 가시광선 영상이고, (b)는 인도시아닌그린 적외선 형광 조영술 영상이다.4 shows a visible ray image and an indocyanin green infrared fluorescence angiography image according to an embodiment of the present invention. 4A is a visible ray image, and (b) is an indocyanin green infrared fluorescence angiography image.

도 4 의 (a) 및 (b) 에서는 명확히 드러나지 않지만, 서로 다른 장치를 이용하여 촬상한 이미지는 동시에 찍었다고 해도 영상이 일치하지 않을 수 있다. 본 발명의 일 실시예에 따라 혈관을 분별하기 위해서는 2 영상이 매칭되어야 올바른 딥러닝 훈련이 가능하므로, 매칭을 수행하는 프로세스를 가질 수 있다.Although not clearly visible in FIGS. 4A and 4B, the images may not match even if images captured using different devices are taken at the same time. According to an embodiment of the present invention, in order to identify a blood vessel, two images must be matched to enable proper deep learning training, and thus a process of performing matching may be provided.

도 5 는 본 발명의 일 실시예에 따른 매칭시키는 예시를 나타낸 것이다.5 shows an example of matching according to an embodiment of the present invention.

도 5 를 참조하면, 도 5 의 (a)는 인도시아닌그린 적외선 형광 조영술 영상, (b)는 가시광선 영상, (c) 는 (a) 및 (b)를 매칭시킨 영상이다. (a) 의 인도시아닌그린 적외선 형광 조영술 영상을 참고하면, v 로 표시된 부분이 인도시아닌 그린(ICG) 근적외선 혈관조영술에 의해 조영된 뇌혈관들일 수 있다. (a) 에서 나타난 바와 같이, 인도시아닌그린 적외선 형광 조영술을 이용하여 조영된 혈관의 위치를 파악할 수 있다. 이에 반해, (b) 의 가시광선 영상은 혈관의 위치를 파악하기 힘들다. 따라서, 본 발명의 일 실시예에 따른 딥러닝 혈관 구분 시스템은 가시광선 영상에 용이하게 혈관 위치를 표시하기 위하여, 인도시아닌그린 적외선 형광 조영술 영상을 이용하여 혈관 위치를 훈련시킨다. 즉, 인도시아닌그린 적외선 형광 조영술 영상을 이용하여 혈관 위치 정보를 딥러닝 훈련(training)하기 위해서는 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 매칭시킬 필요가 잇다. Referring to FIG. 5, (a) of FIG. 5 is an indocyanin green infrared fluorescence angiography image, (b) is a visible ray image, and (c) is an image matching (a) and (b). Referring to the indocyanin green infrared fluorescence angiography image of (a), the part marked with v may be the cerebrovascular blood vessels imaged by indocyanin green (ICG) near-infrared angiography. As shown in (a), indocyanin green infrared fluorescence angiography can be used to determine the location of the contrasted blood vessel. On the other hand, in the visible ray image of (b), it is difficult to determine the location of blood vessels. Accordingly, the deep learning blood vessel classification system according to an embodiment of the present invention trains the blood vessel location using an indocyanine green infrared fluorescence angiography image in order to easily display the blood vessel location on a visible ray image. That is, in order to train deep learning on blood vessel location information using indocyanine green infrared fluorescence angiography, it is necessary to match the visible light image with the indocyanine green infrared fluorescence imaging image.

보다 상세히, 본 발명의 일 실시예에 따르면 영상 매칭부(112)는 크기 변경(resizing), 코레지스트레이션(coregistration), 변형(deformation), 영역 선택(area selection), 프레임 이동 등의 기법을 사용할 수 있다. 보다 구체적으로, 도 5 의 실시예에서는 (a) 영상 및 (b)의 영상을 촬영한 비디오의 프레임 시차가 있는 것을 감안하여 프레임 시간을 동기화시키기 위해 어느 한쪽의 프레임을 2 frame 만큼 이동시켰다. 추가적으로, (a) 및 (b) 영상에 대한 평면 코레지스트레이션(2D coregistration)을 수행하여 (c)와 같은 매칭 영상을 생성하였다.In more detail, according to an embodiment of the present invention, the image matching unit 112 may use techniques such as resizing, coregistration, deformation, area selection, and frame movement. have. More specifically, in the embodiment of FIG. 5, in order to synchronize the frame time, in order to synchronize the frame time, one frame is moved by 2 frames in consideration of the frame parallax of the video in which the images (a) and (b) are captured. Additionally, a matching image as shown in (c) was generated by performing 2D coregistration on the images (a) and (b).

보다 상세히, 보다 정확한 매칭을 위해, 인도시아닌그린 적외선 형광 조영술 영상과 가시광선 영상 간의 위치 차이가 있으므로 영상을 구역 별로 분할하거나 3차원 시야 관계를 고려해서 코레지스트레이션을 수행할 수 있다. 이때, 본 발명의 일 실시예에 따르면 automatic rigid coregistration 알고리즘을 사용하여 영상의 매칭을 수행할 수 있다. 혹은 다른 feature 기반 혹은 딥러닝 기반 algorithm을 통해서도 matching할 수 있다.In more detail, for more accurate matching, since there is a positional difference between the indocyanin green infrared fluorescence angiography image and the visible light image, the image may be divided by region or co-registration may be performed in consideration of a three-dimensional visual field relationship. In this case, according to an embodiment of the present invention, image matching may be performed using an automatic rigid coregistration algorithm. Or it can be matched through other feature-based or deep learning-based algorithms.

다음으로, 검증 이미지 제작부(113)는 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding)하여 실지 검증 정보(ground truth image)를 제작한다. 스레숄딩은 이미지 프로세싱(image processing) 분야에서 사용되는 임계값 지정을 뜻한다. 스레숄딩은 이미지 세그멘테이션(segmentation)의 일 방법으로서, 일 예로 이미지의 각 픽셀들을 2가지 색상 중 하나로만 나타낼 수 있다. 예를 들어, 이미지 강도가 특정 상수보다 클 경우 검은 픽셀, 이미지 강도가 특정 상수보다 작을 경우 흰 픽셀로 나타낼 수 있다. 상술한 스레숄딩 방법은 일 예시일 뿐이며, 본 발명의 특징적인 구성을 유지하는 선에서 다양한 변형이 있을 수 있다. Otsu's method, 기타 머신러닝 및 영상처리용 컨볼루션 (convolutional) 혹은 리커런트 (recurrent) 딥러닝 네트워크 기법 등이 인도시아닌 그린 영상의 실지 검증 이미지 (ground truth image)로의 전환을 위해서 사용될 수 있다.Next, the verification image production unit 113 produces a ground truth image by thresholding the indocyanin green infrared fluorescence angiography image. Thresholding means specifying a threshold value used in the field of image processing. Thresholding is a method of image segmentation, and as an example, each pixel of an image may be represented by only one of two colors. For example, if the image intensity is greater than a certain constant, it may be represented as a black pixel, and if the image intensity is less than a certain constant, it may be represented as a white pixel. The above-described thresholding method is only an example, and various modifications may be made in keeping with the characteristic configuration of the present invention. Otsu's method and other machine learning and image processing convolutional or recurrent deep learning network techniques can be used to convert indocyanine green images into ground truth images.

보다 상세히, 인도시아닌그린 적외선 형광 조영술 영상의 스레숄딩은 오츠 방법(Otsu's method)과 같은 머신 러닝 알고리즘을 사용할 수 잇다. 또한, 스레숄딩은 딥러닝의 지도 훈련(supervised training) 또는 오토인코딩 알고리즘(autoendoding algorithm)을 이용해서 수행할 수도 있다 딥러닝 기반 지도 훈련을 사용할 경우, 인도시아닌그린 적외선 형광 조영술 영상의 적절한 스레숄딩 결과를 전문가가 직접 그린 결과를 실지 검증(ground truth) 정보로 하여 인도시아닌그린 적외선 형광 조영술 영상용 풀 컨볼루션 신경망(fully convolutional neural network) 또는 컨볼류션 자동 인코더(convolutional autoencoder)를 학습하는 것이 가능하다.In more detail, the thresholding of indocyanin green infrared fluorescence angiography images can be performed using machine learning algorithms such as Otsu's method. In addition, thresholding can be performed using supervised training of deep learning or autoendoding algorithm. When using deep learning-based supervised training, appropriate thresholding of indocyanin green infrared fluorescence angiography image It is better to learn a fully convolutional neural network or a convolutional autoencoder for indocyanine green infrared fluorography images using the result drawn by an expert as ground truth information. It is possible.

또한, 인도시아닌그린 적외선 형광 조영술 영상이 스레숄딩된 이미지는 실지 검증 이미지(ground truth image) 또는 실지 검증 정보(ground truth information)가 될 수 있다. 실지 검증 이미지 또는 실지 검증 정보는 실제 혈관이 어디에 있는지를 지시하는 이미지 또는 정보로서, 해당 실지 검증 이미지 또는 정보를 이용하여 딥러닝 혈관 구분 알고리즘을 훈련시킬 수 있다. 본 발명의 일 실시예에 따르면 전문가의 수동 마킹 없이 인도시아닌그린 적외선 형광 조영술 영상을 이용하여 실지 검증 이미지 또는 정보를 생성할 수 있다. 즉, 도 5 의 (c)와 같이 스레숄딩에 의해 생성된 실지 검증 정보는, 가시광선 영상과 매칭되어 혈관의 위치 정보는 딥러닝 훈련을 위해 실지 검증 정보로 사용될 수 있다. 그리고 이러한 실지검증 정보 제작 과정이 자동화 될 수 있기 때문에 수작업으로 도달할 수 없는 대규모의 다양한 정확한 실지 검증 정보 제공을 통해서 높은 수준의 정확도로 딥러닝 훈련을 시행할 수 있다.In addition, the image to which the indocyanin green infrared fluorescence angiography image is thresholded may be a ground truth image or ground truth information. The actual verification image or the actual verification information is an image or information indicating where the actual blood vessel is, and a deep learning blood vessel identification algorithm may be trained using the actual verification image or information. According to an embodiment of the present invention, an actual verification image or information may be generated using an indocyanin green infrared fluorescence angiography image without manual marking by an expert. That is, as shown in (c) of FIG. 5, the actual verification information generated by thresholding is matched with a visible ray image, so that the location information of the blood vessel may be used as the actual verification information for deep learning training. In addition, since the process of producing such field verification information can be automated, deep learning training can be performed with a high level of accuracy by providing a large variety of accurate field verification information that cannot be reached manually.

다음으로, 훈련부(114)는 스레숄딩된 인도시아닌그린 적외선 형광 조영술 영상을 실지 검증 정보(ground truth information)로 하여 딥러닝 알고리즘을 지도 훈련(supervised training)한다. 즉, 훈련부(114)는 뇌혈관 위치를 시맨틱 세그멘테이션(semantic segmentation)하기 위하여, 인도시아닌그린 적외선 형광 조영술 영상에 기반한 정답 영상에 기초하여 뇌혈관 위치를 지도학습한다. 이때, 지도 학습 시 상술한 매칭 정보, 즉 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상이 매칭된 정보를 이용하여 실지 검증 정보로부터 정답 영상을 생성하고, 정답 영상으로 지도 학습을 실시할 수 있다. 그리고 실지 검증 정보를 제작하는 과정을 별로 두지 않고 샴 구조 네트워크의 입력으로 인도시아닌 그린 영상과 가시광선 영상을 동시에 입력받아 통합하여 단일 딥러닝 네트워크로 처리할 수도 있다.Next, the training unit 114 supervised training the deep learning algorithm using the thresholded indocyanin green infrared fluorescence angiography image as ground truth information. That is, the training unit 114 supervises and learns the cerebrovascular position based on the correct answer image based on the indocyanin green infrared fluorescence angiography image in order to semantic segmentation of the cerebrovascular position. At this time, during supervised learning, a correct answer image may be generated from the actual verification information using the matching information, that is, the information in which the visible light image and the indocyanin green infrared fluorescence angiography image are matched, and supervised learning may be performed with the correct answer image. . In addition, the process of producing actual verification information is not required, and an indocyanine green image and a visible ray image can be simultaneously input and processed as a single deep learning network through the input of the Siamese structure network.

도 6 은 본 발명의 일 실시예에 따른 시맨틱 세그멘테이션 학습을 예시한 것이다.6 illustrates semantic segmentation learning according to an embodiment of the present invention.

도 6 을 참조하면, 도 6 의 (a) 는 뇌수술 현미경 영상(가시광선 영상), (b) 는 정답 영상, (c) 는 시맨틱 세그맨테이션 학습 결과를 예시한 것이다. 상술한 바와 같이, 본 발명의 일 실시예에 따른 혈관 종류 분별 방법은 매칭 정보를 고려한 실지 검증 정보를 정답 영상으로 결정하여, 정답 영상들에 기반하여 혈관의 모양을 훈련한다. 훈련을 수행하면, 도 6 의 (c)와 같은 시맨틱 세그멘테이션 결과를 얻을 수 있다. 도 6 의 사진 예에서 볼 수 있는 바와 같이, 실지 검증 정보로 학습한 본 발명의 혈관 종류 구별법은 양호한 시맨틱 세그멘테이션 결과를 나타낼 수 있다.Referring to FIG. 6, (a) of FIG. 6 is an image of a brain surgery microscope (visible ray image), (b) is an image of a correct answer, and (c) is an example of semantic segmentation learning results. As described above, in the method for classifying a blood vessel type according to an embodiment of the present invention, by determining actual verification information in consideration of matching information as the correct answer image, the shape of the blood vessel is trained based on the correct answer images. When training is performed, the semantic segmentation result as shown in (c) of FIG. 6 can be obtained. As can be seen in the photo example of FIG. 6, the method of distinguishing the type of blood vessel of the present invention learned from actual verification information can show good semantic segmentation results.

더불어, 본 발명의 프로세서(222)는 검증부를 추가적으로 포함할 수 있으며, 검증부는 본 발명의 훈련된 딥러닝 혈관 구분 알고리즘에 훈련에 사용되지 않았던 새로운 데이터를 적용하여 해당 딥러닝 혈관 구분 알고리즘을 검증하고, 검증된 딥러닝 혈관 구분 알고리즘을 실제 수술에 사용할 수 있다.In addition, the processor 222 of the present invention may additionally include a verification unit, and the verification unit verifies the deep learning vessel classification algorithm by applying new data that has not been used for training to the trained deep learning vessel classification algorithm of the present invention. , The proven deep learning blood vessel classification algorithm can be used in actual surgery.

한편, 인도시아닌그린 적외선 형광 조영술은 인도시아닌그린 물질, 즉 형광 물질이 동맥에서 주입되어 대동맥, 경동맥을 거쳐 뇌의 큰 동맥에서 출발하여 소동맥을 거쳐 모세혈관을 지나 소정맥, 정맥을 거쳐서 빠져나가는 것을 특징으로 한다. 따라서, 인도시아닌그린 적외선 형광 조영술을 사용하는 경우 형광 물질이 지나가는 타이밍에 따라 각각의 혈관이 조영되는 시간대의 차이가 있으므로, 본 발명은 이를 구분하여 별도의 실지 검증 정보를 생성하여 딥러닝 혈관 구분 알고리즘을 훈련할 수 있다. 이로써, 본 발명의 일 실시예에 따른 딥러닝 혈관 구분 방법은 혈관 종류를 구분할 수 있다.On the other hand, indocyanin green infrared fluorescence angiography is where indocyanin green material, that is, a fluorescent material, is injected from an artery, starts from a large artery of the brain through the aorta and carotid artery, passes through the arterioles, passes through capillaries, and exits through a vein or vein It features. Therefore, in the case of using indocyanin green infrared fluorescence angiography, there is a difference in the time period in which each blood vessel is contrasted according to the timing of the passing of the fluorescent material, and the present invention distinguishes it and generates separate field verification information to distinguish deep learning blood vessels. You can train the algorithm. Accordingly, the deep learning blood vessel classification method according to an embodiment of the present invention can distinguish blood vessel types.

보다 상세히, 영상 획득부(111)는 가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득 시, 형광 물질이 각 혈관을 지나가는 타이밍을 고려하여 영상을 획득할 수 있다. 보다 상세히, 영상 획득부(111)는 형광 물질이 각 혈관을 지나가는 타이밍을 고려하여 시간 구간을 분할한 후 각 시간 구간마다 영상을 획득할 수 있다.In more detail, when acquiring a visible ray image and an indocyanine green infrared fluorescence angiography image, the image acquisition unit 111 may acquire an image in consideration of timing at which the fluorescent material passes through each blood vessel. In more detail, the image acquisition unit 111 may obtain an image for each time interval after dividing the time interval in consideration of timing at which the fluorescent material passes through each blood vessel.

예를 들어, 시간 구간 별로 혈관 종류가 적절히 분류되도록, 형광 물질이 대동맥을 지나는 제1 시간 구간, 형광 물질이 경동맥을 지나가는 제2 시간 구간...과 같은 식으로 구간을 분할하고, 각 시간 구간마다 영상을 획득할 수 있다. 이를 위해, 영상 획득부(111)은 획득된 영상 전체의 밝기 변화 등을 시간에 대하여 그래프로 표지할 수 있다. 혈관 종류를 인도시아닌 그린 영상에서 구분하는 방법은 상기 방법에 국한되지 않으며 딥 리커런트 (recurrent) 신경망 및 딥 컨볼류션 오토인코더 등으로 혈관 조영되는 시기와 양상의 요약된 차원의 영상 특징 (low dimensionality feature)을 이용하여 혈관 종류를 인도시아닌 그린 영상을 혈관 종류별로 구분할 수 있다. 이와 같이 시간 구간 별 혹은 다른 방법으로 생성된 인도시아닌그린 적외선 형광 조영술 영상은 해당 시간 구간에 대응하는 혈관 종류를 나타낼 수 있다. 따라서, 훈련부는 각 시간 구간에 대응하는 혈관 종류에 기초하여, 실지 검증 정보가 해당 혈관 종류에 대한 정보임을 고려하여, 혈관 구분 알고리즘을 훈련할 수 있다.For example, so that the type of blood vessel is appropriately classified for each time section, the first time section through which the fluorescent material passes through the aorta, the second time section through which the fluorescent material passes through the carotid artery... are divided into sections, and each time section You can acquire an image every time. To this end, the image acquisition unit 111 may mark a change in brightness of the entire acquired image as a graph over time. The method of distinguishing the type of blood vessel in the indocyanine green image is not limited to the above method, and the image features of a summary dimension of the timing and pattern of angiography with a deep recurrent neural network and a deep convolution autoencoder, etc. dimensionality feature) can be used to classify the type of blood vessel by the type of the indocyanine green image. Indocyanin green infrared fluorescence angiography images generated by time intervals as described above or by other methods may indicate the type of blood vessel corresponding to the time interval. Accordingly, the training unit may train a blood vessel classification algorithm based on the blood vessel type corresponding to each time section, taking into account that the actual verification information is information on the corresponding blood vessel type.

또한, 시간이 경과하여 형광 물질이 균등분포하면 전체 혈관이 조영될 수 있으므로, 영상 획득부(111)는 기설정된 시간이 경과한 후 전체 혈관이 조영되는 상기 인도시아닌그린 적외선 형광 조영술 영상을 획득할 수 있으며, 이를 기초로 실지 검증 정보가 생성될 수 있다. 이 경우, 검증 이미지 제작부(113)는 전체 혈관이 조영된 실지 검증 정보에서, 동맥에 대응하는 시간 구간의 실지 검증 정보인 동맥 위상(arterial phase)의 실지 검증 정보를 제외할 수 있으며 이에 기초하여 정맥에 대한 실지 검증 정보를 얻을 수 있다.In addition, if the fluorescent material is uniformly distributed over time, the entire blood vessel may be imaged, so the image acquisition unit 111 acquires the indocyanine green infrared fluorescence angiography image in which the entire blood vessel is imaged after a predetermined time elapses. Can be done, and actual verification information may be generated based on this. In this case, the verification image production unit 113 may exclude the actual verification information of the arterial phase, which is the actual verification information of the time interval corresponding to the artery, from the actual verification information in which the entire blood vessel is imaged, and based on this You can get the actual verification information for.

도 7 은 본 발명의 일 실시예에 따라 혈관 종류를 구분하는 예시를 나타낸 도면이다.7 is a diagram showing an example of classifying blood vessel types according to an embodiment of the present invention.

도 7 을 참조하면, 도 7 의 (a)는 동맥 위상의 인도시아닌그린 적외선 형광 조영술 영상이고, (b)는 전체 혈관이 조영된 인도시아닌그린 적외선 형광 조영술 영상이다. 즉, (a) 의 인도시아닌그린 적외선 형광 조영술 영상에서는 동맥만이 표시되고, (b)의 인도시아닌그린 적외선 형광 조영술 영상에서는 동맥 및 정맥이 모두 표시된다. 또한, 도 7 의 (c) 는 (a) 영상을, (d) 는 (b) 영상을 각각 스레숄딩하여 얻은 실지 검증 정보이다. (d)에서 (c) 영상의 표시 부분을 제거하는 작업을 수행하면 정맥에 대한 위치 정보를 얻을 수 있다. 이와 같이, 본 발명의 일 실시예에 따르면 혈관 종류별 세분화를 통해서 훈련을 실시함으로써 혈관 구분 알고리즘의 전체적인 정확도를 향상시킬 수 있다.Referring to FIG. 7, (a) of FIG. 7 is an indocyanin green infrared fluorescence angiography image of an artery phase, and (b) is an indocyanin green infrared fluorescence angiography image of an entire blood vessel. That is, only arteries are displayed in the indocyanin green infrared fluorescence angiography image of (a), and both arteries and veins are displayed in the indocyanine green infrared fluorescence angiography image of (b). In addition, (c) of FIG. 7 is actual verification information obtained by thresholding (a) the image and (d) the (b) image. If you perform the operation of removing the display portion of the image from (d) to (c), you can obtain the location information of the vein. As described above, according to an embodiment of the present invention, the overall accuracy of the blood vessel classification algorithm may be improved by performing training through subdivision by blood vessel type.

본 발명의 일 실시예에 따른 혈관 구분 시스템에서 개시한 뇌수술 현미경 혹은 가시광선 영상에서의 뇌혈관 탐지는 각종 수술에서 혈관 기피 혹은 혈과 조정을 위해 사용될 수 있다.The detection of cerebrovascular blood vessels in a brain surgery microscope or visible light image disclosed in the blood vessel classification system according to an embodiment of the present invention may be used for blood vessel avoidance or blood control in various surgeries.

기존의 연구된 혈관 검출 방식에서는 수술 영상의 딥러닝 훈련을 위해서는 구분하려는 구조물에 대한 수동 마킹(manual marking)에 의한 실지 검증 정보(ground truth information)를 제작하므로, 훈련을 위해 많은 시간과 비용이 투입된다. 특히, 혈관 등 구분이 어려운 생체 구조물의 경우 수동 마키 역시 정확도가 떨어지는 문제가 있으며 구조물이 복잡할수록 전문가의 투입 시간이 증가하여 많은 비용이 소요되는 문제점이 존재한다.In the existing researched blood vessel detection method, for deep learning training of surgical images, ground truth information is produced by manual marking of structures to be classified, so a lot of time and money are spent for training. do. In particular, in the case of a biological structure that is difficult to distinguish, such as blood vessels, there is a problem that the accuracy of the manual marquee is also poor, and the more complicated the structure, the more expensive an expert's input time increases, and thus a problem exists.

이에 반해, 본 발명의 일 실시예에 따른 혈관 구분 방법은 인도시아닌그린 적외선 형광 조영술 영상을 이용하여 시맨틱 세그멘테이션을 위한 실지 검증 정보를 얻음으로써, 기존과 같은 전문인력의 노동력 투입을 줄일 수 있고, 실지 검증 정보의 정확도를 향상시킬 수 있다. 더불어, 수동 마킹으로 불가능한 수준의 높은 정확도를 갖는 실지 검증 정보를 다양한 종류의 혈관에 제공함으로써, 딥러닝 알고리즘을 훈련할 수 있다.On the other hand, the method for classifying blood vessels according to an embodiment of the present invention can reduce the labor input of experts as in the prior art by obtaining actual verification information for semantic segmentation using indocyanin green infrared fluorescence angiography image, The accuracy of actual verification information can be improved. In addition, deep learning algorithms can be trained by providing actual verification information having a high level of accuracy that is impossible with manual marking to various types of blood vessels.

도 8 은 본 발명을 이용하여 수술용 네비게이션의 정확도를 향상시키는 예시이다.8 is an example of improving the accuracy of surgical navigation using the present invention.

보다 상세히, 도 8은 본 기술을 이용하여 네비게이션의 위치 정보를 보정하는 방법에 대한 예시이다. 본 뇌혈관의 segmentation방법을 좌안 시야와 우안 시야에 별도로 적용하고 상기 정보를 기존의 삼차원 시야상에서의 위치를 추정하는 방법을 적용하면 3 차원 공간상에서의 혈관 위치를 도출 가능하다. 상기 정보를 통해 수술용 네비게이션 상에서 추정되는 혈관 위치와의 삼차원 공간상의 차이를 계산하여 수술용 네비게이션의 위치 정보를 보정하여 실제 관측되는 수술 시야와 일치하게 한다. 상기 방법을 통해 soft tissue의 deformation및 기타 원인에 의한 수술용 네비게이션의 위치를 보정 가능하다. 상기 기술 적용은 네비게이션에 국한되지 않으며 뇌수술 용 현미경 혹은 내시경 모니터 및 기타 가상현실 안경 등 영상투영 장비에 투영되는 증강 현실 시스템의 영상 정보 위치를 수술 시야의 혈관 위치를 통해 보정하는 데에도 사용될 수 있다.In more detail, FIG. 8 is an example of a method of correcting location information of a navigation system using the present technology. If the present cerebrovascular segmentation method is applied separately to the left and right visual fields and the above information is applied to the existing three-dimensional visual field, the position of the blood vessel in the three-dimensional space can be derived. Through the above information, the difference in three-dimensional space with the blood vessel position estimated on the surgical navigation is calculated to correct the location information of the surgical navigation so that it matches the actual observed surgical field of view. Through the above method, it is possible to correct the position of the surgical navigation due to deformation of soft tissue and other causes. The application of the above technology is not limited to navigation, and can be used to correct the position of image information of the augmented reality system projected on image projection equipment such as a microscope for brain surgery or an endoscope monitor, and other virtual reality glasses through the position of blood vessels in the surgical field of view. .

도 9 은 본 발명을 이용하여 수술 중 혈관손상 위험 경보 및 수술 로봇 위치 제한 및 혈관 대상 수술 목표 설정을 하는 방법의 예시이다.9 is an illustration of a method of setting a blood vessel damage risk warning and a surgical robot position limit and a blood vessel target surgery target using the present invention.

보다 상세히, 도 9은 본 기술을 이용하여 수술 중 혈관손상 방지를 위한 경보 및 안전 시스템에 대한 예시이다. 도 8과 같은 방법으로 3 차원 공간상에서 혈관 위치를 수술 시야에서 파악한 후 기존의 기술로 수술 도구의 날카로운 부위 혹은 말단 부위 등이 혈관에 근접하거나 교차 하는 경우 경보를 수술집도의에게 발생시켜 알리거나 수술 로봇팔 등의 수술 관련 도구의 작동을 정지시킬 수 있다. 이를 통해 의도치 않은 혈관 손상을 방지할 수 있다. 본 시스템은 혈관 절제 등의 특수 수술 술기의 시행이 필요한 경우 임시로 작동 정지될 수 있다. 그리고 역으로 혈관 대상 절제 혹은 결찰 등의 수술 술기가 필요한 경우 수술 로봇 등에 수술 대상 목표 설정을 위한 위치 정보와 혈관 클립 및 혈관의 주변조직 및 종양 등과의 박리 등을 위한 위치와 적절한 접근 방향 등을 제공할 수 있다.In more detail, FIG. 9 is an example of an alarm and safety system for preventing blood vessel damage during surgery using the present technology. After grasping the location of the blood vessel in the surgical field in a three-dimensional space by the method as shown in FIG. 8, an alarm is generated to the surgeon or a surgical robot when a sharp or distal part of a surgical tool approaches or intersects the blood vessel with a conventional technique. It is possible to stop the operation of surgical tools such as the arm. This can prevent unintended damage to blood vessels. This system can be temporarily shut down when special surgical techniques such as vascular resection are required. And, conversely, when surgical techniques such as resection or ligation of blood vessels are needed, location information for setting targets for surgery on surgical robots, locations for vascular clip, delamination of surrounding tissues and tumors, etc., and appropriate access directions are provided. can do.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded in the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.In the above, the present invention has been described by specific matters such as specific elements and limited embodiments and drawings, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. Anyone with ordinary knowledge in the technical field to which the invention belongs can make various modifications and changes from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다. Accordingly, the spirit of the present invention is limited to the above-described embodiments and should not be defined, and all ranges equivalent to or equivalently changed from the claims to be described later as well as the claims to be described later are the scope of the spirit of the present invention. It will be said to belong to.

Claims (17)

가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득부;
가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine green infrared angiography) 영상을 같은 위치로 매칭시켜 매칭 정보를 생성하는 영상 매칭부;
상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding)하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작부;
상기 매칭 정보에 기반하고 상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련부;
를 포함하는 딥러닝 혈관 구분 시스템.
An image acquisition unit for acquiring a visible ray image and an indocyanine green infrared fluorescence angiography image;
An image matching unit for generating matching information by matching a visible ray image and an indocyanine green infrared angiography image to the same location;
A verification image production unit for producing ground truth information by thresholding the indocyanin green infrared fluorescence angiography image;
A training unit for supervised training a deep learning vessel classification algorithm based on the matching information and using the actual verification information as a correct answer image;
Deep learning blood vessel classification system comprising a.
가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득부;
상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding)하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작부;
상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련부;
상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증하는 검증부;
를 포함하는 딥러닝 혈관 구분 시스템.
An image acquisition unit for acquiring a visible ray image and an indocyanine green infrared fluorescence angiography image;
A verification image production unit for producing ground truth information by thresholding the indocyanin green infrared fluorescence angiography image;
A training unit for supervised training a deep learning vessel classification algorithm using the actual verification information as a correct answer image;
A verification unit for verifying the deep learning blood vessel classification algorithm by applying unused data to the trained blood vessel classification algorithm;
Deep learning blood vessel classification system comprising a.
제 1 항 또는 제 2 항에 있어서,
상기 영상 획득부는 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 동시에 획득하는, 딥러닝 혈관 구분 시스템.
The method according to claim 1 or 2,
The image acquisition unit acquires the visible light image and the indocyanine green infrared fluorescence angiography image at the same time, a deep learning vessel classification system.
제 1 항에 있어서,
상기 영상 매칭부는,
크기 변경(resizing), 코레지스트레이션(coregistration), 변형(deformation), 영역 선택(area selection), 프레임 이동 중 하나 이상의 방법을 이용하여 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 매칭시키는, 딥러닝 혈관 구분 시스템.
The method of claim 1,
The image matching unit,
Matching the visible light image and the indocyanine green infrared fluorescence angiography image using one or more methods of resizing, coregistration, deformation, area selection, and frame movement , Deep learning vessel classification system.
제 1 항에 있어서,
상기 영상 매칭부는 상기 인도시아닌그린 적외선 형광 조영술 영상을 구역 별로 분할하거나 3차원 시야 관계에 기초하여 코레지스트레이션을 수행하는, 딥러닝 혈관 구분 시스템.
The method of claim 1,
The image matching unit divides the indocyanin green infrared fluorescence angiography image by region or performs co-registration based on a three-dimensional visual field relationship.
제 1 항 또는 제 2 항에 있어서,
상기 검증 이미지 제작부는, 오츠 방법(Otsu's method) 혹은 다른 머신러닝 및 딥러닝 알고리즘을 사용하여 상기 인도시아닌그린 적외선 형광 조영술 영상을 딥러닝 훈련용 실지 검증 이미지로 변환하는, 딥러닝 혈관 구분 시스템.
The method according to claim 1 or 2,
The verification image production unit converts the indocyanin green infrared fluorescence angiography image into a field verification image for deep learning training using Otsu's method or other machine learning and deep learning algorithms, a deep learning vessel classification system.
제 1 항 또는 제 2 항에 있어서,
풀 컨볼루션 신경망 혹은 다른 의미론적 영상분할이 가능한 딥러닝 알고리즘을 훈련 데이터 군을 통하여 훈련시킨 딥러닝 혈관 구분 시스템.
The method according to claim 1 or 2,
A deep learning vessel classification system that trains a deep learning algorithm capable of full convolutional neural network or other semantic image segmentation through a training data group.
제 1 항 또는 제 2 항에 있어서,
상기 딥러닝 혈관 구분 시스템은, 상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증하는, 딥러닝 혈관 구분 시스템.
The method according to claim 1 or 2,
The deep learning blood vessel classification system verifies the deep learning blood vessel classification algorithm by applying unused data to the trained blood vessel classification algorithm.
가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득 단계;
가시광선 영상과 인도시아닌그린 적외선 형광 조영술(indocyanine green infrared angiography) 영상을 같은 위치로 매칭시켜 매칭 정보를 생성하는 영상 매칭 단계;
상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding)하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작 단계;
상기 매칭 정보에 기반하고 상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련 단계;
를 포함하는 딥러닝 혈관 구분 방법.
An image acquisition step of obtaining a visible ray image and an indocyanine green infrared fluorescence angiography image;
An image matching step of generating matching information by matching the visible ray image and the indocyanine green infrared angiography image to the same location;
A verification image production step of producing ground truth information by thresholding the indocyanine green infrared fluorescence angiography image;
A training step of supervised training a deep learning vessel classification algorithm based on the matching information and using the actual verification information as a correct answer image;
Deep learning vessel classification method comprising a.
가시광선 영상과 인도시아닌그린 적외선 형광 조영술 영상을 획득하는 영상 획득 단계;
상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩(thresholding)하여 실지 검증 정보(ground truth information)를 제작하는 검증 이미지 제작 단계;
상기 실지 검증 정보를 정답 영상으로 하여 딥러닝 혈관 구분 알고리즘을 지도 훈련(supervised training)하는 훈련 단계;
상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증하는 검증 단계;
를 포함하는 딥러닝 혈관 구분 방법.
An image acquisition step of obtaining a visible ray image and an indocyanine green infrared fluorescence angiography image;
A verification image production step of producing ground truth information by thresholding the indocyanine green infrared fluorescence angiography image;
A training step of supervised training a deep learning vessel classification algorithm using the actual verification information as a correct answer image;
A verification step of verifying the deep learning vessel identification algorithm by applying unused data to the trained vessel identification algorithm;
Deep learning vessel classification method comprising a.
제 9 항 또는 제 10 항에 있어서,
상기 영상 획득 단계는 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 동시에 획득하는, 딥러닝 혈관 구분 방법.
The method of claim 9 or 10,
In the step of obtaining the image, the visible ray image and the indocyanin green infrared fluorescence angiography image are simultaneously acquired.
제 9 항에 있어서,
상기 영상 매칭 단계는,
크기 변경(resizing), 코레지스트레이션(coregistration), 변형(deformation), 영역 선택(area selection), 프레임 이동 및 딥러닝 알고리즘중 하나 이상의 방법을 이용하여 상기 가시광선 영상과 상기 인도시아닌그린 적외선 형광 조영술 영상을 매칭시키는, 딥러닝 혈관 구분 방법.
The method of claim 9,
The image matching step,
Resizing, coregistration, deformation, area selection, frame movement, and deep learning algorithms using one or more methods of the visible light image and the indocyanine green infrared fluorescence imaging Deep learning vein classification method that matches images.
제 9 항에 있어서,
상기 영상 매칭 단계는 상기 인도시아닌그린 적외선 형광 조영술 영상을 구역 별로 분할하거나 3차원 시야 관계에 기초하여 코레지스트레이션을 수행하는, 딥러닝 혈관 구분 방법.
The method of claim 9,
In the image matching step, the indocyanin green infrared fluorescence angiography image is segmented for each area or co-registration is performed based on a three-dimensional visual field relationship.
제 9 항 또는 제 10 항에 있어서,
상기 검증 이미지 제작 단계는, 오츠 방법(Otsu's method)을 사용하여 상기 인도시아닌그린 적외선 형광 조영술 영상을 스레숄딩하는, 딥러닝 혈관 구분 방법.
The method of claim 9 or 10,
In the step of producing the verification image, the indocyanin green infrared fluorescence angiography image is thresholded using an Otsu's method.
제 9 항 또는 제 10 항에 있어서,
상기 딥러닝 혈관 구분 알고리즘을 풀 컨볼루션 신경망 혹은 다른 종류의 딥러닝 알고리즘에 기초한 것인, 딥러닝 혈관 구분 방법.
The method of claim 9 or 10,
The deep learning blood vessel classification method is based on a full convolutional neural network or another type of deep learning algorithm.
제 9 항 또는 제 10 항에 있어서,
상기 딥러닝 혈관 구분 방법은, 상기 훈련된 혈관 구분 알고리즘에 사용되지 않은 데이터를 적용하여 상기 딥러닝 혈관 구분 알고리즘을 검증하는, 딥러닝 혈관 구분 방법.
The method of claim 9 or 10,
The deep learning blood vessel classification method is a deep learning blood vessel classification method for verifying the deep learning blood vessel classification algorithm by applying unused data to the trained blood vessel classification algorithm.
제9항, 제10항, 제11항 및 제12항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium recording a computer program for executing the method according to any one of claims 9, 10, 11 and 12.
KR1020180148548A 2018-11-27 2018-11-27 Method and system for segmentation of vessel using deep learning KR102195850B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180148548A KR102195850B1 (en) 2018-11-27 2018-11-27 Method and system for segmentation of vessel using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180148548A KR102195850B1 (en) 2018-11-27 2018-11-27 Method and system for segmentation of vessel using deep learning

Publications (2)

Publication Number Publication Date
KR20200062764A KR20200062764A (en) 2020-06-04
KR102195850B1 true KR102195850B1 (en) 2020-12-28

Family

ID=71081267

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180148548A KR102195850B1 (en) 2018-11-27 2018-11-27 Method and system for segmentation of vessel using deep learning

Country Status (1)

Country Link
KR (1) KR102195850B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102264152B1 (en) * 2021-03-10 2021-06-14 (주)넥스트박스 Method and system for ground truth auto labeling advanced sensor data and image by camera
KR102526434B1 (en) * 2021-07-13 2023-04-26 경희대학교 산학협력단 Apparatus for diagnosing lesion and method thereof
CN113592939B (en) * 2021-07-20 2024-02-27 燕山大学 Deep learning method for judging size of narrow blood vessel based on coronary angiography image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647022B1 (en) 2015-02-23 2016-08-10 연세대학교 원주산학협력단 Apparatus and method for capturing medical image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102069723B1 (en) * 2013-04-23 2020-01-23 세다르스-신나이 메디칼 센터 Systems and methods for recording simultaneously visible light image and infrared light image from fluorophores
JP6594033B2 (en) * 2015-05-14 2019-10-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
KR101952013B1 (en) * 2017-04-28 2019-04-29 포항공과대학교 산학협력단 Vein navigator including functional blood flow and analysis method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101647022B1 (en) 2015-02-23 2016-08-10 연세대학교 원주산학협력단 Apparatus and method for capturing medical image

Also Published As

Publication number Publication date
KR20200062764A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US10636147B2 (en) Method for characterizing images acquired through a video medical device
Bouget et al. Vision-based and marker-less surgical tool detection and tracking: a review of the literature
Schlegl et al. Unsupervised anomaly detection with generative adversarial networks to guide marker discovery
CN109791693B (en) Digital pathology system and related workflow for providing visualized whole-slice image analysis
US20210110196A1 (en) Deep Learning Network for Salient Region Identification in Images
US7822252B2 (en) Method of multiple instance learning and classification with correlations in object detection
KR102195850B1 (en) Method and system for segmentation of vessel using deep learning
US20170109879A1 (en) Computer-implemented methods, computer-readable media, and systems for tracking a plurality of spermatozoa
KR20190100011A (en) Method and apparatus for providing surgical information using surgical video
US8712122B2 (en) Shape based similarity of continuous wave doppler images
US10762172B2 (en) Apparatus and method for object confirmation and tracking
Swathi et al. A hierarchical image matting model for blood vessel segmentation in retinal images
CN113673305A (en) Image marking using geodesic features
Loukas et al. Keyframe extraction from laparoscopic videos based on visual saliency detection
Xu et al. An improved U-net architecture for simultaneous arteriole and venule segmentation in fundus image
Panetta et al. Software architecture for automating cognitive science eye-tracking data analysis and object annotation
Ma et al. Polyp detection in colonoscopy videos by bootstrapping via temporal consistency
Wijewickrema et al. Provision of automated step-by-step procedural guidance in virtual reality surgery simulation
Nassar et al. Assessing data quality of annotations with Krippendorff alpha for applications in computer vision
Park et al. CMed: Crowd analytics for medical imaging data
JP6713422B2 (en) Learning device, event detection device, learning method, event detection method, program
Geremia et al. Classification forests for semantic segmentation of brain lesions in multi-channel MRI
US20130158398A1 (en) Medical imaging diagnosis apparatus and medical imaging diagnosis method for providing diagnostic basis
Schöning et al. Pixel-wise ground truth annotation in videos
Lu et al. Weakly supervised semantic segmentation for optic disc of fundus image

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant