KR102655325B1 - Apparatus and method for collecting learning data for training of surgical tool and organ recognition - Google Patents

Apparatus and method for collecting learning data for training of surgical tool and organ recognition Download PDF

Info

Publication number
KR102655325B1
KR102655325B1 KR1020210105617A KR20210105617A KR102655325B1 KR 102655325 B1 KR102655325 B1 KR 102655325B1 KR 1020210105617 A KR1020210105617 A KR 1020210105617A KR 20210105617 A KR20210105617 A KR 20210105617A KR 102655325 B1 KR102655325 B1 KR 102655325B1
Authority
KR
South Korea
Prior art keywords
data
surgical
surgery
learning
organ
Prior art date
Application number
KR1020210105617A
Other languages
Korean (ko)
Other versions
KR20220021423A (en
Inventor
윤지훈
홍승범
홍슬기
이지원
신소연
박보경
성낙준
유하영
김성재
박성현
최민국
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Priority to PCT/KR2021/010689 priority Critical patent/WO2022035237A1/en
Publication of KR20220021423A publication Critical patent/KR20220021423A/en
Application granted granted Critical
Publication of KR102655325B1 publication Critical patent/KR102655325B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Abstract

수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 방법 및 그 프로그램이 제공된다. 상기 수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 방법은 컴퓨터에 의해 실행되는 방법으로서, 컴퓨터가 실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 복수의 수술데이터를 획득하는 단계; 및 획득한 상기 복수의 수술데이터를 학습데이터 셋으로 구성하여 제공하는 단계를 포함한다.A learning data collection method and program for surgical tool recognition learning training are provided. The learning data collection method for the surgical tool recognition training is a method executed by a computer, comprising: the computer acquiring at least a plurality of surgical data among actual surgical data, virtual surgical data, and random surgical data; And comprising the step of configuring and providing the plurality of acquired surgical data into a learning data set.

Description

수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 장치 및 방법{APPARATUS AND METHOD FOR COLLECTING LEARNING DATA FOR TRAINING OF SURGICAL TOOL AND ORGAN RECOGNITION}Learning data collection device and method for surgical tool and organ recognition learning training {APPARATUS AND METHOD FOR COLLECTING LEARNING DATA FOR TRAINING OF SURGICAL TOOL AND ORGAN RECOGNITION}

본 발명은 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 장치 및 방법에 관한 것이다.The present invention relates to a learning data collection device and method for surgical tool and organ recognition learning training.

최근 외과 수술에서는 개복 수술의 비중이 크게 낮아지고 환자의 합병증을 최소화하여 회복 속도를 향상시킬 수 있는 최소 침습 수술의 비율이 매우 크게 늘어나고 있다.In recent surgical operations, the proportion of open surgeries has decreased significantly, and the proportion of minimally invasive surgeries, which can improve recovery speed by minimizing patient complications, is greatly increasing.

이 중에서도 로봇을 활용한 최소 침습 수술의 비율은 더욱 빠르게 증가하고 있다. 또한, 전문의가 카메라로부터 입력된 영상을 보며 진행하는 복강경 수술의 특성 상 최소 침습 수술은 환자 내부에서 일어나는 수술의 모든 과정이 영상으로 기록되어 있다.Among these, the rate of minimally invasive surgery using robots is increasing rapidly. Additionally, due to the nature of laparoscopic surgery, in which a specialist performs the surgery while viewing images input from a camera, in minimally invasive surgery, all surgical procedures that occur inside the patient are recorded on video.

따라서, 수술 영상을 일종의 수술 기록으로 간주하여 수술 과정을 인식하면 수술에 대한 평가 및 분석뿐 아니라, 수술 도중 실시간 가이던스(guidance)뿐 아니라 자동화 수술이 가능해질 수 있다.Therefore, if the surgical process is recognized by considering the surgical video as a kind of surgical record, not only evaluation and analysis of the surgery, but also real-time guidance during the surgery, as well as automated surgery can be possible.

수술의 영상을 활용한 자동화된 수술 과정의 분석 및 평가를 위해서는 수술 도구에 대한 위치 측정과 움직임 인식 및 장기에 대한 인식이 필수적이다. 수술 데이터, 즉, 수술 과정, 수술 도구에 대한 위치 측정과 움직임, 장기에 대한 인식 등을 획득하여, 이를 학습 데이터로 활용할 수 있다.In order to analyze and evaluate automated surgical procedures using surgical images, position measurement, movement recognition, and organ recognition for surgical tools are essential. Surgical data, that is, the surgical process, position measurement and movement of surgical tools, recognition of organs, etc., can be acquired and used as learning data.

대한민국 공개특허 제10-2013-0100758호 (2013.09.11)Republic of Korea Patent Publication No. 10-2013-0100758 (2013.09.11)

본 발명이 해결하고자 하는 과제는 정확한 수술 도구 및 장기 인식 학습을 위한 수술 도구 및 장기의 학습 데이터를 제공하는 것이다.The problem that the present invention aims to solve is to provide learning data of surgical tools and organs for accurate surgical tool and organ recognition learning.

또한, 본 발명이 해결하고자 하는 과제는 클래스 불균형을 해결할 수 있는 학습 데이터를 제공하는 것이다.Additionally, the problem that the present invention aims to solve is to provide learning data that can solve class imbalance.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법은 컴퓨터에 의해 실행되는 방법으로서, 컴퓨터가 실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 복수의 수술데이터를 획득하는 단계 및 획득한 상기 복수의 수술데이터를 학습데이터 셋으로 구성하여 제공하는 단계를 포함하고, 상기 실제 수술데이터는, 실제로 수행된 수술의 종류, 사용된 도구의 위치정보 및 사용된 수술 도구의 정보를 포함하는 실제 수술 도구데이터와 실제로 수행된 수술의 장기에 대한 실제 수술 장기데이터를 포함하는 것이고, 상기 가상 수술데이터는, 가상의 수술 환경, 가상의 수술 환경에서 사용된 가상의 수술 도구데이터 및 가상의 수술 환경에서의 장기에 대한 가상의 수술 장기데이터를 포함하는 것이고, 상기 랜덤 수술데이터는, 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터일 수 있다.The learning data collection method for surgical tool and organ recognition training according to an embodiment of the present invention to solve the above-described problem is a method executed by a computer, where the computer uses actual surgical data, virtual surgical data, and random surgical data. It includes acquiring at least a plurality of surgical data and configuring the acquired plurality of surgical data into a learning data set, wherein the actual surgical data includes the type of surgery actually performed and the location of the tool used. It includes actual surgical tool data including information on the surgical tools used and actual surgical long-term data about the organs of the surgery actually performed, and the virtual surgical data is used in a virtual surgical environment and a virtual surgical environment. It includes virtual surgical tool data and virtual surgical organ data for organs in a virtual surgical environment, and the random surgical data may be virtual data generated from domain randomization.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 방법은 상기 학습데이터 셋을 기반으로 특정 수술에 대하여 사용되는 특정 수술 도구에 관한 수술 도구 인식 학습 훈련을 수행하는 단계 및 상기 수행한 수술 도구 인식 학습 훈련을 기반으로 하여 수술 도구 인식 학습 모델을 생성하는 단계를 더 포함할 수 있다.The learning data collection method for surgical tool recognition learning training according to an embodiment of the present invention to solve the above-described problem involves surgical tool recognition learning training for a specific surgical tool used for a specific surgery based on the learning data set. It may further include performing and generating a surgical tool recognition learning model based on the surgical tool recognition learning training performed above.

상기 실제 수술 도구데이터는, 도구의 헤드(head), 관절(wrist) 및 바디(body) 중 적어도 하나 이상을 구분하여 실제 수술 영상 내에서 바운딩되거나 픽셀 단위로 폴리곤(polygon) 처리되거나, 또는 도구의 특징 별로 상기 실제 수술 영상 내에서 바운딩되거나 상기 픽셀 단위로 상기 폴리곤 처리되는 것 중 적어도 하나를 포함하는 것일 수 있다.The actual surgical tool data is bounded within the actual surgical image by distinguishing at least one of the head, wrist, and body of the tool, or processed as a polygon on a pixel basis, or the tool's Each feature may include at least one of bounding within the actual surgical image or processing the polygon on a pixel basis.

상기 가상의 수술 환경은 특정 실제 수술 영상데이터를 이용하여 3D화 하여 제작된 3D 수술 환경이고, 상기 가상의 수술 도구데이터와 상기 가상의 수술 장기데이터는, 상기 3D 수술 환경 내에서 사용자로부터 활용되어 도출된 가상의 수술 도구와 수술 장기 정보일 수 있다.The virtual surgical environment is a 3D surgical environment created by turning it into 3D using specific actual surgical image data, and the virtual surgical tool data and the virtual surgical organ data are derived by being utilized by the user within the 3D surgical environment. It may be virtual surgical tools and surgical organ information.

상기 랜덤 수술데이터는, 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터로서, 수술 도구, 수술 대상 장기, 카메라의 설정 조건을 무작위로 변경함으로써, 무작위로 생성된 특정 수술, 특정 수술 대상 장기, 및 특정 수술에서 사용되는 랜덤 수술 도구 중 적어도 하나에 대한 데이터를 포함할 수 있다.The random surgery data is virtual data generated from domain randomization, and is randomly generated by randomly changing the setting conditions of surgical tools, surgical target organs, and cameras, and randomly generated specific surgery, specific surgical target organs, and It may include data on at least one of the random surgical tools used in a particular surgery.

상기 학습 데이터는, 특정 수술에 대한 특정 수술 도구 및 특정 수술 장기의 데이터가 각각 균일한 양의 데이터로서 클래스 균형(Class balance)을 맞춰 획득되는 것일 수 있다.The learning data may be obtained by maintaining class balance as a uniform amount of data of a specific surgical tool and a specific surgical organ for a specific surgery.

또한, 본 발명은, 상기 수술데이터를 획득한 후, 분할 모델을 통해 상기 획득한 수술데이터에 대해 시멘틱 이미지 데이터를 생성하는 단계를 더 포함하고, 상기 학습데이터 셋 구성 제공 단계는, 상기 복수의 수술데이터와 상기 복수의 수술데이터 각각에 대응되는 상기 시멘틱 이미지 데이터를 학습데이터 셋으로 구성하여 제공할 수 있다.In addition, the present invention further includes the step of generating semantic image data for the obtained surgical data through a segmentation model after acquiring the surgical data, and the step of providing the learning data set configuration includes the step of generating semantic image data for the obtained surgical data through a segmentation model, and the step of providing the learning data set includes the plurality of surgical data. Data and the semantic image data corresponding to each of the plurality of surgical data may be provided by configuring a learning data set.

여기서, 상기 시멘틱 이미지 데이터 생성 단계는, 상기 복수의 수술데이터에 상기 실제 수술데이터가 포함되는 경우, 상기 분할 모델을 통해 상기 실제 수술데이터를 기반으로 실제 시멘틱 이미지 데이터를 생성하고, 상기 복수의 수술데이터에 상기 가상 수술데이터가 포함되는 경우, 상기 분할 모델을 통해 상기 가상 수술데이터를 기반으로 가상 시멘틱 이미지 데이터를 생성하고, 상기 복수의 수술데이터에 상기 랜덤 수술데이터가 포함되는 경우, 상기 분할 모델을 통해 상기 랜덤 수술데이터를 기반으로 랜덤 시멘틱 이미지 데이터를 생성할 수 있다.Here, in the semantic image data generating step, when the plurality of surgical data includes the actual surgical data, actual semantic image data is generated based on the actual surgical data through the segmentation model, and the plurality of surgical data If the virtual surgery data is included in the virtual surgery data, virtual semantic image data is generated based on the virtual surgery data through the segmentation model, and if the random surgery data is included in the plurality of surgery data, through the segmentation model. Random semantic image data can be generated based on the random surgery data.

또한, 상기 시멘틱 이미지 데이터는, 상기 복수의 수술데이터 각각에 포함되는 상기 도구에 대한 시멘틱 수술 도구데이터 또는 상기 장기에 대한 시멘틱 수술 장기데이터를 포함하고, 상기 시멘틱 수술 도구데이터 또는 상기 시멘틱 수술 장기데이터는, 상기 도구 또는 상기 장기의 위치 범위, 상기 도구 또는 상기 장기의 명칭 중 적어도 하나를 포함할 수 있다.In addition, the semantic image data includes semantic surgical tool data for the tool or semantic surgical long-term data for the organ included in each of the plurality of surgical data, and the semantic surgical tool data or the semantic surgical long-term data , a location range of the tool or the organ, and a name of the tool or the organ.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 방법은 컴퓨터에 의해 실행되는 방법으로서, 컴퓨터가 실제 수술데이터를 획득하는 단계 상기 획득한 실제 수술데이터에서 클래스 불균형(Class imbalance)을 발생시키는 어노테이션(annotation)이 부족한 데이터의 종류 및 필요한 양을 추출하는 단계, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 하나에서 상기 필요한 양만큼 상기 추출한 데이터의 종류에 해당하는 데이터를 균형 데이터로서 획득하는 단계를 포함하고, 상기 실제 수술데이터는, 실제로 수행된 수술의 종류, 사용된 도구의 위치정보 및 사용된 수술 도구의 정보를 포함하는 실제 수술 도구데이터를 포함하는 것이고, 상기 가상 수술데이터는, 가상의 수술 환경 및 가상의 수술 환경에서 사용된 가상의 수술 도구데이터를 포함하는 것이고, 상기 랜덤 수술데이터는, 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터일 수 있다.The learning data collection method for surgical tool recognition training according to an embodiment of the present invention to solve the above-described problem is a method executed by a computer, comprising the step of the computer acquiring actual surgical data. Extracting the type and required amount of data lacking annotations that cause class imbalance, the required amount corresponding to the type of the extracted data from at least one of virtual surgery data and random surgery data. A step of acquiring data as balanced data, wherein the actual surgical data includes actual surgical tool data including the type of surgery actually performed, location information of the tool used, and information on the surgical tool used, The virtual surgery data includes a virtual surgery environment and virtual surgical tool data used in the virtual surgery environment, and the random surgery data may be virtual data generated from domain randomization.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 방법은 상기 획득한 균형 데이터 및 상기 실제 수술데이터를 학습데이터로서 특정 수술에 대하여 사용되는 특정 수술 도구에 관한 수술 도구 인식 학습 훈련을 수행하는 단계 및 상기 수행한 수술 도구 인식 학습 훈련을 기반으로 하여 수술 도구 인식 학습 모델을 생성하는 단계를 포함할 수 있다.A learning data collection method for surgical tool recognition training according to an embodiment of the present invention to solve the above-described problem is a specific surgical tool used for a specific surgery using the obtained balance data and the actual surgical data as learning data. It may include performing surgical tool recognition learning training and generating a surgical tool recognition learning model based on the performed surgical tool recognition learning training.

상기 특정 수술이 위 절제술인 경우, 상기 특정 수술 도구는, 로봇 수술 도구, 복강경 수술 도구 및 보조 수술 도구 중 적어도 하나를 포함하고, 상기 특정 수술 장기는, 위, 간, 담낭, 비장 및 췌장을 포함하고, 상기 특정 수술이 담낭 절제술인 경우, 상기 특정 수술 도구는, 복강경 도구 및 보조 수술 도구 중 적어도 하나를 포함하고, 상기 특정 수술 장기는, 담낭과 간을 포함하는 것일 수 있다.When the specific surgery is gastrectomy, the specific surgical tools include at least one of robotic surgical tools, laparoscopic surgical tools, and auxiliary surgical tools, and the specific surgical organs include the stomach, liver, gallbladder, spleen, and pancreas. And when the specific surgery is cholecystectomy, the specific surgical tool may include at least one of a laparoscopic tool and an auxiliary surgical tool, and the specific surgical organ may include a gallbladder and a liver.

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 방법 중 어느 하나의 방법을 실행시키기 위해 저장될 수 있다.A learning data collection program for surgical tool recognition training according to another embodiment of the present invention to solve the above-described problem may be combined with a computer as hardware and stored to execute any one of the above methods.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기 본 발명에 의하면, 실제 수술데이터로부터 획득하기 어려운 데이터를 가상의 데이터로 획득함으로써, 클래스 불균형을 해결할 수 있다.According to the present invention, class imbalance can be resolved by obtaining data that is difficult to obtain from actual surgery data as virtual data.

또한, 상기 본 발명에 의하면, 반복되는 다양한 데이터를 많이 생성하고, 이를 활용함으로써 보다 정확한 학습 모델을 생성할 수 있다.In addition, according to the present invention, a more accurate learning model can be created by generating a large amount of various repetitive data and utilizing this data.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1a는 본 발명에 따른 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터를 수집하는 장치(10)를 설명하기 위한 도면이다.
도 1b는 본 발명의 일 실시예에 따른 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법의 흐름도이다.
도 2a는 본 발명에 따른 영상 내 수술 도구 및 장기의 어노테이션을 예시적으로 나타낸 도면이다.
도 2b는 본 발명에 따른 분할 모델을 통해 실제 수술데이터를 기반으로 실제 시멘틱 이미지 데이터를 생성하는 것을 설명하기 위한 도면이다.
도 2c는 본 발명에 따른 분할 모델을 통해 가상 수술데이터를 기반으로 가상 시멘틱 이미지 데이터를 생성하는 것을 설명하기 위한 도면이다.
도 2d는 본 발명에 따른 분할 모델을 통해 랜덤 수술데이터를 기반으로 랜덤 시멘틱 이미지 데이터를 생성하는 것을 설명하기 위한 도면이다.
도 3은 본 발명에 따른 학습데이터 셋을 이용하여 수술 도구 인식 학습 모델을 생성하는 방법의 흐름도이다.
도 4는 본 발명에 따른 실제 수술데이터에서 부족한 데이터를 균형 데이터로서 획득하는 방법의 흐름도이다.
도 5는 본 발명에 따른 실제 수술데이터로부터 획득된 어노테이션의 분포를 나타낸 그래프이다.
도 6은 본 발명에 따른 가상 수술데이터 및/또는 랜덤 수술데이터를 획득함으로써 달라진 어노테이션의 분포를 나타낸 그래프이다.
도 7은 본 발명에 따른 실제 수술데이터(복강경 담낭 절제술과 위암 비디오)에서 얻은 어노테이션의 분포를 설명한 그래프이다.
도 8은 본 발명에 따른 실제 수술데이터(위암 수술데이터) 및 가상 수술데이터(3D 환자 모델)에 대한 복강경 담낭 절제술 및 위 절제술에서 얻은 주석 분포를 설명한 그래프이다.
도 9는 획득한 실제 수술데이터 및 균형 데이터를 기반으로 하여 수술 도구 및 장기 인식 학습 모델을 생성하는 방법의 흐름도이다.
FIG. 1A is a diagram illustrating a device 10 for collecting learning data for surgical tool and organ recognition training according to the present invention.
Figure 1B is a flowchart of a learning data collection method for surgical tool and organ recognition training according to an embodiment of the present invention.
Figure 2a is a diagram illustrating an annotation of surgical tools and organs in an image according to the present invention.
Figure 2b is a diagram to explain generating actual semantic image data based on actual surgical data through a segmentation model according to the present invention.
Figure 2c is a diagram illustrating the creation of virtual semantic image data based on virtual surgical data through a segmentation model according to the present invention.
FIG. 2D is a diagram illustrating generating random semantic image data based on random surgical data through a segmentation model according to the present invention.
Figure 3 is a flowchart of a method for generating a surgical tool recognition learning model using a learning data set according to the present invention.
Figure 4 is a flowchart of a method for obtaining insufficient data in actual surgery data as balanced data according to the present invention.
Figure 5 is a graph showing the distribution of annotations obtained from actual surgery data according to the present invention.
Figure 6 is a graph showing the distribution of annotations changed by acquiring virtual surgery data and/or random surgery data according to the present invention.
Figure 7 is a graph explaining the distribution of annotations obtained from actual surgery data (laparoscopic cholecystectomy and stomach cancer video) according to the present invention.
Figure 8 is a graph illustrating the distribution of annotations obtained from laparoscopic cholecystectomy and gastrectomy for actual surgery data (gastric cancer surgery data) and virtual surgery data (3D patient model) according to the present invention.
Figure 9 is a flowchart of a method for generating a surgical tool and organ recognition learning model based on the acquired actual surgical data and balance data.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

본 명세서에서 '컴퓨터'는 연산처리를 수행할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다.In this specification, 'computer' includes all various devices capable of performing computational processing. For example, computers include not only desktop PCs and laptops (Note Books), but also smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), and synchronous/asynchronous computers. This may also include IMT-2000 (International Mobile Telecommunication-2000) mobile terminals, Palm Personal Computers (Palm PCs), and personal digital assistants (PDAs).

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1a는 본 발명에 따른 수술 도구 인식 및 장기 학습 훈련을 위한 학습 데이터를 수집하는 장치(10)를 설명하기 위한 도면이다.FIG. 1A is a diagram illustrating an apparatus 10 for collecting learning data for surgical tool recognition and long-term learning training according to the present invention.

도 1b는 본 발명의 일 실시예에 따른 수술 도구 인식 및 장기 학습 훈련을 위한 학습 데이터 수집 과정을 나타낸 흐름도이다.Figure 1B is a flowchart showing the learning data collection process for surgical tool recognition and long-term learning training according to an embodiment of the present invention.

도 2a는 본 발명에 따른 영상 내 수술 도구 및 장기의 어노테이션을 예시적으로 나타낸 도면이다.Figure 2a is a diagram illustrating an annotation of surgical tools and organs in an image according to the present invention.

도 2b는 본 발명에 따른 분할 모델을 통해 실제 수술데이터를 기반으로 실제 시멘틱 이미지 데이터를 생성하는 것을 설명하기 위한 도면이다.Figure 2b is a diagram to explain generating actual semantic image data based on actual surgical data through a segmentation model according to the present invention.

도 2c는 본 발명에 따른 분할 모델을 통해 가상 수술데이터를 기반으로 가상 시멘틱 이미지 데이터를 생성하는 것을 설명하기 위한 도면이다.Figure 2c is a diagram illustrating the creation of virtual semantic image data based on virtual surgical data through a segmentation model according to the present invention.

도 2d는 본 발명에 따른 분할 모델을 통해 랜덤 수술데이터를 기반으로 랜덤 시멘틱 이미지 데이터를 생성하는 것을 설명하기 위한 도면이다.FIG. 2D is a diagram illustrating generating random semantic image data based on random surgical data through a segmentation model according to the present invention.

이하, 도 1a 내지 도 2d를 참조하여, 본 발명에 따른 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터를 수집하는 장치(10)에 대해서 설명하도록 한다.Hereinafter, with reference to FIGS. 1A to 2D, the apparatus 10 for collecting learning data for surgical tool and organ recognition training according to the present invention will be described.

장치(10)는 정확한 수술 도구 인식 및 장기 학습을 위한 수술 도구 및 장기의 학습 데이터를 제공할 수 있다. 또한, 장치(10)는 클래스 불균형을 해결할 수 있는 학습 데이터를 제공할 수 있다.The device 10 can provide learning data of surgical tools and organs for accurate surgical tool recognition and organ learning. Additionally, the device 10 may provide learning data that can resolve class imbalance.

이에 따라, 장치(10)는 실제 수술데이터로부터 획득하기 어려운 데이터를 가상의 데이터로 획득함으로써, 클래스 불균형을 해결할 수 있다. 또한, 장치(10)는 반복되는 다양한 데이터를 많이 생성하고, 이를 활용함으로써 보다 정확한 학습 모델을 생성할 수 있다.Accordingly, the device 10 can resolve class imbalance by obtaining data that is difficult to obtain from actual surgery data as virtual data. In addition, the device 10 can generate a lot of repetitive and diverse data, and use this to create a more accurate learning model.

이러한, 장치(10)는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다. The device 10 may include various devices that can perform computational processing and provide results to the user.

컴퓨터의 형태가 될 수 있다. 보다 상세하게는, 상기 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다. It can be in the form of a computer. More specifically, the computer may include various devices that can perform computational processing and provide results to the user.

예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. For example, computers include not only desktop PCs and laptops (Note Books), but also smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), and synchronous/asynchronous computers. This may also include IMT-2000 (International Mobile Telecommunication-2000) mobile terminals, Palm Personal Computers (Palm PCs), and personal digital assistants (PDAs). Additionally, if a Head Mounted Display (HMD) device includes computing capabilities, the HMD device may be a computer.

또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.Additionally, a computer may be a server that receives requests from clients and performs information processing.

그리고, 장치(10)는 획득부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 여기서, 장치(10)는 도 1a에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수 있다.Additionally, the device 10 may include an acquisition unit 110, a memory 120, and a processor 130. Here, device 10 may include fewer or more components than those shown in FIG. 1A.

획득부(110)는 장치(10)와 외부 서버(미도시) 사이 또는 장치(10)와 통신망(미도시) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.The acquisition unit 110 may include one or more modules that enable wireless communication between the device 10 and an external server (not shown) or between the device 10 and a communication network (not shown).

여기서, 획득부(110)는 장치(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.Here, the acquisition unit 110 may include one or more modules that connect the device 10 to one or more networks.

이러한, 획득부(110)는 실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 복수의 수술데이터를 획득할 수 있다. 여기서, 획득부(110)는 상기 실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터를 상기 외부 서버(미도시)로부터 획득할 수 있다.The acquisition unit 110 may acquire at least a plurality of surgical data among actual surgical data, virtual surgical data, and random surgical data. Here, the acquisition unit 110 may acquire the actual surgery data, virtual surgery data, and random surgery data from the external server (not shown).

통신망(미도시)은 장치(10)와 외부 서버(미도시) 간의 다양한 정보를 송수신할 수 있다. 통신망(미도시)은 다양한 형태의 통신망이 이용될 수 있으며, 예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다.A communication network (not shown) can transmit and receive various information between the device 10 and an external server (not shown). Various types of communication networks (not shown) may be used, such as WLAN (Wireless LAN), Wi-Fi, Wibro, Wimax, HSDPA (High Speed Downlink Packet Access), etc. Wireless communication methods or wired communication methods such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), and FTTH (Fiber To The Home) can be used.

한편, 통신망(미도시)은 상기에 제시된 통신방식에 한정되는 것은 아니며, 상술한 통신방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.Meanwhile, the communication network (not shown) is not limited to the communication methods presented above, and may include all types of communication methods that are widely known or will be developed in the future in addition to the communication methods described above.

메모리(120)는 장치(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 메모리(120)는 장치(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 장치(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 장치(10)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 메모리(120)에 저장되고, 장치(10) 상에 설치되어, 프로세서(130)에 의하여 상기 장치(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.Memory 120 may store data supporting various functions of device 10. The memory 120 may store a number of application programs (application programs or applications) running on the device 10, data for operating the device 10, and commands. At least some of these application programs may exist for basic functions of the device 10. Meanwhile, the application program may be stored in the memory 120, installed on the device 10, and driven by the processor 130 to perform the operation (or function) of the device 10.

또한, 메모리(120)는 상기 획득부(110)에서 획득한 상기 실제 수술데이터, 상기 가상 수술데이터 및 상기 랜덤 수술데이터를 환자 별로 저장할 수 있다.Additionally, the memory 120 may store the actual surgery data, the virtual surgery data, and the random surgery data acquired by the acquisition unit 110 for each patient.

또한, 메모리(120)는 본 발명에 따른 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터를 수집하기 위한 복수의 프로세스를 구비할 수 있다. 여기서, 상기 복수의 프로세스는 프로세서(130)에 대한 동작을 설명할 때 후술하도록 한다.Additionally, the memory 120 may be provided with a plurality of processes for collecting learning data for surgical tool and organ recognition training according to the present invention. Here, the plurality of processes will be described later when explaining the operation of the processor 130.

프로세서(130)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 장치(10)의 전반적인 동작을 제어할 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120)에 저장된 응용 프로그램 또는 복수의 프로세스를 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to operations related to the application program, the processor 130 may generally control the overall operation of the device 10. The processor 130 processes signals, data, information, etc. input or output through the components discussed above, or runs an application program or a plurality of processes stored in the memory 120, thereby providing or processing appropriate information or functions to the user. can do.

또한, 프로세서(130)는 메모리(120)에 저장된 응용 프로그램 또는 복수의 프로세스를 구동하기 위하여, 도 1a과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(130)는 상기 응용 프로그램 또는 상기 복수의 프로세스의 구동을 위하여, 장치(10)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작 시킬 수 있다.Additionally, the processor 130 may control at least some of the components examined with FIG. 1A in order to run an application program or a plurality of processes stored in the memory 120. Furthermore, the processor 130 may operate in combination with at least two or more of the components included in the device 10 to drive the application program or the plurality of processes.

도 1b를 참조하면, 본 발명의 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법은, 장치(10)의 프로세서(130)에 의해 실행되는 방법으로서, 프로세서(130)가 적어도 복수의 수술데이터를 획득하는 단계(S110), 상기 수술데이터를 획득한 후, 분할 모델을 통해 상기 획득한 복수의 수술데이터를 기반으로 시멘틱 이미지 데이터를 생성하는 단계(S120), 획득한 복수의 수술데이터와 상기 시멘틱 이미지 데이터를 학습데이터 셋으로 구성하여 제공하는 단계(S130)를 포함할 수 있다.Referring to FIG. 1B, the learning data collection method for surgical tool and organ recognition learning training of the present invention is a method executed by the processor 130 of the device 10, where the processor 130 collects at least a plurality of surgical data. A step of acquiring (S110), after acquiring the surgical data, a step of generating semantic image data based on the plurality of surgical data obtained through a segmentation model (S120), the plurality of acquired surgical data and the semantic It may include a step (S130) of configuring and providing image data as a learning data set.

프로세서(130)는 적어도 복수의 수술데이터를 획득할 수 있다(S110). The processor 130 may acquire at least a plurality of surgical data (S110).

여기서, 프로세서(130)는 복수의 프로세스 중 제1 프로세스를 기반으로 실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 복수의 수술데이터를 획득할 수 있다.Here, the processor 130 may acquire at least a plurality of surgical data among actual surgical data, virtual surgical data, and random surgical data based on a first process among the plurality of processes.

여기서, 실제 수술데이터는, 실제로 수행된 수술의 종류, 사용된 도구의 위치정보 및 사용된 수술 도구의 정보를 포함하는 실제 수술 도구데이터와 실제로 수행된 수술의 장기에 대한 실제 장기데이터를 포함할 수 있다.Here, the actual surgery data may include actual surgical tool data including the type of surgery actually performed, location information of the tools used, and information on the surgical tools used, and actual organ data about the organs of the surgery actually performed. there is.

또한, 실제 수술데이터는, 실제 수술 영상 데이터로부터 각각의 데이터를 획득할 수 있으며, 실제 수술 영상 데이터는 실제 수술 시, 실제 수술 중에 획득한 영상 데이터일 수 있다.Additionally, the actual surgery data may be obtained from actual surgery image data, and the actual surgery image data may be image data acquired during an actual surgery.

또한, 실제 수술데이터는 전술한 바와 같이, 해당 수술이 진행된 수술의 종류, 실제 수술 중 사용된 도구의 위치정보를 포함하며, 이때 사용한 수술 도구의 정보인 실제 수술 도구데이터와 수술된 수술 장기의 정보인 실제 수술 장기데이터를 포함할 수 있다.In addition, as described above, the actual surgery data includes the type of surgery in which the surgery was performed and the location information of the tools used during the actual surgery. The actual surgical tool data, which is information on the surgical tools used at this time, and information on the surgical organs operated on It can include long-term data from actual surgeries.

프로세서(130)는 분할 모델을 통해 상기 실제 수술 영상 데이터를 기반으로 상기 실제 수술데이터를 생성할 수 있다. 여기서, 분할 모델은 이후 상세히 후술하도록 한다.The processor 130 may generate the actual surgery data based on the actual surgery image data through a segmentation model. Here, the segmentation model will be described in detail later.

여기서, 실제 수술 도구데이터는, 상기 분할 모델을 통해 도구의 헤드(head), 관절(wrist) 및 바디(body) 중 적어도 하나 이상을 구분하여 실제 수술 영상 내에서 바운딩되거나 픽셀 단위로 폴리곤(polygon) 처리되는 것 중 적어도 하나를 포함할 수 있다.Here, the actual surgical tool data is bounded within the actual surgical image by distinguishing at least one of the head, wrist, and body of the tool through the segmentation model, or is converted into a polygon in pixel units. It may contain at least one of the things being processed.

또는, 실제 수술 도구데이터는, 상기 분할 모델을 통해 도구의 특징 별로 상기 실제 수술 영상 내에서 바운딩 되거나 픽셀 단위로 폴리곤 처리되는 것 중 적어도 하나를 포함할 수 있다.Alternatively, the actual surgical tool data may include at least one of being bounded within the actual surgical image for each tool feature through the segmentation model or polygonally processed on a pixel basis.

여기서, 도구의 특징은, 도구의 종류, 도구의 크기 등 특징이 되는 것은 모두 포함되어, 상기 분할 모델을 통해 특징 별로 구분되어 바운딩되거나, 픽셀 단위로 폴리곤 처리될 수 있다. 이러한, 폴리곤 처리는 특정 부분에 대해 픽셀 단위로 외곽선을 따는 방식일 수 있다.Here, the characteristics of the tool include all characteristics such as the type of tool and the size of the tool, and can be classified and bound for each feature through the segmentation model, or polygonized on a pixel basis. This polygon processing may be a method of drawing an outline of a specific part on a pixel-by-pixel basis.

또한, 실제 수술 장기데이터는, 상기 분할 모델을 통해 상기 실제 수술 영상 내에서 시각적으로 구분되는 장기가 포함되는 픽셀 중 적어도 하나 이상이 폴리곤 처리될 수 있다. 또는, 상기 실제 수술 장기데이터는, 상기 분할 모델을 통해 상기 실제 수술 영상 내에서 상기 장기가 포함되는 특정 부분이 바운딩되는 것 중 적어도 하나를 포함할 수 있다.In addition, in the actual surgery organ data, at least one of the pixels containing visually distinguished organs in the actual surgery image may be polygonized through the segmentation model. Alternatively, the actual surgical organ data may include at least one of bounding a specific portion containing the organ within the actual surgical image through the segmentation model.

실제 수술 영상 내에서 바운딩은 실제 수술 영상 내에서 특정하고자 하는 부분, 즉, 학습시키고자 하는 정보에 해당하는 부분을 상기 분할 모델을 통해 바운딩 박스(bounding box)형태로 어노테이션(annotation)하는 것일 수 있다.Bounding within the actual surgery image may be annotating the part to be specified within the actual surgery image, that is, the part corresponding to the information to be learned, in the form of a bounding box through the segmentation model. .

또는, 실제 수술 영상 내에서 폴리곤 처리는 실제 수술 영상 내에서 특정하고자 하는 부분, 즉, 학습시키고자 하는 정보에 해당하는 부분을 상기 분할 모델을 통해 픽셀 단위로 폴리곤 처리하는 것일 수 있다.Alternatively, polygon processing within the actual surgery image may be polygon processing a portion to be specified within the actual surgery image, that is, a portion corresponding to information to be learned, on a pixel-by-pixel basis through the segmentation model.

여기서, 어노테이션이란, 바운딩 박스 또는 폴리곤 처리된 특정 부분을 포함한 정답 라벨일 수 있다.Here, the annotation may be a correct answer label including a bounding box or a specific polygon-processed part.

도 2a를 참조하면, 수술 영상 내에서 수술 도구를 바운딩 박스로 표시하여 어노테이션하는 방법은, 실제 수술 영상 내에서 수행하는 것뿐만 아니라, 3D 수술 환경 또는 3D 가상 공간의 영상 내에서 어노테이션을 수행하는 것도 동일하게 적용될 수 있다.Referring to Figure 2a, the method of annotating surgical tools by displaying them as bounding boxes within a surgical image is not only performed within the actual surgical image, but also involves performing annotation within an image in a 3D surgical environment or 3D virtual space. The same can be applied.

수술 도구를 헤드, 관절, 바디로 구분하여 바운딩 박스 처리하는 것은, 도구의 정확한 위치 정보를 획득하기 위함으로써, 해당 수술 도구의 헤드 위치와, 관절 및/또는 바디의 위치를 특정하면, 수술 도구의 위치 및 방향 정보를 획득할 수 있다.Classifying the surgical tool into the head, joint, and body and processing it into a bounding box is to obtain accurate position information of the tool. By specifying the position of the head of the surgical tool and the position of the joint and/or body, the surgical tool Location and direction information can be obtained.

다만, 수술 도구는 기구학적 특정에 따라, 헤드, 바디로만 구분될 수 있고, 헤드, 관절 및 바디로 구분될 수도 있다. However, depending on the kinematics, surgical tools may be divided into only the head and body, or they may be divided into the head, joints, and body.

수술 도구는 예시적으로는, 복강경 수술 도구, 로봇 수술 도구뿐만 아니라, 수술 과정에서 자주 사용되는 바늘, 표본 가방, 수술용 튜브 등이 포함될 수 있으며, 상기 나열된 예시 이외에도 수술 시 사용되는 도구는 모두 포함될 수 있다.Surgical tools may include, by way of example, laparoscopic surgical tools and robotic surgical tools, as well as needles, specimen bags, and surgical tubes frequently used during surgical procedures. In addition to the examples listed above, all tools used during surgery are included. You can.

가상 수술데이터는 가상의 수술 환경 및 가상의 수술 환경에서 사용된 가상의 수술 도구데이터와 가상의 수술 장기데이터를 포함할 수 있다. 이때, 가상의 수술 환경은 특정 실제 수술 영상데이터를 이용하여 3D화 하여 제작된 3D 수술 환경이고, 가상의 수술 도구데이터와 가상의 수술 장기데이터는, 3D 수술 환경 내에서 사용자로부터 활용되어 도출된 가상의 수술도구 정보일 수 있다.Virtual surgery data may include a virtual surgery environment, virtual surgery tool data used in the virtual surgery environment, and virtual surgery organ data. At this time, the virtual surgical environment is a 3D surgical environment created by turning it into 3D using specific actual surgical image data, and the virtual surgical tool data and virtual surgical organ data are virtual surgical environments derived from use by the user within the 3D surgical environment. It may be information on surgical tools.

프로세서(130)는 분할 모델을 통해 상기 가상의 수술 환경을 기반으로 상기 가상 수술데이터를 생성할 수 있다. 여기서, 분할 모델은 이후 상세히 후술하도록 한다.The processor 130 may generate the virtual surgery data based on the virtual surgery environment through a segmentation model. Here, the segmentation model will be described in detail later.

이러한, 가상의 수술 환경은 가상 신체 모델을 통해 구현된 환경일 수 있다. 여기서, 가상 수술 환경은 수술 도구 및 장기 교육을 위한 효과적인 레이블링 배포를 위해 다음과 같은 디지털 트윈 가상 환경일 수 있다.This virtual surgical environment may be an environment implemented through a virtual body model. Here, the virtual surgical environment may be a digital twin virtual environment for effective labeling distribution for surgical tools and organ training, such as:

또한, 가상 신체 모델은 수술 상황을 고려한 복부 전산화 단층 촬영 영상을 이용하여 5개의 재건 장기를 분할하기 위한 라벨과 환자의 기복막을 반영한 피부를 3D 재건에 사용하여 생성될 수 있다.Additionally, a virtual body model can be created using abdominal computed tomography images considering the surgical situation, labels for segmenting the five reconstructed organs, and skin reflecting the patient's pneumoperitoneum for 3D reconstruction.

또한, 가상의 수술 환경은 수술 도구의 경우 로봇 및 복강경 기구의 카탈로그와 실제 측정값을 사용하여 상용 소프트웨어 도구인 3D Max, Zbrush 및 Substance Painter를 사용하여 3D 모델을 재구성하여 생성될 수 있다.Additionally, a virtual surgical environment can be created by reconstructing a 3D model using commercial software tools 3D Max, Zbrush, and Substance Painter, using catalogs of robotic and laparoscopic instruments and actual measurements in the case of surgical tools.

또한, 가상의 수술 환경은 수술의 카메라 시점을 재현하기 위해 로봇 수술에 사용되는 내시경과 동일한 내/외부 매개변수로 가상 카메라 환경을 구축하여 생성될 수 있다.Additionally, a virtual surgical environment can be created by constructing a virtual camera environment with the same internal/external parameters as the endoscope used in robotic surgery to reproduce the camera viewpoint of the surgery.

실제 수술 영상데이터를 이용하여 3D화 하여 제작된 3D 수술 환경은, 특정 카메라 시점에 해당하는 2D 정보로부터 사영되어 제작될 수 있다.A 3D surgical environment created in 3D using actual surgical video data can be created by projecting from 2D information corresponding to a specific camera viewpoint.

여기서, 실제 수술 영상데이터는, 예시적으로 컴퓨터단층촬영(Computer Tomography, CT), 핵자기공명 컴퓨터 단층촬영 영상(Nuclear Magnetic Resonance Computed Tomography, NMR-CT), 양전자 단층촬영 영상(Positron Emission Tomography; PET), CBCT(Cone Beam CT, CBCT), 전자빔 단층촬영 영상(Electron BeamTomography; EBT), 엑스레이(X-ray) 영상, 자기공명영상(Margnetic Resonance Imaging; MRI)을 포함할 수 있으나, 상기 예시에 한정되지 않고, 동영상을 포함하여 수술 시 촬영한 영상데이터를 모두 포함할 수 있다. Here, actual surgical image data is, for example, computed tomography (CT), nuclear magnetic resonance computed tomography (NMR-CT), and positron emission tomography (PET). ), CBCT (Cone Beam CT, CBCT), Electron BeamTomography (EBT), X-ray image, and Magnetic Resonance Imaging (MRI), but limited to the above examples. However, it can include all image data taken during surgery, including videos.

가상의 수술 도구데이터와 가상의 수술 장기데이터는, 구성된 3D 수술 환경 내에서 사용자로부터 임의적으로 사용되는 수술 도구의 정보 및 수술 장기의 정보일 수 있다. The virtual surgical tool data and virtual surgical organ data may be information on surgical tools and surgical organs that are arbitrarily used by the user within a configured 3D surgical environment.

프로세서(130)는 실제 수술에서 사용되지 않은 수술 도구라도 가상으로 사용되는 수술 도구 또는 수술 장기를 상기 분할 모델을 통해 바운딩 박스로 어노테이션하거나 픽셀 단위로 폴리곤(polygon) 처리하여 학습데이터로 활용한 학습 훈련을 수행할 수 있다.The processor 130 performs learning training by annotating virtually used surgical tools or surgical organs with a bounding box through the segmentation model or processing them into polygons on a pixel basis and using them as learning data, even if the surgical tools are not used in actual surgery. can be performed.

다만, 가상의 수술 도구데이터와 가상의 수술 장기데이터의 경우에는, 생성적 적대 신경망을 이용한 이미지 간 번역의 기법을 적용하여 학습에 활용할 수도 있다.However, in the case of virtual surgical tool data and virtual surgical organ data, the technique of translation between images using a generative adversarial network can be applied for learning.

생성적 적대 신경망에 대하여는 심층신경망에 대한 설명과 함께 후술한다.The generative adversarial network will be described later along with the explanation of the deep neural network.

랜덤 수술데이터는, 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터로서, 수술 도구, 수술 대상 장기, 카메라의 설정 조건을 무작위로 변경함으로써, 무작위로 생성된 특정 수술, 특정 수술 대상 장기, 및 특정 수술에서 사용되는 랜덤 수술 도구 중 적어도 하나에 대한 데이터를 포함할 수 있다.Random surgery data is virtual data generated from domain randomization, and is randomly generated by randomly changing the setting conditions of surgical tools, organs to be operated, and cameras, and randomly generated specific surgery, organs to be operated on, and specific organs to be operated on. It may include data on at least one of the random surgical tools used in surgery.

프로세서(130)는 분할 모델을 통해 상기 가상의 수술 환경을 기반으로 상기 랜덤 수술데이터를 생성할 수 있다. 여기서, 분할 모델은 이후 상세히 후술하도록 한다.The processor 130 may generate the random surgery data based on the virtual surgery environment through a segmentation model. Here, the segmentation model will be described in detail later.

즉, 프로세서(130)는 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터인 랜덤 수술데이터에 대해 상기 분할 모델을 통해 수술 도구 또는 수술 장기를 바운딩 박스로 어노테이션하거나 픽셀 단위로 폴리곤(polygon) 처리할 수 있다.That is, the processor 130 annotates surgical tools or surgical organs as bounding boxes or polygon-processes them on a pixel basis through the segmentation model for random surgery data, which is virtual data generated from domain randomization. You can.

랜덤 수술데이터를 획득하기 위해 구현되는 3D 가상 공간은, 임의적인 수술의 3D 가상 공간을 포함할 수 있고, 전술한 가상 수술데이터에 포함된 3D 수술 환경과 동일하게 제작된 3D 수술 환경을 포함할 수 있다.The 3D virtual space implemented to acquire random surgery data may include a 3D virtual space of random surgery, and may include a 3D surgery environment created identically to the 3D surgery environment included in the above-described virtual surgery data. there is.

수술 대상 장기의 경우, 장기의 색, 텍스쳐(texture), 변형(deformation), 위치를 무작위로 설정할 수 있고, 수술 도구의 경우, 수술 도구의 종류, 텍스쳐, 기구학적 동작, 위치를 무작위로 설정할 수 있고, 카메라의 경우, 카메라의 시야(FOV, Field of view), 위치, 종류, 왜곡 정도(distortion)를 무작위로 설정할 수 있다.For organs subject to surgery, the color, texture, deformation, and location of the organ can be set randomly. For surgical tools, the type, texture, kinematic motion, and location of the surgical tool can be set randomly. And in the case of cameras, the camera's field of view (FOV), location, type, and distortion can be set randomly.

즉, 프로세서(130)는 기존 실제 수술에서 일반적으로 사용되는 수술도구와 관계없이, 모든 수술 대상 장기, 수술 도구, 카메라 조건 등을 무작위로 설정하여, 무작위로 획득한 정보를 데이터화할 수 있다.That is, the processor 130 can randomly set all surgical target organs, surgical tools, camera conditions, etc., regardless of the surgical tools commonly used in existing actual surgeries, and convert randomly acquired information into data.

예를 들어, 랜덤 수술데이터 획득 시에는 하나 이상의 로봇 도구(예컨대, Harmonic Ace, Maryland Bipolar Forceps, Cadiere Forceps, Stapler, Medium-Large Clip Applier, Small Clip Applier 등), 하나 이상의 복강경 도구(예컨대, Atraumatic grasper, Electric hook, Curved Atraumatic Grasper, Suction-Irrigation, Clip Applier(metal), Scissors, Overholt, Ligasure 등) 및 하나 이상의 장기에 대하여 3D 모델을 제작할 수 있다. 다만, 상기 실시예에 한정되지 않고, 다양한 로봇 도구 및 다양한 복강경 도구에 대하여 3D 모델을 제작할 수 있다.For example, when acquiring random surgical data, one or more robotic tools (e.g., Harmonic Ace, Maryland Bipolar Forceps, Cadiere Forceps, Stapler, Medium-Large Clip Applier, Small Clip Applier, etc.), one or more laparoscopic tools (e.g., Atraumatic Grasp Applier, etc.) , Electric hook, Curved Atraumatic Grasper, Suction-Irrigation, Clip Applier (metal), Scissors, Overholt, Ligasure, etc.) and one or more organs. However, it is not limited to the above embodiment, and 3D models can be produced for various robotic tools and various laparoscopic tools.

또는, 랜덤 수술데이터 획득 시에는 위 절제 대한 수술에 사용되는 도구(예컨대, atraumatic grasper, Cadiere forceps, curved atraumatic grasper, harmonic ace, Maryland bipolar forceps, medium-large clip applier, Overholt, scissors, small clip applier, stapler, and suction-irrigation) 및 하나 이상의 복강경 도구(예컨대, atraumatic grasper, clip applier (hem-o-lok), clip applier (metal), curved atraumatic grasper, electrichook, Ligasure, Overholt, scissors, and suction-irrigation)에 대하여 3D 모델을 제작할 수 있다. 다만, 상기 실시예에 한정되지 않고, 다양한 로봇 도구 및 다양한 복강경 도구에 대하여 3D 모델을 제작할 수 있다.Alternatively, when acquiring random surgical data, tools used in surgery for gastrectomy (e.g., atraumatic grasper, Cadiere forceps, curved atraumatic grasper, harmonic ace, Maryland bipolar forceps, medium-large clip applier, Overholt, scissors, small clip applier, stapler, and suction-irrigation) and one or more laparoscopic tools (e.g., atraumatic grasper, clip applier (hem-o-lok), clip applier (metal), curved atraumatic grasper, electrichook, Ligasure, Overholt, scissors, and suction-irrigation ), you can create a 3D model. However, it is not limited to the above embodiment, and 3D models can be produced for various robotic tools and various laparoscopic tools.

프로세서(130)는 분할 모델을 통해 획득한 적어도 복수의 수술데이터를 기반으로 시멘틱 이미지 데이터를 생성할 수 있다(S120). The processor 130 may generate semantic image data based on at least a plurality of surgical data acquired through a segmentation model (S120).

여기서, 상기 분할 모델은, 의미적 분할 모델과 인스턴스 분할 모델을 포함할 수 있다. 의미적 분할 모델은 DeepLabV2, HRNet, HRNet+OCR 중 적어도 하나를 포함할 수 있다. 또한, 인스턴스 분할 모델은 Casecade R-CNN, HRNet, HRNet+OCR 중 적어도 하나를 포함할 수 있다.Here, the partition model may include a semantic partition model and an instance partition model. The semantic segmentation model may include at least one of DeepLabV2, HRNet, and HRNet+OCR. Additionally, the instance segmentation model may include at least one of Casecade R-CNN, HRNet, and HRNet+OCR.

여기서, 의미적 분할 모델은 영상 내 존재하는 모든 픽셀을 추론할 수 있고, 인스턴스 분할 모델은 바운딩 박스 내의 인스턴스 정보를 픽셀 레벨로 추론할 수 있다.Here, the semantic segmentation model can infer all pixels existing in the image, and the instance segmentation model can infer instance information within the bounding box at the pixel level.

보다 상세하게는 프로세서(130)는 상기 분할 모델을 통해 상기 실제 수술데이터, 상기 가상 수술데이터 및 상기 랜덤 수술데이터에서 각각 추출된 프레임과 그에 해당되는 레이블 맵으로부터 상기 시맨틱 이미지 데이터를 생성할 수 있다.More specifically, the processor 130 may generate the semantic image data from frames and corresponding label maps each extracted from the actual surgery data, the virtual surgery data, and the random surgery data through the segmentation model.

여기서, 상기 시멘틱 이미지 데이터는, 상기 복수의 수술데이터 각각에 포함되는 도구에 대한 시멘틱 수술 도구데이터 또는 장기에 대한 시멘틱 수술 장기데이터를 포함할 수 있다.Here, the semantic image data may include semantic surgical tool data for tools or semantic surgical organ data for organs included in each of the plurality of surgical data.

그리고, 상기 시멘틱 수술 도구데이터 또는 상기 시멘틱 수술 장기데이터는, 상기 복수의 수술데이터 각각에 포함되는 상기 도구 또는 상기 장기에 대해 바운딩되거나, 픽셀 단위로 폴리곤 처리되는 것 중 적어도 하나를 포함할 수 있다.In addition, the semantic surgical tool data or the semantic surgical organ data may include at least one of being bound to the tool or the organ included in each of the plurality of surgical data, or being polygon-processed on a pixel-by-pixel basis.

그리고, 상기 시멘틱 수술 도구데이터 또는 상기 시멘틱 수술 장기데이터는, 상기 바운딩되거나, 상기 폴리곤 처리된 부분 마다 상기 도구 또는 장기의 위치, 상기 도구 또는 상기 장기의 명칭, 상기 도구 또는 상기 장기의 상태(일 예로, 도구: 관절 부분이 접혀진 상태, 장기: 일부분이 절단된 상태 등) 중 적어도 하나의 정보를 포함할 수 있다.And, the semantic surgical tool data or the semantic surgical organ data includes the location of the tool or organ, the name of the tool or organ, and the state of the tool or organ for each bounded or polygon-processed part (as an example) , tool: state in which the joint is folded, organ: state in which part is cut, etc.).

구체적으로, 도 2b를 보면, 프로세서(130)는 상기 복수의 수술데이터에 상기 실제 수술데이터가 포함되는 경우, 상기 분할 모델을 통해 상기 실제 수술데이터를 기반으로 실제 시멘틱 이미지 데이터를 생성할 수 있다.Specifically, looking at FIG. 2B, when the plurality of surgical data includes the actual surgical data, the processor 130 may generate actual semantic image data based on the actual surgical data through the segmentation model.

또한, 도 2c를 보면, 프로세서(130)는 상기 복수의 수술데이터에 상기 가상 수술데이터가 포함되는 경우, 상기 분할 모델을 통해 상기 가상 수술데이터를 기반으로 가상 시멘틱 이미지 데이터를 생성할 수 있다.Additionally, referring to FIG. 2C, when the plurality of surgical data includes the virtual surgical data, the processor 130 may generate virtual semantic image data based on the virtual surgical data through the segmentation model.

또한, 도 2d를 보면, 프로세서(130)는 상기 복수의 수술데이터에 상기 랜덤 수술데이터가 포함되는 경우, 상기 분할 모델을 통해 상기 랜덤 수술데이터를 기반으로 랜덤 시멘틱 이미지 데이터를 생성할 수 있다.Additionally, referring to FIG. 2D, when the plurality of surgical data includes the random surgical data, the processor 130 may generate random semantic image data based on the random surgical data through the segmentation model.

프로세서(130)는 획득한 복수의 수술데이터와 상기 시멘틱 이미지 데이터를 학습데이터 셋으로 구성하여 제공할 수 있다(S130). 여기서, 학습데이터 셋을 제공받는 주체는, 해당 학습데이터를 활용하는 사용자, 컴퓨터, 시스템 등을 포함할 수 있다.The processor 130 may configure the acquired plurality of surgical data and the semantic image data into a learning data set and provide it (S130). Here, the subject receiving the learning data set may include users, computers, systems, etc. that utilize the learning data.

보다 상세하게는, 프로세서(130)는 복수의 프로세스 중 제3 프로세스를 기반으로 상기 복수의 수술데이터와 상기 복수의 수술데이터 각각에 대한 상기 시멘틱 이미지 데이터를 학습데이터 셋으로 구성하여 제공할 수 있다.More specifically, the processor 130 may provide the plurality of surgical data and the semantic image data for each of the plurality of surgical data as a learning data set based on a third process among the plurality of processes.

이에 따라, 실제 수술영상이 부족하고, 실제 수술에서는 사용되는 도구만 사용될 확률이 많기 때문에 추가적으로 가상 수술데이터와 랜덤 수술데이터를 추가하고, 추가로, 시맨틱 이미지 데이터를 추가하여 학습의 성능을 높일 수 있다.Accordingly, since actual surgery images are lacking and only tools used in actual surgery are likely to be used, the learning performance can be improved by adding additional virtual surgery data and random surgery data, and additionally adding semantic image data. .

일 예로, 프로세서(130)는 상기 실제 수술데이터와 상기 실제 수술데이터에 대한 시멘틱 이미지 데이터 데이터를 학습데이터 셋으로 구성하여 제공할 수 있다.As an example, the processor 130 may configure the actual surgery data and semantic image data for the actual surgery data into a learning data set and provide it.

도 3은 본 발명의 학습데이터 셋을 이용하여 수술 도구 인식 학습 모델을 생성하는 방법의 흐름도이다.Figure 3 is a flowchart of a method for generating a surgical tool recognition learning model using the learning data set of the present invention.

도 3은 도 1b의 방법에 수술 도구 인식 학습 훈련을 수행하는 단계(S150) 및 수술 도구 인식 학습 모델을 생성하는 단계(S170)를 더 포함한다.Figure 3 further includes the step of performing surgical tool recognition learning training in the method of Figure 1b (S150) and generating a surgical tool recognition learning model (S170).

수술 도구 인식 학습 훈련을 수행하는 단계(S150)는 학습데이터 셋을 기반으로 특정 수술에 대하여 사용되는 특정 수술 도구에 관한 수술 도구 인식 학습 훈련을 수행하는 것이다.The step of performing surgical tool recognition learning training (S150) is to perform surgical tool recognition learning training on a specific surgical tool used for a specific surgery based on the learning data set.

이 때, 학습데이터 셋은, 전술한 실제 수술데이터, 가상 수술데이터 및/또는 랜덤 수술데이터로부터 획득되는 것이며, 획득된 학습데이터 셋은 수술 종류, 장기의 크기, 장기의 상태, 수술 대상 나이 중 적어도 하나로 나뉘어 구성될 수 있다.At this time, the learning data set is obtained from the above-described actual surgery data, virtual surgery data, and/or random surgery data, and the acquired learning data set is at least one of the surgery type, organ size, organ condition, and surgery subject age. It can be divided into one.

또한, 학습데이터는, 특정 수술에 대한 특정 수술 도구의 데이터가 각각 균일한 양의 데이터로서 클래스 균형(Class balance)을 맞춰 획득될 수 있다.In addition, the learning data may be obtained by maintaining class balance as a uniform amount of data on a specific surgical tool for a specific surgery.

특정 수술 도구는, 예시적으로는, 복강경 수술 도구, 로봇 수술 도구뿐만 아니라, 수술 과정에서 자주 사용되는 바늘, 표본 가방, 수술용 튜브 등이 포함될 수 있으며, 상기 나열된 예시 이외에도 수술 시 사용되는 도구는 모두 포함될 수 있다.Specific surgical tools may include, by way of example, laparoscopic surgical tools and robotic surgical tools, as well as needles, specimen bags, and surgical tubes frequently used during surgical procedures. In addition to the examples listed above, tools used during surgery may include: All can be included.

구체적인 예시로는, 담낭 절제술에 활용되는 복강경 도구 및 보조 수술 도구의 경우는, Atraumatic grasper, Electric hook, Curved Atraumatic Grasper, Suction-Irrigation, Clip Applier(metal), Scissors, Overholt, Ligasure, Clip Applier(Ham-o-Lok), Specimen Bag이 해당될 수 있다. 여기서, 상기 담낭 절제술의 경우, 수술 장기는 담낭(gallbladder)과 간(liver)이 포함될 수 있다.Specific examples include laparoscopic tools and auxiliary surgical tools used in cholecystectomy: Atraumatic grasper, Electric hook, Curved Atraumatic Grasper, Suction-Irrigation, Clip Applier (metal), Scissors, Overholt, Ligasure, Clip Applier (Ham) -o-Lok), Specimen Bag may be applicable. Here, in the case of the cholecystectomy, the surgical organs may include the gallbladder and the liver.

위 절제술의 경우에는, 로봇 도구, 복강경 도구, 보조 도구를 포함할 수 있고, Harmonic Ace, Maryland Bipolar Forceps, Cadiere Forceps, Medium-Large Clip Applier, Small Clip Applier, Curved Atraumatic Grasper, Stapler, Suction, Suction-Irrigation, Scissors, Atraumatic Grasper, Overholt, Guaze Needle, Endotip, Drain Tube, Needle, Needle Holder, Specimen Bag이 해당될 수 있다. 여기서, 상기 위 절제술의 경우, 수술 장기는 위(stomach), 간(liver), 담낭(gallbladder), 비장(spleen) 및 췌장(pancreas)이 포함될 수 있다.In the case of gastrectomy, it may include robotic tools, laparoscopic tools, and auxiliary tools, such as Harmonic Ace, Maryland Bipolar Forceps, Cadiere Forceps, Medium-Large Clip Applier, Small Clip Applier, Curved Atraumatic Grasper, Stapler, Suction, Suction- This may include Irrigation, Scissors, Atraumatic Grasper, Overholt, Guaze Needle, Endotip, Drain Tube, Needle, Needle Holder, and Specimen Bag. Here, in the case of the gastrectomy, surgical organs may include the stomach, liver, gallbladder, spleen, and pancreas.

구체적으로, 상기 로봇 도구는 Harmoic Ace, Maryland Bipolar Forceps, Cadiere Forceps, Medium-large Clip Applier, Small Clip Applier 등이 포함될 수 있고, 상기 복강경 도구는 Curved Atraumatic Grasper, Stapler, Suction 등이 포함될 수 있고, 상기 수술 보조 도구는 Guaze Needle, Endotip, Specimenbag, Drain Tube 등이 포함될 수 있다.Specifically, the robotic tools may include Harmoic Ace, Maryland Bipolar Forceps, Cadiere Forceps, Medium-large Clip Applier, Small Clip Applier, etc., and the laparoscopic tools may include Curved Atraumatic Grasper, Stapler, Suction, etc. Surgical auxiliary tools may include Guaze Needle, Endotip, Specimenbag, Drain Tube, etc.

수술 도구 인식 학습 모델을 생성하는 단계(S170)는 수행한 수술 도구 인식 학습 훈련을 기반으로 하여 수술 도구 및 장기인식 학습 모델을 생성하는 것이다.The step of generating a surgical tool recognition learning model (S170) is to generate a surgical tool and organ recognition learning model based on the performed surgical tool recognition learning training.

본 발명의 실시예들에 따른 심층신경망(Deep Neural Network; DNN)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 심층신경망은 콘벌루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locally-connected layer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 콘벌루션 풀링 층 또는 로컬 접속 층은 영상 내 특징들을 추출하도록 구성될 수 있다. 완전 연결 층은 영상의 특징 간의 상관 관계를 결정할 수 있다. 일부 실시 예에서, 심층신경망의 전체적인 구조는 콘벌루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태로 이루어질 수 있다. 심층신경망은 다양한 판단기준(즉, 파라미터(Parameter))를 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준(즉, 파라미터)를 추가할 수 있다.A deep neural network (DNN) according to embodiments of the present invention refers to a system or network that builds one or more layers in one or more computers and makes decisions based on a plurality of data. For example, a deep neural network may be implemented as a set of layers including a convolutional pooling layer, a locally-connected layer, and a fully-connected layer. A convolutional pooling layer or a local connection layer may be configured to extract features within the image. The fully connected layer can determine correlations between features of the image. In some embodiments, the overall structure of the deep neural network may be a convolutional pooling layer followed by a local connection layer, and a local connection layer followed by a fully connected layer. A deep neural network can include various judgment criteria (i.e., parameters), and new judgment criteria (i.e., parameters) can be added through analysis of input images.

본 발명의 실시예들에 따른 심층신경망은, 영상분석에 적합한 콘볼루셔널 신경망이라고 부르는 구조로서, 주어진 영상 데이터들로부터 가장 분별력(Discriminative Power)가 큰 특징을 스스로 학습하는 특징 추출층(Feature Extraction Layer)와 추출된 특징을 기반으로 가장 높은 예측 성능을 내도록 예측 모델을 학습하는 예측층(Prediction Layer)이 통합된 구조로 구성될 수 있다. The deep neural network according to embodiments of the present invention is a structure called a convolutional neural network suitable for image analysis, and is a feature extraction layer that autonomously learns the features with the greatest discriminative power from given image data. ) and a prediction layer that learns a prediction model to produce the highest prediction performance based on the extracted features can be configured in an integrated structure.

특징 추출층은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘벌루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수 차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다. The feature extraction layer is a convolution layer that creates a feature map by applying multiple filters to each area of the image and spatially integrates the feature map to extract features that are invariant to changes in position or rotation. It can be formed in a structure in which the pooling layer that allows extraction is alternately repeated several times. Through this, various levels of features can be extracted, from low-level features such as points, lines, and surfaces to complex and meaningful high-level features.

콘벌루션 층은 입력 영상의 각 패치에 대하여 필 터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)을 취함으로 서 특징지도(Feature Map)을 구하게 되는데, 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성 (Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징이 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상시킨다. The convolution layer obtains a feature map by taking a non-linear activation function as the inner product of the filter and the local receptive field for each patch of the input image. In comparison, CNN is characterized by using filters with sparse connectivity and shared weights. This connection structure reduces the number of parameters to learn, makes learning through the backpropagation algorithm efficient, and ultimately improves prediction performance.

통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 콘벌루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성한다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.The integration layer (Pooling Layer or Sub-sampling Layer) creates a new feature map using the local information of the feature map obtained from the previous convolution layer. In general, the newly created feature map by the integration layer is reduced to a smaller size than the original feature map. Representative integration methods include max pooling, which selects the maximum value of the corresponding area within the feature map, and There is average pooling, which calculates the average value of an area. The feature map of the integrated layer can generally be less affected by the location of arbitrary structures or patterns present in the input image than the feature map of the previous layer. In other words, the integration layer can extract features that are more robust to local changes such as noise or distortion in the input image or previous feature map, and these features can play an important role in classification performance. The role of another integration layer is to reflect features of a wider area as you go up to higher learning layers in the deep structure. As feature extraction layers accumulate, local features are reflected in lower layers and moved up to higher layers. Increasingly, more abstract features can be generated that reflect the features of the entire image.

이와 같이, 콘벌루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-layer Perception)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.In this way, the features finally extracted through repetition of the convolutional layer and the integration layer are classified into fully connected layers such as classification models such as Multi-layer Perception (MLP) or Support Vector Machine (SVM). -connected layer) and can be used for classification model learning and prediction.

다만, 본 발명의 실시예들에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.However, the structure of the deep neural network according to embodiments of the present invention is not limited to this, and may be formed as a neural network of various structures.

생성적 적대 신경망 학습 모델이란, 비지도 학습으로서, 분류를 담당하는 판별자 D(Discriminator)와 랜덤한 노이즈에서 데이터를 만들어 내는 생성자 G(Generator)의 두 개의 모델로 구성되어 있다.The generative adversarial network learning model is an unsupervised learning model that consists of two models: a discriminator (D), which is responsible for classification, and a generator (G), which generates data from random noise.

생성적 적대 신경망 학습 모델은, 생성자 G와 판별자 D가 대립하며 서로의 성능을 개선시켜 나가는 모델이며, 판별자 D는 원 데이터만을 참으로 판단하기 위해 노력하고 생성자는 판별자 D가 거짓으로 판별하지 못하도록 가짜 데이터를 생성해가며 두 모델의 성능이 같이 올라가게 되는 모델이다.The generative adversarial network learning model is a model in which the generator G and the discriminator D confront each other and improve each other's performance. The discriminator D strives to judge only the original data as true, and the generator determines that the discriminator D is false. This is a model in which the performance of both models increases together by generating fake data to prevent this from happening.

생성자 G는 원 데이터의 확률분포를 알아내려 하고, 분포를 재현하여 가짜 데이터를 실 데이터와 차이가 없도록 하는 것이고, 판별자 D는 판별 대상인 데이터가 실 데이터인지, 생성자 G가 만들어낸 데이터인지 구별하여 각각에 대한 확률을 추정하는 것이다.Generator G tries to find out the probability distribution of the original data and reproduces the distribution to make fake data no different from real data, and discriminator D distinguishes whether the data to be determined is real data or data created by generator G. The task is to estimate the probability for each.

생성적 적대 신경망 학습 모델의 수식은 하기의 수학식 1과 같다.The formula for the generative adversarial network learning model is as shown in Equation 1 below.

[수학식 1][Equation 1]

도 4는 실제 수술데이터에서 부족한 데이터를 균형 데이터로서 획득하는 방법의 흐름도이다.Figure 4 is a flowchart of a method for obtaining insufficient data in actual surgery data as balanced data.

도 5는 본 발명에 따른 실제 수술데이터로부터 획득된 어노테이션의 분포를 나타낸 그래프이다.Figure 5 is a graph showing the distribution of annotations obtained from actual surgical data according to the present invention.

도 6은 본 발명에 따른 가상 수술데이터 및/또는 랜덤 수술데이터를 획득함으로써 달라진 어노테이션의 분포를 나타낸 그래프이다.Figure 6 is a graph showing the distribution of annotations changed by acquiring virtual surgery data and/or random surgery data according to the present invention.

도 7은 본 발명에 따른 실제 수술데이터(복강경 담낭 절제술과 위암 비디오)에서 얻은 어노테이션의 분포를 설명한 그래프이다.Figure 7 is a graph explaining the distribution of annotations obtained from actual surgery data (laparoscopic cholecystectomy and stomach cancer video) according to the present invention.

도 8은 본 발명에 따른 실제 수술데이터(위암 수술데이터) 및 가상 수술데이터(3D 환자 모델)에 대한 복강경 담낭 절제술 및 위 절제술에서 얻은 주석 분포를 설명한 그래프이다.Figure 8 is a graph illustrating the distribution of annotations obtained from laparoscopic cholecystectomy and gastrectomy for actual surgery data (gastric cancer surgery data) and virtual surgery data (3D patient model) according to the present invention.

도 4를 참조하면, 본 발명의 수술 도구 인식 학습 훈련을 위한 학습 데이터 수집 방법은, 실제 수술데이터를 획득하는 단계(S210), 어노테이션이 부족한 데이터의 종류 및 필요한 양을 추출하는 단계(S230) 및 추출한 데이터의 종류에 해당하는 데이터를 균형 데이터로서 획득하는 단계(S250)를 포함한다.Referring to Figure 4, the learning data collection method for surgical tool recognition training of the present invention includes the steps of acquiring actual surgical data (S210), extracting the type and required amount of data lacking annotation (S230), and It includes a step (S250) of obtaining data corresponding to the type of extracted data as balance data.

도 4 내지 도 9에서의 실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터는 도 1a 내지 도 3에서 전술한 내용과 동일하다.The actual surgery data, virtual surgery data, and random surgery data in FIGS. 4 to 9 are the same as those described above in FIGS. 1A to 3.

어노테이션이 부족한 데이터의 종류 및 필요한 양을 추출하는 단계(S230)는 획득한 실제 수술데이터에서 클래스 불균형(Class imbalance)을 발생시키는 어노테이션(annotation)이 부족한 데이터의 종류 및 필요한 양을 추출하는 것이다.The step of extracting the type and required amount of data lacking annotations (S230) is to extract the type and required amount of data lacking annotations that cause class imbalance from the acquired actual surgery data.

실제 수술 시에 사용되는 도구는 제한/한정이 있을 수 있고, 실제 수술에는 수행되지 않는 동작 등이 있을 수 있고, 실제 수술 케이스마다 도구 및 수술 동작이 전혀 달라질 수 있기 때문에, 실제 수술 상에서 모든 도구 사용 및 동작에 대한 데이터를 획득하기 어렵다. 이러한 이유로 실제 수술데이터만을 획득하는 경우에는, 클래스 불균형이 발생될 수 있는 것이다.The tools used during actual surgery may have restrictions/limitations, there may be movements that are not performed in actual surgery, and the tools and surgical movements may be completely different for each actual surgery case, so all tools are used during actual surgery. and it is difficult to obtain data on movement. For this reason, when only actual surgery data is acquired, class imbalance may occur.

본 발명에서는 실제 수술데이터 만으로는 발생되는 클래스 불균형을 가상 수술데이터 및/또는 랜덤 수술데이터 획득으로 해결한다. 따라서, 획득한 실제 수술데이터에서 클래스 불균형을 발생시키는 데이터의 종류 및 필요한 양을 추출하여, 필요한 양만큼의 필요한 데이터 종류를 가상 수술데이터 및/또는 랜덤 수술데이터로부터 획득할 수 있다.In the present invention, class imbalance that occurs only with actual surgery data is resolved by acquiring virtual surgery data and/or random surgery data. Accordingly, the type and required amount of data causing class imbalance can be extracted from the acquired actual surgery data, and the required amount of data type can be obtained from the virtual surgery data and/or random surgery data.

어노테이션이 부족한 데이터의 종류 및 필요한 양을 추출하는 단계(S230)는, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 하나에서 필요한 양만큼, 추출한 데이터의 종류에 해당하는 데이터를 균형 데이터로서 획득하는 것이다.In the step (S230) of extracting the type and required amount of data lacking annotation, data corresponding to the type of extracted data is obtained as balance data in the required amount from at least one of virtual surgery data and random surgery data.

균형 데이터는, 실제 수술데이터만으로 발생되는 클래스 불균형을 해결하기 위해, 가상 수술데이터 및/또는 랜덤 수술데이터로부터 획득하는 추가적인 데이터를 의미한다.Balanced data refers to additional data obtained from virtual surgery data and/or random surgery data to resolve class imbalance that occurs only with actual surgery data.

어노테이션이 부족한 데이터의 종류는, 수술 동작, 수술 도구 종류, 특정 수술 위치, 수술 도구 사용 위치 중 적어도 하나를 포함할 수 있다.Types of data lacking annotations may include at least one of surgical operations, surgical tool types, specific surgical positions, and surgical tool use positions.

본 실시예에서, 실제 수술데이터는, 실제로 수행된 수술의 종류, 사용된 도구의 위치정보 및 사용된 수술 도구의 정보를 포함하는 실제 수술 도구데이터를 포함하는 것이고, 가상 수술데이터는, 가상의 수술 환경 및 가상의 수술 환경에서 사용된 가상의 수술 도구데이터를 포함하는 것이고, 랜덤 수술데이터는, 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터이고, 각각의 데이터들은 도 1a 내지 도 3에서 전술한 내용과 동일하다.In this embodiment, the actual surgery data includes actual surgical tool data including the type of surgery actually performed, location information of the tool used, and information on the surgical tool used, and the virtual surgery data includes the virtual surgery data. It includes virtual surgical tool data used in the environment and virtual surgical environment, and the random surgical data is virtual data generated from domain randomization, and each data is described above in FIGS. 1A to 3. Same as the content.

도 5를 참조하면, 도 5는 실제 수술데이터의 분포를 각 수술도구로 분류하여 나타낸 것인데, 담낭 절제술에 대한 실제 수술데이터(도 5의 상단 그래프) 및 위 절제술에 대한 실제 수술데이터(도 5의 하단 그래프) 모두 획득된 데이터 자체가 불균형하여, 클래스 불균형을 야기시키는 것을 확인할 수 있다.Referring to FIG. 5, FIG. 5 shows the distribution of actual surgical data classified by each surgical tool, including actual surgical data for cholecystectomy (top graph of FIG. 5) and actual surgical data for gastrectomy (top graph of FIG. 5). Bottom graph) It can be seen that the acquired data itself is unbalanced, causing class imbalance.

도 6을 참조하면, 도 6은 가상 수술데이터 및/또는 랜덤 수술데이터를 획득함으로써 달라진 어노테이션의 분포를 나타낸 것인데, 이는 실제 수술데이터와 균형 데이터를 합한 데이터의 값들로써, 각 수술도구로 분류하여 나타낸 것이다. 담낭 절제술에 대한 실제 수술데이터 및 균형 데이터의 합(도 6의 상단 그래프) 및 위 절제술에 대한 실제 수술데이터 및 균형 데이터의 합(도 6의 하단 그래프)이 균형적인 것을 확인할 수 있다.Referring to Figure 6, Figure 6 shows the distribution of annotations changed by acquiring virtual surgery data and/or random surgery data, which are values of data that combine actual surgery data and balanced data, and are classified by each surgical tool. will be. It can be seen that the sum of actual surgical data and balanced data for cholecystectomy (top graph of FIG. 6) and the sum of actual surgical data and balanced data for gastrectomy (bottom graph of FIG. 6) are balanced.

따라서, 결과적으로 본 발명에 의하면 클래스 불균형의 문제를 해결하고, 해당 데이터를 이용한 학습 결과가 보다 정확한 결과로서 도출되는 것이다.Therefore, as a result, according to the present invention, the problem of class imbalance is solved, and learning results using the corresponding data are derived as more accurate results.

도 7을 참조하면, 도 7은 실제 수술데이터(복강경 담낭 절제술과 위암 비디오)에서 얻은 어노테이션의 분포를 나타낼 수 있다.Referring to Figure 7, Figure 7 can show the distribution of annotations obtained from actual surgery data (laparoscopic cholecystectomy and stomach cancer videos).

여기서, 어노테이션의 수는 로그 눈금으로 조정될 수 있다. 실제 수술데이터인 담낭 절제술과 위 절제술 모두 몇 가지 도구에서 심각한 수준의 불균형 문제를 야기시키는 것을 확인할 수 있다.Here, the number of annotations can be adjusted in a logarithmic scale. It can be seen that both cholecystectomy and gastrectomy, which are actual surgery data, cause serious imbalance problems in several tools.

도 8을 참조하면, 도 8은 실제 수술데이터(위암 비디오) 및 3D 환자 모델에 대한 복강경 담낭절제술 및 위 절제술에서 얻은 주석 분포를 나타낼 수 있다.Referring to Figure 8, Figure 8 can show the annotation distribution obtained from laparoscopic cholecystectomy and gastrectomy for actual surgery data (gastric cancer video) and 3D patient model.

실제 수술데이터(예컨대, 위암 수술데이터)에서 얻은 어노테이션의 분포와 비교하여 클래스 불균형 문제는 실제 수술데이터, 가상 수술데이터, 랜덤 수술데이터 분포에서 위의 두 수술(복강경 담낭 절제술, 위 절제술) 모두 클래스 불균형 문제가 완화되었다는 것을 확인할 수 있다.Compared to the distribution of annotations obtained from actual surgery data (e.g., stomach cancer surgery data), the class imbalance problem is that both of the above two surgeries (laparoscopic cholecystectomy and gastrectomy) are class imbalance in the distribution of real surgery data, virtual surgery data, and random surgery data. You can confirm that the problem has been alleviated.

도 9는 획득한 실제 수술데이터 및 균형 데이터를 기반으로 하여 수술 도구 인식 학습 모델을 생성하는 방법의 흐름도이다.Figure 9 is a flowchart of a method for generating a surgical tool recognition learning model based on the acquired actual surgical data and balance data.

도 9를 참조하면, 수술 도구 인식 학습 모델을 생성하는 방법은, 도 6의 단계에 수술 도구 인식 학습 훈련을 수행하는 단계(S270) 및 수술 도구 인식 학습 모델을 생성하는 단계(S290)를 더 포함한다.Referring to Figure 9, the method of generating a surgical tool recognition learning model further includes performing surgical tool recognition learning training in the steps of Figure 6 (S270) and generating a surgical tool recognition learning model (S290). do.

수술 도구 인식 학습 훈련을 수행하는 단계(S270)는 획득한 균형 데이터 및 실제 수술데이터를 학습데이터로서 특정 수술에 대하여 사용되는 특정 수술 도구에 관한 수술 도구 인식 학습 훈련을 수행하는 것이다.The step of performing surgical tool recognition learning training (S270) is to perform surgical tool recognition learning training on a specific surgical tool used for a specific surgery using the acquired balance data and actual surgical data as learning data.

수술 도구 인식 학습 모델을 생성하는 단계(S290)는 수행한 수술 도구 인식 학습 훈련을 기반으로 하여 수술 도구 인식 학습 모델을 생성하는 것이다.The step of generating a surgical tool recognition learning model (S290) is to generate a surgical tool recognition learning model based on the performed surgical tool recognition learning training.

도 9의 수술 도구 인식 학습 훈련을 수행하는 단계(S270) 및 수술 도구 인식 학습 모델을 생성하는 단계(S290)는, 도 3의 수술 도구 인식 학습 훈련을 수행하는 단계(S150) 및 수술 도구 인식 학습 모델을 생성하는 단계(S170)와 학습데이터만이 상이할 뿐이며, 수행하는 방법은 동일하게 적용된다.The step of performing surgical tool recognition learning training in FIG. 9 (S270) and the step of generating a surgical tool recognition learning model (S290) include the step of performing surgical tool recognition learning training in FIG. 3 (S150) and surgical tool recognition learning. Only the model creation step (S170) and the learning data are different, and the execution method is applied the same.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

10: 장치
110: 통신부
120: 메모리
130: 프로세서
10: device
110: Department of Communications
120: memory
130: processor

Claims (13)

장치에 의해 수행되는, 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법으로서,
실제 수술데이터, 가상 수술데이터 및 랜덤 수술데이터 중 적어도 복수의 수술데이터를 획득하는 단계; 및
획득한 상기 복수의 수술데이터를 학습데이터 셋으로 구성하여 제공하는 단계를 포함하고,
상기 실제 수술데이터는, 실제로 수행된 수술의 종류, 사용된 도구의 위치정보 및 사용된 수술 도구의 정보를 포함하는 실제 수술 도구데이터와 실제로 수행된 수술의 장기에 대한 실제 수술 장기데이터를 포함하는 것이고,
상기 가상 수술데이터는, 가상의 수술 환경, 가상의 수술 환경에서 사용된 가상의 수술 도구데이터 및 가상의 수술 환경에서의 장기에 대한 가상의 수술 장기데이터를 포함하는 것이고,
상기 랜덤 수술데이터는, 도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터이며,
상기 학습 데이터 수집 방법은,
상기 획득한 실제 수술데이터에서 클래스 불균형(Class imbalance)을 발생시키는 어노테이션(annotation)이 부족한 데이터의 종류 및 필요한 양을 추출하는 단계; 및
가상 수술데이터 및 랜덤 수술데이터 중 적어도 하나에서 상기 필요한 양만큼 상기 추출한 데이터의 종류에 해당하는 데이터를 균형 데이터로서 획득하는 단계를 포함하고,
상기 실제 수술 도구데이터는, 도구의 헤드(head), 관절(wrist) 및 바디(body) 중 적어도 하나 이상을 구분하여 실제 수술 영상 내에서 바운딩되거나 픽셀 단위로 폴리곤(polygon) 처리되거나, 또는 도구의 특징 별로 상기 실제 수술 영상 내에서 바운딩되거나 상기 픽셀 단위로 상기 폴리곤 처리되는 것 중 적어도 하나를 포함하고,
상기 실제 수술 영상 내에서 바운딩되는 것은, 실제 수술 영상 내에서 학습시키고자 하는 정보에 해당하는 부분을 분할 모델을 통해 바운딩 박스 형태로 어노테이션되는 것이며, 상기 폴리곤 처리되는 것은, 실제 수술 영상 내에서 학습시키고자 하는 정보에 해당하는 부분을 상기 분할 모델을 통해 픽셀 단위로 폴리곤 처리되는 것이고,
상기 실제 수술 장기데이터는, 상기 실제 수술 영상 내에서 시각적으로 구분되는 장기가 포함되는 픽셀 중 적어도 하나 이상이 폴리곤 처리되거나, 상기 실제 수술 영상 내에서 상기 장기가 포함되는 특정 부분이 바운딩되는 것 중 적어도 하나를 포함하는 것이며,
상기 학습 데이터 수집 방법은,
상기 복수의 수술데이터를 획득한 후, 상기 분할 모델을 통해 상기 획득한 복수의 수술데이터에 대해 시멘틱 이미지 데이터를 생성하는 단계;를 더 포함하고,
상기 시멘틱 이미지 데이터는, 상기 분할 모델을 통해 상기 실제 수술데이터, 상기 가상 수술데이터 및 상기 랜덤 수술데이터에서 각각 추출된 프레임과 그에 해당되는 레이블 맵에 기초하여 생성되며,
상기 분할 모델은, 영상 내 존재하는 모든 픽셀을 추론 가능한 의미적 분할 모델 및 바운딩 박스 내의 인스턴스 정보를 픽셀 레벨로 추론 가능한 인스턴스 분할 모델을 포함하는, 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
A learning data collection method for surgical tool and organ recognition learning training performed by a device, comprising:
Obtaining at least a plurality of surgical data among actual surgery data, virtual surgery data, and random surgery data; and
Comprising the step of configuring and providing the obtained plurality of surgical data into a learning data set,
The actual surgical data includes actual surgical tool data including the type of surgery actually performed, location information of the tool used, and information on the surgical tool used, and actual surgical organ data about the organ of the surgery actually performed. ,
The virtual surgery data includes a virtual surgical environment, virtual surgical tool data used in the virtual surgical environment, and virtual surgical organ data for organs in the virtual surgical environment,
The random surgery data is virtual data generated from domain randomization,
The learning data collection method is,
Extracting the type and required amount of data lacking annotations that cause class imbalance from the acquired actual surgery data; and
Comprising the step of obtaining data corresponding to the type of the extracted data by the required amount as balance data from at least one of virtual surgery data and random surgery data,
The actual surgical tool data is bounded within the actual surgical image by distinguishing at least one of the head, wrist, and body of the tool, or processed as a polygon on a pixel basis, or the tool's Includes at least one of being bounded within the actual surgery image for each feature or processed into the polygon on a pixel basis,
Bounding within the actual surgery image means that the part corresponding to the information to be learned within the actual surgery image is annotated in the form of a bounding box through a segmentation model, and the polygon processing is learned within the actual surgery image. The part corresponding to the desired information is polygonally processed on a pixel basis through the segmentation model,
The actual surgery organ data is at least one of the pixels containing visually distinct organs in the actual surgery image is polygonized, or a specific portion containing the organ in the actual surgery image is bounded. It contains one,
The learning data collection method is,
After acquiring the plurality of surgical data, generating semantic image data for the plurality of surgical data obtained through the segmentation model,
The semantic image data is generated based on frames and corresponding label maps each extracted from the actual surgery data, the virtual surgery data, and the random surgery data through the segmentation model,
The segmentation model includes a semantic segmentation model capable of inferring all pixels present in an image and an instance segmentation model capable of inferring instance information in a bounding box at the pixel level. A learning data collection method for surgical tool and organ recognition training. .
제1항에 있어서,
상기 학습데이터 셋을 기반으로 특정 수술에 대하여 사용되는 특정 수술 도구에 관한 수술 도구 인식 학습 훈련을 수행하는 단계; 및
상기 수행한 수술 도구 인식 학습 훈련을 기반으로 하여 수술 도구 인식 학습 모델을 생성하는 단계를 더 포함하는,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
According to paragraph 1,
Performing surgical tool recognition learning training on a specific surgical tool used for a specific surgery based on the learning data set; and
Further comprising the step of generating a surgical tool recognition learning model based on the surgical tool recognition learning training performed above,
Learning data collection method for surgical instrument and organ recognition learning training.
삭제delete 제1항에 있어서,
상기 가상의 수술 환경은 특정 실제 수술 영상데이터를 기반으로 제작된 3D 수술 환경이고,
상기 가상의 수술 도구데이터와 상기 가상의 수술 장기데이터는, 상기 3D 수술 환경 내에서 사용자로부터 활용되어 도출된 가상의 수술 도구 정보와 수술 장기 정보인,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
According to paragraph 1,
The virtual surgical environment is a 3D surgical environment created based on specific actual surgical image data,
The virtual surgical tool data and the virtual surgical organ data are virtual surgical tool information and surgical organ information derived from use by the user within the 3D surgical environment,
Learning data collection method for surgical instrument and organ recognition learning training.
제1항에 있어서,
상기 랜덤 수술데이터는,
도메인 무작위화(Domain Randomization)로부터 생성된 가상 데이터로서, 수술 도구, 수술 대상 장기, 카메라의 설정 조건을 무작위로 변경함으로써, 무작위로 생성된 특정 수술, 특정 수술 대상 장기, 및 특정 수술에서 사용되는 랜덤 수술 도구 중 적어도 하나에 대한 데이터를 포함하는,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
According to paragraph 1,
The random surgery data is,
This is virtual data generated from domain randomization, and is randomly generated by randomly changing the setting conditions of surgical tools, surgical target organs, and cameras, and randomly generated specific surgery, specific surgical target organs, and random data used in a specific surgery. Containing data for at least one of the surgical instruments,
Learning data collection method for surgical instrument and organ recognition learning training.
제1항에 있어서,
상기 학습데이터는,
특정 수술에 대한 특정 수술 도구 및 특정 수술 장기의 데이터가 각각 균일한 양의 데이터로서 클래스 균형(Class balance)을 맞춰 획득되는 것인,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
According to paragraph 1,
The learning data is,
Data on specific surgical tools and specific surgical organs for specific surgeries are each obtained as a uniform amount of data with class balance,
Learning data collection method for surgical instrument and organ recognition learning training.
제1항에 있어서,
상기 학습데이터 셋 구성 제공 단계는,
상기 복수의 수술데이터와 상기 복수의 수술데이터 각각에 대응되는 상기 시멘틱 이미지 데이터를 학습데이터 셋으로 구성하여 제공하는,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
According to paragraph 1,
The step of providing the learning data set configuration is,
Providing the plurality of surgical data and the semantic image data corresponding to each of the plurality of surgical data as a learning data set,
Learning data collection method for surgical instrument and organ recognition learning training.
삭제delete 제7항에 있어서,
상기 시멘틱 이미지 데이터는,
상기 복수의 수술데이터 각각에 포함되는 상기 도구에 대한 시멘틱 수술 도구데이터 또는 상기 장기에 대한 시멘틱 수술 장기데이터를 포함하고,
상기 시멘틱 수술 도구데이터 또는 상기 시멘틱 수술 장기데이터는, 상기 도구 또는 상기 장기의 위치 범위, 상기 도구 또는 상기 장기의 명칭 중 적어도 하나를 포함하는,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
In clause 7,
The semantic image data is,
Containing semantic surgical tool data for the tool or semantic surgical organ data for the organ included in each of the plurality of surgical data,
The semantic surgical tool data or the semantic surgical organ data includes at least one of a location range of the tool or the organ, and a name of the tool or the organ,
Learning data collection method for surgical instrument and organ recognition learning training.
삭제delete 삭제delete 제2항에 있어서,
상기 특정 수술이 위 절제술인 경우,
상기 특정 수술 도구는, 로봇 수술 도구, 복강경 수술 도구 및 보조 수술 도구 중 적어도 하나를 포함하고,
상기 특정 수술 장기는, 위, 간, 담낭, 비장 및 췌장을 포함하고,
상기 특정 수술이 담낭 절제술인 경우,
상기 특정 수술 도구는, 복강경 도구 및 보조 수술 도구 중 적어도 하나를 포함하고,
상기 특정 수술 장기는, 담낭과 간을 포함하는,
수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 방법.
According to paragraph 2,
If the specific surgery above is a gastrectomy,
The specific surgical tool includes at least one of a robotic surgical tool, a laparoscopic surgical tool, and an auxiliary surgical tool,
The specific surgical organs include the stomach, liver, gallbladder, spleen and pancreas,
If the specific surgery above is a cholecystectomy,
The specific surgical tool includes at least one of a laparoscopic tool and an auxiliary surgical tool,
The specific surgical organs include the gallbladder and liver,
Learning data collection method for surgical instrument and organ recognition learning training.
하드웨어인 컴퓨터와 결합되어, 제1항, 제2항, 제4항 내지 제7항, 제9항 및 제12항 중 어느 한 항의 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된, 수술 도구 및 장기 인식 학습 훈련을 위한 학습 데이터 수집 프로그램.A surgical tool coupled to a hardware computer and stored in a computer-readable recording medium to execute the method of any one of claims 1, 2, 4 to 7, 9, and 12, and A learning data collection program for long-term cognitive learning training.
KR1020210105617A 2020-08-11 2021-08-10 Apparatus and method for collecting learning data for training of surgical tool and organ recognition KR102655325B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/010689 WO2022035237A1 (en) 2020-08-11 2021-08-11 Learning data collection apparatus and method for training surgical tool and organ recognition learning

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20200100264 2020-08-11
KR1020200100264 2020-08-11
KR1020210099128 2021-07-28
KR20210099128 2021-07-28

Publications (2)

Publication Number Publication Date
KR20220021423A KR20220021423A (en) 2022-02-22
KR102655325B1 true KR102655325B1 (en) 2024-04-09

Family

ID=80494511

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210105617A KR102655325B1 (en) 2020-08-11 2021-08-10 Apparatus and method for collecting learning data for training of surgical tool and organ recognition

Country Status (1)

Country Link
KR (1) KR102655325B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190164012A1 (en) * 2017-06-13 2019-05-30 Digital Surgery Limited State detection using machine-learning model trained on simulated image data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101481796B1 (en) 2012-03-02 2015-01-14 포항공과대학교 산학협력단 3d virtual liver surgery planning system
KR102284356B1 (en) * 2019-01-31 2021-08-02 동서대학교 산학협력단 Data imbalance solution method using Generative adversarial network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190164012A1 (en) * 2017-06-13 2019-05-30 Digital Surgery Limited State detection using machine-learning model trained on simulated image data

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Fabian Isensee 외 1인, OR-UNet: an Optimized Robust Residual U-Net for Instrument Segmentation in Endoscopic Images(2020) 1부.
Kyungmoon Lee 외 2인, DavinciGAN: Unpaired Surgical Instrument Translation for Data Augmentation(2019) 1부.
Sheng Wang 외 2인, Deep learning based multi-label classification for surgical tool presence detection in laparoscopic videos(2017) 1부.

Also Published As

Publication number Publication date
KR20220021423A (en) 2022-02-22

Similar Documents

Publication Publication Date Title
Patravali et al. 2D-3D fully convolutional neural networks for cardiac MR segmentation
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
JP7391846B2 (en) Computer-aided diagnosis using deep neural networks
US10929708B2 (en) Deep learning network for salient region identification in images
US20190114473A1 (en) Assigning a semantically meaningful label to a digital image
JP2021530061A (en) Image processing methods and their devices, electronic devices and computer-readable storage media
US9152760B2 (en) Smart 3D PACS workflow by learning
KR102427171B1 (en) Method and Apparatus for providing object labeling within Video
Bawa et al. The saras endoscopic surgeon action detection (esad) dataset: Challenges and methods
de Siqueira et al. Artificial intelligence applied to support medical decisions for the automatic analysis of echocardiogram images: A systematic review
Namazi et al. Automatic detection of surgical phases in laparoscopic videos
Zhao et al. Surgical tool tracking based on two CNNs: from coarse to fine
KR102655325B1 (en) Apparatus and method for collecting learning data for training of surgical tool and organ recognition
Gu et al. Cross-scene suture thread parsing for robot assisted anastomosis based on joint feature learning
Rueckert et al. Methods and datasets for segmentation of minimally invasive surgical instruments in endoscopic images and videos: A review of the state of the art
Kumari et al. Data efficient deep learning for medical image analysis: A survey
CN114360695A (en) Mammary gland ultrasonic scanning analysis auxiliary system, medium and equipment
CN110570417B (en) Pulmonary nodule classification device and image processing equipment
Han et al. Explainable prediction of renal cell carcinoma from contrast-enhanced ct images using deep convolutional transfer learning and the shapley additive explanations approach
CN111598870A (en) Method for calculating coronary artery calcification ratio based on convolutional neural network end-to-end reasoning
Chen et al. Uncertainty-based adaptive data augmentation for ultrasound imaging anatomical variations
CN117132587B (en) Ultrasonic scanning navigation method, device, computer equipment and storage medium
WO2022035237A1 (en) Learning data collection apparatus and method for training surgical tool and organ recognition learning
US11786212B1 (en) Echocardiogram classification with machine learning
Blair et al. Localization of lumbar and thoracic vertebrae in 3d ct datasets by combining deep reinforcement learning with imitation learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant