KR102298417B1 - Program and method for generating surgical simulation information - Google Patents

Program and method for generating surgical simulation information Download PDF

Info

Publication number
KR102298417B1
KR102298417B1 KR1020190005210A KR20190005210A KR102298417B1 KR 102298417 B1 KR102298417 B1 KR 102298417B1 KR 1020190005210 A KR1020190005210 A KR 1020190005210A KR 20190005210 A KR20190005210 A KR 20190005210A KR 102298417 B1 KR102298417 B1 KR 102298417B1
Authority
KR
South Korea
Prior art keywords
surgical
data
virtual
surgery
computer
Prior art date
Application number
KR1020190005210A
Other languages
Korean (ko)
Other versions
KR20190088419A (en
Inventor
이종혁
형우진
양훈모
김호승
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180058608A external-priority patent/KR101940706B1/en
Application filed by (주)휴톰 filed Critical (주)휴톰
Priority to KR1020190005210A priority Critical patent/KR102298417B1/en
Publication of KR20190088419A publication Critical patent/KR20190088419A/en
Application granted granted Critical
Publication of KR102298417B1 publication Critical patent/KR102298417B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Instructional Devices (AREA)

Abstract

컴퓨터가 대상체의 수술부위를 포함하는 3D 모델링 데이터를 생성하는 단계, 상기 3D 모델링 데이터에 대한 가상수술데이터를 획득하는 단계 및 상기 가상수술데이터를 이용하여 하나 이상의 세부수술동작을 포함하는 큐시트데이터를 생성하는 단계를 포함하는, 수술 시뮬레이션 정보 생성방법이 개시된다.Generating, by a computer, 3D modeling data including the surgical site of the object, obtaining virtual surgical data for the 3D modeling data, and generating cue sheet data including one or more detailed surgical operations using the virtual surgical data A method of generating surgical simulation information is disclosed, including the step of:

Description

수술 시뮬레이션 정보 생성방법 및 프로그램 {PROGRAM AND METHOD FOR GENERATING SURGICAL SIMULATION INFORMATION}Method and program for generating surgical simulation information {PROGRAM AND METHOD FOR GENERATING SURGICAL SIMULATION INFORMATION}

본 발명은 수술 시뮬레이션 정보를 생성하는 방법 및 프로그램에 관한 것이다.The present invention relates to a method and program for generating surgical simulation information.

수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술행위를 인식할 수 있어야 한다. In the course of surgery, the development of technologies capable of providing information for assisting a surgeon's operation is required. In order to provide information to assist the operation, it must be able to recognize the operation.

기존에는 수술 프로세스를 최적화 하기 위한 시나리오 구상을 위해서는 사전에 촬영된 의료영상을 참고하거나 매우 숙련된 의사의 자문을 받았으나, 의료영상만으로는 불필요한 프로세스의 판단이 어려웠으며 숙련된 의사의 자문은 특정 환자에 맞는 자문을 받기에 어려운 문제점이 있었다.In the past, in order to design a scenario to optimize the surgical process, pre-imaged medical images were referred to or a very experienced doctor was consulted. It was difficult to get advice.

따라서, 의료영상이나 숙련된 의사의 자문은 수술대상 환자에 대한 수술프로세스의 최적화를 위한 보조 용도로는 활용되기 어려운 점이 많았다.Therefore, it was difficult to utilize medical images or the advice of an experienced doctor as an auxiliary purpose for optimizing the surgical process for the patient to be operated on.

이에, 3차원 의료영상(예를 들어, 3차원 수술도구 움직임 및 도구의 움직임으로 인해 발생하는 장기 내부의 변화에 대한 가상영상)을 이용하여 수술을 행하는데 있어서 불필요한 프로세스를 최소화하여 수술 프로세스를 최적화하고, 이에 기반한 수술보조 정보를 제공할 수 있는 방법에 대한 개발이 요구된다.Accordingly, the surgical process is optimized by minimizing unnecessary processes in performing surgery using a 3D medical image (eg, a 3D surgical tool movement and a virtual image of a change in an organ that occurs due to the movement of the tool) and development of a method capable of providing surgical assistance information based on this is required.

또한, 최근에는 의료영상의 분석에 딥 러닝이 널리 이용되고 있다. 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.In addition, recently, deep learning has been widely used in the analysis of medical images. Deep learning is defined as a set of machine learning algorithms that attempt high-level abstractions (summarizing key contents or functions in large amounts of data or complex data) through a combination of several nonlinear transformation methods. Deep learning can be viewed as a field of machine learning that teaches computers to think in a broad framework.

본 발명이 해결하고자 하는 과제는 수술 시뮬레이션 정보를 생성하는 방법 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method and a program for generating surgical simulation information.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 수술 시뮬레이션 정보 생성방법은, 컴퓨터가 대상체의 수술부위를 포함하는 3D 모델링 데이터를 생성하는 단계, 상기 3D 모델링 데이터에 대한 가상수술데이터를 획득하는 단계 및 상기 가상수술데이터를 이용하여 하나 이상의 세부수술동작을 포함하는 큐시트데이터를 생성하는 단계를 포함한다.In a method for generating surgical simulation information according to an aspect of the present invention for solving the above-described problems, the computer generates 3D modeling data including a surgical site of an object, and obtains virtual surgery data for the 3D modeling data. and generating cue sheet data including one or more detailed surgical operations using the virtual surgical data.

또한, 상기 큐시트데이터를 생성하는 단계는, 상기 가상수술데이터를 상기 하나 이상의 세부수술동작으로 분할하되, 상기 가상수술데이터에 포함된 수술부위, 수술도구의 종류, 상기 수술도구의 개수, 상기 수술도구의 위치, 상기 수술도구의 방향 및 상기 수술도구의 움직임 중 적어도 하나에 기초하여 상기 가상수술데이터를 상기 하나 이상의 세부수술동작으로 분할하는 단계를 포함할 수 있다.In addition, the generating of the cue sheet data comprises dividing the virtual surgical data into the one or more detailed surgical operations, but the surgical site included in the virtual surgical data, the type of surgical tool, the number of the surgical tools, the surgical tools It may include dividing the virtual surgical data into the one or more detailed surgical operations based on at least one of the position of the surgical tool, the direction of the surgical tool, and the movement of the surgical tool.

또한, 상기 3D 모델링 데이터를 획득하는 단계는, 상기 대상체의 수술부위를 포함하는 의료영상을 획득하는 단계 및 상기 의료영상을 이용하여 상기 3D 모델링 데이터를 생성하는 단계를 포함할 수 있다.In addition, the acquiring of the 3D modeling data may include acquiring a medical image including the surgical site of the object and generating the 3D modeling data by using the medical image.

또한, 상기 의료영상을 획득하는 단계는, 실제 수술자세를 기반으로 상기 대상체의 촬영자세를 획득하는 단계 및 상기 획득된 촬영자세에 기초하여 촬영된 상기 의료영상을 획득하는 단계를 포함할 수 있다.Also, the obtaining of the medical image may include obtaining a photographing posture of the object based on an actual surgical posture and obtaining the photographed medical image based on the obtained photographing posture.

또한, 상기 3D 모델링 데이터를 생성하는 단계는, 상기 대상체의 실제 수술자세를 획득하는 단계 및 상기 실제 수술자세에 기초하여 상기 획득된 의료영상을 보정함으로써 상기 3D 모델링 데이터를 생성하는 단계를 포함할 수 있다.In addition, the generating of the 3D modeling data may include generating the 3D modeling data by correcting the obtained medical image based on obtaining the actual surgical posture of the object and the actual surgical posture. have.

또한, 상기 생성된 큐시트데이터의 최적화 여부를 판단하는 단계를 더 포함할 수 있다.In addition, the method may further include determining whether to optimize the generated cue sheet data.

또한, 상기 최적화 여부를 판단하는 단계는, 최적화된 것으로 판단되는 상기 큐시트데이터에 기초하는 수술가이드 데이터를 제공하는 단계를 더 포함할 수 있다.In addition, the step of determining whether to optimize may further include providing surgical guide data based on the cue sheet data determined to be optimized.

또한, 상기 최적화 여부를 판단하는 단계는, 최적화 큐시트데이터를 획득하는 단계 및 상기 큐시트데이터와 상기 최적화 큐시트데이터를 비교하는 단계를 포함할 수 있다.In addition, the step of determining whether to optimize may include obtaining optimized cue sheet data and comparing the cue sheet data with the optimized cue sheet data.

또한, 상기 최적화 큐시트데이터를 획득하는 단계는, 하나 이상의 학습 큐시트데이터를 획득하는 단계, 상기 하나 이상의 학습 큐시트데이터를 이용하여 강화학습을 수행하는 단계 및 상기 강화학습 결과에 기초하여 상기 최적화 큐시트데이터를 획득하는 단계를 포함할 수 있다.In addition, the step of obtaining the optimization cue sheet data includes: obtaining one or more learning cue sheet data; performing reinforcement learning using the one or more learning cue sheet data; and the optimization cue sheet data based on the reinforcement learning result It may include the step of obtaining.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 수술 시뮬레이션 정보 생성방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램이 제공된다.According to an aspect of the present invention for solving the above problems, a computer program stored in a computer-readable recording medium is provided in combination with a computer, which is hardware, to perform the method for generating surgical simulation information according to the disclosed embodiment.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

개시된 실시 예에 따르면, 사전에 획득된 정보를 이용하여 각 환자에 최적화된 수술 시뮬레이션 정보를 생성하고, 수술 중에 의사에게 이를 제공함으로써 수술을 보조할 수 있는 효과가 있다.According to the disclosed embodiment, surgery simulation information optimized for each patient is generated using information obtained in advance and provided to the doctor during surgery, thereby assisting the operation.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 개시된 실시 예에 따른 로봇수술 시스템을 도시한 도면이다.
도 2는 일 실시 예에 따라 수술 시뮬레이션 정보를 생성하는 방법을 도시한 흐름도이다.
도 3은 일 실시예에 따라 수술자세 적용을 통한 3D 모델링 데이터 생성과정을 나타내는 흐름도이다.
도 4는 다른 일 실시 예에 따라 수술 시뮬레이션 정보를 생성하는 방법을 도시한 흐름도이다.
도 5는 일 실시 예에 따른 수술 프로세스 최적화 방법을 도시한 흐름도이다.
1 is a view showing a robotic surgery system according to the disclosed embodiment.
2 is a flowchart illustrating a method of generating surgical simulation information according to an embodiment.
3 is a flowchart illustrating a 3D modeling data generation process by applying a surgical posture according to an embodiment.
4 is a flowchart illustrating a method of generating surgical simulation information according to another exemplary embodiment.
5 is a flowchart illustrating a method for optimizing a surgical process according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium or to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or as additional components and “parts” or “modules”. can be further separated.

본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3D 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다. In this specification, "image" may mean multi-dimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). For example, the image may include a medical image of the object obtained by the CT imaging apparatus.

본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. As used herein, an “object” may be a human or an animal, or a part or all of a human or animal. For example, the object may include at least one of organs such as liver, heart, uterus, brain, breast, abdomen, and blood vessels.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, a “user” may be a medical professional, such as a doctor, a nurse, a clinical pathologist, or a medical imaging specialist, and may be a technician repairing a medical device, but is not limited thereto.

본 명세서에서 "의료영상데이터"는 의료영상 촬영장비로 촬영되는 의료영상으로서, 대상체의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함한다. "의료영상데이터"는 컴퓨터 단층촬영(Computed Tomography; CT)영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 등을 포함할 수 있다.As used herein, "medical image data" is a medical image captured by a medical imaging device, and includes all medical images that can be implemented as a three-dimensional model of the body of an object. "Medical image data" may include a computed tomography (CT) image, a magnetic resonance imaging (MRI), a positron emission tomography (PET) image, and the like.

본 명세서에서 "가상신체모델"은 의료영상데이터를 기반으로 실제 환자의 신체에 부합하게 생성된 모델을 의미한다. "가상신체모델"은 의료영상데이터를 그대로 3차원으로 모델링하여 생성한 것일 수도 있고, 모델링 후에 실제 수술 시와 같게 보정한 것일 수도 있다.As used herein, the term "virtual body model" refers to a model generated to match the actual patient's body based on medical image data. The "virtual body model" may be generated by modeling medical image data in 3D as it is, or may be corrected after modeling to be the same as during actual surgery.

본 명세서에서 "가상수술데이터"는 가상신체모델에 대해 수행되는 리허설 또는 시뮬레이션 행위를 포함하는 데이터를 의미한다. "가상수술데이터"는 가상공간에서 가상신체모델에 대해 리허설 또는 시뮬레이션이 수행된 영상데이터일 수도 있고, 가상신체모델에 대해 수행된 수술동작에 대해 기록된 데이터일 수도 있다.As used herein, “virtual surgical data” refers to data including rehearsal or simulation actions performed on a virtual body model. “Virtual surgical data” may be image data on which rehearsal or simulation is performed on a virtual body model in a virtual space, or data recorded on a surgical operation performed on the virtual body model.

본 명세서에서 "실제수술데이터"는 실제 의료진이 수술을 수행함에 따라 획득되는 데이터를 의미한다. "실제수술데이터"는 실제 수술과정에서 수술부위를 촬영한 영상데이터일 수도 있고, 실제 수술과정에서 수행된 수술동작에 대해 기록된 데이터일 수도 있다.As used herein, “actual surgical data” refers to data obtained by actual medical staff performing surgery. "Actual surgical data" may be image data of a surgical site taken during an actual surgical procedure, or may be data recorded on a surgical operation performed in an actual surgical procedure.

본 명세서에서 "세부수술동작"은 특정한 기준에 따라 분할된 수술동작의 최소단위를 의미한다.As used herein, the term “detailed surgical operation” refers to the smallest unit of surgical operation divided according to specific criteria.

본 명세서에서 "큐시트(Cue sheet) 데이터"는, 특정한 수술과정을 세부수술동작으로 분할하여 순서대로 기록한 데이터를 의미한다.In the present specification, "Cue sheet data" refers to data recorded in order by dividing a specific surgical procedure into detailed surgical operations.

본 명세서에서 "시행 큐시트데이터"는 사용자가 시뮬레이션을 수행한 가상수술데이터를 기반으로 획득되는 큐시트데이터를 의미한다. In this specification, "execution cue sheet data" refers to cue sheet data obtained based on virtual surgery data performed by a user simulation.

본 명세서에서 "훈련용 가상수술 큐시트데이터"는 시행 큐시트데이터에 포함되는 것으로서, 사용자가 수술 모의훈련(Simulation)을 수행하여 획득된 가상수술데이터를 기반으로 생성된 큐시트데이터를 의미한다.As used herein, "virtual surgery cue sheet data for training" is included in the execution cue sheet data, and refers to cue sheet data generated based on virtual surgery data obtained by a user performing surgical simulation training.

본 명세서에서 "참고용 가상수술 큐시트데이터"는 학습용 빅데이터 구축 또는 수술프로세스 안내를 위해 특정한 의료인이 수행한 가상수술에 대한 큐시트데이터를 의미한다.In this specification, "virtual surgery cue sheet data for reference" refers to cue sheet data for virtual surgery performed by a specific medical person for building big data for learning or guiding the surgical process.

본 명세서에서 "최적화 큐시트데이터"는 수술시간 또는 수술 예후 등의 측면에서 최적화된 수술프로세스에 대한 큐시트데이터를 의미한다.As used herein, "optimized cue sheet data" refers to cue sheet data for an optimized surgical process in terms of operation time or surgical prognosis.

본 명세서에서 "학습 큐시트데이터"는 최적화 큐시트데이터 산출을 위한 학습에 이용되는 큐시트데이터를 의미한다.In this specification, "learning cue sheet data" refers to cue sheet data used for learning for calculating the optimized cue sheet data.

본 명세서에서 "수술가이드 데이터"는 실제 수술 시에 가이드정보로 이용되는 데이터를 의미한다.As used herein, "surgical guide data" refers to data used as guide information during actual surgery.

본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.As used herein, the term “computer” includes various devices capable of providing a result to a user by performing arithmetic processing. For example, computers include desktop PCs and notebooks (Note Books) as well as smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), synchronous/asynchronous A mobile terminal of International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable. Also, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. In addition, the computer may correspond to a server that receives a request from a client and performs information processing.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 개시된 실시 예에 따른 로봇수술 시스템을 도시한 도면이다.1 is a view showing a robotic surgery system according to the disclosed embodiment.

도 1을 참조하면, 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이 도시되어 있다.Referring to Figure 1, a schematic diagram of a system capable of performing robotic surgery according to the disclosed embodiment is shown.

도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(20) 및 수술실에 구비된 제어부(30), 영상촬영부(36), 디스플레이(32) 및 수술로봇(34)을 포함한다.According to FIG. 1 , the robotic surgery system includes a medical image capturing device 10 , a server 20 and a controller 30 provided in an operating room, an image capturing unit 36 , a display 32 and a surgical robot 34 . do.

일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, the robotic surgery is performed by the user using the control unit 30 to control the surgical robot (34). In one embodiment, the robotic surgery may be performed automatically by the control unit 30 without the user's control.

서버(20)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 20 is a computing device including at least one processor and a communication unit.

제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The control unit 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the controller 30 includes hardware and software interfaces for controlling the surgical robot 34 .

영상촬영부(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 영상촬영부(36)는 적어도 하나의 카메라 장치를 포함하여, 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 영상촬영부(36)는 수술로봇(34)과 결합되어 이용된다. 예를 들어, 영상촬영부(36)는 수술로봇(34)의 수술 암(Arm)과 결합된 적어도 하나의 카메라를 포함할 수 있다.The image capturing unit 36 includes at least one image sensor. That is, the image capturing unit 36 includes at least one camera device, and is used to photograph the surgical site. In one embodiment, the imaging unit 36 is used in combination with the surgical robot (34). For example, the imaging unit 36 may include at least one camera coupled to the surgical arm of the surgical robot 34 .

일 실시 예에서, 영상촬영부(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.In an embodiment, the image captured by the image capturing unit 36 is displayed on the display 340 .

제어부(30)는 서버(20)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The control unit 30 receives information necessary for surgery from the server 20 or generates information necessary for surgery and provides it to the user. For example, the controller 30 displays generated or received information necessary for surgery on the display 32 .

예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs robotic surgery by controlling the movement of the surgical robot 34 by manipulating the controller 30 while viewing the display 32 .

서버(20)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체(환자)의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The server 20 generates information necessary for robotic surgery by using medical image data of an object (patient) photographed in advance from the medical imaging device 10 , and provides the generated information to the controller 30 .

제어부(30)는 서버(20)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(20)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The controller 30 provides the information received from the server 20 to the user by displaying it on the display 32 , or controls the surgical robot 34 using the information received from the server 20 .

일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the medical imaging equipment 10 is not limited, for example, CT, X-Ray, PET, MRI, etc., various other medical image acquisition means may be used.

이하에서는, 도면을 참조하여 수술 시뮬레이션 정보를 생성하는 방법에 대하여 상세하게 설명한다.Hereinafter, a method of generating surgical simulation information will be described in detail with reference to the drawings.

도 2는 일 실시 예에 따라 수술 시뮬레이션 정보를 생성하는 방법을 도시한 흐름도이다.2 is a flowchart illustrating a method of generating surgical simulation information according to an embodiment.

도 2에 도시된 각 단계들은 도 1에 도시된 서버(20) 또는 제어부(30)에서 시계열적으로 수행된다. 이하에서는, 설명의 편의를 위하여 각 단계들이 컴퓨터에 의하여 수행되는 것으로 서술하나, 각 단계의 수행주체는 특정 장치에 제한되지 않고, 그 전부 또는 일부가 서버(20) 또는 제어부(30)에서 수행될 수 있다.Each of the steps shown in FIG. 2 is performed in time series by the server 20 or the controller 30 shown in FIG. 1 . Hereinafter, each step is described as being performed by a computer for convenience of explanation, but the subject of each step is not limited to a specific device, and all or part of it may be performed by the server 20 or the control unit 30 . can

도 2를 참조하면, 본 발명의 일실시예에 따른 수술 시뮬레이션 정보 생성방법은, 컴퓨터가 대상체의 수술부위를 촬영한 의료영상데이터를 기반으로 상기 대상체의 수술부위를 포함하는 3D 모델링 데이터를 생성하는 단계(S200); 컴퓨터가 사용자로부터 상기 3D모델링 데이터에 대한 가상수술데이터를 획득하는 단계(S400); 및 컴퓨터가 상기 가상수술데이터를 이용하여 하나 이상의 세부수술동작을 포함하는 큐시트 데이터를 생성하는 단계(S600); 를 포함한다.Referring to FIG. 2 , in the method for generating surgical simulation information according to an embodiment of the present invention, the computer generates 3D modeling data including the surgical site of the subject based on medical image data obtained by photographing the surgical site of the subject. step (S200); computer obtaining virtual surgery data for the 3D modeling data from the user (S400); and generating, by the computer, cue sheet data including one or more detailed surgical operations using the virtual surgical data (S600); includes

이하, 각 단계에 대한 상세한 설명을 기재한다.Hereinafter, detailed description of each step is described.

컴퓨터가 대상체의 수술부위를 촬영한 의료영상데이터를 기반으로 상기 대상체의 수술부위를 포함하는 3D 모델링 데이터를 생성한다(S200). 사용자가 실제 수술과 유사하게 시뮬레이션을 수행하기 위해서는 실제 환자와 동일한 3D 모델링데이터가 필요하다. The computer generates 3D modeling data including the surgical site of the object based on the medical image data obtained by photographing the surgical site of the object (S200). In order for a user to perform a simulation similar to an actual surgery, 3D modeling data identical to that of a real patient is required.

기존에는 실제 수술자세와 상이한 자세로 의료영상 촬영이 수행되고 해당 의료영상데이터를 그대로 3D 모델링데이터로 구현함에 따라 수술 전 시뮬레이션이 실제 수술을 미리 연습하는 효과를 제대로 제공하지 못하였다. In the past, as medical imaging was performed in a different posture from the actual surgical posture, and the corresponding medical image data was implemented as 3D modeling data as it is, the preoperative simulation failed to provide the effect of practicing the actual surgery in advance.

구체적으로, 일반적으로 환자가 누운 상태로 의료영상 촬영장치로 촬영된 환자의 내부 장기 배치상태 또는 장기 모양은 대상체(10)가 눕혀지는 각도에 따른 중력의 영향에 의해 수술시 대상체(10)의 내부 장기 배치상태 또는 장기 모양와 상이하게 되므로, 실제 수술과 동일한 시뮬레이션 상황을 제공하지 못한다. Specifically, the internal organ arrangement state or organ shape of a patient photographed with a medical imaging device in a state in which the patient is lying down is generally determined by the effect of gravity depending on the angle at which the object 10 is laid. Since the organ arrangement state or the organ shape is different, it cannot provide a simulation situation identical to that of actual surgery.

또한, 복강경 수술이나 로봇 수술을 위해 신체 내부에 이산화탄소를 채운 기복상태와 일치하지 않는 상태에서 시뮬레이션을 수행하므로, 수술 전 시뮬레이션이 실제 수술을 미리 연습하는 효과를 제대로 제공하지 못하였다. 이러한 문제점을 해소하기 위해, 실제 수술 상태와 동일한 3D 모델링 데이터(즉, 3D 기복모델)을 생성하여야 한다.In addition, since the simulation is performed in a state that does not match the undulation state filled with carbon dioxide inside the body for laparoscopic surgery or robotic surgery, the pre-operative simulation did not provide the effect of practicing the actual operation in advance. In order to solve this problem, it is necessary to generate 3D modeling data identical to the actual surgical state (ie, 3D relief model).

도 3은 일 실시예에 따라 수술자세 적용을 통한 3D 모델링 데이터 생성과정을 나타내는 흐름도이다.3 is a flowchart illustrating a 3D modeling data generation process by applying a surgical posture according to an embodiment.

일 실시예로, 도 3에서와 같이, 컴퓨터는 실제 수술자세를 적용하여 촬영된 의료영상데이터를 기반으로 3D 모델링 데이터를 생성한다. 구체적으로, 컴퓨터가 환자의 환부 위치 또는 수술 유형을 바탕으로 결정된 수술자세를 기반으로 환자의 촬영자세를 산출하는 단계(S202); 및 상기 촬영자세로 촬영된 의료영상데이터를 기반으로 3D 모델링을 수행하는 단계(S204);를 포함한다.In one embodiment, as shown in FIG. 3 , the computer generates 3D modeling data based on medical image data captured by applying an actual surgical posture. Specifically, the computer calculates the patient's imaging posture based on the surgical posture determined based on the patient's location or surgery type (S202); and performing 3D modeling based on the medical image data captured in the photographing posture (S204).

컴퓨터가 환자의 환부 위치 또는 수술 유형을 바탕으로 결정된 수술자세를 기반으로 환자의 촬영자세를 산출한다(S202). 환자의 환부 위치(즉, 수술 부위), 수술 유형 등에 따라 수술 자세가 달라질 수 있다. 컴퓨터는 환자의 수술자세와 동일한 자세로 의료영상 촬영이 가능한 촬영자세를 산출한다. The computer calculates the patient's imaging posture based on the surgical posture determined based on the patient's location of the affected area or the type of surgery (S202). The surgical posture may vary depending on the patient's location of the affected area (ie, the surgical site), the type of surgery, and the like. The computer calculates a photographing posture in which medical images can be taken in the same posture as the patient's surgical posture.

예를 들어, 환자의 신체가 15도 기울어진 상태로 상체를 수술하는 경우, 컴퓨터는 상체만을 15도 세워지도록 환자의 등을 받친 자세를 촬영자세로 산출할 수 있다. 환자의 상체만을 15도 세워진 자세를 촬영자세로 설정함에 따라, 기존의 의료영상 촬영장치(예를 들어, CT장치)를 이용하여 수술부위가 수술 시와 동일한 상태로 촬영되도록 할 수 있다.For example, when the upper body is operated in a state where the patient's body is tilted by 15 degrees, the computer may calculate a posture in which the patient's back is supported so that only the upper body is erected by 15 degrees as the photographing posture. By setting only the patient's upper body upright at 15 degrees as the imaging posture, the surgical site may be photographed in the same state as during surgery using a conventional medical imaging apparatus (eg, a CT device).

또한, 예를 들어, 의료영상 촬영장치가 환자의 배치상태를 조절하는 기능을 포함하여 수술자세와 동일한 촬영자세를 구현할 수 있다. 예를 들어, 의료영상 촬영 장치가 컴퓨터 단층촬영(Computed tomography; CT) 장치인 경우, CT장치의 테이블이 소정의 방향으로 소정의 각도만큼 기울어질 수 있거나(tilting) 또는 회전(rotating)될 수 있고, 갠트리도 소정의 방향으로 소정의 각도만큼 기울어질 수 있다. In addition, for example, the medical imaging apparatus may implement the same imaging posture as the surgical posture, including the function of adjusting the patient's arrangement state. For example, when the medical imaging apparatus is a computed tomography (CT) apparatus, the table of the CT apparatus may be tilted or rotated by a predetermined angle in a predetermined direction. , the gantry may also be inclined by a predetermined angle in a predetermined direction.

이를 통해, 컴퓨터 또는 사용자는 의료영상 촬영장치의 테이블과 갠트리를 수술자세와 동일한 각도로 기울어지도록 제어하고, 컴퓨터는 의료영상 촬영장치로부터 실제 수술 시와 동일한 각도로 기울어진 촬영자세로 촬영된 의료영상데이터를 획득할 수 있다.Through this, the computer or the user controls the table and the gantry of the medical imaging apparatus to be tilted at the same angle as the surgical posture, and the computer uses the medical image photographing device to tilt the medical image taken from the medical imaging device at the same angle as during the actual operation. data can be obtained.

또한, 컴퓨터는 의료진으로부터 환자의 수술자세를 입력받을 수도 있고, 환자의 환부 위치, 수술 유형 등을 기반으로 수행될 수술자세를 직접 산출할 수도 있다.In addition, the computer may receive the patient's surgical posture from the medical staff, and may directly calculate the surgical posture to be performed based on the patient's location of the affected part, the type of surgery, and the like.

그 후, 컴퓨터가 상기 촬영자세로 촬영된 의료영상데이터를 기반으로 생성된 3D 모델링데이터를 획득한다(S204). 컴퓨터는 대상체(10)의 3D 의료영상을 이용하여 3D 모델링 영상을 렌더링하여 생성할 수 있다. 또한, 컴퓨터는 의료영상 촬영장치에서 특정한 자세로 촬영된 후에 생성한 3D 모델링 데이터를 수신할 수도 있다. 즉, 의료영상 촬영장치(예를 들어, CT장치)가 의료영상데이터를 기반으로 3D렌더링을 수행하여 3D 모델링 데이터를 생성한 후 컴퓨터로 전송할 수 있다.Thereafter, the computer acquires 3D modeling data generated based on the medical image data captured in the photographing posture (S204). The computer may render and generate a 3D modeling image using the 3D medical image of the object 10 . Also, the computer may receive 3D modeling data generated after being photographed in a specific posture by the medical imaging apparatus. That is, the medical image capturing apparatus (eg, a CT apparatus) may perform 3D rendering based on the medical image data to generate 3D modeling data and then transmit it to the computer.

또한, 다른 일실시예로, 컴퓨터는 일반적인 촬영조건에서 촬영된 의료영상데이터에서 특정한 수술 시의 신체상태로 변경하는 보정알고리즘을 적용하여 3D모델링데이터를 생성한다. 즉, 컴퓨터는 일반적인 상태로 누운 환자를 촬영한 의료영상데이터에 기울어진 상태에서 중력에 따른 신체변화 또는 이산화탄소 주입에 따라 기복모델로 형성되는 신체변화를 적용하여 3D모델링 데이터를 생성한다. In addition, in another embodiment, the computer generates 3D modeling data by applying a correction algorithm that changes from medical image data photographed under general photographing conditions to a physical state during a specific operation. That is, the computer generates 3D modeling data by applying changes in the body formed by the undulation model according to the body change due to gravity or the injection of carbon dioxide in the tilted state to the medical image data of the patient lying in a normal state.

예를 들어, 상기 보정알고리즘은 일반적인 촬영조건 및 신체상태에 대한 의료영상데이터와 특정한 신체상태 및 수술조건의 수술 시 신체상태데이터를 매칭하여 형성된 빅데이터를 학습함에 따라 산출될 수 있다. 상기 수술 시의 신체상태데이터는, 실제 수술 시의 신체 내부 장기 모양 또는 배치를 촬영한 영상데이터 또는 신체표면을 촬영한 영상데이터 등이 포함될 수 있다.For example, the correction algorithm may be calculated by learning big data formed by matching medical image data for general imaging conditions and physical conditions with body state data during surgery for specific physical conditions and surgical conditions. The body state data at the time of surgery may include image data obtained by photographing the shape or arrangement of internal organs in the body or image data photographing the body surface during actual operation.

일실시예로, 일반조건에서 촬영된 의료영상데이터(예를 들어, CT데이터)를 기반으로 복강경 수술 또는 로봇수술 시의 기복모델을 형성하는 경우, 컴퓨터는 환자의 의료영상데이터와 수술 시의 신체표면데이터를 매칭하여 학습을 수행할 빅데이터로 구축한다. 상기 신체표면데이터는 수술 전에 의료진에 의해 촬영되는 것이다. In one embodiment, when forming a relief model during laparoscopic surgery or robotic surgery based on medical image data (eg, CT data) taken under normal conditions, the computer uses the patient's medical image data and the body at the time of surgery. By matching the surface data, it is built as big data for learning. The body surface data is taken by a medical staff before surgery.

예를 들어, 의료진은 복강경 수술 또는 로봇수술을 수행하기 전에 이산화탄소를 주입함에 따라 변형된 복부 표면을 촬영하여 신체표면데이터를 획득한다. 컴퓨터는 빅데이터를 학습함에 따라 일반적인 상태의 3D모델링데이터를 복강경수술 또는 로봇수술 시의 기복모델로 형성하는 수정기준 또는 수정알고리즘을 생성한다. 그 후, 컴퓨터는, 신규 환자의 의료영상데이터가 획득되면, 의료영상데이터를 기반으로 생성한 3D모델링 데이터를 수정기준 또는 수정알고리즘을 기반으로 변형하여 기복모델을 생성한다.For example, medical staff acquire body surface data by photographing the abdominal surface deformed by injecting carbon dioxide before performing laparoscopic surgery or robotic surgery. As the computer learns big data, it creates a correction criterion or correction algorithm that forms 3D modeling data in a general state into a relief model in laparoscopic or robotic surgery. Then, when the new patient's medical image data is obtained, the computer transforms the 3D modeling data generated based on the medical image data based on the correction criteria or the correction algorithm to generate the relief model.

이를 통해, 컴퓨터는 특정한 환자에 대해 수술 시의 신체 상태와 유사한 3D모델링 데이터를 생성하여 사용자에게 제공할 수 있다. Through this, the computer can generate 3D modeling data similar to the physical state during surgery for a specific patient and provide it to the user.

컴퓨터가 사용자로부터 상기 3D모델링 데이터에 대한 가상수술데이터를 획득한다(S400). 사용자는 3D 모델링 영상에 대한 가상의 수술을 집도하는 시뮬레이션 또는 리허설을 수행한다. 예를 들어, 컴퓨터는 3D 모델링 영상에 가상의 수술도구를 표시하고, 사용자는 다양한 방식으로 가상의 수술도구를 제어하여 3D 모델링 영상에 대해 수술을 집도하는 리허설을 수행할 수 있다.The computer acquires the virtual surgery data for the 3D modeling data from the user (S400). The user performs a simulation or rehearsal of performing a virtual surgery on the 3D modeling image. For example, the computer may display a virtual surgical tool on the 3D modeling image, and the user may control the virtual surgical tool in various ways to perform a rehearsal of performing surgery on the 3D modeling image.

상기 가상수술데이터는 사용자가 3D모델링된 환자의 가상신체모델에 대해 수술을 시뮬레이션(Simulation)함에 따라 생성되는 것이다. 가상수술데이터를 획득하는 과정은 사용자가 수술을 모의훈련(Simulation)하는 과정이거나 수술 직전에 동일한 조건에서 리허설(Rehearsal)하는 과정일 수도 있다. 컴퓨터는 다양한 방식으로 사용자로부터 가상수술데이터를 입력받을 수 있다.The virtual surgery data is generated as a user simulates surgery on a 3D modeled patient's virtual body model. The process of acquiring virtual surgery data may be a process in which the user simulates surgery or a process in which the user rehearses under the same conditions immediately before surgery. The computer may receive virtual surgery data from the user in various ways.

일실시예로, 컴퓨터는 가상현실(Virtual Reality; VR) 디바이스를 통해 사용자에게 가상신체모델을 제공하고, 컨트롤러를 통해 가상신체모델에 대한 수술동작을 입력할 수 있다. 상기 컨트롤러는 사용자 손의 움직임을 인식할 수 있는 다양한 형태가 될 수 있다. 예를 들어, 상기 컨트롤러는 장갑형으로 구현됨에 따라 사용자의 수술 시의 세부적인 손가락 움직임과 손의 실시간 배치 상태를 획득할 수 있다.In one embodiment, the computer may provide a virtual body model to the user through a virtual reality (VR) device, and may input a surgical operation for the virtual body model through a controller. The controller may have various forms capable of recognizing the movement of the user's hand. For example, since the controller is implemented as a glove type, it is possible to acquire detailed finger movements and real-time placement of hands during a user's operation.

구체적으로, 컴퓨터는 사용자가 착용하는 HMD 장치에 가상신체모델을 제공한다. 컴퓨터는 사용자의 조작에 따라 가상신체모델을 회전 또는 확대하여 제공하고, 이에 따라 사용자는 환자에게 예정된 수술 시와 동일하게 구현된 가상신체모델을 자세히 살펴보면서 수술계획 및 시뮬레이션을 수행한다. Specifically, the computer provides a virtual body model to the HMD device worn by the user. The computer rotates or enlarges the virtual body model according to the user's operation and provides the virtual body model. Accordingly, the user performs surgery planning and simulation while closely examining the virtual body model implemented in the same way as during the scheduled surgery for the patient.

예를 들어, 대상체의 신체 특징에 따라 오멘텀(장막)과 같은 지방으로 인해 실제 수술을 해야하는 혈관 및 장기가 보이지 않을 수 있으나, 모델링에서는 오멘텀을 제거하여 실제 혈관 및 장기의 위치와 형태를 정확히 알 수 있고, 그에 따라 실제 수술이 필요한 대상에 도달하기 위한 최적의 수술계획을 수립할 수 있다. 컴퓨터는 사용자에 의해 특정한 수술도구가 선택되는 입력을 획득하고, 컨트롤러를 통해 해당 수술도구로 가상신체모델의 특정한 영역에 수술을 수행하는 조작을 획득한다.For example, depending on the body characteristics of the object, blood vessels and organs that need to be operated on may not be visible due to fat such as omentum (serosal membrane). It is possible to establish an optimal surgical plan to reach the target in need of actual surgery. The computer acquires an input for selecting a specific surgical tool by the user, and acquires an operation to perform surgery on a specific area of the virtual body model with the corresponding surgical tool through a controller.

또한, 일실시예로, 가상수술데이터는 사용자가 가상신체모델에 대해 수행하는 수술동작을 구현한 영상데이터로 저장될 수 있다. 컴퓨터는 컨트롤러에 의해 획득되는 실시간 모션데이터, 모션을 수행한 수술도구, 모션이 수행된 가상신체모델 내의 위치 등을 기반으로 시뮬레이션 영상을 생성할 수 있다. In addition, as an embodiment, the virtual surgery data may be stored as image data in which a surgical operation performed by a user on a virtual body model is implemented. The computer may generate a simulation image based on real-time motion data acquired by the controller, a surgical tool that performed the motion, and a location in the virtual body model on which the motion is performed.

또한, 다른 일실시예로, 가상수술데이터는 가상신체모델 자체에 대한 모델링데이터, 시뮬레이션 또는 리허설 과정에서 각 시점에 사용된 수술도구 및 모션데이터 전체일 수 있다. 즉, 가상수술데이터는 외부 컴퓨터가 수신하여 시뮬레이션 영상을 구현 가능하도록 하는 복수의 데이터 집합일 수 있다.In addition, in another embodiment, the virtual surgery data may be modeling data for the virtual body model itself, the entire surgical tool and motion data used at each point in the simulation or rehearsal process. That is, the virtual surgery data may be a plurality of data sets that an external computer receives and enables to implement a simulation image.

컴퓨터가 상기 가상수술데이터를 하나 이상의 세부수술동작을 포함하는 큐시트 데이터를 생성한다(S600). 즉, 컴퓨터는 사용자에 의해 가상신체모델에 수행된 가상수술 과정을 영상으로 생성할 뿐만 아니라 하나 이상의 세부수술동작으로 분할하여 수술프로세스를 나타내는 큐시트를 생성한다.The computer generates cue sheet data including one or more detailed surgical operations from the virtual surgical data (S600). That is, the computer not only generates an image of the virtual surgical procedure performed on the virtual body model by the user, but also divides it into one or more detailed surgical operations to generate a cue sheet indicating the surgical process.

상기 큐시트데이터를 구성하는 세부수술동작은 수술프로세스를 구성하는 최소 동작 단위이다. 세부수술동작은 여러 기준에 의해 나누어질 수 있다. 예를 들어, 세부수술동작은 수술유형(예를 들어, 복강경수술, 로봇수술), 수술이 수행되는 해부학적 신체부위, 사용되는 수술도구, 수술도구의 개수, 화면상에 수술도구가 나타나는 방향 또는 위치, 수술도구의 움직임(예를 들어, 전진/후퇴) 등을 기준으로 나누어질 수 있다.The detailed surgical operation constituting the cue sheet data is the smallest unit of operation constituting the surgical process. Detailed surgical operation can be divided according to several criteria. For example, the detailed surgical operation may include the type of operation (eg, laparoscopic surgery, robotic surgery), the anatomical body part where the operation is performed, the surgical tools used, the number of surgical tools, the direction in which the surgical tools appear on the screen, or It may be divided based on the position, the movement of the surgical tool (eg, forward/retracted), and the like.

상기 분할기준과 분할기준 내에 포함되는 세부카테고리는 의료진의 실제수술데이터 학습을 통해 직접 설정될 수 있다. 컴퓨터는 의료진에 의해 설정된 분할기준 및 세부카테고리에 따라 지도(Supervised)학습을 수행하여 최소단위인 세부수술동작으로 가상수술데이터를 분할할 수 있다.The division criteria and the detailed categories included in the division criteria can be directly set by the medical staff learning the actual surgical data. The computer may perform supervised learning according to the division criteria and detailed categories set by the medical staff to divide the virtual surgical data into the smallest unit of detailed surgical operation.

또한, 상기 분할기준과 분할기준 내에 포함되는 세부카테고리는 컴퓨터의 수술영상 학습을 통해 추출될 수 있다. 예를 들어, 컴퓨터는 빅데이터로 누적된 실제수술데이터를 딥러닝 학습(즉, 비지도학습)하여 분할기준 및 각 분할기준 내 카테고리를 산출할 수 있다. 그 후, 컴퓨터는 실제수술데이터 학습을 통해 생성된 분할기준에 따라 가상수술데이터를 분할하여 큐시트데이터를 생성한다.In addition, the division criteria and the detailed categories included in the division criteria can be extracted through the computer's surgical image learning. For example, the computer can calculate the division criteria and categories within each division criterion by deep learning (ie, unsupervised learning) on actual surgical data accumulated as big data. After that, the computer divides the virtual surgery data according to the division criteria generated through learning the actual surgical data to generate cue sheet data.

또한, 다른 일실시예로, 가상수술데이터 또는 실제수술데이터는 영상 인식을 통해 각각의 분할기준에 해당하는지 여부를 파악하여 분할(Segmentation)할 수도 있다. 즉, 컴퓨터는 가상수술데이터 또는 실제수술데이터의 영상 내 화면에서 분할기준에 해당하는 해부학적 장기 위치, 등장하는 수술도구, 각 수술도구의 개수 등을 인식하여, 세부수술동작 단위로 분할을 수행할 수 있다.In addition, as another embodiment, virtual surgery data or actual surgery data may be segmented by identifying whether they correspond to each segmentation criterion through image recognition. That is, the computer recognizes the anatomical organ position corresponding to the division criterion, the surgical tools that appear, the number of each surgical tool, etc. on the screen of the virtual surgery data or the actual surgical data image, and performs division into detailed surgical operation units. can

또한, 다른 일실시예로, 컴퓨터는 실제수술데이터 또는 가상수술데이터에 포함되는 수술도구 움직임데이터를 기반으로 큐시트데이터 생성을 위한 분할과정을 수행할 수 있다. 실제수술데이터는, 사용자가 로봇수술을 수행하는 경우, 사용자에 의해 선택된 수술도구 종류 및 개수, 각 수술도구의 움직임에 대한 정보 등의 수술로봇을 제어하는 과정에서 입력되는 다양한 정보를 포함할 수 있고, 가상수술데이터도 가상신체모델에 대한 시뮬레이션 시에 사용자에 의해 선택된 수술도구 종류 및 개수, 각 수술도구의 움직임 등에 대한 정보를 포함할 수 있다. 따라서, 컴퓨터는 실제수술데이터 또는 가상수술데이터의 각 시점에 포함된 정보를 바탕으로 분할을 수행할 수 있다.In addition, in another embodiment, the computer may perform a segmentation process for generating cue sheet data based on the surgical tool movement data included in the actual surgical data or virtual surgery data. The actual surgical data may include various information input in the process of controlling the surgical robot, such as the type and number of surgical tools selected by the user, and information on the movement of each surgical tool, when the user performs robotic surgery, , the virtual surgical data may also include information on the type and number of surgical tools selected by the user during simulation of the virtual body model, and the movement of each surgical tool. Therefore, the computer can perform the division based on the information contained in each time point of the actual surgery data or virtual surgery data.

또한, 일실시예로, 가상수술데이터 또는 실제수술데이터는 절제, 봉합 등의 다양한 종류의 액션이 포함되고, 분할기준에 따라 분할(Segmentation)이 수행된다. 구체적으로, 위암수술을 실제로 수행한 실제수술데이터(예를 들어, 실제수술영상) 또는 위암수술을 시뮬레이션한 가상수술데이터를 세부수술동작으로 분할하여 큐시트데이터로 생성하는 과정을 설명하면 다음과 같다.In addition, in one embodiment, virtual surgery data or actual surgical data includes various types of actions such as resection and suturing, and segmentation is performed according to the segmentation criterion. Specifically, the process of generating cue sheet data by dividing the actual surgical data (eg, actual surgical image) or virtual surgery data simulating gastric cancer surgery into detailed surgical operations will be described.

예를 들어, 위암수술에는 우선 종양을 포함하는 위의 일부 또는 전부를 절제하는 액션 및 임파선을 절제하는 액션이 포함된다. 이외에도 위암의 상태에 따라 다양한 절제술 및 연결술이 이용된다. 또한 각각의 액션은 액션이 취해지는 구체적인 위치와, 수술도구의 이동방향에 따라 더 세부적인 복수의 액션으로 분할될 수 있다. For example, gastric cancer surgery includes an action of first resecting a part or all of the stomach including the tumor and an action of resectioning the lymph nodes. In addition, various resection and connection techniques are used depending on the condition of gastric cancer. In addition, each action may be divided into a plurality of more detailed actions according to the specific location where the action is taken and the direction of movement of the surgical tool.

예로, 위암수술의 세부동작은 우선 개복단계, 절제단계, 연결단계 및 봉합단계 등으로 분할될 수 있다.For example, the detailed operation of gastric cancer surgery may be first divided into an open stage, an excision stage, a connection stage, and a suturing stage.

또한, 절제된 장기를 연결하는 방법에는 명치 끝 4-5cm 이상을 절개하고 연결하는 체외문합 방법 또는 배꼽을 3cm 정도 절개하고 복강 내에서 절제 및 문합이 이루어지는 체내문합 방법 등이 포함되는데, 상술한 연결단계는 이와 같은 구체적인 연결방법에 따라 더 상세하게 분할될 수 있다.In addition, the method of connecting the resected organs includes an extracorporeal anastomosis method in which 4-5 cm or more of the tip of the medius is cut and connected, or an in vivo anastomosis method in which the umbilicus is incised by 3 cm and resection and anastomosis are performed in the abdominal cavity, etc. can be divided in more detail according to such a specific connection method.

나아가, 각각의 수술방법은 수술도구의 위치 및 움직임에 따라 더 세부적인 복수의 세부수술동작들로 분할될 수 있다.Furthermore, each surgical method may be divided into a plurality of detailed surgical operations according to the position and movement of the surgical tool.

분할된 각각의 세부수술동작들은 세부수술동작이 수행되는 위치 및 수술도구의 이동경로(pathway)에 기초하여 표준화된 명칭이 부여될 수 있다. Each of the divided detailed surgical operations may be given a standardized name based on the location at which the detailed surgical operation is performed and the movement path of the surgical tool.

일 실시 예에서, 표준화된 명칭에 이용되는 용어는 다양하게 정의될 수 있다. 예를 들어 위(stomach)의 하단 오른쪽 특정부위를 다룰때 그 부위의 이름은 의료분야에서 통상적으로 사용중인 이름을 사용할 수 있고, 개시된 실시 예에 따른 시스템에서 정의된, 더 포괄적이거나 세분화된 명칭이 이용될 수 있다.In an embodiment, terms used for standardized names may be defined in various ways. For example, when dealing with a specific region on the lower right side of the stomach, the name of the region may be a name commonly used in the medical field, and a more comprehensive or subdivided name defined in the system according to the disclosed embodiment may be used. can be used

따라서, 리허설 영상은 복수의 액션이 표준화된 명칭에 기초하여 순차적으로 나열된 큐시트 형태의 정보로 정리될 수 있다. 마찬가지로, 사용자가 실제로 수술을 수행한 수술 영상 또한 액션 단위로 분할되고, 큐시트 형태의 정보로 정리될 수 있다.Accordingly, the rehearsal image may be organized as information in the form of a cue sheet in which a plurality of actions are sequentially listed based on a standardized name. Similarly, the surgical image in which the user actually performed the operation may also be divided into action units and organized into cue sheet information.

또한, 일실시예로, 상기 큐시트데이터는 세부수술동작으로 분할하는 기준에 의해 특정한 자릿수의 코드(Code) 데이터로 생성될 수 있다. 즉, 컴퓨터는 표준화된 분할기준을 적용하고 분할기준 내의 세부카테고리를 지정함에 따라 가상수술데이터를 표준화된 세부수술동작으로 분할하고, 각 세부카테고리에 표준화된 코드값을 부여하여 각 세부수술동작을 구별할 수 있는 표준화된 코드데이터를 부여한다. In addition, in one embodiment, the cue sheet data may be generated as code data of a specific number of digits based on a criterion for dividing into detailed surgical operations. In other words, the computer divides the virtual surgical data into standardized detailed surgical motions by applying standardized division criteria and designating detailed categories within the division criteria, and assigns standardized code values to each subcategory to distinguish each detailed surgical motion. Provides standardized code data that can be used.

컴퓨터는 분할기준 적용순서에 따라 특정한 세부수술동작이 속하는 상위카테고리부터 차례대로 숫자 또는 문자가 부여되어 디지털(Digital)화된 코드데이터를 각 세부수술동작에 부여한다. 이를 통해, 컴퓨터는 큐시트데이터를 분할된 세부수술동작 영상이 아닌 각 세부수술동작의 표준화된 코드데이터가 나열된 형태로 생성할 수 있다. 또한, 사용자는 표준화된 코드데이터로 이루어진 큐시트데이터만을 제공함에 따라 시뮬레이션한 수술과정을 공유 또는 전달할 수 있다.The computer assigns digitalized code data to each detailed surgical operation by assigning numbers or letters sequentially from the upper category to which a specific detailed surgical operation belongs according to the division criteria application order. Through this, the computer can generate the cue sheet data in a form in which standardized code data of each detailed surgical operation is listed instead of a divided detailed surgical operation image. In addition, the user can share or deliver the simulated surgical procedure by providing only cue sheet data composed of standardized code data.

또한, 일실시예로, 컴퓨터는 각각의 세부수술동작의 표준화된 코드(Code)에 표준화된 명칭을 부여할 수 있다. 이를 통해, 사용자는 전체 큐시트 내에서 원하는 수술동작(또는 액션(Action)) 부분만을 선별하여 확인할 수 있다. 또한, 이 경우, 사용자는 리허설 또는 수술 영상을 전부 보지 않아도, 각각의 액션이 표준화된 명칭에 기초하여 순차적으로 나열된 큐시트를 보는 것만으로도 수술 또는 리허설의 진행과정을 용이하게 파악할 수 있다.In addition, in one embodiment, the computer may give a standardized name to the standardized code (Code) of each detailed surgical operation. Through this, the user can select and confirm only the desired surgical operation (or action) part within the entire cue sheet. In addition, in this case, the user can easily grasp the progress of the operation or rehearsal by simply viewing the cue sheet in which each action is sequentially listed based on the standardized name, even if the user does not see all the rehearsal or surgery images.

큐시트데이터는 각 세부수술동작에 대한 영상 데이터베이스를 이용하여 수술영상으로 변환될 수 있다. 상기 영상 데이터베이스는 각 코드데이터에 부합하는 영상이 저장되어 있을 수 있고, 각 코드데이터에 부합하는 영상은 상황에 따라 복수개 저장되어 있을 수 있다. 예를 들어, 특정한 코드데이터는 이전에 수행된 동작에 따라 영상 데이터베이스 내의 상이한 세부수술동작 영상이 로드될 수 있다.The cue sheet data may be converted into surgical images using an image database for each detailed surgical operation. The image database may store images corresponding to each code data, and a plurality of images corresponding to each code data may be stored according to circumstances. For example, specific code data may be loaded with different detailed surgical operation images in the image database according to previously performed operations.

또한, 컴퓨터는, 각 큐시트데이터가 특정한 가상신체모델과 매칭되어 저장됨에 따라, 가상신체모델에 큐시트데이터에 포함된 각 세부수술동작을 순차적으로 적용함에 따라 수술시뮬레이션 영상으로 재생할 수 있다.In addition, as each cue sheet data is matched with a specific virtual body model and stored, the computer sequentially applies each detailed surgical operation included in the cue sheet data to the virtual body model to reproduce a surgical simulation image.

따라서, 큐시트에 대응하는 영상은 수술 리허설 영상과 같은 시점(point of view)에서 재생될 수도 있고, 다른 시점으로 재구성되어 재생될 수도 있다. 또는, 영상은 3D로 모델링되어, 사용자의 조작에 따라 시점과 위치가 조절될 수 있다.Accordingly, the image corresponding to the cue sheet may be reproduced from the same point of view as the surgical rehearsal image, or may be reconstructed and reproduced from a different viewpoint. Alternatively, the image may be modeled in 3D, and the viewpoint and position may be adjusted according to a user's manipulation.

또한, 도 4에서와 같이, 다른 일실시예로, 컴퓨터가 사용자의 가상수술데이터를 기반으로 생성된 시행 큐시트데이터의 최적화 여부를 판단하는 단계(S800);를 더 포함한다. In addition, as in FIG. 4, in another embodiment, the computer determines whether to optimize the execution cue sheet data generated based on the user's virtual surgery data (S800); further includes.

컴퓨터는 시행 큐시트데이터와 최적화 큐시트데이터의 비교를 통해, 시행 큐시트데이터의 적절성을 판단한다. 예를 들어, 컴퓨터는 사용자가 시뮬레이션 함에 따라 생성된 시행 큐시트데이터 내에 수술시간을 지연시키는 불필요한 세부수술동작이 포함되어 있는지, 특정한 세부수술동작을 수행함에 따라 필수적으로 전 또는 후에 포함되어야 하는 세부수술동작이 빠져 있는지 등을 판단하여, 시행 큐시트데이터의 실제 환자에 적용하기에 적절하게 생성되었는지 판단한다.The computer judges the adequacy of the trial cue sheet data by comparing the trial cue sheet data and the optimization cue sheet data. For example, the computer determines whether unnecessary detailed surgical operations that delay the operation time are included in the execution cue sheet data generated by the user's simulation, and detailed surgical operations that must be included before or after a specific detailed surgical operation is performed. It is determined whether or not is omitted, and it is determined whether the trial cue sheet data is properly generated to be applied to the actual patient.

컴퓨터가 시행 큐시트데이터의 평가를 수행하기 위해 최적화 큐시트데이터를 산출하는 과정을 수행할 수 있다.The computer may perform a process of calculating the optimized cue sheet data in order to perform evaluation of the trial cue sheet data.

도 5는 일 실시 예에 따른 수술 프로세스 최적화 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method for optimizing a surgical process according to an embodiment.

컴퓨터는 하나 이상의 학습 큐시트데이터를 획득한다(S820). 상기 학습 큐시트데이터는 최적화 큐시트데이터 산출을 위해 학습되는 학습대상데이터이다. 상기 학습 큐시트데이터는 실제수술데이터를 기반으로 생성된 큐시트데이터(즉, 실제수술 큐시트데이터) 또는 참고용으로 시뮬레이션된 가상수술데이터를 기반으로 생성된 큐시트데이터(즉, 참고용 가상수술 큐시트데이터)를 포함할 수 있다. 상기 실제수술 큐시트데이터는 컴퓨터가 실제수술데이터를 분할기준에 따라 분할하여 생성된 것이다. 상기 참고용 가상수술 큐시트데이터는 사용자의 수술 훈련과정에서 획득되는 것이 아니라 학습대상데이터 구축 목적 또는 수련의들에게 참고용으로 제공하기 위한 목적으로 시뮬레이션이 수행되어 생성된 것이다.The computer acquires one or more learning cue sheet data (S820). The learning cue sheet data is learning target data that is learned to calculate the optimized cue sheet data. The learning cue sheet data is cue sheet data generated based on actual surgery data (ie, actual surgery cue sheet data) or cue sheet data generated based on simulated virtual surgery data for reference (ie, virtual surgery cue sheet data for reference) may include The actual surgery cue sheet data is generated by the computer dividing the actual surgery data according to the division criteria. The virtual surgery cue sheet data for reference is not obtained in the user's surgical training process, but is generated by performing a simulation for the purpose of constructing learning target data or providing it for reference to trainees.

그 후, 컴퓨터는 학습 큐시트데이터를 이용하여 강화학습(Reinforcement learning)을 수행한다(S840). 강화학습은 기계학습의 한 영역으로, 어떤 환경 안에서 정의된 에이전트가 현재의 상태를 인식하여, 선택 가능한 행동들 중 보상을 최대화하는 행동 혹은 행동 순서를 선택하는 방법이다. 강화학습은 상태전이와, 상태전이에 따른 보상에 기초하여 보상을 최대화하는 방법을 학습하는 것으로 요약될 수 있다.Thereafter, the computer performs reinforcement learning using the learning cue sheet data (S840). Reinforcement learning is a field of machine learning, in which an agent defined in an environment recognizes the current state and selects the action or action sequence that maximizes the reward among the selectable actions. Reinforcement learning can be summarized as learning how to maximize a reward based on a state transition and a reward according to the state transition.

그 후, 컴퓨터는 강화학습 결과를 이용하여 최적화 큐시트데이터를 산출한다(S860). 상기 최적화 큐시트데이터는 강화학습 결과를 기반으로 환자의 마취시간을 줄일 수 있는 최단 수술시간, 최소 출혈량, 필수동작그룹, 필수수행순서 등을 조건으로 산출된다. Then, the computer calculates the optimization cue sheet data using the reinforcement learning results (S860). The optimized cue sheet data is calculated based on the reinforcement learning results based on the conditions such as the shortest surgical time, the minimum bleeding amount, the required operation group, and the required execution order that can reduce the patient's anesthesia time.

상기 필수동작그룹은 특정한 세부수술동작을 수행하기 위해 필수적으로 함께 수행되어야 하는 세부수술동작들의 그룹이다. 상기 필수수행순서는 특정한 수술을 수행하는 과정에서 반드시 순차적으로 수행되어야 하는 수술동작 순서이다. 예를 들어, 수술의 종류 또는 수술동작의 종류에 따라 순차적으로 등장하여야 하는 수술동작들 및 그 순서가 정해져 있을 수 있다.The essential operation group is a group of detailed surgical operations that must be essentially performed together in order to perform a specific detailed surgical operation. The essential sequence is a sequence of surgical operations that must be sequentially performed in the process of performing a specific surgery. For example, depending on the type of surgery or the type of surgical operation, surgical operations to appear sequentially and their order may be determined.

또한, 컴퓨터는 강화학습을 통해 환자의 신체조건, 수술부위(예를 들어, 종양조직) 조건(예를 들어, 종양의 크기, 위치 등) 등에 따른 상황별 최적화 큐시트데이터를 산출한다. 이를 위해, 컴퓨터는 학습 시에 환자조건, 수술부위 조건 등을 학습 큐시트데이터와 함께 활용한다.In addition, the computer calculates optimal cue sheet data for each situation according to the patient's physical condition, surgical site (eg, tumor tissue) conditions (eg, size, location, etc. of tumor) through reinforcement learning. To this end, the computer utilizes the patient condition, surgical site condition, etc. together with the learning cue sheet data during learning.

일 실시 예에서, 컴퓨터는 스스로 가상의 시뮬레이션 수술을 수행할 수 있다. 예를 들어, 컴퓨터는 개시된 수술 프로세스 최적화 방법에 기초하여 수술 종류 및 환자의 종류에 따른 수술 프로세스를 생성하고, 생성된 수술 프로세스에 기초하여 가상의 수술 시뮬레이션을 수행할 수 있다.In one embodiment, the computer is capable of performing virtual simulation surgery on its own. For example, the computer may generate a surgical process according to the type of surgery and the type of patient based on the disclosed surgical process optimization method, and perform a virtual surgery simulation based on the generated surgical process.

컴퓨터는 가상의 수술 시뮬레이션 결과를 평가하고, 가상의 수술 시뮬레이션 정보 및 그 결과에 대한 평가정보에 기초하여 강화학습을 수행함으로써, 최적화된 수술 프로세스를 획득할 수 있다.The computer may obtain an optimized surgical process by evaluating the virtual surgery simulation result, and performing reinforcement learning based on the virtual surgery simulation information and the evaluation information on the result.

최적의 수술 프로세스를 생성할 수 있도록 학습된 모델이라 할지라도, 실제 수술의 경우 환자마다 신체구조와 수술의 종류가 상이하므로 각 환자 및 수술종류에 따라 최적화된 수술 프로세스를 생성하기 어려울 수 있다.Even for a model trained to generate an optimal surgical process, it may be difficult to generate an optimized surgical process for each patient and type of surgery because the body structure and type of surgery are different for each patient in the case of actual surgery.

따라서, 컴퓨터는 학습된 모델을 이용하여 환자의 신체구조 및 수술종류에 기초한 수술 프로세스를 생성하고, 가상의 수술 시뮬레이션을 수행함으로써 강화학습을 수행, 각각의 환자 및 수술종류에 따라 최적화된 수술 프로세스를 생성할 수 있다.Therefore, the computer generates a surgical process based on the patient's body structure and surgery type using the learned model, performs reinforcement learning by performing virtual surgery simulation, and optimizes the surgical process according to each patient and surgery type. can create

또한, 도 4에서와 같이, 다른 일 실시예로, 컴퓨터가 사용자의 요청에 따라 특정한 큐시트데이터를 기반으로 수술가이드 데이터를 제공하는 단계(S1000);를 더 포함한다. 즉, 컴퓨터는 수술중에 사용자가 시뮬레이션 또는 리허설을 수행하여 생성된 큐시트데이터를 사용자에게 제공할 수 있다.In addition, as in FIG. 4 , in another embodiment, the computer provides surgical guide data based on specific cue sheet data according to the user's request (S1000); further includes. That is, the computer may provide the user with cue sheet data generated by the user performing a simulation or rehearsal during the operation.

이상에서 전술한 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보 생성방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method for generating surgical simulation information according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program is C, C++, JAVA, machine language, etc. that a processor (CPU) of the computer can read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program It may include code (Code) coded in the computer language of Such code may include functional code related to functions defining functions necessary for executing the methods, etc. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer to be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the above functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected by a network, and a computer readable code may be stored in a distributed manner.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

10: 의료영상 촬영장비
20: 서버
30: 제어부
32: 디스플레이
34: 수술용 로봇
36: 영상촬영부
10: medical imaging equipment
20: server
30: control unit
32: display
34: surgical robot
36: video recording unit

Claims (10)

장치에 의해 수행되는 방법에 있어서,
기복 상태인 환자의 실제 수술 상황과 동일한 3차원의 가상신체모델을 생성하는 단계;
가상 현실 기반으로 상기 가상신체모델을 출력하는 단계;
상기 가상 현실의 환경 내에서 상기 가상신체모델을 이용하여 수행되는 가상 수술 동작에 기반한 가상수술데이터를 생성하는 단계;
상기 환자의 실제 수술 시에 상기 생성된 가상수술데이터를 수술 가이드 정보로 제공하는 단계; 및
특정 분할 기준을 기반으로, 상기 가상수술데이터를 복수의 세부 수술 동작으로 분할하는 단계;를 포함하고,
상기 특정 분할 기준은,
상기 가상수술데이터에 포함된 수술 부위, 수술 도구의 종류, 상기 수술 도구의 개수, 상기 수술 도구의 위치, 상기 수술 도구의 방향 및 상기 수술 도구의 움직임 중 적어도 하나를 포함하고,
상기 복수의 세부 수술 동작은, 수술 프로세스를 구성하는 최소 동작 단위로서, 상기 가상신체모델에 순차적으로 적용됨에 따라 가상 수술이 재현되고,
상기 분할 단계는,
컴퓨터의 실제 수술 데이터로 구축된 빅데이터 학습을 통해 산출된 상기 분할 기준과, 상기 분할 기준 내에 포함되는 세부카테고리에 따라 수행되는, 가상 현실 기반의 수술 시뮬레이션 정보 생성 방법.
A method performed by an apparatus comprising:
generating a three-dimensional virtual body model identical to the actual surgical situation of the patient in the ups and down state;
outputting the virtual body model based on virtual reality;
generating virtual surgery data based on a virtual surgery operation performed using the virtual body model in the virtual reality environment;
providing the generated virtual surgery data as surgical guide information during the actual operation of the patient; and
Including; dividing the virtual surgical data into a plurality of detailed surgical operations based on a specific division criterion;
The specific division criterion is,
including at least one of a surgical site included in the virtual surgical data, a type of surgical tool, the number of surgical tools, a position of the surgical tool, a direction of the surgical tool, and a movement of the surgical tool,
The plurality of detailed surgical operations, as the minimum operation unit constituting the surgical process, are sequentially applied to the virtual body model so that the virtual surgery is reproduced,
The dividing step is
A method for generating virtual reality-based surgery simulation information, which is performed according to the division criterion calculated through big data learning constructed from actual operation data of a computer and a detailed category included in the division criterion.
삭제delete 제1 항에 있어서,
상기 출력 단계는,
상기 장치와 연결된 외부의 가상 현실 출력 장치로 상기 가상신체모델을 출력하고,
상기 생성 단계는,
상기 환자의 CT 영상으로부터 장기 및 혈관 중 적어도 하나의 영역에 대한 영상을 획득하여 상기 3차원의 가상신체모델로 생성하고,
상기 장치와 연결된 컨트롤러를 통해 상기 가상신체모델에 대한 사용자의 가상 수술 시뮬레이션 동작 또는 가상 수술 계획 동작에 해당하는 손 움직임을 획득하고,
상기 획득된 손 움직임을 기반으로 상기 가상수술데이터를 생성하는, 가상 현실 기반의 수술 시뮬레이션 정보 생성 방법.
According to claim 1,
The output step is
outputting the virtual body model to an external virtual reality output device connected to the device;
The generating step is
Obtaining an image of at least one of organs and blood vessels from the CT image of the patient and generating the three-dimensional virtual body model,
acquiring a hand movement corresponding to a virtual surgery simulation operation or a virtual operation planning operation of the user with respect to the virtual body model through a controller connected to the device;
Virtual reality-based surgical simulation information generating method for generating the virtual surgery data based on the obtained hand movement.
삭제delete 제1 항에 있어서,
상기 가상수술데이터를 이용하여 상기 복수의 세부 수술 동작을 포함한 시행 큐시트 데이터를 생성하는 단계;를 더 포함하고,
상기 시행 큐시트 데이터는,
상기 복수의 세부 수술 동작을 순서대로 나열한 데이터를 포함하는, 가상 현실 기반의 수술 시뮬레이션 정보 생성 방법.
According to claim 1,
Using the virtual surgery data to generate the execution cue sheet data including the plurality of detailed surgical operations; further comprising,
The execution cue sheet data is,
A method for generating virtual reality-based surgical simulation information, including data listing the plurality of detailed surgical operations in order.
제5 항에 있어서,
상기 시행 큐시트데이터는,
상기 복수의 세부 수술 동작에 대한 표준화 코드를 순서대로 나열한, 가상 현실 기반의 수술 시뮬레이션 정보 생성 방법.
6. The method of claim 5,
The execution cue sheet data is,
A method for generating surgical simulation information based on virtual reality, in which standardization codes for the plurality of detailed surgical operations are sequentially listed.
제6 항에 있어서,
상기 표준화 코드는,
상기 복수의 세부 수술 동작이 속하는 각 카테고리에 해당하는 문자열을 상위 카테고리부터 차례대로 나열한, 가상 현실 기반의 수술 시뮬레이션 정보 생성 방법.
7. The method of claim 6,
The standardized code is
A method for generating virtual reality-based surgical simulation information in which strings corresponding to each category to which the plurality of detailed surgical operations belong are sequentially listed from a higher category.
삭제delete 가상 현실 기반의 수술 시뮬레이션 정보 생성 방법을 수행하는 컴퓨터 장치에 있어서,
상기 컴퓨터 장치는,
기복 상태인 환자의 실제 수술 상황과 동일한 3차원의 가상신체모델을 생성하고,
가상 현실 기반으로 상기 가상신체모델을 출력하며,
상기 가상 현실의 환경 내에서 상기 가상신체모델을 이용하여 수행되는 가상 수술 동작에 기반한 가상수술데이터를 생성하고,
상기 환자의 실제 수술 시에 상기 생성된 가상수술데이터를 수술 가이드 정보로 제공하고,
특정 분할 기준을 기반으로, 상기 가상수술데이터를 복수의 세부 수술 동작으로 분할하고,
상기 특정 분할 기준은,
상기 가상수술데이터에 포함된 수술 부위, 수술 도구의 종류, 상기 수술 도구의 개수, 상기 수술 도구의 위치, 상기 수술 도구의 방향 및 상기 수술 도구의 움직임 중 적어도 하나를 포함하고,
상기 복수의 세부 수술 동작은, 수술 프로세스를 구성하는 최소 동작 단위로서, 상기 가상신체모델에 순차적으로 적용됨에 따라 가상 수술이 재현되고,
상기 컴퓨터 장치는, 상기 가상수술데이터를 복수의 세부 수술 동작으로 분할할 때, 컴퓨터의 실제 수술 데이터로 구축된 빅데이터 학습을 통해 산출된 상기 분할 기준과, 상기 분할 기준 내에 포함되는 세부카테고리에 따라 수행하는, 컴퓨터 장치.
A computer device for performing a virtual reality-based surgical simulation information generation method, comprising:
the computer device,
Creates a three-dimensional virtual body model identical to the actual surgical situation of the patient in an ups and down state,
Outputs the virtual body model based on virtual reality,
generating virtual surgery data based on virtual surgery operations performed using the virtual body model in the environment of the virtual reality;
Providing the generated virtual surgery data as surgical guide information during the actual operation of the patient,
Based on a specific division criterion, the virtual surgical data is divided into a plurality of detailed surgical operations,
The specific division criterion is,
including at least one of a surgical site included in the virtual surgical data, a type of surgical tool, the number of surgical tools, a position of the surgical tool, a direction of the surgical tool, and a movement of the surgical tool,
The plurality of detailed surgical operations, as the minimum operation unit constituting the surgical process, are sequentially applied to the virtual body model so that the virtual surgery is reproduced,
When the computer device divides the virtual surgical data into a plurality of detailed surgical operations, according to the division criterion calculated through big data learning constructed from the actual operation data of the computer, and a detailed category included in the division criterion to perform, a computer device.
하드웨어인 컴퓨터와 결합되어, 제1 항, 제3 항, 제5 항 내지 제7 항 중 어느 한 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a computer-readable recording medium in combination with a computer as hardware, so as to perform the method of any one of claims 1, 3, and 5 to 7.
KR1020190005210A 2018-05-23 2019-01-15 Program and method for generating surgical simulation information KR102298417B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190005210A KR102298417B1 (en) 2018-05-23 2019-01-15 Program and method for generating surgical simulation information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180058608A KR101940706B1 (en) 2018-05-23 2018-05-23 Program and method for generating surgical simulation information
KR1020190005210A KR102298417B1 (en) 2018-05-23 2019-01-15 Program and method for generating surgical simulation information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180058608A Division KR101940706B1 (en) 2018-05-23 2018-05-23 Program and method for generating surgical simulation information

Publications (2)

Publication Number Publication Date
KR20190088419A KR20190088419A (en) 2019-07-26
KR102298417B1 true KR102298417B1 (en) 2021-09-06

Family

ID=67469690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190005210A KR102298417B1 (en) 2018-05-23 2019-01-15 Program and method for generating surgical simulation information

Country Status (1)

Country Link
KR (1) KR102298417B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230023876A (en) * 2021-08-10 2023-02-20 (주)휴톰 Apparatus and Method for Generating a Virtual Pneumoperitoneum Model
WO2023172109A1 (en) * 2022-03-11 2023-09-14 주식회사 림사이언스 Method and system for managing path of needle by using digital twin, and non-transitory computer-readable recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR101700847B1 (en) * 2014-03-31 2017-01-31 이미숙 Method for Providing Training of Image Guided Surgery and Computer-readable Recording Medium for the same
KR20160092425A (en) * 2015-01-27 2016-08-04 국민대학교산학협력단 Apparatus for virtual surgery simulation and the operation method thereof

Also Published As

Publication number Publication date
KR20190088419A (en) 2019-07-26

Similar Documents

Publication Publication Date Title
KR102018565B1 (en) Method, apparatus and program for constructing surgical simulation information
US11660142B2 (en) Method for generating surgical simulation information and program
US11636940B2 (en) Method and program for providing feedback on surgical outcome
KR102146672B1 (en) Program and method for providing feedback about result of surgery
KR102008891B1 (en) Apparatus, program and method for displaying surgical assist image
KR102298417B1 (en) Program and method for generating surgical simulation information
KR102628324B1 (en) Device and method for analysing results of surgical through user interface based on artificial interlligence
KR102213412B1 (en) Method, apparatus and program for generating a pneumoperitoneum model
KR101864411B1 (en) Program and method for displaying surgical assist image
KR20190133423A (en) Program and method for generating surgical simulation information
KR102457585B1 (en) Method and system for navigating vascular during surgery
KR101940706B1 (en) Program and method for generating surgical simulation information
KR20190133424A (en) Program and method for providing feedback about result of surgery
KR20190133425A (en) Program and method for displaying surgical assist image
US11986248B2 (en) Apparatus and method for matching the real surgical image with the 3D-based virtual simulated surgical image based on POI definition and phase recognition
CN111741729B (en) Surgical optimization method and device
KR20230023876A (en) Apparatus and Method for Generating a Virtual Pneumoperitoneum Model
KR20230167194A (en) Method, device and program for generating 3d model of organ and blood vessel according to the type of surgery
CN111741729A (en) Surgical optimization method and device
KR20190100010A (en) Method and apparatus for providing optimum surgical equipment
JP2021045340A (en) Mirror surgery support device, mirror surgery support method and program

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant