KR20190099999A - Method, apparatus and program for constructing surgical simulation information - Google Patents

Method, apparatus and program for constructing surgical simulation information Download PDF

Info

Publication number
KR20190099999A
KR20190099999A KR1020180098413A KR20180098413A KR20190099999A KR 20190099999 A KR20190099999 A KR 20190099999A KR 1020180098413 A KR1020180098413 A KR 1020180098413A KR 20180098413 A KR20180098413 A KR 20180098413A KR 20190099999 A KR20190099999 A KR 20190099999A
Authority
KR
South Korea
Prior art keywords
surgical
information
image
body model
actual
Prior art date
Application number
KR1020180098413A
Other languages
Korean (ko)
Other versions
KR102018565B1 (en
Inventor
김호승
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Priority to PCT/KR2019/002089 priority Critical patent/WO2019164271A1/en
Publication of KR20190099999A publication Critical patent/KR20190099999A/en
Application granted granted Critical
Publication of KR102018565B1 publication Critical patent/KR102018565B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T3/0068
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Gynecology & Obstetrics (AREA)
  • Epidemiology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)
  • Image Generation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Provided is a method for establishing surgical simulation information performed by a computer. The method comprises steps of: acquiring a pre-generated virtual body model based on medical image data of an object; acquiring actual surgical data photographed during actual surgery on the subject; extracting texture information of the subject from the actual surgical data; and reflecting the extracted texture information to the virtual body model.

Description

수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램{METHOD, APPARATUS AND PROGRAM FOR CONSTRUCTING SURGICAL SIMULATION INFORMATION}METHOD, APPARATUS AND PROGRAM FOR CONSTRUCTING SURGICAL SIMULATION INFORMATION}

본 발명은 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a method, apparatus and program for constructing surgical simulation information.

수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술 행위를 인식할 수 있어야 한다.In the surgical procedure, there is a need for the development of technologies that can provide information to assist the surgeon's surgery. In order to provide information to assist the operation, the operation should be recognizable.

기존에는 수술 프로세스를 최적화 하기 위한 시나리오 구상을 위해서는 사전에 촬영된 의료영상을 참고하거나 매우 숙련된 의사의 자문을 받았으나, 의료영상만으로는 불필요한 프로세스의 판단이 어려웠으며 숙련된 의사의 자문은 특정 환자에 맞는 자문을 받기에 어려운 문제점이 있었다.Conventionally, in order to design a scenario for optimizing a surgical process, a previously taken medical image or a highly skilled doctor was consulted. However, the medical image alone was difficult to judge unnecessary processes. There was a difficult problem to consult.

따라서, 의료영상이나 숙련된 의사의 자문은 수술대상 환자에 대한 수술프로세스의 최적화를 위한 보조 용도로는 활용되기 어려운 점이 많았다.Therefore, medical imaging and the advice of an experienced doctor were often difficult to be used as an aid for the optimization of the surgical process for the patient.

이에, 3차원 의료영상(예를 들어, 3차원 수술도구 움직임 및 도구의 움직임으로 인해 발생하는 장기 내부의 변화에 대한 가상영상)을 이용하여 수술을 행하는데 있어서 불필요한 프로세스를 최소화하여 수술 프로세스를 최적화하고, 이에 기반한 수술보조 정보를 제공할 수 있는 방법에 대한 개발이 요구된다.Thus, by optimizing the surgical process by minimizing unnecessary processes in performing surgery using a three-dimensional medical image (for example, a virtual image of the internal movement caused by the movement of the three-dimensional surgical instruments and tools) And, there is a need for the development of a method that can provide surgical assistance information based on this.

본 발명이 해결하고자 하는 과제는 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method, apparatus and program for the construction of surgical simulation information.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 컴퓨터에 의해 수행되는 수술 시뮬레이션 정보 구축 방법은 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계, 상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계, 상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계, 및 상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 포함한다. According to an embodiment of the present invention, a method for constructing surgery simulation information performed by a computer may include obtaining a parasitic virtual body model based on medical image data of an object, and performing an actual surgery taken during an actual operation on the object. Acquiring data, extracting texture information of the object from the actual surgery data, and reflecting the extracted texture information to the virtual body model.

본 발명의 일 실시예에 있어서, 상기 텍스처 정보를 추출하는 단계는, 상기 실제수술데이터에 기초하여 획득된 상기 대상체의 수술부위 영상으로부터 실시간으로 상기 대상체의 수술부위에 대한 텍스처 정보를 추출할 수 있다.In an embodiment of the present disclosure, the extracting of the texture information may extract texture information of the surgical region of the object in real time from the surgical region image of the object obtained based on the actual surgical data. .

본 발명의 일 실시예에 있어서, 상기 가상신체모델에 반영하는 단계는, 상기 가상신체모델 내의 대상체에 대한 가상 영상으로부터 상기 수술부위 영상에 대응하는 대응 영역을 획득하는 단계, 및 상기 대응 영역에 상기 대상체의 수술부위에 대한 텍스처 정보를 매핑하는 단계를 포함할 수 있다.In one embodiment of the present invention, the step of reflecting on the virtual body model, the step of obtaining a corresponding area corresponding to the surgical site image from the virtual image of the object in the virtual body model, and the corresponding area The method may include mapping texture information about a surgical site of the object.

본 발명의 일 실시예에 있어서, 상기 대응 영역을 획득하는 단계는, 상기 가상 영상에 대한 카메라 위치정보와 상기 수술부위 영상에 대한 카메라 위치정보를 일치시키는 단계, 및 상기 카메라 위치정보를 기초로 상기 가상 영상과 상기 수술부위 영상을 매칭하여 상기 대응 영역의 위치 정보를 획득하는 단계를 포함할 수 있다.In an embodiment of the present disclosure, the acquiring of the corresponding region may include matching camera position information of the virtual image with camera position information of the surgical site image, and based on the camera position information. And matching the virtual image with the surgical site image to obtain location information of the corresponding region.

본 발명의 일 실시예에 있어서, 상기 대상체에 대한 표준화된 템플릿(template) 영상을 획득하는 단계, 및 상기 템플릿 영상을 상기 가상신체모델 내의 대상체에 대한 가상 영상에 정합하는 단계를 더 포함하며, 상기 가상신체모델에 반영하는 단계는, 상기 정합된 가상 영상에 기초하여 상기 텍스처 정보를 반영할 수 있다.The method may further include obtaining a standardized template image of the object, and matching the template image to a virtual image of an object in the virtual body model. The reflecting on the virtual body model may reflect the texture information based on the matched virtual image.

본 발명의 일 실시예에 있어서, 상기 텍스처 정보를 반영하여 상기 가상신체모델을 재구성하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, the method may further include reconstructing the virtual body model by reflecting the texture information.

본 발명의 일 실시예에 있어서, 상기 재구성된 가상신체모델을 기반으로 상기 실제수술데이터와 비교하여 상기 실제 수술 중 실시간으로 상기 대상체의 수술 정보를 제공하는 단계를 더 포함할 수 있다. In an embodiment of the present disclosure, the method may further include providing surgical information of the subject in real time during the actual surgery, compared to the actual surgery data based on the reconstructed virtual body model.

본 발명의 일 실시예에 있어서, 상기 가상신체모델은, 상기 대상체의 수술부위를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터일 수 있다.In one embodiment of the present invention, the virtual body model may be 3D modeling data generated based on medical image data of the surgical site of the subject.

본 발명의 일 실시예에 있어서, 상기 텍스처 정보를 추출하는 단계는, 상기 대상체에 대한 표면 컬러를 표현하는 정보, 표면의 거칠기 및 높낮이를 표현하는 정보, 및 표면의 반사도를 표현하는 정보 중 적어도 하나를 추출할 수 있다.In an embodiment of the present disclosure, the extracting of the texture information may include at least one of information representing surface color of the object, information representing surface roughness and height, and information representing surface reflectivity. Can be extracted.

본 발명의 일 실시예에 있어서, 상기 실제수술데이터는, 상기 실제 수술 시에 상기 대상체의 수술부위로 진입하는 수술용 카메라에 의해 획득될 수 있다.In one embodiment of the present invention, the actual surgery data, may be obtained by a surgical camera to enter the surgical site of the subject during the actual surgery.

본 발명의 일 실시예에 따른 수술 시뮬레이션 정보 구축 장치는 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계, 상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계, 상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계, 및 상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 수행한다. Surgical simulation information building apparatus according to an embodiment of the present invention includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, the processor by executing the one or more instructions, Acquiring a parasitic virtual body model based on the medical image data of the object, acquiring the actual surgical data photographed during the actual operation of the object, and texture of the object from the actual surgical data Extracting information, and reflecting the extracted texture information to the virtual body model.

본 발명의 일 실시예에 따른 컴퓨터프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 수술 시뮬레이션 정보 구축 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.A computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium to perform the method for constructing surgical simulation information.

본 발명에 따르면, 수술 중에 실시간으로 실제 수술 정보를 획득하고, 이를 바탕으로 각 환자의 실제 수술 정보와 동일한 수술 시뮬레이션 정보를 구축함으로써, 수술 중 의사에게 최적화된 환자의 수술 정보를 제공할 수 있다. According to the present invention, real surgery information is obtained in real time during surgery, and based on this, by constructing the same surgery simulation information as the actual surgery information of each patient, it is possible to provide an optimized patient surgery information to the doctor during surgery.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 로봇수술 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 대상체의 실제 수술부위에 대한 텍스처 정보를 가상신체모델에 반영하는 과정을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 적용하는 일례를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보를 구축하는 장치(300)의 구성을 개략적으로 나타내는 도면이다.
1 is a view showing a robot surgery system according to an embodiment of the present invention.
2 is a flowchart illustrating a method of constructing surgical simulation information according to an embodiment of the present invention.
3 is a flowchart illustrating a process of reflecting texture information on an actual surgical part of an object in a virtual body model according to an exemplary embodiment of the present invention.
4 is a diagram illustrating an example of applying a method for constructing surgical simulation information according to an embodiment of the present invention.
5 is a diagram schematically showing the configuration of an apparatus 300 for building surgical simulation information according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component such as software, FPGA, or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.

본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3D 영상에 있어서의 복셀들)로 구성된 다차원(multidimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.As used herein, “image” may mean multidimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). For example, the image may include a medical image of the object obtained by the CT imaging apparatus.

본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다.As used herein, an "object" may be a person or an animal, or part or all of a person or an animal. For example, the subject may include at least one of organs such as the liver, heart, uterus, brain, breast, abdomen, and blood vessels.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, a "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging professional, or the like, and may be a technician who repairs a medical device, but is not limited thereto.

본 명세서에서 "의료영상데이터"는 의료영상 촬영장비로 촬영되는 의료영상으로서, 대상체의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함한다. " 의료영상데이터"는 컴퓨터 단층촬영(Computed Tomography; CT)영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 등을 포함할 수 있다.In the present specification, "medical image data" is a medical image photographed by a medical imaging apparatus, and includes all medical images that can be implemented as a three-dimensional model of the body of an object. "Medical image data" may include computed tomography (CT) images, magnetic resonance imaging (MRI), positron emission tomography (PET) images, and the like.

본 명세서에서 "가상신체모델"은 의료영상데이터를 기반으로 실제 환자의 신체에 부합하게 생성된 모델을 의미한다. "가상신체모델"은 의료영상데이터를 그대로 3차원으로 모델링하여 생성한 것일 수도 있고, 모델링 후에 실제 수술 시와 같게 보정한 것일 수도 있다.As used herein, the term "virtual body model" refers to a model generated according to the actual patient's body based on medical image data. The "virtual body model" may be generated by modeling medical image data in three dimensions as it is, or may be corrected as in actual surgery after modeling.

본 명세서에서 "가상수술데이터"는 가상신체모델에 대해 수행되는 리허설 또는 시뮬레이션 행위를 포함하는 데이터를 의미한다. "가상수술데이터"는 가상공간에서 가상신체모델에 대해 리허설 또는 시뮬레이션이 수행된 영상데이터일 수도 있고, 가상신체모델에 대해 수행된 수술동작에 대해 기록된 데이터일 수도 있다.As used herein, "virtual surgery data" refers to data including rehearsal or simulation actions performed on a virtual body model. The "virtual surgery data" may be image data for which rehearsal or simulation has been performed on the virtual body model in the virtual space, or may be data recorded for a surgical operation performed on the virtual body model.

본 명세서에서 "실제수술데이터"는 실제 의료진이 수술을 수행함에 따라 획득되는 데이터를 의미한다. "실제수술데이터"는 실제 수술과정에서 수술부위를 촬영한 영상데이터일 수도 있고, 실제 수술과정에서 수행된 수술동작에 대해 기록된 데이터일 수도 있다.As used herein, the term "actual surgery data" refers to data obtained by performing a surgery by an actual medical staff. "Real surgery data" may be image data photographing the surgical site in the actual surgical procedure, or may be data recorded for the surgical operation performed in the actual surgical procedure.

본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.As used herein, the term "computer" includes all the various devices capable of performing arithmetic processing to provide a result to a user. For example, a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. Also, the computer may correspond to a server that receives a request from a client and performs information processing.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 로봇수술 시스템을 도시한 도면이다. 1 is a view showing a robot surgery system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이 도시되어 있다. 1, there is shown a schematic diagram of a system capable of performing robotic surgery in accordance with one embodiment of the present invention.

도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(20) 및 수술실에 구비된 제어부(30), 영상촬영부(36), 디스플레이(32) 및 수술로봇(34)을 포함한다.According to FIG. 1, the robotic surgical system includes a medical imaging apparatus 10, a server 20, and a control unit 30 provided in an operating room, an imaging unit 36, a display 32, and a surgical robot 34. do.

일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.

서버(20)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 20 is a computing device including at least one processor and a communication unit.

제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The controller 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.

영상촬영부(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 영상촬영부(36)는 적어도 하나의 카메라 장치를 포함하여, 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 영상촬영부(36)는 수술로봇(34)과 결합되어 이용된다. 예를 들어, 영상촬영부(36)는 수술로봇(34)의 수술 암(Arm)과 결합된 적어도 하나의 카메라를 포함할 수 있다.The image capturing unit 36 includes at least one image sensor. That is, the image capturing unit 36 includes at least one camera device and is used to photograph the surgical site. In one embodiment, the imaging unit 36 is used in conjunction with the surgical robot 34. For example, the image capturing unit 36 may include at least one camera coupled with a surgical arm of the surgical robot 34.

일 실시 예에서, 영상촬영부(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.In an embodiment, the image photographed by the image capturing unit 36 is displayed on the display 340.

제어부(30)는 서버(20)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The controller 30 receives information necessary for surgery from the server 20 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.

예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.

서버(20)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체(환자)의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다.The server 20 generates information necessary for robotic surgery using medical image data of a subject (patient) previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.

제어부(30)는 서버(20)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(20)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The control unit 30 provides the user with the information received from the server 20 on the display 32 or controls the surgical robot 34 using the information received from the server 20.

일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다.In one embodiment, the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.

이하에서는, 도면을 참조하여 수술 시뮬레이션 정보 구축 방법에 대하여 상세하게 설명한다.Hereinafter, a method for constructing surgical simulation information will be described in detail with reference to the drawings.

도 2는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 도시한 흐름도이다.2 is a flowchart illustrating a method of constructing surgical simulation information according to an embodiment of the present invention.

도 2에 도시된 각 단계들은 도 1에 도시된 서버(20) 또는 제어부(30)에서 시계열적으로 수행된다. 이하에서는, 설명의 편의를 위하여 각 단계들이 컴퓨터에 의하여 수행되는 것으로 서술하나, 각 단계의 수행주체는 특정 장치에 제한되지 않고, 그 전부 또는 일부가 서버(20) 또는 제어부(30)에서 수행될 수 있다.Each step shown in FIG. 2 is performed in time series in the server 20 or the controller 30 shown in FIG. 1. Hereinafter, for the convenience of description, each step is described as being performed by a computer, but the performing agent of each step is not limited to a specific device, and all or part thereof may be performed by the server 20 or the controller 30. Can be.

도 2를 참조하면, 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보 구축 방법은, 컴퓨터가 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계(S100), 상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계(S110), 상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계(S120), 및 상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계(S130)를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기재한다.Referring to FIG. 2, in the method for constructing surgery simulation information according to an embodiment of the present invention, the computer acquires a parasitic virtual body model based on medical image data of the object (S100), and actually Acquiring real surgery data photographed at the time of operation (S110), extracting texture information on the object from the actual surgery data (S120), and reflecting the extracted texture information to the virtual body model It includes a step (S130). Hereinafter, a detailed description of each step will be described.

컴퓨터는 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득할 수 있다(S100). 여기서 대상체는 환자의 신체를 말하는 것으로, 신체 장기 또는 혈관 등일 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등을 포함할 수 있다. The computer may acquire a parasitic virtual body model based on the medical image data of the object (S100). Here, the subject refers to the body of the patient, and may be a body organ or a blood vessel. For example, the subject may include the liver, heart, uterus, brain, breast, abdomen, and the like.

일 실시 예에서, 컴퓨터가 CT, MRI, PET 등과 같은 의료영상 촬영장비(10)로부터 촬영된 대상체의 의료영상데이터를 획득하고, 획득된 의료영상데이터를 기반으로 가상신체모델을 사전에 생성할 수 있다. 그러나, 의료영상데이터를 기반으로 사전에 생성된 가상신체모델은 대상체(예: 장기)의 외형은 정확하게 구현하고 있으나, 대상체의 표면 특징들(예: 색, 재질, 질감 등의 텍스처(texture) 특징)을 표현하고 있지는 않다. 따라서, 의료영상데이터를 기반으로 사전에 생성된 가상신체모델에 대상체의 실제 표면 특징들을 반영한 정보를 제공할 필요가 있다.In an embodiment, the computer may acquire medical image data of the object photographed from the medical imaging apparatus 10 such as CT, MRI, PET, and the like, and generate a virtual body model based on the acquired medical image data in advance. have. However, the virtual body model generated based on the medical image data accurately represents the appearance of the object (eg, an organ), but the surface features (eg, texture features such as color, material, and texture) of the object ) Is not expressed. Therefore, it is necessary to provide information reflecting the actual surface characteristics of the object to a virtual body model previously generated based on the medical image data.

이에, 환자의 실제 수술 중, 먼저 컴퓨터는 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득할 수 있다. 여기서 가상신체모델은, 상술한 바와 같이 환자의 수술부위 대상인 신체 장기(즉, 대상체)의 전부 또는 일부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터일 수 있다. Thus, during the actual surgery of the patient, the computer may first obtain a parasitic virtual body model based on the medical image data. As described above, the virtual body model may be 3D modeling data generated based on medical image data of all or a part of a body organ (ie, an object) that is a target of a surgical site of a patient.

이후, 컴퓨터는 대상체에 대한 실제 수술 중에 촬영한 실제수술데이터를 획득할 수 있다(S110). 여기서 실제수술데이터는 의료진이 수술을 수행함에 따라 획득되는 데이터로, 대상체의 실제 수술 부위를 촬영한 영상데이터일 수 있다. Thereafter, the computer may acquire the actual surgical data photographed during the actual surgery on the subject (S110). Here, the actual surgery data is data obtained by performing a surgery by the medical staff, and may be image data photographing the actual surgical region of the object.

일 실시 예에서, 복강경 수술, 로봇 수술 등과 같은 최소 침습 수술을 수행하는 경우, 환자의 수술 부위에 수술도구와 카메라만 삽입하여 수술을 시행하게 된다. 이러한 경우, 컴퓨터는 환자의 신체 내부로 진입하는 카메라에 의해 촬영되는 영상을 실제수술데이터로 획득할 수 있다. 예를 들어, 실제수술데이터는 환자의 신체 내부로의 진입시부터 신체 내부의 수술 부위까지 이동하는 과정, 신체 내부의 수술 부위에 대해 수술도구에 의한 액션을 시작할 때부터 종료시까지 과정 등을 모두 촬영한 영상데이터일 수 있다.In one embodiment, when performing minimally invasive surgery, such as laparoscopic surgery, robotic surgery, surgery is performed by inserting only a surgical tool and a camera in the surgical site of the patient. In this case, the computer may acquire, as the actual surgical data, an image captured by a camera entering the patient's body. For example, the actual surgical data may be taken of the process of moving from the patient's inside of the body to the surgical part of the body, and from the start of the action by the surgical tool to the end of the body. It may be image data.

컴퓨터는 실제수술데이터로부터 대상체에 대한 표면 특징 정보, 즉 대상체의 표면에서 표현되는 색, 재질, 질감 등과 같은 텍스처 정보를 추출할 수 있고(S120), 추출한 텍스처 정보를 단계 S100에서 획득한 기생성된 가상신체모델에 반영할 수 있다(S130).The computer may extract surface feature information of the object, that is, texture information such as color, material, and texture represented on the surface of the object from the actual surgery data (S120), and extract the extracted texture information from the parasitic acquired in step S100. Can be reflected in the virtual body model (S130).

구체적으로, 컴퓨터는 가상신체모델에서 대상체에 대한 가상 영상을 획득하고, 실제수술데이터에서 대상체의 실제 수술부위 영상을 획득할 수 있다. 이후, 컴퓨터는 가상 영상으로부터 실제 수술부위 영상에 대응하는 대응 영역을 획득하고, 대응 영역에 대상체의 실제 수술부위에 대한 텍스처 정보를 매핑하여 반영할 수 있다. 여기서, 가상 영상이란 3차원으로 구축된 가상신체모델에서 실제 카메라로 바라보는 것과 동일한 시점으로 획득된 영상을 의미할 수 있다.In detail, the computer may acquire a virtual image of the object in the virtual body model, and obtain an image of the actual surgical site of the object from the actual surgery data. Thereafter, the computer may acquire a corresponding region corresponding to the actual surgical region image from the virtual image, and map texture information of the actual surgical region of the object to the corresponding region. Here, the virtual image may mean an image acquired at the same point of time as viewed by an actual camera in a virtual body model constructed in three dimensions.

일 실시 예에서, 수술 시에 환자의 신체 내부로 진입하는 카메라는 카메라가 주시하는 방향에 있는 모든 객체를 촬영하게 된다. 즉, 카메라가 환자의 특정 수술 부위에 대해 수술도구에 의한 액션을 시작할 때부터 종료시까지 수술 장면을 기록하게 된다. 컴퓨터는 수술 시에 환자의 신체 내부로 진입하는 카메라에 의해 촬영된 영상데이터(실제수술데이터) 중 원하는 시점의 영상데이터를 선택하고, 선택한 영상데이터를 이용하여 가상신체모델에 반영할 수 있다. In one embodiment, the camera entering the patient's body during surgery is to shoot all the objects in the direction the camera looks. That is, the camera records the surgical scene from the start of the action by the surgical tool to the end of the specific surgical site of the patient. The computer may select image data of a desired time point from among image data (actual surgery data) captured by a camera entering the patient's body during surgery, and reflect the image data to the virtual body model using the selected image data.

예를 들어, 여러 의료진이 동일한 수술을 연습하는 경우에는 실제 환자의 수술 시작시의 상태와 동일하게 가상신체모델을 구현해야 한다. 이를 위해, 컴퓨터는 전체 실제수술데이터 중에서 초반부에 획득된 실제 수술 영상데이터를 이용하여 가상신체모델을 생성할 수 있다. 예컨대, 초반부에 획득된 실제 수술 영상데이터로부터 텍스처, 지방 배치, 초기 장기 상태 등을 반영함으로써 수술 초기의 가상신체모델을 생성할 수 있다. 반면, 1차 수술을 수행한 이후 재수술이 필요한 경우, 의료진은 재수술 전에 미리 가상신체모델을 이용하여 수술 시뮬레이션을 수행할 수 있다. 이 경우, 컴퓨터는 전체 실제수술데이터 중에서 후반부에 획득된 실제 수술 영상데이터를 반영하여 가상신체모델을 구성할 수 있다. 이후, 의료진이 재수술을 시뮬레이션할 때, 실제 수술 동작을 가상신체모델에서 따라하는 과정을 수행함으로써 가상수술데이터를 생성할 수도 있다. For example, if several medical staff practice the same surgery, the virtual body model should be implemented in the same manner as the actual patient's operation. To this end, the computer may generate a virtual body model using the actual surgical image data obtained at the beginning of the total actual surgical data. For example, a virtual body model at the initial stage of surgery may be generated by reflecting texture, fat placement, initial organ state, etc. from the actual surgical image data acquired at the beginning. On the other hand, if a reoperation is required after performing the first operation, the medical staff may perform a surgery simulation using a virtual body model in advance before the reoperation. In this case, the computer may configure the virtual body model by reflecting the actual surgical image data obtained later in the entire actual surgical data. Subsequently, when the medical staff simulates the reoperation, virtual surgery data may be generated by performing a process of following the actual surgical operation in the virtual body model.

도 3은 본 발명의 일 실시예에 따라 대상체의 실제 수술부위에 대한 텍스처 정보를 가상신체모델에 반영하는 과정을 나타내는 흐름도이다. 3 is a flowchart illustrating a process of reflecting texture information on an actual surgical part of an object in a virtual body model according to an exemplary embodiment of the present invention.

일 실시예로, 도 3에서와 같이, 컴퓨터는 가상신체모델과 실제수술데이터의 렌더링 모습을 동일하게 하기 위해서, 가상신체모델의 가상 영상과 실제수술데이터의 수술부위 영상 간의 카메라 위치정보를 일치시킬 수 있다(S131). In one embodiment, as shown in Figure 3, the computer is to match the camera position information between the virtual image of the virtual body model and the surgical site image of the actual surgical data in order to make the rendering of the virtual body model and the actual surgical data the same. It may be (S131).

예를 들어, 가상 영상의 가상 카메라의 위치와 실제 수술부위 영상의 카메라(예: 내시경 등의 수술도구에 포함된 카메라) 위치를 일치시킬 수 있다. For example, the position of the virtual camera of the virtual image and the position of a camera (eg, a camera included in a surgical tool such as an endoscope) of the actual surgical site image may be matched.

이와 같이, 두 영상 간의 카메라 위치정보를 일치시킴으로써, 2D 또는 3D, 한 공간에서 다른 공간으로의 매핑 시에 대상체 간의 위치가 동일하게 변환될 수 있다. In this way, by matching the camera position information between the two images, the position between the objects in the 2D or 3D, when mapping from one space to another space can be equally converted.

컴퓨터는 카메라 간의 위치정보를 기초로 가상 영상과 실제 수술부위 영상을 매칭시킬 수 있다(S132). 즉, 컴퓨터는 카메라 간의 위치정보를 기초로 실제 수술부위 영상에서 수술부위에 대응하는 가상 영상에 포함된 대상체의 부분이 매칭되도록 할 수 있다. The computer may match the virtual image and the actual surgical site image based on the location information between the cameras (S132). That is, the computer may allow the part of the object included in the virtual image corresponding to the surgical site to be matched with the surgical site based on the location information between the cameras.

예를 들어, 컴퓨터는 가상 영상에서 대상체에 해당하는 부분을 추출할 수 있다. 그리고, 컴퓨터는 가상 영상에서 추출한 부분을 실제 수술부위 영상에 포함된 수술부위에 대응하도록 확대, 축소 등의 조정을 할 수 있다. 이러한 조정을 통해서 실제 수술부위 영상의 수술부위에 해당하는 가상 영상의 대상체를 매칭시킬 수 있다. 이에 따라 가상 영상의 대상체에서 수술부위에 대응하는 대응 영역을 획득할 수 있다. For example, the computer may extract a portion corresponding to the object in the virtual image. In addition, the computer may adjust the enlargement and reduction of the portion extracted from the virtual image to correspond to the surgical region included in the actual surgical region image. Through such adjustment, an object of the virtual image corresponding to the surgical region of the actual surgical region image may be matched. Accordingly, a corresponding region corresponding to the surgical site may be obtained from the object of the virtual image.

컴퓨터는 영상 간의 매칭을 통해 실제 수술부위 영상에서 수술부위에 대응하는 가상 영상 내의 대응 영역을 검출하여 대응 영역의 위치 정보를 획득할 수 있다(S133).The computer may acquire the location information of the corresponding region by detecting a corresponding region in the virtual image corresponding to the surgical region from the actual surgical region image through matching between the images (S133).

예를 들어, 컴퓨터는 실제 수술부위 영상에 대한 카메라의 위치정보와 가상 영상에 대한 카메라의 위치정보 간의 변환 관계를 기초로 가상 영상 내의 대응 영역의 위치 정보를 도출할 수 있다. 이때 카메라의 퍼스펙티브(perspective) 값을 이용하여 대응 영역의 위치 정보를 계산할 수 있다. For example, the computer may derive the position information of the corresponding area in the virtual image based on the conversion relationship between the camera position information on the actual surgical site image and the camera position information on the virtual image. In this case, location information of the corresponding area may be calculated using a perspective value of the camera.

컴퓨터는 실제 수술부위 영상에서 수술부위를 추출하고, 이 수술부위에 대한 텍스처 정보를 획득할 수 있다(S134).The computer may extract the surgical site from the actual surgical site image, and acquire texture information about the surgical site (S134).

여기서, 텍스처 정보는 대상체의 표면 컬러를 표현하는 정보(예: diffuse map), 대상체의 표면 거칠기 및 높낮이를 표현하는 정보(예: normal map, height map), 대상체의 표면 반사도를 표현하는 정보(예: occlusion map) 등을 포함할 수 있다. 또한, 정형화된 이미지 기반의 텍스처 정보뿐만 아니라, 연산을 통해 텍스처를 실시간으로 생성할 수 있는 셰이더(shader)를 적용할 수도 있다. 예를 들어, 셰이더를 적용하면 영상을 구성하는데 사용되는 모든 픽셀, 정점, 텍스처의 위치, 색조, 채도, 밝기, 대비 등과 같은 대상체의 표면의 변화를 실시간으로 생성할 수 있으며, 대상체 표면의 normal(법선, 수직방향)값에 대한 정보와 투명도, 반사도, 물체 색상 등의 일반적인 표면 속성, 조명의 종류, 개수와 방향 등에 대한 정보를 이용해 텍스처 정보를 계산할 수 있다. The texture information may include information representing a surface color of an object (for example, a diffuse map), information representing a surface roughness and a height of an object (for example, a normal map and a height map), and information representing a surface reflectivity of an object (for example, and occlusion maps. In addition to the normalized image-based texture information, a shader capable of generating a texture in real time through calculation may be applied. For example, applying a shader can generate changes in real time on an object's surface, such as all pixels, vertices, texture locations, hue, saturation, brightness, contrast, etc. that are used to compose an image. Texture information can be calculated using information on normal, vertical) values, general surface properties such as transparency, reflectivity, and object color, and the type, number, and direction of lighting.

컴퓨터는 가상 영상 내의 대응 영역의 위치정보를 기초로 실제 수술부위 영상으로부터 추출한 텍스처 정보를 가상 영상에 매핑할 수 있다(S135).The computer may map texture information extracted from the actual surgical site image to the virtual image based on the location information of the corresponding region in the virtual image (S135).

예를 들어, 컴퓨터는 실제 수술부위 영상으로부터 텍스처 정보를 포함하는 수술부위 영역을 추출하고, 추출한 영역을 가상 영상 내의 대응 영역의 위치 정보를 기반으로 대상체의 표면에 장착시켜 렌더링할 수 있다.For example, the computer may extract the surgical region including texture information from the actual surgical region image, and mount the extracted region on the surface of the object based on the position information of the corresponding region in the virtual image.

상술한 도 3의 과정을 카메라의 위치를 이동시킴으로써 반복 실행하게 되면 전체 대상체에 대해서 텍스처 정보를 추출하여 해당 대상체에 매핑할 수 있으므로, 환자의 실제 장기 모습과 동일한 가상신체모델을 얻을 수 있다. When the above-described process of FIG. 3 is repeatedly executed by moving the position of the camera, texture information of the entire object can be extracted and mapped to the corresponding object, thereby obtaining a virtual body model identical to the actual organ of the patient.

한편, 본 발명의 일 실시예에 따르면, 컴퓨터는 대상체에 대한 표준화된 템플릿(template) 영상을 획득할 수 있다. 대상체의 표준화된 템플릿 영상은 각 대상체에 대한 외형, 크기, 위치 등과 같은 해부학적 특징들을 표준화하여 각 대상체의 템플릿을 3D 모델로 구축하여 둔 영상데이터일 수 있다. 이 경우, 컴퓨터는 표준화된 템플릿 영상을 획득하여 단계 S100에서 획득한 기생성된 가상신체모델과 정합할 수 있다. Meanwhile, according to an embodiment of the present invention, the computer may acquire a standardized template image of the object. The standardized template image of the object may be image data in which a template of each object is constructed as a 3D model by standardizing anatomical features such as appearance, size, and position of each object. In this case, the computer may acquire a standardized template image and match it with the parasitic virtual body model obtained in step S100.

예를 들어, 컴퓨터는 가상신체모델 내의 대상체를 포함하는 가상 영상에서 결손 부분을 추출할 수 있다. 그리고 컴퓨터는 표준화된 템플릿 영상을 사전에 구축하여 저장하여 둔 데이터베이스로부터 대상체에 대한 표준화 템플릿 영상을 수신하고, 수신한 표준화 템플릿 영상을 기반으로 가상 영상에서의 결손 부분을 보정할 수 있다. 이를 통해, 보다 실제 대상체의 외형과 같은 가상신체모델을 제공할 수 있다. For example, the computer may extract the missing portion from the virtual image including the object in the virtual body model. The computer may receive a standardized template image of the object from a database in which the standardized template image is previously stored and stored, and correct the missing portion in the virtual image based on the received standardized template image. Through this, it is possible to provide a virtual body model such as the appearance of the actual object more.

이후, 컴퓨터는 표준화된 템플릿 영상과의 정합을 거친 가상신체모델을 이용하여 상술한 것과 같은 텍스처 정보를 반영하는 과정을 수행할 수 있다. Thereafter, the computer may perform a process of reflecting the texture information as described above using the virtual body model that is matched with the standardized template image.

또한, 본 발명의 일 실시예에 따르면, 컴퓨터는 단계 S130에 의해서 텍스처 정보를 반영하여 가상신체모델을 재구성할 수 있다. In addition, according to an embodiment of the present invention, the computer may reconstruct the virtual body model by reflecting the texture information in step S130.

또한, 본 발명의 일 실시예에 따르면, 컴퓨터는 재구성된 가상신체모델을 기반으로 실제 수술 중 실시간으로 실제수술데이터와 비교하여, 대상체의 수술 정보를 제공할 수 있다. In addition, according to an embodiment of the present invention, the computer may provide surgical information of the subject in comparison with the actual surgery data in real time during the actual surgery based on the reconstructed virtual body model.

즉, 재구성된 가상신체모델은 실제 수술 중인 환자의 실제수술데이터로부터 추출된 텍스처 정보를 매핑한 것이기 때문에, 환자의 실제 수술부위와 동일한 정보를 포함하고 있다. 따라서, 실제 수술 중에 재구성된 가상신체모델을 활용하여 수술을 진행하면, 실제 수술 영상과 시각적인 측면에서 동일한 가상 영상을 획득할 수 있어서 실제 수술부위의 위치를 특정하거나 수술과 관련된 추가적인 정보(예: 수술도구의 위치, 방향, 움직임 등)를 얻는데 효과적일 수 있다. That is, since the reconstructed virtual body model maps texture information extracted from the actual surgical data of the patient under actual surgery, the reconstructed virtual body model includes the same information as the actual surgical site of the patient. Therefore, if the surgery is performed using the virtual body model reconstructed during the actual surgery, the virtual image can be obtained in the same visual aspect as the actual surgery image, so that the location of the actual surgical site can be specified or additional information related to the surgery (e.g., Location, direction, movement, etc. of the surgical instruments) can be effective.

도 4는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 적용하는 일례를 도시한 도면이다. 4 is a diagram illustrating an example of applying a method for constructing surgical simulation information according to an embodiment of the present invention.

도 4를 참조하면, 컴퓨터는 대상체의 의료영상데이터(100)를 기반으로 기생성된 가상신체모델(102)을 획득할 수 있다(S200). 또한, 컴퓨터는 표준화된 템플릿 영상을 사전에 구축하여 저장하여 둔 데이터베이스(110)로부터 대상체에 대한 표준화 템플릿 영상(112)을 획득할 수 있다(S210). 또한, 컴퓨터는 실제 수술 중에 환자의 수술부위를 촬영한 실제수술데이터(120)를 획득할 수 있다(S220).Referring to FIG. 4, the computer may acquire a parasitic virtual body model 102 based on the medical image data 100 of the object (S200). In addition, the computer may acquire the standardized template image 112 for the object from the database 110 in which the standardized template image is previously constructed and stored (S210). In addition, the computer may acquire the actual surgical data 120 photographing the surgical site of the patient during the actual operation (S220).

이후, 컴퓨터는 표준화 템플릿 영상(112)을 기초로 가상신체모델(102)(즉, 환자의 대상체를 포함하는 3D 모델링된 가상 영상)과의 비교를 통해서 가상신체모델(102)에서 결손 부분이나 보정이 필요한 부분을 검출할 수 있다. 이에 따라 컴퓨터는 가상신체모델(102)의 결손 부분이나 보정이 필요한 부분을 표준화 템플릿 영상(112)을 이용하여 정합을 수행할 수 있다. 따라서, 컴퓨터는 정합된 가상신체모델을 도출할 수 있다(S230). The computer then corrects for the missing portion or correction in the virtual body model 102 through comparison with the virtual body model 102 (ie, the 3D modeled virtual image including the subject of the patient) based on the standardized template image 112. This necessary part can be detected. Accordingly, the computer may match the missing part of the virtual body model 102 or the part requiring correction using the standardized template image 112. Therefore, the computer may derive the matched virtual body model (S230).

다음으로, 컴퓨터는 실제수술데이터(120)에서 실제 수술부위에 해당하는 영역을 검출하고, 검출된 실제 수술부위 영역의 텍스처 정보를 추출할 수 있다(S240).Next, the computer may detect a region corresponding to the actual surgical region from the actual surgery data 120, and extract texture information of the detected actual surgical region (S240).

다음으로, 컴퓨터는 검출된 실제 수술부위 영역에 대응하는 대응 영역을 정합된 가상신체모델로부터 획득하고, 획득한 대응 영역에 실제 수술부위 영역의 텍스처 정보를 매핑할 수 있다(S250). 따라서, 환자의 실제 수술부위와 동일한 텍스처 정보를 가진 가상신체모델(130)을 최종적으로 획득할 수 있다. 즉, 최종적으로 획득된 가상신체모델(130)은 대상체의 의료영상데이터(100)를 기반으로 기생성된 가상신체모델(102)에 실제 수술부위의 텍스처 정보가 반영되어 재구성된 것이다. Next, the computer may acquire a corresponding region corresponding to the detected actual surgical region from the matched virtual body model, and map texture information of the actual surgical region to the acquired corresponding region (S250). Therefore, the virtual body model 130 having the same texture information as the actual surgical region of the patient may be finally obtained. That is, the finally obtained virtual body model 130 is reconstructed by reflecting the texture information of the actual surgical site on the parasitic virtual body model 102 generated based on the medical image data 100 of the object.

상기 환자의 실제 수술부위에 대한 텍스처 정보를 정합된 가상신체모델에 매핑하는 과정(단계 S240~ S250)은 도 3의 방법을 적용하여 수행될 수 있다. The process (steps S240 to S250) of mapping texture information about the actual surgical site of the patient to the matched virtual body model may be performed by applying the method of FIG. 3.

상술한 바와 같이 본 발명은 실제 수술 중에 환자의 수술부위에 대한 여러 가지 정보(실제수술데이터, 가상신체모델, 표준화된 템플릿 영상)를 이용하여 수술 시뮬레이션 정보를 구축함으로써 환자의 실제 수술부위와 동일한 정보를 수술 중에 실시간으로 제공할 수 있다. As described above, the present invention uses the same information (actual surgery data, virtual body model, standardized template image) about the surgical site of the patient during the actual surgery to build the surgical simulation information to the same information as the actual surgical site of the patient Can be provided in real time during surgery.

그러나, CT, MRI, PET 등으로부터 얻은 영상을 이용하여 구축된 종래의 3D 장기 모델의 경우, 장기의 외형은 비교적 정확하지만 장기의 색, 재질 등과 같은 표면의 텍스처 정보는 표현하고 있지 못하여 실제 환자의 장기를 수술하기 전에는 알 수 있는 방법이 없다. 따라서 종래에는 각 장기에 대해서 통상적으로 많이 사용하는 색, 재질 등을 적용하거나, 도감 등을 참조하거나, 다른 환자의 수술 영상으로부터 색, 재질 등의 텍스처를 얻어서 매핑하는 방법을 사용하였다. 이러한 방식으로 구축된 수술 시뮬레이션 모델의 경우, 실제 수술 영상에서의 환자의 장기와는 표면 특징들이 전혀 다르게 표현되기 때문에 동일한 환자의 장기라고 하더라도 시각적으로 판단하기에 어려움이 있다. However, in the case of the conventional 3D organ model constructed using images obtained from CT, MRI, PET, etc., the appearance of the organ is relatively accurate, but the texture information of the surface such as the color and material of the organ is not represented. There is no way to know before you operate the organ. Therefore, conventionally, a method of applying a color, a material, or the like commonly used for each organ, referring to a picture book, or obtaining a texture of color, material, etc., from an operation image of another patient has been used. In the case of a surgical simulation model constructed in this way, it is difficult to visually determine the organs of the same patient because surface features are expressed differently from those of the patient in the actual surgical image.

이러한 종래의 수술 시뮬레이션 모델을 개선하기 위해서, 상술한 바와 같이 본 발명에서는 특정 환자에 대해서 사전에 구축된 가상신체모델에 실제 수술 중의 영상 데이터에서 추출한 환자 장기의 텍스처 정보를 실시간으로 매핑하여 수술 집도의에게 제공한다. 즉, 환자의 실제 수술 영상과 수술 시뮬레이션(즉, 가상신체모델) 영상을 시각적인 측면에서 동일하게 만들 수 있다. 이러한 시각적 동일성을 통해, 수술 중 집도의에게 수술 영상과 수술 시뮬레이션 영상을 비교하고 수술시 필요한 정보(예: 수술 부위의 위치 등)를 얻는데 효과적이다. 또한, 수술 후 수술 시뮬레이션 모델을 이용함에 있어서 실제 수술 영상과 동일한 장기의 모습을 재현할 수 있으므로, 수술의 모든 과정(예: 내시경이나 수술도구의 움직임 등)을 마치 실제 수술을 진행하고 있는 것처럼 표현할 수 있다. 따라서 본 발명에서의 수술 시뮬레이션 모델은 수술 중에 실시간으로 활용될 수 있을 뿐만 아니라, 추후 재수술을 시도하거나, 교육용 자료로 활용될 수 있다. 예를 들어, 수술 시뮬레이션 모델에서 장기에 물리 엔진을 적용할 경우, 재수술 시도시 실제 환자의 장기와 동일하게 시각적으로 재현할 수 있다. In order to improve such a conventional surgical simulation model, as described above, in the present invention, the texture information of the patient organ extracted from the image data during the actual surgery is mapped to a virtual body model previously constructed for a specific patient in real time. to provide. That is, the actual surgical image of the patient and the surgical simulation (that is, the virtual body model) can be made identical in terms of visual. Through this visual identity, it is effective to compare the surgical image and the surgical simulation image to the surgeon during the operation and to obtain the information necessary for the operation (for example, the location of the surgical site). In addition, since the postoperative surgical simulation model can reproduce the same organ image as the actual surgical image, it is possible to express all the procedures of the surgery (eg, endoscope or surgical tool movement) as if the actual surgery is in progress. Can be. Therefore, the surgical simulation model in the present invention can be used not only in real time during the operation, but also try to reoperate later, or can be used as educational material. For example, if the physics engine is applied to an organ in a surgical simulation model, it can be visually reproduced in the same manner as the actual patient's organ when attempting a reoperation.

도 5는 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보를 구축하는 장치(300)의 구성을 개략적으로 나타내는 도면이다. 5 is a diagram schematically showing the configuration of an apparatus 300 for building surgical simulation information according to an embodiment of the present invention.

도 5를 참조하면, 프로세서(310)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Referring to FIG. 5, the processor 310 may include a connection passage (for example, a bus or the like) that transmits and receives a signal with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.

일 실시예에 따른 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 2 내지 도 4과 관련하여 설명된 수술 시뮬레이션 정보 구축 방법을 수행한다.The processor 310 according to an embodiment executes one or more instructions stored in the memory 320 to perform the method of constructing surgical simulation information described with reference to FIGS. 2 to 4.

예를 들어, 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하고, 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하고, 실제수술데이터로부터 대상체에 대한 텍스처(texture) 정보를 추출하고, 추출한 텍스처 정보를 가상신체모델에 반영할 수 있다. For example, the processor 310 obtains a parasitic virtual body model based on the medical image data of the object by executing one or more instructions stored in the memory 320, and performs the actual surgery taken during the actual surgery on the object. Data may be obtained, texture information of the object may be extracted from the actual surgical data, and the extracted texture information may be reflected in the virtual body model.

한편, 프로세서(310)는 프로세서(310) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(310)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 310 may read random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 310. , Not shown) may be further included. In addition, the processor 310 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.

메모리(320)에는 프로세서(310)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(320)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 320 may store programs (one or more instructions) for processing and controlling the processor 310. Programs stored in the memory 320 may be divided into a plurality of modules according to their functions.

이상에서 전술한 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보 구축 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method for constructing surgical simulation information according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program. Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do. In addition, the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have. Also, if the processor of the computer needs to communicate with any other computer or server remotely in order to execute the functions, the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. Software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may realize the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

10: 의료영상 촬영장비
20: 서버
30: 제어부
32: 디스플레이
34: 수술용 로봇
36: 영상촬영부
300: 수술 시뮬레이션 정보 구축 장치
310: 프로세서
320: 메모리
10: medical imaging equipment
20: server
30: control unit
32: display
34: surgical robot
36: video recording unit
300: surgical simulation information building device
310: processor
320: memory

Claims (12)

컴퓨터에 의해 수행되는 수술 시뮬레이션 정보 구축 방법에 있어서,
대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계;
상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계;
상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계; 및
상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
In the computer-assisted surgical simulation information construction method,
Obtaining a parasitic virtual body model based on medical image data of the object;
Acquiring the actual surgical data photographed during the actual surgery on the subject;
Extracting texture information of the object from the actual surgery data; And
Surgical simulation information construction method comprising the step of reflecting the extracted texture information to the virtual body model.
제1항에 있어서,
상기 텍스처 정보를 추출하는 단계는,
상기 실제수술데이터에 기초하여 획득된 상기 대상체의 수술부위 영상으로부터 실시간으로 상기 대상체의 수술부위에 대한 텍스처 정보를 추출하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 1,
Extracting the texture information,
Surgical simulation information construction method, characterized in that for extracting the texture information on the surgical site of the subject in real time from the surgical site image of the subject obtained based on the actual surgery data.
제2항에 있어서,
상기 가상신체모델에 반영하는 단계는,
상기 가상신체모델 내의 대상체에 대한 가상 영상으로부터 상기 수술부위 영상에 대응하는 대응 영역을 획득하는 단계; 및
상기 대응 영역에 상기 대상체의 수술부위에 대한 텍스처 정보를 매핑하는 단계를 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 2,
Reflecting in the virtual body model,
Obtaining a corresponding area corresponding to the surgical site image from the virtual image of the object in the virtual body model; And
And mapping the texture information of the surgical site of the object to the corresponding area.
제3항에 있어서,
상기 대응 영역을 획득하는 단계는,
상기 가상 영상에 대한 카메라 위치정보와 상기 수술부위 영상에 대한 카메라 위치정보를 일치시키는 단계; 및
상기 카메라 위치정보를 기초로 상기 가상 영상과 상기 수술부위 영상을 매칭하여 상기 대응 영역의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 3,
Acquiring the corresponding area,
Matching camera position information of the virtual image with camera position information of the surgical site image; And
And acquiring position information of the corresponding region by matching the virtual image with the surgical region image based on the camera position information.
제1항에 있어서,
상기 대상체에 대한 표준화된 템플릿(template) 영상을 획득하는 단계; 및
상기 템플릿 영상을 상기 가상신체모델 내의 대상체에 대한 가상 영상에 정합하는 단계를 더 포함하며,
상기 가상신체모델에 반영하는 단계는,
상기 정합된 가상 영상에 기초하여 상기 텍스처 정보를 반영하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 1,
Obtaining a standardized template image of the object; And
And matching the template image to a virtual image of an object in the virtual body model.
Reflecting in the virtual body model,
Surgical simulation information construction method, characterized in that for reflecting the texture information based on the matched virtual image.
제1항에 있어서,
상기 텍스처 정보를 반영하여 상기 가상신체모델을 재구성하는 단계를 더 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 1,
And reconstructing the virtual body model by reflecting the texture information.
제6항에 있어서,
상기 재구성된 가상신체모델을 기반으로 상기 실제수술데이터와 비교하여 상기 실제 수술 중 실시간으로 상기 대상체의 수술 정보를 제공하는 단계를 더 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 6,
And providing surgical information of the subject in real time during the actual surgery in comparison with the actual surgery data based on the reconstructed virtual body model.
제1항에 있어서,
상기 가상신체모델은,
상기 대상체의 수술부위를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터인 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 1,
The virtual body model,
Surgical simulation information construction method characterized in that the 3D modeling data generated based on the medical image data of the surgical site of the subject.
제1항에 있어서,
상기 텍스처 정보를 추출하는 단계는,
상기 대상체에 대한 표면 컬러를 표현하는 정보, 표면의 거칠기 및 높낮이를 표현하는 정보, 및 표면의 반사도를 표현하는 정보 중 적어도 하나를 추출하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 1,
Extracting the texture information,
And at least one of information representing surface color of the object, information representing surface roughness and height, and information representing surface reflectivity.
제1항에 있어서,
상기 실제수술데이터는,
상기 실제 수술 시에 상기 대상체의 수술부위로 진입하는 수술용 카메라에 의해 획득되는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
The method of claim 1,
The actual surgery data,
Surgical simulation information building method, characterized in that obtained by the surgical camera to enter the surgical site of the subject during the actual surgery.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계;
상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계;
상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계; 및
상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 수행하는 것을 특징으로 하는 장치.
Memory for storing one or more instructions; And
A processor for executing the one or more instructions stored in the memory,
The processor executes the one or more instructions,
Obtaining a parasitic virtual body model based on medical image data of the object;
Acquiring the actual surgical data photographed during the actual surgery on the subject;
Extracting texture information of the object from the actual surgery data; And
And applying the extracted texture information to the virtual body model.
하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program, coupled to a computer, which is hardware, stored on a recording medium readable by a computer so as to perform the method of claim 1.
KR1020180098413A 2018-02-20 2018-08-23 Method, apparatus and program for constructing surgical simulation information KR102018565B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/002089 WO2019164271A1 (en) 2018-02-20 2019-02-20 Virtual body model generation method and device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020180019867 2018-02-20
KR1020180019868 2018-02-20
KR1020180019866 2018-02-20
KR20180019866 2018-02-20
KR20180019868 2018-02-20
KR20180019867 2018-02-20

Publications (2)

Publication Number Publication Date
KR20190099999A true KR20190099999A (en) 2019-08-28
KR102018565B1 KR102018565B1 (en) 2019-09-05

Family

ID=67763730

Family Applications (21)

Application Number Title Priority Date Filing Date
KR1020180098360A KR102014355B1 (en) 2018-02-20 2018-08-23 Method and apparatus for calculating location information of surgical device
KR1020180098413A KR102018565B1 (en) 2018-02-20 2018-08-23 Method, apparatus and program for constructing surgical simulation information
KR1020180098358A KR102014385B1 (en) 2018-02-20 2018-08-23 Method and apparatus for learning surgical image and recognizing surgical action based on learning
KR1020180098359A KR102014359B1 (en) 2018-02-20 2018-08-23 Method and apparatus for providing camera location using surgical video
KR1020180109204A KR102014377B1 (en) 2018-02-20 2018-09-12 Method and apparatus for surgical action recognition based on learning
KR1020180115328A KR102013868B1 (en) 2018-02-20 2018-09-27 Method and apparatus for optimization of surgical process
KR1020180122454A KR102014351B1 (en) 2018-02-20 2018-10-15 Method and apparatus for constructing surgical information
KR1020180122949A KR102013806B1 (en) 2018-02-20 2018-10-16 Method and apparatus for generating artificial data
KR1020180130229A KR102013866B1 (en) 2018-02-20 2018-10-29 Method and apparatus for calculating camera location using surgical video
KR1020180129709A KR102014364B1 (en) 2018-02-20 2018-10-29 Method and apparatus for evaluating bleeding using surgical video
KR1020180131478A KR102013837B1 (en) 2018-02-20 2018-10-31 Method and apparatus for providing surgical video
KR1020180135590A KR102016959B1 (en) 2018-02-20 2018-11-07 Method and apparatus for generating blood vessel model
KR1020180135578A KR20190100004A (en) 2018-02-20 2018-11-07 Method and apparatus for using surgical information
KR1020180140050A KR20190100009A (en) 2018-02-20 2018-11-14 Method and apparatus for providing surgical video
KR1020180143367A KR102013857B1 (en) 2018-02-20 2018-11-20 Method and apparatus for generating learning data based on surgical video
KR1020180145157A KR102013828B1 (en) 2018-02-20 2018-11-22 Method and apparatus for predicting surgical duration based on surgical video
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video
KR1020180147015A KR102014371B1 (en) 2018-02-20 2018-11-26 Method and apparatus for estimating recognition of surgical video
KR1020180149293A KR102013848B1 (en) 2018-02-20 2018-11-28 Method and apparatus for providing blood vessel information using blood vessel model
KR1020180153569A KR102013814B1 (en) 2018-02-20 2018-12-03 Method and apparatus for generating virtual model using surgical video
KR1020180155562A KR102013863B1 (en) 2018-02-20 2018-12-05 Method and program for creating a virtual body model

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020180098360A KR102014355B1 (en) 2018-02-20 2018-08-23 Method and apparatus for calculating location information of surgical device

Family Applications After (19)

Application Number Title Priority Date Filing Date
KR1020180098358A KR102014385B1 (en) 2018-02-20 2018-08-23 Method and apparatus for learning surgical image and recognizing surgical action based on learning
KR1020180098359A KR102014359B1 (en) 2018-02-20 2018-08-23 Method and apparatus for providing camera location using surgical video
KR1020180109204A KR102014377B1 (en) 2018-02-20 2018-09-12 Method and apparatus for surgical action recognition based on learning
KR1020180115328A KR102013868B1 (en) 2018-02-20 2018-09-27 Method and apparatus for optimization of surgical process
KR1020180122454A KR102014351B1 (en) 2018-02-20 2018-10-15 Method and apparatus for constructing surgical information
KR1020180122949A KR102013806B1 (en) 2018-02-20 2018-10-16 Method and apparatus for generating artificial data
KR1020180130229A KR102013866B1 (en) 2018-02-20 2018-10-29 Method and apparatus for calculating camera location using surgical video
KR1020180129709A KR102014364B1 (en) 2018-02-20 2018-10-29 Method and apparatus for evaluating bleeding using surgical video
KR1020180131478A KR102013837B1 (en) 2018-02-20 2018-10-31 Method and apparatus for providing surgical video
KR1020180135590A KR102016959B1 (en) 2018-02-20 2018-11-07 Method and apparatus for generating blood vessel model
KR1020180135578A KR20190100004A (en) 2018-02-20 2018-11-07 Method and apparatus for using surgical information
KR1020180140050A KR20190100009A (en) 2018-02-20 2018-11-14 Method and apparatus for providing surgical video
KR1020180143367A KR102013857B1 (en) 2018-02-20 2018-11-20 Method and apparatus for generating learning data based on surgical video
KR1020180145157A KR102013828B1 (en) 2018-02-20 2018-11-22 Method and apparatus for predicting surgical duration based on surgical video
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video
KR1020180147015A KR102014371B1 (en) 2018-02-20 2018-11-26 Method and apparatus for estimating recognition of surgical video
KR1020180149293A KR102013848B1 (en) 2018-02-20 2018-11-28 Method and apparatus for providing blood vessel information using blood vessel model
KR1020180153569A KR102013814B1 (en) 2018-02-20 2018-12-03 Method and apparatus for generating virtual model using surgical video
KR1020180155562A KR102013863B1 (en) 2018-02-20 2018-12-05 Method and program for creating a virtual body model

Country Status (1)

Country Link
KR (21) KR102014355B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210034178A (en) * 2019-09-20 2021-03-30 울산대학교 산학협력단 System for providing surgical video and method thereof
KR20210157961A (en) * 2020-06-23 2021-12-30 (주)휴톰 Method and program for acquiring motion information of a surgical robot using 3d simulation
WO2023008818A1 (en) * 2021-07-29 2023-02-02 (주)휴톰 Device and method for matching actual surgery image and 3d-based virtual simulation surgery image on basis of poi definition and phase recognition

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11992373B2 (en) * 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
KR102246966B1 (en) * 2020-01-29 2021-04-30 주식회사 아티큐 Method for Recognizing Object Target of Body
KR102321157B1 (en) * 2020-04-10 2021-11-04 (주)휴톰 Method and system for analysing phases of surgical procedure after surgery
WO2021235804A1 (en) * 2020-05-18 2021-11-25 주식회사 루닛 Method and system for determining abnormality of medical device
KR102348368B1 (en) * 2020-05-21 2022-01-11 주식회사 누아 Device, method, system and computer readable storage medium for generating training data of machine learing model and generating fake image using machine learning model
KR102395873B1 (en) * 2020-06-02 2022-05-10 주식회사 메디픽셀 Method and apparatus for processing vascular image automatically
KR102505016B1 (en) * 2020-08-03 2023-03-02 (주)휴톰 System for generating descriptive information of unit movement in surgical images and method thereof
WO2022035237A1 (en) * 2020-08-11 2022-02-17 (주)휴톰 Learning data collection apparatus and method for training surgical tool and organ recognition learning
KR102517398B1 (en) * 2020-11-20 2023-04-04 주식회사 엔가든 Lock screw insertion hole detection method
CN112712878A (en) * 2020-12-30 2021-04-27 四川桑瑞思环境技术工程有限公司 Digital operating room system and control method
KR102464091B1 (en) * 2021-01-14 2022-11-04 고지환 Apparatus and Method for Large Intestine Examination Using an Endoscope
US11883245B2 (en) * 2021-03-22 2024-01-30 Verb Surgical Inc. Deep-learning-based real-time remaining surgery duration (RSD) estimation
KR102640314B1 (en) 2021-07-12 2024-02-23 (주)휴톰 Artificial intelligence surgery system amd method for controlling the same
KR102606249B1 (en) * 2021-07-15 2023-11-24 사회복지법인 삼성생명공익재단 Lesion analysis method using cerebrovascular modeling and apparatus thereof
EP4368136A1 (en) * 2021-07-21 2024-05-15 Hutom Co., Ltd. Apparatus and method for determining insertion position of trocar on three-dimensional virtual pneumoperitoneum model of patient
KR20230023876A (en) * 2021-08-10 2023-02-20 (주)휴톰 Apparatus and Method for Generating a Virtual Pneumoperitoneum Model
KR20230039932A (en) 2021-09-15 2023-03-22 안명천 System and method for detecting bleeding
CN113813053A (en) * 2021-09-18 2021-12-21 长春理工大学 Operation process analysis method based on laparoscope endoscopic image
KR20230089469A (en) 2021-12-13 2023-06-20 (주)휴톰 Method and apparatus for providing virtual blood vessel model based on artificial intelligence
CN114391947B (en) * 2021-12-15 2024-03-01 深圳爱博合创医疗机器人有限公司 Hierarchical control type interventional operation robot
KR20230111043A (en) * 2022-01-17 2023-07-25 (주)휴톰 Apparatus and method for generating a virtual lung model of a patient
WO2023172109A1 (en) * 2022-03-11 2023-09-14 주식회사 림사이언스 Method and system for managing path of needle by using digital twin, and non-transitory computer-readable recording medium
KR20240022047A (en) * 2022-08-10 2024-02-20 주식회사 엠티이지 A methods and a device for providing scenarios for surgery
KR102628690B1 (en) * 2023-07-04 2024-01-25 주식회사 클레버러스 A system of detecting abnormal action

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106834A (en) * 2009-03-24 2010-10-04 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR20120046439A (en) * 2010-11-02 2012-05-10 서울대학교병원 (분사무소) Method of operation simulation and automatic operation device using 3d modelling
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR20130015146A (en) * 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207832A (en) * 2000-12-28 2002-07-26 Atsushi Takahashi Distribution system of internet technology instruction education, and instruction system using communication network
EP1839568B1 (en) * 2005-01-19 2018-03-07 Olympus Corporation Operation data management device, operation control device, and operation data processing method
JP4767591B2 (en) * 2005-06-01 2011-09-07 オリンパスメディカルシステムズ株式会社 Endoscope diagnosis support method, endoscope diagnosis support device, and endoscope diagnosis support program
JP4781085B2 (en) * 2005-10-25 2011-09-28 オリンパスメディカルシステムズ株式会社 Surgical schedule display system
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP4762160B2 (en) * 2007-01-16 2011-08-31 株式会社日立メディコ Surgery support system
CN102098967A (en) * 2008-08-14 2011-06-15 韩商未来股份有限公司 Robot system for performing surgery using a client server method
KR101049507B1 (en) * 2009-02-27 2011-07-15 한국과학기술원 Image-guided Surgery System and Its Control Method
KR101114226B1 (en) * 2009-05-19 2012-03-05 주식회사 이턴 Surgical robot system using history information and control method thereof
KR101152177B1 (en) * 2009-04-09 2012-06-18 의료법인 우리들의료재단 Method and System for Automatic Leading Surgery Position and Apparatus Having Surgery Position Leading Function
GB0913930D0 (en) * 2009-08-07 2009-09-16 Ucl Business Plc Apparatus and method for registering two medical images
JP2011036371A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
KR101181613B1 (en) * 2011-02-21 2012-09-10 윤상진 Surgical robot system for performing surgery based on displacement information determined by user designation and control method therefor
KR101795720B1 (en) * 2011-05-12 2017-11-09 주식회사 미래컴퍼니 Control method of surgical robot system, recording medium thereof, and surgical robot system
KR20150000450A (en) * 2011-08-26 2015-01-02 이비엠 가부시키가이샤 Blood-vessel bloodstream simulation system, method therefor, and computer software program
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
KR101997566B1 (en) * 2012-08-07 2019-07-08 삼성전자주식회사 Surgical robot system and control method thereof
EP3679881A1 (en) * 2012-08-14 2020-07-15 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
KR101572487B1 (en) * 2013-08-13 2015-12-02 한국과학기술연구원 System and Method For Non-Invasive Patient-Image Registration
KR101538041B1 (en) * 2013-10-15 2015-07-23 한국과학기술원 Device for positioning of surgical tool and sergical robot system including the same
EP3102143A4 (en) * 2014-02-04 2017-11-08 Intuitive Surgical Operations, Inc. Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
JP6254053B2 (en) * 2014-08-13 2017-12-27 富士フイルム株式会社 Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus
JP6104288B2 (en) * 2015-01-06 2017-03-29 三菱プレシジョン株式会社 Method for generating surgical simulation model, surgical simulation method, and surgical simulator
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery
JP6594133B2 (en) * 2015-09-16 2019-10-23 富士フイルム株式会社 Endoscope position specifying device, operation method of endoscope position specifying device, and endoscope position specifying program
US20170132510A1 (en) * 2015-11-05 2017-05-11 Facebook, Inc. Identifying Content Items Using a Deep-Learning Model
KR101740286B1 (en) * 2015-12-17 2017-05-29 (주)미래컴퍼니 Surgical robot system and adaptive control method thereof
KR20180010721A (en) * 2016-07-22 2018-01-31 한국전자통신연구원 System for supporting intelligent surgery and method for using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106834A (en) * 2009-03-24 2010-10-04 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR20120046439A (en) * 2010-11-02 2012-05-10 서울대학교병원 (분사무소) Method of operation simulation and automatic operation device using 3d modelling
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR20130015146A (en) * 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210034178A (en) * 2019-09-20 2021-03-30 울산대학교 산학협력단 System for providing surgical video and method thereof
KR20210113580A (en) * 2019-09-20 2021-09-16 울산대학교 산학협력단 System for providing surgical video and method thereof
KR20210157961A (en) * 2020-06-23 2021-12-30 (주)휴톰 Method and program for acquiring motion information of a surgical robot using 3d simulation
WO2023008818A1 (en) * 2021-07-29 2023-02-02 (주)휴톰 Device and method for matching actual surgery image and 3d-based virtual simulation surgery image on basis of poi definition and phase recognition
KR20230019281A (en) * 2021-07-29 2023-02-08 (주)휴톰 Apparatus and Method for matching the Real Surgical Image with the 3D based Virtual Simulated Surgical Image based on POI Definition and Phase Recognition
US11986248B2 (en) 2021-07-29 2024-05-21 Hutom Co., Ltd. Apparatus and method for matching the real surgical image with the 3D-based virtual simulated surgical image based on POI definition and phase recognition

Also Published As

Publication number Publication date
KR102014364B1 (en) 2019-08-26
KR102013866B1 (en) 2019-08-23
KR102013837B1 (en) 2019-10-21
KR102014385B1 (en) 2019-08-26
KR102013806B1 (en) 2019-08-23
KR102014359B1 (en) 2019-08-26
KR102013857B1 (en) 2019-08-23
KR20190100005A (en) 2019-08-28
KR102016959B1 (en) 2019-09-02
KR102014351B1 (en) 2019-08-26
KR20190100004A (en) 2019-08-28
KR102013868B1 (en) 2019-08-23
KR102014377B1 (en) 2019-08-26
KR102013814B1 (en) 2019-08-23
KR102014355B1 (en) 2019-08-26
KR102013863B1 (en) 2019-08-23
KR102013848B1 (en) 2019-08-23
KR20190100011A (en) 2019-08-28
KR102013828B1 (en) 2019-08-23
KR20190100009A (en) 2019-08-28
KR102014371B1 (en) 2019-08-26
KR102018565B1 (en) 2019-09-05

Similar Documents

Publication Publication Date Title
KR102018565B1 (en) Method, apparatus and program for constructing surgical simulation information
US9990744B2 (en) Image registration device, image registration method, and image registration program
RU2711140C2 (en) Editing medical images
JP2018514340A (en) Method and system for aligning 2D / 2.5D laparoscopic image data or 2D / 2.5D endoscopic image data with 3D volumetric image data
EP2901935B1 (en) Method and device for generating virtual endoscope image, and program
US11660142B2 (en) Method for generating surgical simulation information and program
JP6493885B2 (en) Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
CN115429430A (en) Registration method, information display method, operation navigation system, device and equipment
KR102213412B1 (en) Method, apparatus and program for generating a pneumoperitoneum model
US10102638B2 (en) Device and method for image registration, and a nontransitory recording medium
KR102298417B1 (en) Program and method for generating surgical simulation information
CN115298706A (en) System and method for masking identified objects during application of synthesized elements to an original image
JP2021504046A (en) Alignment of static preoperative planning data with respect to dynamic intraoperative segmentation data
Zampokas et al. Real‐time stereo reconstruction of intraoperative scene and registration to preoperative 3D models for augmenting surgeons' view during RAMIS
US10049480B2 (en) Image alignment device, method, and program
KR20190133423A (en) Program and method for generating surgical simulation information
KR101940706B1 (en) Program and method for generating surgical simulation information
KR102394757B1 (en) Method for combined artificial intelligence segmentation of object searched on multiple axises and apparatus thereof
US11657547B2 (en) Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system
US20220249170A1 (en) System and method for processing black bone mri data
WO2007117695A2 (en) Human anatomic mapping and positioning and anatomic targeting accuracy
CN116983084A (en) Three-dimensional navigation method and system for penetrating and supporting skin flap
CN116612241A (en) Three-dimensional reconstruction method, device, equipment and storage medium
KR20220107546A (en) System for alignmenting patient position and monitoring with surface image guidance
Tae-Eun A study of medical image analysis system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)