KR102013866B1 - Method and apparatus for calculating camera location using surgical video - Google Patents

Method and apparatus for calculating camera location using surgical video Download PDF

Info

Publication number
KR102013866B1
KR102013866B1 KR1020180130229A KR20180130229A KR102013866B1 KR 102013866 B1 KR102013866 B1 KR 102013866B1 KR 1020180130229 A KR1020180130229 A KR 1020180130229A KR 20180130229 A KR20180130229 A KR 20180130229A KR 102013866 B1 KR102013866 B1 KR 102013866B1
Authority
KR
South Korea
Prior art keywords
camera
image
surgical
actual
reference object
Prior art date
Application number
KR1020180130229A
Other languages
Korean (ko)
Inventor
양훈모
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴톰 filed Critical (주)휴톰
Priority to PCT/KR2019/002093 priority Critical patent/WO2019164275A1/en
Application granted granted Critical
Publication of KR102013866B1 publication Critical patent/KR102013866B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T3/0068
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Epidemiology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Manipulator (AREA)
  • Surgical Instruments (AREA)

Abstract

Provided is a method for calculating a camera position using an actual surgical video. The method can comprise steps of: obtaining a reference object from the actual surgical video captured by a camera entering into the body of a patient to set a reference position with respect to the camera; calculating a change amount of the camera position as the camera moves; and calculating a current position of the camera based on the change amount of the camera position with respect to the reference position. According to the present invention, it is possible to obtain a position of a surgical site and a surgical tool.

Description

실제수술영상을 이용한 카메라 위치 산출 방법 및 장치{METHOD AND APPARATUS FOR CALCULATING CAMERA LOCATION USING SURGICAL VIDEO}Method and device for calculating camera position using real surgical image {METHOD AND APPARATUS FOR CALCULATING CAMERA LOCATION USING SURGICAL VIDEO}

본 발명은 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for calculating a camera position using an actual surgical image.

최근에는 가상현실을 의료수술 시뮬레이션 분야에 적용하고자 하는 연구가 활발히 진행되고 있다.Recently, researches on applying virtual reality to the field of medical surgery simulation have been actively conducted.

의료수술은 개복수술(open surgery), 복강경 수술 및 로봇 수수를 포함하는 최소침습수술(MIS: Minimally Invasive Surgery), 방사선수술(radio surgery) 등으로 분류할 수 있다. 개복수술은 치료되어야 할 부분을 의료진이 직접 보고 만지며 시행하는 수술을 말하며, 최소침습수술은 키홀 수술(keyhole surgery)이라고도 하는데 복강경 수술과 로봇 수술이 대표적이다. 복강경 수술은 개복을 하지 않고 필요한 부분에 작은 구멍을 내어 특수 카메라가 부착된 복강경과 수술 도구를 몸속에 삽입하여 비디오 모니터를 통해서 관측하며 레이저나 특수기구를 이용하여 미세수술을 한다. 또한, 로봇수술은 수술로봇을 이용하여 최소 침습수술을 수행하는 것이다. 나아가 방사선 수술은 체외에서 방사선이나 레이저 광으로 수술 치료를 하는 것을 말한다.Medical surgery can be classified into open surgery, laparoscopic surgery, minimally invasive surgery (MIS) including radiologic surgery, radio surgery, and the like. Laparoscopic surgery refers to surgery performed by medical staff to see and touch the part to be treated. Minimally invasive surgery is also known as keyhole surgery, and laparoscopic surgery and robotic surgery are typical. In laparoscopic surgery, a small hole is made in a necessary part without opening, and a laparoscopic with a special camera is attached and a surgical tool is inserted into the body and observed through a video monitor. Microsurgery is performed using a laser or a special instrument. In addition, robot surgery is to perform minimally invasive surgery using a surgical robot. Furthermore, radiation surgery refers to surgical treatment with radiation or laser light outside the body.

이러한 의료수술의 경우, 특히 최소침습수술과 같은 경우, 수술부위 및 수술도구의 위치를 정확하게 특정하여 수술을 시행하는 것이 중요하다. 또한 수술을 진행하는 과정에서도 지속적으로 환자의 신체내부의 각 장기, 혈관 등의 위치를 정확하게 파악하는 것이 중요하다. In the case of such medical surgery, especially in the case of minimally invasive surgery, it is important to precisely specify the location of the surgical site and the surgical tool to perform the surgery. In addition, it is important to accurately identify the location of each organ, blood vessel, etc. in the patient's body continuously during the surgery.

본 발명이 해결하고자 하는 과제는 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide a method and apparatus for calculating a camera position using an actual surgical image.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 컴퓨터가 수행하는, 실제수술영상을 이용한 카메라 위치 산출 방법은 수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정하는 단계, 상기 카메라가 이동함에 따라 상기 카메라의 위치 변화량을 산출하는 단계, 및 상기 기준 위치에 대한 상기 카메라의 위치 변화량을 기반으로 상기 카메라의 현재 위치를 산출하는 단계를 포함한다. In the method of calculating a camera position using an actual surgical image performed by a computer according to an embodiment of the present invention, a reference object is obtained by acquiring a reference object from an actual surgical image photographed by a camera entering the body of a surgical subject. Setting a position, calculating a position change amount of the camera as the camera moves, and calculating a current position of the camera based on the position change amount of the camera with respect to the reference position.

본 발명의 일 실시예에 있어서, 상기 카메라에 대한 기준 위치를 설정하는 단계는, 상기 수술 대상자의 가상신체모델로부터 상기 기준 객체를 포함하는 가상 영상을 획득하는 단계, 상기 가상 영상에 포함된 기준 객체와 상기 실제수술영상에 포함된 기준 객체를 정합하는 단계, 및 상기 기준 객체의 정합을 기초로 상기 가상신체모델로부터 획득된 상기 기준 객체의 위치를 이용하여 상기 기준 위치를 설정하는 단계를 포함할 수 있다.In an embodiment of the present disclosure, the setting of the reference position with respect to the camera may include obtaining a virtual image including the reference object from the virtual body model of the surgery subject, and the reference object included in the virtual image. And matching the reference object included in the actual surgical image, and setting the reference position by using the position of the reference object obtained from the virtual body model based on the matching of the reference object. have.

본 발명의 일 실시예에 있어서, 상기 카메라의 위치 변화량을 산출하는 단계는, 상기 실제수술영상으로부터 상기 카메라의 움직임이 검출되는 제1 영상 및 제2 영상을 획득하는 단계, 상기 제1 영상 및 상기 제2 영상을 매칭하여 영상 간의 변화를 검출하는 단계, 및 상기 영상 간의 변화를 기반으로 상기 카메라의 위치 변화량을 산출하는 단계를 포함할 수 있다.In one embodiment of the present invention, the step of calculating the change amount of the position of the camera, the step of acquiring the first image and the second image from which the movement of the camera is detected from the actual surgical image, the first image and the Detecting a change between images by matching a second image, and calculating an amount of position change of the camera based on the change between the images.

본 발명의 일 실시예에 있어서, 상기 카메라의 현재 위치를 기반으로 상기 수술 대상자의 수술부위의 위치 또는 수술도구의 위치를 도출하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, the method may further include deriving a position of a surgical part or a position of a surgical tool based on the current position of the camera.

본 발명의 일 실시예에 있어서, 상기 카메라의 현재 위치를 기반으로 상기 수술 대상자의 수술위치에 대응하는 가상신체모델에서의 수술위치를 매칭하는 단계를 더 포함할 수 있다. In an embodiment of the present disclosure, the method may further include matching a surgery position in the virtual body model corresponding to the surgery position of the surgery subject based on the current position of the camera.

본 발명의 일 실시예에 있어서, 상기 실제수술영상으로부터 새로운 기준 객체를 획득하여 상기 새로운 기준 객체를 기반으로 상기 기준 위치를 재설정하는 단계, 및 상기 재설정된 기준 위치에 기초하여 상기 카메라의 현재 위치를 재산출하는 단계를 더 포함할 수 있다. In one embodiment of the present invention, obtaining a new reference object from the actual surgery image to reset the reference position based on the new reference object, and based on the reset reference position to the current position of the camera The method may further include reloading.

본 발명의 일 실시예에 있어서, 상기 기준 위치를 재설정하는 단계는, 상기 실제수술영상으로부터 획득된 새로운 기준 객체가 기설정된 기준 객체에 해당하는 경우에 상기 기준 위치를 재설정할 수 있다.In an embodiment of the present disclosure, the resetting of the reference position may reset the reference position when the new reference object acquired from the actual surgery image corresponds to a preset reference object.

본 발명의 일 실시예에 있어서, 상기 기준 객체는, 상기 수술 대상자의 신체내부에 위치하는 장기 중 정해진 조건을 만족하는 장기일 수 있다.In one embodiment of the present invention, the reference object may be an organ that satisfies a predetermined condition among organs located inside the body of the subject.

본 발명의 일 실시예에 있어서, 상기 실제수술영상은, 스테레오스코픽 3D 영상이며, 상기 상기 가상신체모델은, 상기 수술 대상자의 신체내부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터일 수 있다.In one embodiment of the present invention, the actual surgical image is a stereoscopic 3D image, the virtual body model may be 3D modeling data generated based on the medical image data taken inside the body of the surgical target have.

본 발명의 일 실시예에 따른 장치는 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정하는 단계, 상기 카메라가 이동함에 따라 상기 카메라의 위치 변화량을 산출하는 단계, 및 상기 기준 위치에 대한 상기 카메라의 위치 변화량을 기반으로 상기 카메라의 현재 위치를 산출하는 단계를 수행한다. An apparatus according to an embodiment of the present invention includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, wherein the processor executes the one or more instructions, thereby executing the body of the surgical subject. Acquiring a reference object from an actual surgical image photographed by a camera entering inside to set a reference position with respect to the camera, calculating a position change amount of the camera as the camera moves, and at the reference position Calculating a current position of the camera based on an amount of change in the position of the camera.

본 발명의 일 실시예에 따른 컴퓨터프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 실제수술영상을 이용한 카메라 위치 산출 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다. The computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium to perform a camera position calculation method using the actual surgical image.

본 발명에 따르면, 실제 수술 시 실시간으로 카메라의 현재 위치를 산출함으로써 수술부위 및 수술도구의 위치를 획득할 수 있다. According to the present invention, the position of the surgical site and the surgical tool can be obtained by calculating the current position of the camera in real time during the actual surgery.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 2는 본 발명의 일 실시예에 따라 실제수술영상을 이용한 카메라 위치 산출 방법을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 카메라에 대한 기준 위치를 설정하는 과정을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 카메라의 위치 변화량을 산출하는 과정을 도시한 흐름도이다.
도 5는 본 발명의 일 실시예에 따라 도출된 카메라의 위치를 좌표 평면 상에 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 실제수술영상을 이용한 카메라 위치 산출 방법을 수행하는 장치(300)의 구성을 개략적으로 나타내는 도면이다.
1 is a schematic diagram of a system capable of performing robot surgery according to an embodiment of the present invention.
2 is a flowchart illustrating a camera position calculation method using an actual surgical image according to an embodiment of the present invention.
3 is a flowchart illustrating a process of setting a reference position for a camera according to an embodiment of the present invention.
4 is a flowchart illustrating a process of calculating a position change amount of a camera according to an embodiment of the present invention.
5 is a view showing the position of the camera derived according to an embodiment of the present invention on a coordinate plane.
FIG. 6 is a diagram schematically illustrating a configuration of an apparatus 300 for performing a camera position calculating method using an actual surgical image according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component such as software, FPGA, or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.

본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3D 영상에 있어서의 복셀들)로 구성된 다차원(multidimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.As used herein, “image” may mean multidimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). For example, the image may include a medical image of the object obtained by the CT imaging apparatus.

본 명세서에서 "대상체(object; 객체)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다.As used herein, an "object" may be a person or an animal, or part or all of a person or an animal. For example, the subject may include at least one of organs such as the liver, heart, uterus, brain, breast, abdomen, and blood vessels.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, a "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging professional, or the like, and may be a technician who repairs a medical device, but is not limited thereto.

본 명세서에서 "의료영상데이터"는 의료영상 촬영장비로 촬영되는 의료영상으로서, 대상체의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함한다. " 의료영상데이터"는 컴퓨터 단층촬영(Computed Tomography; CT)영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 등을 포함할 수 있다.In the present specification, "medical image data" is a medical image photographed by a medical imaging apparatus, and includes all medical images that can be implemented as a three-dimensional model of the body of an object. "Medical image data" may include computed tomography (CT) images, magnetic resonance imaging (MRI), positron emission tomography (PET) images, and the like.

본 명세서에서 "가상신체모델"은 의료영상데이터를 기반으로 실제 환자의 신체에 부합하게 생성된 모델을 의미한다. "가상신체모델"은 의료영상데이터를 그대로 3차원으로 모델링하여 생성한 것일 수도 있고, 모델링 후에 실제 수술 시와 같게 보정한 것일 수도 있다.As used herein, the term "virtual body model" refers to a model generated according to the actual patient's body based on medical image data. The "virtual body model" may be generated by modeling medical image data in three dimensions as it is, or may be corrected as in actual surgery after modeling.

본 명세서에서 "가상수술데이터"는 가상신체모델에 대해 수행되는 리허설 또는 시뮬레이션 행위를 포함하는 데이터를 의미한다. "가상수술데이터"는 가상공간에서 가상신체모델에 대해 리허설 또는 시뮬레이션이 수행된 영상데이터일 수도 있고, 가상신체모델에 대해 수행된 수술동작에 대해 기록된 데이터일 수도 있다.As used herein, "virtual surgery data" refers to data including rehearsal or simulation actions performed on a virtual body model. The "virtual surgery data" may be image data for which rehearsal or simulation has been performed on the virtual body model in the virtual space, or may be data recorded for a surgical operation performed on the virtual body model.

본 명세서에서 "실제수술데이터"는 실제 의료진이 수술을 수행함에 따라 획득되는 데이터를 의미한다. "실제수술데이터"는 실제 수술과정에서 수술부위를 촬영한 영상데이터일 수도 있고, 실제 수술과정에서 수행된 수술동작에 대해 기록된 데이터일 수도 있다.As used herein, the term "actual surgery data" refers to data obtained by performing a surgery by an actual medical staff. "Real surgery data" may be image data photographing the surgical site in the actual surgical procedure, or may be data recorded for the surgical operation performed in the actual surgical procedure.

본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.As used herein, the term "computer" includes all the various devices capable of performing arithmetic processing to provide a result to a user. For example, a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. Also, the computer may correspond to a server that receives a request from a client and performs information processing.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.1 is a schematic diagram of a system capable of performing robot surgery according to an embodiment of the present invention.

도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.According to FIG. 1, the robotic surgical system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34. According to an embodiment, the medical imaging apparatus 10 may be omitted in the robot surgery system according to the disclosed embodiment.

일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.In one embodiment, surgical robot 34 includes imaging device 36 and surgical instrument 38.

일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.

서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 100 is a computing device including at least one processor and a communication unit.

제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The controller 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.

촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.The imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.

일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(32)에 표시된다.In one embodiment, the image captured by the imaging device 36 is displayed on the display 32.

일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.In one embodiment, surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, fixing, grabbing operations, and the like, of the surgical site. Surgical tool 38 is used in conjunction with the surgical arm of the surgical robot 34.

제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The controller 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.

예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.

서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.

제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The controller 30 displays the information received from the server 100 on the display 32 to provide the user, or controls the surgical robot 34 by using the information received from the server 100.

일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.

개시된 실시 예에서, 촬영장치(36)에서 획득되는 수술영상은 제어부(30)로 전달된다.In the disclosed embodiment, the surgical image obtained by the imaging device 36 is transmitted to the controller 30.

이하에서는, 도면을 참조하여 실제수술영상을 이용한 카메라 위치 산출 방법에 대하여 상세하게 설명한다.Hereinafter, a camera position calculation method using an actual surgical image will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시예에 따라 실제수술영상을 이용한 카메라 위치 산출 방법을 도시한 흐름도이다. 2 is a flowchart illustrating a camera position calculation method using an actual surgical image according to an embodiment of the present invention.

도 2에 도시된 각 단계들은 도 1에 도시된 서버(100) 또는 제어부(30)에서 시계열적으로 수행된다. 이하에서는, 설명의 편의를 위하여 각 단계들이 컴퓨터에 의하여 수행되는 것으로 서술하나, 각 단계의 수행주체는 특정 장치에 제한되지 않고, 그 전부 또는 일부가 서버(20) 또는 제어부(30)에서 수행될 수 있다.Each step shown in FIG. 2 is performed in time series in the server 100 or the controller 30 shown in FIG. 1. Hereinafter, for the convenience of description, each step is described as being performed by a computer, but the performing agent of each step is not limited to a specific device, and all or part thereof may be performed by the server 20 or the controller 30. Can be.

도 2를 참조하면, 본 발명의 일 실시예에 따른 실제수술영상을 이용한 카메라 위치 산출 방법은, 컴퓨터가 수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정하는 단계(S100), 상기 카메라가 이동함에 따라 상기 카메라의 위치 변화량을 산출하는 단계(S200), 상기 기준 위치에 대한 상기 카메라의 위치 변화량을 기반으로 상기 카메라의 현재 위치를 산출하는 단계(S300)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기재한다.Referring to FIG. 2, in the camera position calculation method using an actual surgery image according to an embodiment of the present invention, a computer acquires a reference object from an actual surgery image photographed by a camera that enters into the body of a surgery subject. Setting a reference position with respect to the camera (S100), calculating a position change amount of the camera as the camera moves (S200), and a current position of the camera based on the position change amount of the camera with respect to the reference position It may include the step (S300) to calculate. Hereinafter, a detailed description of each step will be described.

컴퓨터는 수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정할 수 있다(S100). The computer may acquire a reference object from an actual surgery image photographed by a camera that enters the body of the surgery subject and set a reference position with respect to the camera (S100).

실제수술영상은 실제 의료진이 수술을 수행함에 따라 획득되는 데이터를 의미하며, 예컨대 수술로봇(34)에 의하여 실제로 수행된 실제 수술 장면을 촬영한 영상일 수 있다. 또한, 실제수술영상은 스테레오스코픽 3D 영상일 수 있으며, 이에 따라 실제수술영상은 3차원적인 입체감, 즉 깊이감을 가진 영상일 수 있다. 따라서, 실제수술영상의 깊이 정보(depth map) 통해서 수술도구의 3차원 공간 상의 위치를 정확하게 파악할 수 있다. 또한, 카메라는 3D 영상을 촬영할 수 있는 장치일 수 있으며, 예컨대 스테레오 카메라일 수 있다. 이에 따라 실제수술영상은 스테레오 카메라에 의해 3D 영상으로 촬영될 수 있다.The actual surgery image refers to data obtained by the actual medical staff performing the surgery, for example, may be an image of the actual surgery scene actually performed by the surgical robot 34. In addition, the actual surgical image may be a stereoscopic 3D image, and thus the actual surgical image may be an image having a three-dimensional stereoscopic sense, that is, a depth. Therefore, it is possible to accurately grasp the position of the surgical tool in the three-dimensional space through the depth map of the actual surgical image. In addition, the camera may be a device capable of capturing 3D images, for example, may be a stereo camera. Accordingly, the actual surgical image may be captured as a 3D image by a stereo camera.

실시예에 따라서, 실제수술영상의 깊이 정보는 화면 전 영역의 모든 픽셀에 대해서 깊이 값을 가질 필요는 없으며, 기하학적 특징을 충분히 표현할 수 있는 최소한의 기준점에 대해서 깊이값을 구할 수 있으면 된다. 예컨대, 기준이 되는 3D 데이터 모델(예: 가상신체모델)이 없는 경우에는 모든 픽셀에 대해서 깊이 값이 필요할 수 있으나, 이미 3D 데이터 모델(예: 가상신체모델)이 있는 경우에는 모든 픽셀에 대해서 깊이 값을 가질 필요는 없다.According to an embodiment, the depth information of the actual surgical image does not need to have a depth value for every pixel of the entire screen area, and a depth value may be obtained for a minimum reference point that can sufficiently express geometrical features. For example, if there is no reference 3D data model (eg, virtual body model), a depth value may be required for all pixels, but if there is already a 3D data model (eg, virtual body model), depth is required for all pixels. It does not have to have a value.

일 실시예에서, 복강경 수술, 로봇 수술 등과 같은 최소 침습 수술을 수행하는 경우, 수술 대상자(환자)의 수술 부위에 수술도구와 카메라만 삽입하여 수술을 시행하게 된다. 이러한 경우, 컴퓨터는 환자의 신체 내부로 진입하는 카메라에 의해 촬영되는 영상을 실제수술영상으로 획득할 수 있다. 예를 들어, 실제수술영상은 환자의 신체 내부로의 진입시부터 신체 내부의 수술 부위까지 이동하는 과정, 신체 내부의 수술 부위에 대해 수술도구에 의한 액션을 시작할 때부터 종료시까지 과정 등을 모두 촬영한 영상데이터일 수 있다. In one embodiment, when performing minimally invasive surgery, such as laparoscopic surgery, robot surgery, surgery is performed by inserting only a surgical tool and a camera in the surgical site of the patient (patient). In this case, the computer may acquire an image taken by a camera entering the patient's body as an actual surgical image. For example, the actual surgery image is taken of the process of moving from the inside of the patient's body to the surgical site of the body, the process from the start of the action by the surgical tool to the end of the body to the surgical site, etc. It may be image data.

객체(대상체)는 상술한 바와 같이, 수술 대상자의 신체내부에 위치하는 장기, 또는 장기 이외의 다른 부분일 수 있다. 본 발명의 일 실시예에서, 기준 객체라 함은, 수술 대상자의 신체내부에 위치하는 객체들 중에서 정해진 조건을 만족하는 특정 장기 또는 특정 부위나 영역일 수 있다. 즉, 기준 객체는 영상으로부터 특징을 검출하기 용이하고, 신체내부에 고정된 위치에 존재하고, 수술 시에 움직임이 없거나 매우 적고, 형태의 변형이 일어나지 않으며, 수술도구에 의해 영향받지 않고, 의료영상데이터(예: CT, PET 등에 의해 촬영된 데이터)에 의해서도 획득이 가능해야 하는 등의 조건들 중 적어도 하나를 만족하는 장기 또는 내부 특정 부위를 이용할 수 있다. 예를 들어, 간, 복병 등과 같이 수술 시 움직임이 매우 적은 부분, 위, 식도, 담낭 등과 같이 의료영상데이터에서도 획득이 가능한 부분을 기준 객체로 정할 수 있다. As described above, the object (object) may be an organ located inside the body of the patient to be operated, or another part other than the organ. In one embodiment of the present invention, the reference object may be a specific organ or a specific part or region that satisfies a predetermined condition among objects located inside the body of the surgery subject. That is, the reference object is easy to detect features from the image, is present in a fixed position inside the body, there is no movement or very little at the time of surgery, no deformation of the shape does not occur, is not affected by surgical instruments, medical images Organs or specific internal parts that satisfy at least one of the conditions, such as acquisition of data, such as data captured by CT, PET, etc., may be used. For example, a portion having little movement during surgery such as liver and abdominal disease, and a portion that can be obtained from medical image data such as stomach, esophagus, gallbladder, etc. may be determined as the reference object.

도 3은 본 발명의 일 실시예에 따른 카메라에 대한 기준 위치를 설정하는 과정을 도시한 흐름도이다. 도 3은 상기 단계 S100의 동작과정을 구체적으로 설명한 것이다. 3 is a flowchart illustrating a process of setting a reference position for a camera according to an embodiment of the present invention. 3 illustrates the operation of the step S100 in detail.

도 3을 참조하면, 컴퓨터는 수술 대상자의 가상신체모델로부터 기준 객체를 포함하는 가상영상을 획득할 수 있다(S110).Referring to FIG. 3, the computer may acquire a virtual image including the reference object from the virtual body model of the surgery subject (S110).

여기서, 가상신체모델은 상술한 바와 같이 사전에 수술 대상자의 신체내부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터일 수 있다. 또한 가상영상은 3D로 구축된 가상신체모델에서 실제 카메라에 의해 촬영되는 것과 동일한 정보를 가진 시점의 영상일 수 있다. As described above, the virtual body model may be 3D modeling data generated based on medical image data photographing the inside of the body of the patient in advance. In addition, the virtual image may be an image of a viewpoint having the same information as that captured by an actual camera in a virtual body model constructed in 3D.

일 실시예로, 수술 시에 환자의 신체 내부로 진입하는 카메라는 카메라가 주시하는 방향에 있는 모든 객체를 촬영하게 된다. 이때, 컴퓨터는 이러한 카메라에 의해 촬영된 실제수술영상 중 원하는 시점의 영상, 즉 기준 객체를 포함하는 시점의 영상을 선택할 수 있다. 이후, 컴퓨터는 기준 객체를 포함하는 시점의 실제수술영상과 대응하는 가상신체모델 내의 가상영상을 획득할 수 있다. In one embodiment, the camera entering the patient's body during surgery is to shoot all the objects in the direction the camera looks. In this case, the computer may select an image of a desired viewpoint, that is, an image of a viewpoint including a reference object, from among the actual surgical images photographed by the camera. Thereafter, the computer may acquire a virtual image in the virtual body model corresponding to the actual surgical image of the viewpoint including the reference object.

컴퓨터는 가상영상에 포함된 기준 객체와 실제수술영상에 포함된 기준 객체를 정합할 수 있다(S120).The computer may match the reference object included in the virtual image with the reference object included in the actual surgical image (S120).

일 실시예로, 두 영상 간의 정합은 기준 객체에 대한 특징을 추출하여 비교함으로써 수행될 수 있다. 예를 들어, 깊이 맵(depth map)을 구하거나, 딥러닝의 이미지 세그멘테이션 기법을 적용하여 기준 객체에 대한 특징을 추출할 수 있다. In one embodiment, the registration between the two images may be performed by extracting and comparing features of the reference object. For example, a depth map may be obtained or features of a reference object may be extracted by applying image segmentation techniques of deep learning.

컴퓨터는 실제수술영상으로부터 기준 객체에 대한 깊이 맵을 구할 수 있으며, 이를 가상영상으로부터 구한 기준 객체에 대한 깊이 맵 정보와 비교하여 두 영상 간의 기준 객체가 동일한 객체인지를 판단할 수 있다. 깊이 맵은 객체(장기)의 표면 정보를 비교하는데 사용될 수 있다. 객체에 따라서는 표면 특징만으로 식별하기가 힘든 경우가 있다. 이 경우, 컴퓨터는 딥러닝의 이미지 세그멘테이션 기법을 적용하여 기준 객체에 대한 세그멘테이션 이미지를 구하여 두 영상 간의 정합을 수행할 수 있다. 실시예에 따라, 컴퓨터는 깊이 맵 정보와 함께 세그멘테이션 이미지 정보를 복합적으로 사용하여, 두 영상 간의 정합을 수행할 수 있다. 예를 들어, 객체(장기)가 완만한 표면 특징을 갖는 경우에는 깊이 맵을 통해서 객체를 식별하기 힘들기 때문에 딥러닝의 이미지 세그멘테이션을 함께 적용할 수 있다. 또한, 객체(장기)가 3차원 구조를 가지는 경우, 딥러닝의 이미지 세그멘테이션은 2차원으로 수행되기 때문에 객체의 표면 특징은 이미지 세그멘테이션을 적용하고 3차원 구조에 대해서는 깊이 맵을 적용할 수 있다.The computer may obtain a depth map of the reference object from the actual surgery image, and compare the depth map information with respect to the reference object obtained from the virtual image to determine whether the reference object between the two images is the same object. Depth maps can be used to compare surface information of objects (organs). Some objects are difficult to identify by surface features alone. In this case, the computer may apply a segmentation technique of deep learning to obtain a segmentation image of a reference object and perform registration between the two images. According to an exemplary embodiment, the computer may use the segmentation image information together with the depth map information to perform registration between the two images. For example, if an object (long-term) has a smooth surface feature, it is difficult to identify the object through the depth map, so the image segmentation of deep learning can be applied together. In addition, when the object (long-term) has a three-dimensional structure, since image segmentation of deep learning is performed in two dimensions, the surface feature of the object may apply image segmentation, and the depth map may be applied to the three-dimensional structure.

또한 가상신체모델의 경우, 객체의 종류에 대한 정보 및 각 객체별 위치 정보를 포함하여 생성되므로, 이러한 정보를 이미지 맵으로 구성할 수 있다. 이에 따라, 컴퓨터는 실제수술영상으로부터 획득한 기준 객체의 특징 정보를 기반으로 가상영상에서 정합이 예상되는 객체 영역을 검출할 수 있다. 컴퓨터는 가상영상 내 검출된 객체 영역을 중심으로 깊이 정보와 세그멘테이션 정보를 구할 수 있으며, 이를 맵 이미지로 구성할 수 있다. 컴퓨터는 가상영상으로부터 획득한 객체의 맵 이미지 정보와 실제수술영상으로부터 획득한 기준 객체의 특징 정보(깊이 정보 및 세그멘테이션 이미지 정보)를 비교하여 두 영상 간의 기준 객체가 일치하는지 여부를 판단할 수 있다. In addition, the virtual body model is generated by including information on the type of the object and location information for each object, such information can be configured as an image map. Accordingly, the computer may detect an object region that is expected to be matched in the virtual image based on the feature information of the reference object obtained from the actual surgical image. The computer may obtain depth information and segmentation information based on the detected object region in the virtual image, and may construct the map image. The computer may compare the map image information of the object obtained from the virtual image with the feature information (depth information and segmentation image information) of the reference object obtained from the actual surgical image to determine whether the reference object is identical between the two images.

한편, 두 영상 간의 정합을 수행함에 있어서, 랜덤 위치에서 정합을 하게 되면 수행시간이 오래 걸릴 수 있다. 그러나 수술영상의 특성상 카메라의 위치가 급작스럽게 변경되지 않기 때문에 영상에서의 변화가 많이 발생하지 않는다. 따라서 컴퓨터는 카메라의 정해진 시점에 대한 실제수술영상을 획득하고, 이 시점에 대응하는 가상신체모델의 가상영상을 획득하여 두 영상간의 정합을 수행할 수도 있다. 일 실시예로, 수술 과정은 일정하기 때문에 컴퓨터는 수술 과정에 대한 수술도구나 장기(객체)의 위치를 딥러닝으로 인식할 수 있으며, 이를 통해서 카메라의 정해진 시점에 대한 실제수술영상을 획득할 수 있다. 즉, 컴퓨터는 딥러닝을 통해 기준 객체의 위치를 인식하고, 인식한 시점의 실제수술영상을 획득함으로써 카메라의 기준 위치를 찾을 수 있다. Meanwhile, in performing matching between two images, if the matching is performed at a random position, the execution time may be long. However, because the position of the camera does not change suddenly due to the nature of the surgical image, the change in the image does not occur much. Therefore, the computer may acquire an actual surgical image of a predetermined viewpoint of the camera, and acquire a virtual image of the virtual body model corresponding to the viewpoint, and perform registration between the two images. In one embodiment, since the surgical procedure is constant, the computer may recognize the location of the surgical tool or organ (object) with respect to the surgical procedure through deep learning, and thereby obtain an actual surgical image of a predetermined viewpoint of the camera. . That is, the computer recognizes the position of the reference object through deep learning and obtains the reference position of the camera by acquiring the actual surgical image of the recognized viewpoint.

또한, 실시예에 따라서는 컴퓨터가 먼저 딥러닝을 통해 기준 객체의 위치를 인식하여 기준 객체를 포함하는 시점의 실제수술영상을 획득하고, 그 다음 기준 객체를 포함하는 시점의 실제수술영상과 이에 대응하는 시점의 가상신체모델의 가상영상을 정합할 수도 있다. 이때 실제수술영상과 가상영상 간의 정합은, 상술한 바와 같이 깊이 맵 또는/및 딥러닝의 이미지 세그멘테이션 기법을 적용할 수 있다. 이러한 실시예의 경우, 먼저 실제수술영상에서 기준 객체를 포함하는 시점의 영상을 빠르게 찾아서 영역을 좁힌 다음, 해당 시점의 실제수술영상과 가상영상 간의 정합을 통해 기준 객체의 위치를 정확하게 찾을 수 있다. In addition, according to an embodiment, the computer first recognizes the position of the reference object through deep learning to obtain an actual surgery image of the viewpoint including the reference object, and then corresponds to the actual surgery image of the viewpoint including the reference object. Virtual images of the virtual body model at the time point may be matched. In this case, the matching between the actual surgical image and the virtual image may apply a depth map or an image segmentation technique of deep learning as described above. In such an embodiment, the position of the reference object may be accurately found by first finding an image of a viewpoint including the reference object in the actual surgery image and narrowing the area, and then matching the actual surgery image and the virtual image of the viewpoint.

컴퓨터는 두 영상 간 기준 객체의 정합 결과를 기초로 가상신체모델로부터 기준 객체의 위치를 획득하고, 이를 기반으로 카메라에 대한 기준 위치를 설정할 수 있다(S130).The computer may acquire the position of the reference object from the virtual body model based on the result of registration of the reference object between the two images, and set the reference position with respect to the camera based on this.

상술한 바와 같이, 가상신체모델은 객체의 위치 정보를 포함하여 생성되기 때문에, 가상신체모델로부터 카메라에 의해 촬영된 기준 객체의 위치를 도출할 수 있다. 따라서, 컴퓨터는 기준 객체의 위치를 기초로 하여 카메라의 기준 위치를 결정할 수 있다. As described above, since the virtual body model is generated including the position information of the object, the position of the reference object photographed by the camera can be derived from the virtual body model. Thus, the computer can determine the reference position of the camera based on the position of the reference object.

다시 도 2를 참조하면, 컴퓨터는 카메라가 이동함에 따라 카메라의 위치 변화량을 산출할 수 있다(S200).Referring back to FIG. 2, the computer may calculate the position change amount of the camera as the camera moves (S200).

카메라는 수술 대상자의 신체내부에 삽입되어 이동을 하면서 수술과정을 촬영하게 되므로, 카메라의 위치가 계속 변할 수 있다. 따라서, 카메라의 기준 위치를 설정한 이후, 카메라의 이동에 따른 변화량을 계산함으로써 수술 중 카메라의 위치를 실시간으로 산출할 수 있다. Since the camera is inserted into the body of the surgical target to photograph the surgical procedure while moving, the position of the camera may continue to change. Therefore, after setting the reference position of the camera, it is possible to calculate the position of the camera during surgery by calculating the amount of change in accordance with the movement of the camera in real time.

도 4는 본 발명의 일 실시예에 따른 카메라의 위치 변화량을 산출하는 과정을 도시한 흐름도이다. 도 4는 상기 단계 S200의 동작과정을 구체적으로 설명한 것이다. 4 is a flowchart illustrating a process of calculating a position change amount of a camera according to an embodiment of the present invention. 4 illustrates the operation of the step S200 in detail.

도 4를 참조하면, 컴퓨터는 실제수술영상으로부터 카메라의 움직임이 검출되는 제1 영상 및 제2 영상을 획득할 수 있다(S210). 즉, 컴퓨터는 기준 위치를 설정한 이후에 카메라에 의해 촬영되는 실제수술영상 중에서 카메라의 움직임이 발생한 영상을 검출한다. Referring to FIG. 4, the computer may acquire a first image and a second image from which the camera movement is detected from the actual surgical image (S210). That is, the computer detects an image in which the movement of the camera occurs from the actual surgical image photographed by the camera after setting the reference position.

이를 위해, 영상에서 카메라 움직임과 관련있는 옵티컬 플로우를 검출하고, 카메라 움직임과 관련 없는, 예컨대 수술도구의 움직임과 같은 옵티컬 플로우는 걸러내야 하지만, 일반적인 영상에서 이를 구분하는 것은 매우 어렵다. 그러나, 수술 시에는 카메라가 움직일 때 수술도구는 움직이지 않는 제약사항이 있다. 따라서, 이러한 제약사항을 이용하면 효과적으로 카메라가 움직이는 영상만을 실제수술영상에서 검출할 수 있다. 즉, 카메라의 움직임만 있는 영상의 특성은 이미지 내의 모든 부분이 일정한 방향으로 움직이게 된다. 반면, 수술도구나 장기도 함께 움직임이 발생한 영상은 이미지 내 각 부분마다 움직이는 방향이 다르게 된다. 따라서 이러한 특징을 이용하여 카메라의 움직임만 있는 영상을 실제수술영상으로부터 획득할 수 있다. 일 실시예로, 컴퓨터는 상기와 같은 수술영상의 특징을 적용하여 딥러닝 등의 기술을 통해 실제수술영상으로부터 카메라의 움직임이 발생한 제1 영상 및 제2 영상을 검출할 수 있다. To this end, it is necessary to detect the optical flow related to the camera movement in the image and filter out the optical flow that is not related to the camera movement, for example, the movement of the surgical tool, but it is very difficult to distinguish it from the general image. However, during surgery, there is a limitation that the surgical tool does not move when the camera moves. Therefore, by using this constraint, only the image of the camera moving effectively can be detected from the actual surgical image. That is, the characteristic of the image having only the movement of the camera is that all parts of the image move in a constant direction. On the other hand, the movements of the surgical instruments and organs are also different in each moving direction in the image. Therefore, by using this feature, it is possible to obtain an image with only the camera movement from the actual surgical image. In one embodiment, the computer may detect the first image and the second image in which the camera movement is generated from the actual surgical image by applying the features of the surgical image as described above, such as deep learning.

본 실시예에서는 수술 시에 상기와 같이 카메라가 움직일 때 수술도구가 움직이지 않는 제약사항이 존재하는 것을 고려하였으나, 이는 하나의 예시로 설명한 것일 뿐이며 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라서는 카메라와 수술도구가 모두 움직임이 발생하는 경우를 고려할 수도 있고, 이와 같은 경우에서도 딥러닝의 기술을 적용하면 실제수술영상으로부터 카메라의 움직임이 발생한 제1 영상 및 제2 영상을 검출할 수 있다. In the present embodiment, it is considered that there is a constraint that the surgical tool does not move when the camera moves as described above during surgery, but this is only an example and the present invention is not limited thereto. According to an embodiment, both the camera and the surgical tool may consider a case in which a motion occurs. In this case, when the deep learning technique is applied, the first and second images in which the camera motion is detected are detected from the actual surgical image. can do.

다음으로, 컴퓨터는 제1 영상 및 제2 영상을 매칭하여 영상 간의 변화를 검출할 수 있다(S220).Next, the computer may detect a change between the images by matching the first image and the second image (S220).

일 실시예로, 컴퓨터는 제1 영상 및 제2 영상 각각의 특징점을 추출하여 매칭시킬 수 있다. 예를 들어, 컴퓨터는 제1 영상 및 제2 영상 각각에 대해 SIFT(scale-invariant feature transform)와 같은 알고리즘을 이용하여 각각의 특징점을 추출할 수 있다. 이때, SIFT 이외에도 다양한 특징점 추출 알고리즘을 이용할 수 있다. 그리고 컴퓨터는 제1 영상의 특징점과 제2 영상의 특징점을 서로 매칭하고, 서로 매칭된 특징점 간의 변화를 검출할 수 있다. 이때, 특징점 매칭 알고리즘을 사용할 수 있으며, 예컨대 Brute force, FLANN(Fast approximate nearest neighbor) 탐색 등을 사용할 수 있다. 예를 들어, 컴퓨터는 제1 영상 및 제2 영상 각각에 대해 깊이 맵을 산출하여 포인트 클라우드를 구성할 수 있다. 이때, 제1 영상 및 제2 영상 간의 특징점 매칭을 통해 두 영상 각각에 대한 포인트 클라우드에서의 대응점 역시 매칭될 수 있다. 여기서, 특징점 매칭은 2D 좌표로 수행되므로, 제1 영상 및 제2 영상 각각에 대한 깊이 맵을 이용하여 3D 좌표로 변환하고, 변환된 3D 좌표를 기초로 두 영상 간 포인트 클라우드에서의 매칭을 수행할 수 있다. 이러한 두 영상간 매칭을 통해, 두 영상 각각에 대한 포인트 클라우드의 각 대응점이 모두 동일한 방향으로 움직임이 발생한 것을 검출할 수 있다. 따라서, 컴퓨터는 두 영상 간의 특징점(대응점)의 위치 변화를 기반으로 카메라의 위치 변화량을 알 수 있다. In an embodiment, the computer may extract and match the feature points of each of the first and second images. For example, the computer may extract each feature point for each of the first image and the second image by using an algorithm such as scale-invariant feature transform (SIFT). In this case, various feature point extraction algorithms may be used in addition to the SIFT. The computer may match the feature points of the first image and the feature points of the second image with each other, and detect a change between the matched feature points. In this case, a feature point matching algorithm may be used, for example, brute force, FLANN (Fast approximate nearest neighbor) search, or the like. For example, the computer may construct a point cloud by calculating a depth map for each of the first image and the second image. In this case, corresponding points in the point cloud for each of the two images may also be matched by matching the feature points between the first image and the second image. Here, since the feature point matching is performed in 2D coordinates, the 3D coordinates are converted into 3D coordinates using depth maps of the first and second images, and the matching is performed in the point cloud between the two images based on the converted 3D coordinates. Can be. Through the matching between the two images, it is possible to detect that all the corresponding points of the point cloud for each of the two images in the same direction. Therefore, the computer can know the position change amount of the camera based on the position change of the feature point (corresponding point) between the two images.

실시예에 따라서, 컴퓨터는 제1 영상 및 제2 영상에 대한 포인트 클라우드를 구성할 때 스테레오 영상의 매칭을 통한 깊이 맵으로 구할 수도 있으나 이는 하나의 예시일 뿐이며, 다른 방식을 이용하여 제1 영상 및 제2 영상에 대한 포인트 클라우드를 구성하여 매칭할 수도 있다. 예컨대, 제한된 상황에서는 싱글 이미지를 이용하여 깊이 맵을 구할 수도 있다. 수술도구의 크기를 정확히 알고 있고 수술 중에 수술도구의 크기가 변하지 않으므로, 카메라의 특성은 일정하게 유지될 수 있다. 이러한 경우, 싱글 이미지를 이용하여 관심 지점(특징점)에 대한 깊이 값을 구할 수 있다.According to an embodiment, the computer may obtain a depth map through matching of stereo images when constructing a point cloud for the first image and the second image, but this is only one example, and the first image and the second image may be obtained using different methods. The point cloud for the second image may be configured and matched. For example, in limited circumstances, a single image may be used to obtain a depth map. Since the size of the surgical tool is known correctly and the size of the surgical tool does not change during surgery, the characteristics of the camera can be kept constant. In this case, a depth value for a point of interest (feature point) may be obtained using a single image.

다음으로, 컴퓨터는 영상 간의 변화를 기반으로 카메라의 위치 변화량을 산출할 수 있다(S230).Next, the computer may calculate the position change amount of the camera based on the change between images (S230).

일 실시예로, 상술한 바와 같이 컴퓨터는 두 영상 간의 특징점의 위치 변화량을 검출할 수 있으므로, 이 변화량을 카메라의 움직임에 따른 변화량으로 추정할 수 있다. As an example, as described above, since the computer detects a position change amount of a feature point between two images, the change amount may be estimated as a change amount according to the movement of the camera.

한편, 실시예에 따라 카메라의 위치 변화량을 산출함에 있어서, 컴퓨터는 실제수술영상 내에 수술도구가 포함되어 있는지 여부에 따라, 수술도구를 기초로 카메라의 위치 변화량을 산출할 수도 있다. Meanwhile, in calculating the position change amount of the camera according to the embodiment, the computer may calculate the position change amount of the camera based on the surgical tool according to whether the surgical tool is included in the actual surgical image.

일 실시예로, 컴퓨터는 카메라의 움직임이 발생함에 따라 획득되는 실제수술영상 내 수술도구가 포함되어 있는지 여부를 판단할 수 있다. 예컨대, 컴퓨터는 카메라의 이동 시작시에 획득된 제1 영상 및 카메라의 이동 종료시에 획득된 제2 영상에서 수술도구가 포함되어 있는지 여부를 판단할 수 있다. 이때, 컴퓨터는 영상인식 방법을 사용하여 제1 영상 및 제2 영상으로부터 수술도구가 존재하는지 여부를 판단할 수 있다. In one embodiment, the computer may determine whether a surgical tool is included in the actual surgical image acquired as the camera movement occurs. For example, the computer may determine whether the surgical tool is included in the first image acquired at the start of the movement of the camera and the second image acquired at the end of the movement of the camera. In this case, the computer may determine whether a surgical tool exists from the first image and the second image by using an image recognition method.

판단 결과에 따라 제1 영상 및 제2 영상 내 수술도구가 포함되어 있는 경우, 컴퓨터는 제1 영상 내의 수술도구 정보와 제2 영상 내의 수술도구의 정보를 비교하고, 비교 결과에 기초하여 카메라의 위치 변화량을 상대적으로 산출할 수 있다. 상술하였듯, 수술 시에는 카메라가 움직일 때 수술도구는 움직이지 않는 제약사항이 있기 때문에, 카메라의 이동 시작시부터 이동 종료시까지 획득된 영상(제1 영상 및 제 2영상)에서는 수술도구가 움직이지 않고 고정되어 있다. 따라서, 제1 영상 및 제2 영상 내 수술도구가 포함되어 있다면 해당 수술도구는 카메라의 움직임에 의해서만 변화가 발생하게 된다. 즉, 컴퓨터는 제1 영상 및 제2 영상 각각에 포함된 수술도구의 위치, 크기, 방향 등의 변화를 도출하고, 각 영상 내의 수술도구 간의 변화 정보를 기초로 상대적으로 카메라의 위치 변화량을 산출할 수 있다.When the surgical tool is included in the first image and the second image according to the determination result, the computer compares the information of the surgical tool in the first image with the information of the surgical tool in the second image and positions the camera based on the comparison result. The amount of change can be calculated relatively. As described above, since the surgical tool does not move when the camera moves during the operation, the surgical tool does not move in the images (first image and second image) acquired from the start of the movement of the camera to the end of the movement. It is fixed without. Therefore, if a surgical tool is included in the first image and the second image, the corresponding surgical tool may be changed only by the movement of the camera. That is, the computer derives a change in the position, size, direction, etc. of the surgical tool included in each of the first image and the second image, and calculates a relative change in the position of the camera based on the change information between the surgical tools in each image. Can be.

또는, 컴퓨터는 카메라의 이동 시작시부터 카메라의 이동종료시까지 획득된 영상들 중에서 적어도 하나의 영상 내 수술도구가 포함되어 있는지 여부를 판단할 수 있다. 예컨대, 컴퓨터는 카메라의 이동 시작시에 획득된 영상 프레임의 전부 또는 일부에 수술도구를 포함하는지 여부를 판단하고, 카메라의 이동종료시의 영상 프레임에 수술도구를 포함하는지 여부를 판단할 수 있다. 이후, 판단 결과에 따라 수술도구를 포함하는 영상 프레임 간의 수술도구의 정보를 비교하여, 카메라의 위치 변화량을 상대적으로 산출할 수도 있다. Alternatively, the computer may determine whether at least one surgical tool is included in the images acquired from the start of the movement of the camera to the end of the movement of the camera. For example, the computer may determine whether a surgical tool is included in all or a part of the image frame acquired at the start of the movement of the camera, and determine whether the surgical tool is included in the image frame at the end of the movement of the camera. Subsequently, the amount of position change of the camera may be relatively calculated by comparing information of the surgical tool between the image frames including the surgical tool according to the determination result.

또는, 컴퓨터는 카메라의 이동 시작시 또는 카메라의 이동종료시 획득된 영상 중 적어도 하나의 영상 프레임에 수술도구를 포함하는지 여부를 판단하고, 이로부터 카메라의 위치 변화량을 상대적으로 산출할 수도 있다. 예컨대, 카메라의 이동 시작시에 획득된 제1 영상에 수술도구가 포함되어 있거나, 카메라의 이동종료시에 획득된 제2 영상에 수술도구가 포함되어 있는 경우, 컴퓨터는 수술도구가 포함된 영상을 기준으로 상대적으로 카메라의 이동 거리를 산출할 수도 있다. 즉, 카메라의 이동 시에 수술도구는 고정되어 있기 때문에 고정되어 있는 수술도구의 위치를 기준으로 카메라가 이동한 위치(즉, 카메라의 이동시작 위치 또는 카메라의 종료 위치)까지의 거리를 산출함으로써, 카메라의 위치 변화량을 상대적으로 산출할 수도 있다. Alternatively, the computer may determine whether the surgical tool is included in at least one image frame of the image acquired at the start of the movement of the camera or at the end of the movement of the camera, and relatively calculate the position change of the camera. For example, when the surgical tool is included in the first image acquired when the camera starts to move, or when the surgical tool is included in the second image obtained when the camera stops moving, the computer refers to the image including the surgical tool. In addition, the moving distance of the camera can be calculated relatively. That is, since the surgical tool is fixed when the camera is moved, the distance to the position where the camera is moved (that is, the start position of the camera or the end position of the camera) is calculated based on the position of the fixed surgical tool. The amount of change in the position of the camera can also be calculated relatively.

또한, 판단 결과로 카메라의 이동시작시부터 카메라의 이동종료시까지 획득된 영상들(예컨대,제1 영상 및 제2 영상) 내 수술도구가 포함되어 있지 않은 경우, 컴퓨터는 상술한 도 4의 과정을 수행하여, 영상 간의 변화를 기초로 카메라의 위치 변화량을 산출할 수 있다.In addition, if the surgical tool is not included in the images (eg, the first image and the second image) acquired from the start of the movement of the camera to the end of the movement of the camera as a result of the determination, the computer performs the above-described process of FIG. 4. The amount of change in position of the camera may be calculated based on the change between images.

다시 도 2를 참조하면, 컴퓨터는 기준 위치에 대한 카메라의 위치 변화량을 기반으로 카메라의 현재 위치를 산출할 수 있다(S300). Referring back to FIG. 2, the computer may calculate the current position of the camera based on the position change amount of the camera with respect to the reference position (S300).

즉, 카메라의 위치 변화량은 기준 위치로부터 이동에 따른 변화량을 계산한 것이므로, 카메라의 현재 위치는 기준 위치에서 카메라의 위치 변화량을 적용함으로써 최종적으로 계산될 수 있다. That is, since the position change amount of the camera is calculated by the change amount according to the movement from the reference position, the current position of the camera can be finally calculated by applying the position change amount of the camera at the reference position.

일 실시예로, 컴퓨터는 상기 제1 영상 및 제2 영상 간의 변화를 회전(rotation) 또는 이동(translation) 행렬을 통해 도출하고, 도출된 값을 기준 위치에 반영함으로써 카메라의 현재 위치를 산출할 수 있다. In an embodiment, the computer may calculate the current position of the camera by deriving a change between the first image and the second image through a rotation or translation matrix and reflecting the derived value in a reference position. have.

본 발명의 일 실시예에 따르면, 컴퓨터는 카메라의 현재 위치를 도출함으로써, 이를 기반으로 현재 수술 중인 수술 대상자의 수술부위의 위치 또는 수술도구의 위치를 계산할 수 있다. According to an embodiment of the present invention, the computer may derive the current position of the camera, and may calculate the position of the surgical region or the position of the surgical tool of the currently-operated subject based on this.

또한 본 발명의 일 실시예에 따르면, 컴퓨터는 카메라의 현재 위치를 도출함으로써, 이를 기반으로 수술 대상자의 수술위치에 대응하는 가상신체모델에서의 수술위치를 매칭할 수 있다. 즉, 가상신체모델에 실제 수술 위치를 제공함으로써 현재 수술 중인 의료진에게 보다 정확한 수술 가이드 정보를 제공하는 효과가 있다. In addition, according to an embodiment of the present invention, by deriving the current position of the camera, the computer may match the surgical position in the virtual body model corresponding to the surgical position of the surgical subject based on this. That is, by providing the actual surgical position in the virtual body model has the effect of providing more accurate surgical guide information to the current medical staff.

또한 본 발명의 일 실시예에 따르면, 카메라는 수술과정에서 지속적으로 이동 또는 움직임이 발생할 수 있으므로, 컴퓨터는 카메라가 이동하거나 움직이는 과정에서 촬영한 새로운 기준 객체를 포함하는 실제수술영상을 획득할 수 있다. 이 경우, 컴퓨터는 실제수술영상으로부터 새로운 기준 객체를 획득하고, 획득한 새로운 기준 객체를 기반으로 기준 위치를 재설정할 수 있다. 또한 컴퓨터는 재설정된 기준 위치를 기초로 카메라의 현재 위치를 재산출할 수 있다. 이는 상술한 단계 S100~S300에서 설명한 것과 동일한 방식으로 적용될 있다. In addition, according to an embodiment of the present invention, since the camera may continuously move or move during the surgery, the computer may acquire an actual surgical image including a new reference object photographed while the camera moves or moves. . In this case, the computer may acquire a new reference object from the actual surgery image and reset the reference position based on the acquired new reference object. The computer can also recalculate the current position of the camera based on the reset reference position. This may be applied in the same manner as described in the above steps S100 to S300.

일 실시예에서, 새로운 기준 객체를 포함하는 실제수술영상을 획득한 경우, 컴퓨터는 새로운 기준 객체가 기설정된 기준 객체에 해당하는 경우에 한해서 기준 위치를 재설정하여 카메라의 현재 위치를 재산출할 수 있다. 예를 들어, 카메라의 이동에 따라 새로운 기준 객체를 촬영하여 획득할 때마다 상술한 단계 S100~S300를 수행하여 카메라의 현재 위치를 갱신할 수도 있고, 기설정된 시간 주기에 기초하여 새로운 객체를 획득한 경우에 상술한 단계 S100~S300를 수행하여 카메라의 현재 위치를 갱신할 수도 있다. In an embodiment, when the actual surgical image including the new reference object is acquired, the computer may recalculate the current position of the camera by resetting the reference position only when the new reference object corresponds to the preset reference object. For example, whenever a new reference object is photographed and acquired according to the movement of the camera, the current position of the camera may be updated by performing the above steps S100 to S300, or a new object is acquired based on a preset time period. In this case, the current position of the camera may be updated by performing the above steps S100 to S300.

한편, 카메라에 대한 기준 위치를 초기에 한번 설정하고, 이를 바탕으로 지속적으로 카메라의 현재 위치를 계산하는 경우에는 시간이 지남에 따라 카메라의 위치 변화량을 정확하게 검출하지 못할 경우 오차가 누적될 수 있다. 그러나, 상술한 실시예에서와 같이 새로운 기준 객체를 획득하여 기준 위치를 재설정하는 경우에는 카메라의 위치 변화량의 산출 과정에서 오차가 발생하더라도, 기준 위치의 재설정을 통해 카메라의 현재 위치가 보정되므로 보다 정확한 수술 정보를 제공할 수 있다. On the other hand, when the reference position for the camera is initially set, and the current position of the camera is continuously calculated based on this, an error may accumulate if the position change amount of the camera cannot be accurately detected over time. However, in the case of resetting the reference position by acquiring a new reference object as in the above-described embodiment, even if an error occurs in the process of calculating the position change amount of the camera, the current position of the camera is corrected by resetting the reference position so that it is more accurate. Surgical information can be provided.

도 5는 본 발명의 일 실시예에 따라 도출된 카메라의 위치를 좌표 평면 상에 도시한 도면이다. 5 is a view showing the position of the camera derived according to an embodiment of the present invention on a coordinate plane.

실제 수술 시에 수술부위 및 수술도구의 위치를 정확하게 특정하는 것은 중요하다. 따라서 본 발명에서는 실제 수술 시에 실시간으로 수술부위 및 수술도구의 위치를 정확하게 제공하고자 먼저 카메라의 위치를 산출하고 이를 통해서 다시 수술부위 및 수술도구의 위치를 산출할 수 있도록 하며, 이에 대한 방법은 앞서 구체적으로 설명한 바 있다. It is important to accurately specify the location of the surgical site and the surgical tool during the actual surgery. Therefore, in the present invention, in order to accurately provide the position of the surgical site and the surgical tool in real time at the time of the actual operation to calculate the position of the camera and through this again to calculate the position of the surgical site and the surgical tool, the method for this It has been described in detail.

즉, 도 2 내지 도 4의 방법에 따르면, 도 5에 도시된 바와 같이, 환자의 특정 장기(즉, 기준 객체)를 통해 기준 위치를 설정함으로써 카메라의 실제 좌표공간상(200, 절대좌표 공간)의 위치(220)를 도출할 수 있다. That is, according to the method of FIGS. 2 to 4, as shown in FIG. 5, by setting a reference position through a specific organ of the patient (ie, a reference object), the actual coordinate space (200, absolute coordinate space) of the camera is set. The position 220 of may be derived.

이 경우, 카메라의 좌표공간(210)이 실제 좌표공간(200) 상에서 어떤 위치 관계에 있는지 알 수 있다. 따라서, 카메라의 위치를 기준으로 수술부위 및 수술도구의 실제 위치를 계산할 수 있다. 먼저 카메라의 좌표공간(210)을 기준으로 수술부위 및 수술도구의 상대적 위치를 구하고, 이를 다시 실제 좌표공간(200) 상에서의 위치 관계로 변환함으로써 수술부위 및 수술도구의 실제 위치를 도출할 수 있다. In this case, it is possible to know what positional relationship the coordinate space 210 of the camera has on the actual coordinate space 200. Therefore, the actual position of the surgical site and the surgical tool can be calculated based on the position of the camera. First, the relative positions of the surgical site and the surgical tool may be obtained based on the coordinate space 210 of the camera, and the actual positions of the surgical site and the surgical tool may be derived by converting the surgical site and the surgical tool back into a positional relationship on the actual coordinate space 200. .

도 6은 본 발명의 일 실시예에 따른 실제수술영상을 이용한 카메라 위치 산출 방법을 수행하는 장치(300)의 구성을 개략적으로 나타내는 도면이다. FIG. 6 is a diagram schematically illustrating a configuration of an apparatus 300 for performing a camera position calculating method using an actual surgical image according to an embodiment of the present invention.

도 6을 참조하면, 프로세서(310)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Referring to FIG. 6, the processor 310 may include a connection passage (for example, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.

일 실시예에 따른 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 2 내지 도 4과 관련하여 설명된 실제수술영상을 이용한 카메라 위치 산출 방법을 수행한다.The processor 310 according to an embodiment executes one or more instructions stored in the memory 320 to perform a camera position calculation method using the actual surgical image described with reference to FIGS. 2 to 4.

예를 들어, 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써 수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정하고, 카메라가 이동함에 따라 카메라의 위치 변화량을 산출하고, 기준 위치에 대한 카메라의 위치 변화량을 기반으로 카메라의 현재 위치를 산출할 수 있다. For example, the processor 310 acquires a reference object from an actual surgery image taken by a camera entering the body of the surgery subject by executing one or more instructions stored in the memory 320 to obtain a reference position for the camera. In this case, the position change amount of the camera may be calculated as the camera moves, and the current position of the camera may be calculated based on the position change amount of the camera with respect to the reference position.

한편, 프로세서(310)는 프로세서(310) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(310)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 310 may read random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 310. , Not shown) may be further included. In addition, the processor 310 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.

메모리(320)에는 프로세서(310)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(320)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 320 may store programs (one or more instructions) for processing and controlling the processor 310. Programs stored in the memory 320 may be divided into a plurality of modules according to their functions.

이상에서 전술한 본 발명의 일 실시예에 따른 실제수술영상을 이용한 카메라 위치 산출 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The camera position calculation method using the actual surgical image according to the embodiment of the present invention described above may be implemented as a program (or an application) to be executed in combination with a computer which is hardware and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program. Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do. In addition, the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have. Also, if the processor of the computer needs to communicate with any other computer or server remotely in order to execute the functions, the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. The software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (11)

컴퓨터가 수행하는, 실제수술영상을 이용한 카메라 위치 산출 방법에 있어서,
수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정하는 단계;
상기 카메라가 이동함에 따라 상기 카메라의 위치 변화량을 산출하는 단계; 및
상기 기준 위치에 대한 상기 카메라의 위치 변화량을 기반으로 상기 카메라의 현재 위치를 산출하는 단계를 포함하며,
상기 카메라의 위치 변화량을 산출하는 단계는,
상기 실제수술영상으로부터 상기 카메라의 움직임이 검출되는 제1 영상 및 제2 영상을 획득하는 단계;
상기 제1 영상 및 상기 제2 영상을 매칭하여 영상 간의 변화를 검출하는 단계; 및
상기 영상 간의 변화를 기반으로 상기 카메라의 위치 변화량을 산출하는 단계를 포함하는 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
In the camera position calculation method using a real operation image,
Setting a reference position with respect to the camera by acquiring a reference object from an actual surgery image photographed by a camera entering the body of the patient;
Calculating a position change amount of the camera as the camera moves; And
Calculating a current position of the camera based on a change amount of the position of the camera relative to the reference position;
Calculating the position change amount of the camera,
Acquiring a first image and a second image from which the movement of the camera is detected from the actual surgical image;
Detecting a change between images by matching the first image and the second image; And
And calculating the position change amount of the camera based on the change between the images.
제1항에 있어서,
상기 카메라에 대한 기준 위치를 설정하는 단계는,
상기 수술 대상자의 가상신체모델로부터 상기 기준 객체를 포함하는 가상 영상을 획득하는 단계;
상기 가상 영상에 포함된 기준 객체와 상기 실제수술영상에 포함된 기준 객체를 정합하는 단계; 및
상기 기준 객체의 정합을 기초로 상기 가상신체모델로부터 획득된 상기 기준 객체의 위치를 이용하여 상기 기준 위치를 설정하는 단계를 포함하는 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 1,
Setting a reference position for the camera,
Obtaining a virtual image including the reference object from the virtual body model of the surgery subject;
Matching the reference object included in the virtual image with the reference object included in the actual surgical image; And
And setting the reference position by using the position of the reference object obtained from the virtual body model based on the registration of the reference object.
삭제delete 제1항에 있어서,
상기 카메라의 현재 위치를 기반으로 상기 수술 대상자의 수술부위의 위치 또는 수술도구의 위치를 도출하는 단계를 더 포함하는 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 1,
And calculating a position of a surgical site or a position of a surgical tool on the basis of the current position of the camera.
제1항에 있어서,
상기 카메라의 현재 위치를 기반으로 상기 수술 대상자의 수술위치에 대응하는 가상신체모델에서의 수술위치를 매칭하는 단계를 더 포함하는 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 1,
And matching the surgical position in the virtual body model corresponding to the surgical position of the surgical subject based on the current position of the camera.
제1항에 있어서,
상기 실제수술영상으로부터 새로운 기준 객체를 획득하여 상기 새로운 기준 객체를 기반으로 상기 기준 위치를 재설정하는 단계; 및
상기 재설정된 기준 위치에 기초하여 상기 카메라의 현재 위치를 재산출하는 단계를 더 포함하는 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 1,
Acquiring a new reference object from the actual surgical image and resetting the reference position based on the new reference object; And
And recalculating the current position of the camera based on the reset reference position.
제6항에 있어서,
상기 기준 위치를 재설정하는 단계는,
상기 실제수술영상으로부터 획득된 새로운 기준 객체가 기설정된 기준 객체에 해당하는 경우에 상기 기준 위치를 재설정하는 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 6,
Resetting the reference position,
And resetting the reference position when the new reference object acquired from the actual surgery image corresponds to a preset reference object.
제1항에 있어서,
상기 기준 객체는,
상기 수술 대상자의 신체내부에 위치하는 장기 중 정해진 조건을 만족하는 장기인 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 1,
The reference object,
Camera position calculation method using an actual surgical image, characterized in that the organ satisfying a predetermined condition among the organs located inside the body of the operation target.
제2항에 있어서,
상기 실제수술영상은,
스테레오스코픽 3D 영상이며,
상기 가상신체모델은,
상기 수술 대상자의 신체내부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터인 것을 특징으로 하는 실제수술영상을 이용한 카메라 위치 산출 방법.
The method of claim 2,
The actual surgery image,
Stereoscopic 3D video,
The virtual body model,
Camera position calculation method using the actual surgical image, characterized in that the 3D modeling data generated based on the medical image data taken inside the body of the subject.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
수술 대상자의 신체내부로 진입하는 카메라에 의해 촬영되는 실제수술영상으로부터 기준 객체를 획득하여 상기 카메라에 대한 기준 위치를 설정하는 단계;
상기 카메라가 이동함에 따라 상기 카메라의 위치 변화량을 산출하는 단계; 및
상기 기준 위치에 대한 상기 카메라의 위치 변화량을 기반으로 상기 카메라의 현재 위치를 산출하는 단계를 수행하며,
상기 카메라의 위치 변화량을 산출하는 단계는,
상기 실제수술영상으로부터 상기 카메라의 움직임이 검출되는 제1 영상 및 제2 영상을 획득하는 단계;
상기 제1 영상 및 상기 제2 영상을 매칭하여 영상 간의 변화를 검출하는 단계; 및
상기 영상 간의 변화를 기반으로 상기 카메라의 위치 변화량을 산출하는 단계를 수행하는 것을 특징으로 하는 장치.
Memory for storing one or more instructions; And
A processor for executing the one or more instructions stored in the memory,
The processor executes the one or more instructions,
Setting a reference position with respect to the camera by acquiring a reference object from an actual surgery image photographed by a camera entering the body of the patient;
Calculating a position change amount of the camera as the camera moves; And
Calculating a current position of the camera based on an amount of change in the position of the camera relative to the reference position;
Calculating the position change amount of the camera,
Acquiring a first image and a second image from which the movement of the camera is detected from the actual surgical image;
Detecting a change between images by matching the first image and the second image; And
And calculating a position change amount of the camera based on the change between the images.
하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program, coupled to a computer, which is hardware, stored on a recording medium readable by a computer so as to perform the method of claim 1.
KR1020180130229A 2018-02-20 2018-10-29 Method and apparatus for calculating camera location using surgical video KR102013866B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/002093 WO2019164275A1 (en) 2018-02-20 2019-02-20 Method and device for recognizing position of surgical instrument and camera

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020180019866 2018-02-20
KR1020180019868 2018-02-20
KR1020180019867 2018-02-20
KR20180019867 2018-02-20
KR20180019868 2018-02-20
KR20180019866 2018-02-20

Publications (1)

Publication Number Publication Date
KR102013866B1 true KR102013866B1 (en) 2019-08-23

Family

ID=67763730

Family Applications (21)

Application Number Title Priority Date Filing Date
KR1020180098360A KR102014355B1 (en) 2018-02-20 2018-08-23 Method and apparatus for calculating location information of surgical device
KR1020180098358A KR102014385B1 (en) 2018-02-20 2018-08-23 Method and apparatus for learning surgical image and recognizing surgical action based on learning
KR1020180098413A KR102018565B1 (en) 2018-02-20 2018-08-23 Method, apparatus and program for constructing surgical simulation information
KR1020180098359A KR102014359B1 (en) 2018-02-20 2018-08-23 Method and apparatus for providing camera location using surgical video
KR1020180109204A KR102014377B1 (en) 2018-02-20 2018-09-12 Method and apparatus for surgical action recognition based on learning
KR1020180115328A KR102013868B1 (en) 2018-02-20 2018-09-27 Method and apparatus for optimization of surgical process
KR1020180122454A KR102014351B1 (en) 2018-02-20 2018-10-15 Method and apparatus for constructing surgical information
KR1020180122949A KR102013806B1 (en) 2018-02-20 2018-10-16 Method and apparatus for generating artificial data
KR1020180130229A KR102013866B1 (en) 2018-02-20 2018-10-29 Method and apparatus for calculating camera location using surgical video
KR1020180129709A KR102014364B1 (en) 2018-02-20 2018-10-29 Method and apparatus for evaluating bleeding using surgical video
KR1020180131478A KR102013837B1 (en) 2018-02-20 2018-10-31 Method and apparatus for providing surgical video
KR1020180135590A KR102016959B1 (en) 2018-02-20 2018-11-07 Method and apparatus for generating blood vessel model
KR1020180135578A KR20190100004A (en) 2018-02-20 2018-11-07 Method and apparatus for using surgical information
KR1020180140050A KR20190100009A (en) 2018-02-20 2018-11-14 Method and apparatus for providing surgical video
KR1020180143367A KR102013857B1 (en) 2018-02-20 2018-11-20 Method and apparatus for generating learning data based on surgical video
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video
KR1020180145157A KR102013828B1 (en) 2018-02-20 2018-11-22 Method and apparatus for predicting surgical duration based on surgical video
KR1020180147015A KR102014371B1 (en) 2018-02-20 2018-11-26 Method and apparatus for estimating recognition of surgical video
KR1020180149293A KR102013848B1 (en) 2018-02-20 2018-11-28 Method and apparatus for providing blood vessel information using blood vessel model
KR1020180153569A KR102013814B1 (en) 2018-02-20 2018-12-03 Method and apparatus for generating virtual model using surgical video
KR1020180155562A KR102013863B1 (en) 2018-02-20 2018-12-05 Method and program for creating a virtual body model

Family Applications Before (8)

Application Number Title Priority Date Filing Date
KR1020180098360A KR102014355B1 (en) 2018-02-20 2018-08-23 Method and apparatus for calculating location information of surgical device
KR1020180098358A KR102014385B1 (en) 2018-02-20 2018-08-23 Method and apparatus for learning surgical image and recognizing surgical action based on learning
KR1020180098413A KR102018565B1 (en) 2018-02-20 2018-08-23 Method, apparatus and program for constructing surgical simulation information
KR1020180098359A KR102014359B1 (en) 2018-02-20 2018-08-23 Method and apparatus for providing camera location using surgical video
KR1020180109204A KR102014377B1 (en) 2018-02-20 2018-09-12 Method and apparatus for surgical action recognition based on learning
KR1020180115328A KR102013868B1 (en) 2018-02-20 2018-09-27 Method and apparatus for optimization of surgical process
KR1020180122454A KR102014351B1 (en) 2018-02-20 2018-10-15 Method and apparatus for constructing surgical information
KR1020180122949A KR102013806B1 (en) 2018-02-20 2018-10-16 Method and apparatus for generating artificial data

Family Applications After (12)

Application Number Title Priority Date Filing Date
KR1020180129709A KR102014364B1 (en) 2018-02-20 2018-10-29 Method and apparatus for evaluating bleeding using surgical video
KR1020180131478A KR102013837B1 (en) 2018-02-20 2018-10-31 Method and apparatus for providing surgical video
KR1020180135590A KR102016959B1 (en) 2018-02-20 2018-11-07 Method and apparatus for generating blood vessel model
KR1020180135578A KR20190100004A (en) 2018-02-20 2018-11-07 Method and apparatus for using surgical information
KR1020180140050A KR20190100009A (en) 2018-02-20 2018-11-14 Method and apparatus for providing surgical video
KR1020180143367A KR102013857B1 (en) 2018-02-20 2018-11-20 Method and apparatus for generating learning data based on surgical video
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video
KR1020180145157A KR102013828B1 (en) 2018-02-20 2018-11-22 Method and apparatus for predicting surgical duration based on surgical video
KR1020180147015A KR102014371B1 (en) 2018-02-20 2018-11-26 Method and apparatus for estimating recognition of surgical video
KR1020180149293A KR102013848B1 (en) 2018-02-20 2018-11-28 Method and apparatus for providing blood vessel information using blood vessel model
KR1020180153569A KR102013814B1 (en) 2018-02-20 2018-12-03 Method and apparatus for generating virtual model using surgical video
KR1020180155562A KR102013863B1 (en) 2018-02-20 2018-12-05 Method and program for creating a virtual body model

Country Status (1)

Country Link
KR (21) KR102014355B1 (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102301234B1 (en) * 2019-09-20 2021-09-09 울산대학교 산학협력단 System for providing surgical video and method thereof
US11992373B2 (en) * 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
KR102246966B1 (en) * 2020-01-29 2021-04-30 주식회사 아티큐 Method for Recognizing Object Target of Body
KR102321157B1 (en) * 2020-04-10 2021-11-04 (주)휴톰 Method and system for analysing phases of surgical procedure after surgery
WO2021235804A1 (en) * 2020-05-18 2021-11-25 주식회사 루닛 Method and system for determining abnormality of medical device
KR102348368B1 (en) * 2020-05-21 2022-01-11 주식회사 누아 Device, method, system and computer readable storage medium for generating training data of machine learing model and generating fake image using machine learning model
KR102395873B1 (en) * 2020-06-02 2022-05-10 주식회사 메디픽셀 Method and apparatus for processing vascular image automatically
KR102426925B1 (en) * 2020-06-23 2022-07-29 (주)휴톰 Method and program for acquiring motion information of a surgical robot using 3d simulation
KR102505016B1 (en) * 2020-08-03 2023-03-02 (주)휴톰 System for generating descriptive information of unit movement in surgical images and method thereof
WO2022035237A1 (en) * 2020-08-11 2022-02-17 (주)휴톰 Learning data collection apparatus and method for training surgical tool and organ recognition learning
KR102517398B1 (en) * 2020-11-20 2023-04-04 주식회사 엔가든 Lock screw insertion hole detection method
CN112712878A (en) * 2020-12-30 2021-04-27 四川桑瑞思环境技术工程有限公司 Digital operating room system and control method
KR102464091B1 (en) * 2021-01-14 2022-11-04 고지환 Apparatus and Method for Large Intestine Examination Using an Endoscope
US11883245B2 (en) 2021-03-22 2024-01-30 Verb Surgical Inc. Deep-learning-based real-time remaining surgery duration (RSD) estimation
KR102640314B1 (en) 2021-07-12 2024-02-23 (주)휴톰 Artificial intelligence surgery system amd method for controlling the same
KR102606249B1 (en) * 2021-07-15 2023-11-24 사회복지법인 삼성생명공익재단 Lesion analysis method using cerebrovascular modeling and apparatus thereof
KR102667464B1 (en) * 2021-07-21 2024-05-20 (주)휴톰 Apparatus and Method for Determining the Insertion Position of a Trocar on a Patient's three-dimensional Virtual Pneumoperitoneum Model
US11986248B2 (en) * 2021-07-29 2024-05-21 Hutom Co., Ltd. Apparatus and method for matching the real surgical image with the 3D-based virtual simulated surgical image based on POI definition and phase recognition
KR20230023876A (en) * 2021-08-10 2023-02-20 (주)휴톰 Apparatus and Method for Generating a Virtual Pneumoperitoneum Model
KR20230039932A (en) 2021-09-15 2023-03-22 안명천 System and method for detecting bleeding
CN113813053A (en) * 2021-09-18 2021-12-21 长春理工大学 Operation process analysis method based on laparoscope endoscopic image
KR20230089469A (en) 2021-12-13 2023-06-20 (주)휴톰 Method and apparatus for providing virtual blood vessel model based on artificial intelligence
CN114391947B (en) * 2021-12-15 2024-03-01 深圳爱博合创医疗机器人有限公司 Hierarchical control type interventional operation robot
KR20230111043A (en) * 2022-01-17 2023-07-25 (주)휴톰 Apparatus and method for generating a virtual lung model of a patient
WO2023172109A1 (en) * 2022-03-11 2023-09-14 주식회사 림사이언스 Method and system for managing path of needle by using digital twin, and non-transitory computer-readable recording medium
KR20240022047A (en) * 2022-08-10 2024-02-20 주식회사 엠티이지 A methods and a device for providing scenarios for surgery
KR20240077534A (en) * 2022-11-22 2024-06-03 (주)휴톰 Method and device for detecting intraoperative bleeding through spatiotemporal feature fusion mode
KR102628690B1 (en) * 2023-07-04 2024-01-25 주식회사 클레버러스 A system of detecting abnormal action

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374709B1 (en) * 2006-06-29 2014-03-17 인튜어티브 서지컬 인코포레이티드 Surgical tool position and identification indicator displayed in a boundary area of a computer display screen
KR20150043245A (en) * 2012-08-14 2015-04-22 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Systems and methods for registration of multiple vision systems
KR20160008130A (en) * 2015-12-17 2016-01-21 (주)미래컴퍼니 Surgical robot system and adaptive control method thereof
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207832A (en) * 2000-12-28 2002-07-26 Atsushi Takahashi Distribution system of internet technology instruction education, and instruction system using communication network
US20080133602A1 (en) * 2005-01-19 2008-06-05 Koichi Tashiro Operation Data Management Device, Operation Control Device, and Operation Data Processing Method
JP4767591B2 (en) * 2005-06-01 2011-09-07 オリンパスメディカルシステムズ株式会社 Endoscope diagnosis support method, endoscope diagnosis support device, and endoscope diagnosis support program
JP4781085B2 (en) * 2005-10-25 2011-09-28 オリンパスメディカルシステムズ株式会社 Surgical schedule display system
JP4762160B2 (en) * 2007-01-16 2011-08-31 株式会社日立メディコ Surgery support system
CN102098967A (en) * 2008-08-14 2011-06-15 韩商未来股份有限公司 Robot system for performing surgery using a client server method
KR101049507B1 (en) * 2009-02-27 2011-07-15 한국과학기술원 Image-guided Surgery System and Its Control Method
KR101114226B1 (en) * 2009-05-19 2012-03-05 주식회사 이턴 Surgical robot system using history information and control method thereof
KR101108927B1 (en) * 2009-03-24 2012-02-09 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR101152177B1 (en) * 2009-04-09 2012-06-18 의료법인 우리들의료재단 Method and System for Automatic Leading Surgery Position and Apparatus Having Surgery Position Leading Function
GB0913930D0 (en) * 2009-08-07 2009-09-16 Ucl Business Plc Apparatus and method for registering two medical images
JP2011036371A (en) * 2009-08-10 2011-02-24 Tohoku Otas Kk Medical image recording apparatus
KR101235044B1 (en) * 2010-11-02 2013-02-21 서울대학교병원 (분사무소) Method of operation simulation and automatic operation device using 3d modelling
KR101181613B1 (en) * 2011-02-21 2012-09-10 윤상진 Surgical robot system for performing surgery based on displacement information determined by user designation and control method therefor
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR101795720B1 (en) * 2011-05-12 2017-11-09 주식회사 미래컴퍼니 Control method of surgical robot system, recording medium thereof, and surgical robot system
KR20130015146A (en) * 2011-08-02 2013-02-13 삼성전자주식회사 Method and apparatus for processing medical image, robotic surgery system using image guidance
US9968409B2 (en) * 2011-08-26 2018-05-15 EBM Corporation System for diagnosing bloodflow characteristics, method thereof, and computer software program
KR101175065B1 (en) * 2011-11-04 2012-10-12 주식회사 아폴로엠 Method for bleeding scanning during operation using image processing apparatus for surgery
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
KR101997566B1 (en) * 2012-08-07 2019-07-08 삼성전자주식회사 Surgical robot system and control method thereof
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
KR101572487B1 (en) * 2013-08-13 2015-12-02 한국과학기술연구원 System and Method For Non-Invasive Patient-Image Registration
KR101538041B1 (en) * 2013-10-15 2015-07-23 한국과학기술원 Device for positioning of surgical tool and sergical robot system including the same
EP3102143A4 (en) * 2014-02-04 2017-11-08 Intuitive Surgical Operations, Inc. Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
JP6254053B2 (en) * 2014-08-13 2017-12-27 富士フイルム株式会社 Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus
JP6104288B2 (en) * 2015-01-06 2017-03-29 三菱プレシジョン株式会社 Method for generating surgical simulation model, surgical simulation method, and surgical simulator
JP6594133B2 (en) * 2015-09-16 2019-10-23 富士フイルム株式会社 Endoscope position specifying device, operation method of endoscope position specifying device, and endoscope position specifying program
US20170132510A1 (en) * 2015-11-05 2017-05-11 Facebook, Inc. Identifying Content Items Using a Deep-Learning Model
KR20180010721A (en) * 2016-07-22 2018-01-31 한국전자통신연구원 System for supporting intelligent surgery and method for using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374709B1 (en) * 2006-06-29 2014-03-17 인튜어티브 서지컬 인코포레이티드 Surgical tool position and identification indicator displayed in a boundary area of a computer display screen
KR20150043245A (en) * 2012-08-14 2015-04-22 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Systems and methods for registration of multiple vision systems
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery
KR20160008130A (en) * 2015-12-17 2016-01-21 (주)미래컴퍼니 Surgical robot system and adaptive control method thereof

Also Published As

Publication number Publication date
KR20190100004A (en) 2019-08-28
KR20190100005A (en) 2019-08-28
KR102013828B1 (en) 2019-08-23
KR102016959B1 (en) 2019-09-02
KR102013806B1 (en) 2019-08-23
KR102014364B1 (en) 2019-08-26
KR102014371B1 (en) 2019-08-26
KR102014359B1 (en) 2019-08-26
KR102018565B1 (en) 2019-09-05
KR102013857B1 (en) 2019-08-23
KR102014351B1 (en) 2019-08-26
KR102013814B1 (en) 2019-08-23
KR102013848B1 (en) 2019-08-23
KR102013868B1 (en) 2019-08-23
KR102014385B1 (en) 2019-08-26
KR102013837B1 (en) 2019-10-21
KR20190099999A (en) 2019-08-28
KR20190100009A (en) 2019-08-28
KR102014355B1 (en) 2019-08-26
KR102013863B1 (en) 2019-08-23
KR20190100011A (en) 2019-08-28
KR102014377B1 (en) 2019-08-26

Similar Documents

Publication Publication Date Title
KR102013866B1 (en) Method and apparatus for calculating camera location using surgical video
KR101926123B1 (en) Device and method for segmenting surgical image
CN108701170B (en) Image processing system and method for generating three-dimensional (3D) views of an anatomical portion
US20160163105A1 (en) Method of operating a surgical navigation system and a system using the same
EP3081184A1 (en) System and method for fused image based navigation with late marker placement
US20160199147A1 (en) Method and apparatus for coordinating position of surgery region and surgical tool during image guided surgery
US20180150929A1 (en) Method and system for registration of 2d/2.5d laparoscopic and endoscopic image data to 3d volumetric image data
KR20210051141A (en) Method, apparatus and computer program for providing augmented reality based medical information of patient
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
KR102146672B1 (en) Program and method for providing feedback about result of surgery
KR20210052270A (en) Method, apparatus and computer program for providing augmented reality based medical information of patient
JP6960921B2 (en) Providing projection dataset
KR102321157B1 (en) Method and system for analysing phases of surgical procedure after surgery
CN115919461B (en) SLAM-based surgical navigation method
KR102213412B1 (en) Method, apparatus and program for generating a pneumoperitoneum model
KR20210126243A (en) Method and system for navigating vascular during surgery
US20210287434A1 (en) System and methods for updating an anatomical 3d model
Zampokas et al. Real‐time stereo reconstruction of intraoperative scene and registration to preoperative 3D models for augmenting surgeons' view during RAMIS
WO2020031045A1 (en) Co-localization of multiple internal organs based on images obtained during surgery
US10049480B2 (en) Image alignment device, method, and program
KR20190133424A (en) Program and method for providing feedback about result of surgery
US11657547B2 (en) Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system
US11986248B2 (en) Apparatus and method for matching the real surgical image with the 3D-based virtual simulated surgical image based on POI definition and phase recognition
US20230145531A1 (en) Systems and methods for registering visual representations of a surgical space
CN113614785A (en) Interventional device tracking

Legal Events

Date Code Title Description
GRNT Written decision to grant