KR20200056855A - Method, apparatus and program for generating a pneumoperitoneum model - Google Patents

Method, apparatus and program for generating a pneumoperitoneum model Download PDF

Info

Publication number
KR20200056855A
KR20200056855A KR1020180141076A KR20180141076A KR20200056855A KR 20200056855 A KR20200056855 A KR 20200056855A KR 1020180141076 A KR1020180141076 A KR 1020180141076A KR 20180141076 A KR20180141076 A KR 20180141076A KR 20200056855 A KR20200056855 A KR 20200056855A
Authority
KR
South Korea
Prior art keywords
medical image
patient
image data
computer
data
Prior art date
Application number
KR1020180141076A
Other languages
Korean (ko)
Other versions
KR102213412B1 (en
Inventor
홍헬렌
이민진
형우진
Original Assignee
서울여자대학교 산학협력단
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단, 연세대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020180141076A priority Critical patent/KR102213412B1/en
Publication of KR20200056855A publication Critical patent/KR20200056855A/en
Application granted granted Critical
Publication of KR102213412B1 publication Critical patent/KR102213412B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Disclosed is a method for generating a pneumoperitoneum model. The method comprises the steps of: obtaining medical image data of a patient by a computer; obtaining scan data, which scans a body of the patient in a pneumoperitoneum state; and generating a pneumoperitoneum model by matching the medical image data and the scan data.

Description

기복모델 생성방법, 장치 및 프로그램 {METHOD, APPARATUS AND PROGRAM FOR GENERATING A PNEUMOPERITONEUM MODEL}Relief model creation method, device and program {METHOD, APPARATUS AND PROGRAM FOR GENERATING A PNEUMOPERITONEUM MODEL}

본 발명은 기복모델 생성방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a relief model generating method, apparatus and program.

최근 의료진들이 실제와 유사한 상황에서 훈련을 수행할 수 있도록 하는 장치와 소프트웨어가 필요하다. 일반적으로, 의료진을 위한 시뮬레이션 장치는 환자의 상황과 유사하게 제작한 후 훈련을 수행하는 방식이다. 이러한 시뮬레이션 장치들은 환자에게 발생하는 여러가지 상황을 제공하지 못하며 시뮬레이션 시에 현실감이 떨어지는 문제점이 존재하였다. 또한, 외과적 수술의 경우, 의료진이 실제 수술과 동일한 조건에서 시뮬레이션을 할 수 없는 문제가 존재하였다.Recently, devices and software are needed to enable medical staff to perform training in a realistic situation. In general, a simulation device for a medical staff is a method in which training is performed after being produced similar to a patient's situation. These simulation devices do not provide various situations that occur to the patient, and there is a problem in that reality is reduced during simulation. In addition, in the case of surgical operation, there was a problem that the medical staff cannot simulate under the same conditions as the actual operation.

또한, 수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술행위를 인식할 수 있어야 한다. 기존에는 수술 프로세스를 최적화 하기 위한 시나리오 구상을 위해서는 사전에 촬영된 의료영상을 참고하거나 매우 숙련된 의사의 자문을 받았으나, 의료영상만으로는 불필요한 프로세스의 판단이 어려웠으며 숙련된 의사의 자문은 특정 환자에 맞는 자문을 받기에 어려운 문제점이 있었다. 따라서, 의료영상이나 숙련된 의사의 자문은 수술대상 환자에 대한 수술프로세스의 최적화를 위한 보조 용도로는 활용되기 어려운 점이 많았다.In addition, in the surgical process, there is a need to develop technologies capable of providing information for assisting a surgeon's surgery. In order to provide information to assist with surgery, it must be possible to recognize the operation. In the past, in order to design a scenario for optimizing the surgical process, reference was made to medical images taken in advance or consulted by a highly skilled doctor. There were difficulties in getting advice. Therefore, medical imaging or the advice of an experienced doctor was often difficult to use as an auxiliary purpose for optimizing the surgical process for the patient.

가상현실을 이용하여 수술 시뮬레이션을 수행하는 경우, 실제 수술 시와 동일한 조건에서 훈련을 수행하여야 수술시뮬레이션이 리허설로서의 역할을 수행할 수 있다. 특히, 최소침습수술(예를 들어, 로봇수술 또는 복강경수술)을 수행하는 경우, 실제 수술 시와 수술시뮬레이션 시에 카메라의 촬영방향이 상이하게 되면 의료진이 시뮬레이션 과정에서 확인하였던 영상과 실제 수술시에 보이는 영상이 차이남에 따라 실제 수술과 동일하게 훈련을 수행한 효과를 얻지 못할 수 있다. 즉, 복강내 구조가 복강내 구조를 확인하기 위한 카메라의 위치에 따라 상이할 수 있어서, 수술 시뮬레이션 시에 실제 수술 시와 신체 내부로 동일하게 카메라가 진입하도록 구현할 필요가 있다.In the case of performing a surgical simulation using virtual reality, training must be performed under the same conditions as in an actual surgery in order to perform a surgical simulation as a rehearsal. In particular, in the case of performing minimally invasive surgery (for example, robot surgery or laparoscopic surgery), if the shooting direction of the camera is different during the actual surgery and during the surgical simulation, the medical staff checks the image during the simulation and the actual surgery. Depending on the difference in the visible image, it may not be possible to obtain the effect of performing the training in the same way as the actual operation. That is, since the intraperitoneal structure may be different depending on the position of the camera for confirming the intraperitoneal structure, it is necessary to implement such that the camera enters the body in the same manner as in the actual operation during the operation simulation.

따라서, 본 발명은 카메라가 실제 수술 시와 동일한 영상을 수술 시뮬레이션 시에 제공하기 위해, 실제 수술 시와 동일하게 기복상태(pneumoperitoneum: 환자의 체내로 가스를 주입하여 수술이 용이하도록 환자의 배를 부풀린 상태)가 적용된 가상신체모델을 구현하여 실제 수술시와 동일한 신체표면을 생성하는, 기복모델 생성방법, 장치 및 프로그램을 제공하는 것을 목적으로 한다.Therefore, in the present invention, the camera inflates the patient's stomach to facilitate the operation by injecting gas into the patient's body in the same manner as in the actual operation (pneumoperitoneum: in order to provide the same image as the actual operation during the operation simulation) The object of the present invention is to provide a relief model generating method, apparatus, and program that implements a virtual body model to which the state is applied and generates the same body surface as in actual surgery.

또한, 본 발명은 카메라가 실제 수술 시와 동일하게 구현된 신체표면 상의 동일한 위치를 통해 신체 내부에 진입하는 경우, 실제 수술 시와 동일한 화면을 제공할 수 있는 가상신체모델을 생성하는 가상신체모델 생성방법, 장치 및 프로그램을 제공하는 것을 목적으로 한다.In addition, the present invention creates a virtual body model that generates a virtual body model capable of providing the same screen as that of a real operation when the camera enters the inside of the body through the same location on the body surface implemented in the same way as in the actual operation. It is an object to provide a method, an apparatus, and a program.

또한, 본 발명은 신규 환자의 의료영상데이터를 기반으로 실제 수술 시와 동일하게 기복상태가 적용된 가상신체모델을 구현하는 기복모델을 학습시키기 위한 학습데이터셋을 구축하는 방법, 장치 및 프로그램을 제공하는 것을 목적으로 한다.In addition, the present invention provides a method, apparatus, and program for constructing a learning dataset for learning a relief model that implements a virtual body model to which a relief state is applied in the same manner as in real surgery based on medical image data of a new patient. It is aimed at.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 기복모델 생성방법은, 컴퓨터가 환자의 의료영상 데이터를 획득하는 단계, 기복(pneumoperitoneum) 상태인 상기 환자의 신체를 스캔한 스캔 데이터를 획득하는 단계 및 상기 의료영상 데이터를 상기 스캔 데이터에 정합하여 기복 모델을 생성하는 단계를 포함한다.Method for generating a relief model according to an aspect of the present invention for solving the above-described problems, the computer acquiring the medical image data of the patient, acquiring the scan data of the patient's body in the relief (pneumoperitoneum) state And generating a relief model by matching the medical image data to the scan data.

또한, 상기 의료영상 데이터는, 사전에 촬영된 상기 환자의 의료영상에 기초하여 생성된 상기 환자의 신체의 3D 모델링 데이터인 것을 특징으로 할 수 있다.In addition, the medical image data may be characterized in that the 3D modeling data of the patient's body generated based on the medical image of the patient previously taken.

또한, 상기 환자의 의료영상은, 상기 환자의 신체를 소정의 각도 기울여서 촬영된 의료영상인 것을 특징으로 할 수 있다.In addition, the medical image of the patient may be characterized in that the medical image taken by tilting the patient's body at a predetermined angle.

또한, 상기 기복 모델을 생성하는 단계는, 상기 의료영상 데이터 및 상기 스캔 데이터로부터 각각 하나 이상의 랜드마크(landmarks)를 선택하는 단계 및 상기 의료영상 데이터에서 선택된 하나 이상의 랜드마크 각각을 상기 스캔 데이터에서 선택된 하나 이상의 랜드마크 각각에 따라 정합시키는 단계를 포함할 수 있다.The generating of the relief model may include selecting one or more landmarks from the medical image data and the scan data, and selecting one or more landmarks respectively selected from the medical image data from the scan data. And matching each of the one or more landmarks.

또한, 상기 기복 모델을 생성하는 단계는, 상기 의료영상 데이터를 상기 스캔 데이터에 따라 와핑(warping)하는 단계를 더 포함할 수 있다.In addition, the step of generating the relief model may further include a step of warping the medical image data according to the scan data.

또한, 상기 와핑하는 단계는, 상기 의료영상 데이터 및 상기 스캔 데이터로부터 각각 하나 이상의 랜드마크를 선택하는 단계 및 상기 선택된 하나 이상의 랜드마크에 기반하여 상기 의료영상 데이터를 상기 스캔 데이터에 따라 와핑하는 단계를 포함할 수 있다.In addition, the step of warping may include selecting one or more landmarks from the medical image data and the scan data, respectively, and warping the medical image data according to the scan data based on the selected one or more landmarks. It can contain.

또한, 상기 기복 모델을 생성하는 단계는, 상기 의료영상 데이터를 상기 스캔 데이터에 따라 비강체 정합(non-rigid regstration) 하는 단계를 더 포함할 수 있다.In addition, the step of generating the relief model may further include the step of non-rigid registration of the medical image data according to the scan data.

또한, 상기 기복 모델을 생성하는 단계는, 상기 환자의 신체 특성을 나타내는 적어도 하나의 지표에 기초하여 상기 환자의 내부 장기에 대한 정보를 획득하는 단계를 더 포함할 수 있다.In addition, the generating of the relief model may further include acquiring information about the internal organs of the patient based on at least one indicator indicating the physical characteristics of the patient.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 기복모델 생성장치는, 하나 이상의 인스트럭션을 저장하는 메모리 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 환자의 의료영상 데이터를 획득하는 단계, 기복상태인 상기 환자의 신체를 스캔한 스캔 데이터를 획득하는 단계 및 상기 의료영상 데이터를 상기 스캔 데이터에 정합하여 기복 모델을 생성하는 단계를 수행할 수 있다.An apparatus for generating a relief model according to an aspect of the present invention for solving the above-described problem includes a memory that stores one or more instructions and a processor that executes the one or more instructions stored in the memory, wherein the processor includes the one or more instructions. By executing the instructions, obtaining the medical image data of the patient, obtaining the scan data of the patient's body in a undulating state, and matching the medical image data to the scan data to generate a relief model. It can be done.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 하드웨어인 컴퓨터와 결합되어, 개시된 실시 예에 따른 기복모델 생성방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램이 제공된다. In accordance with an aspect of the present invention for solving the above-described problems, a computer program stored in a recording medium readable by a computer is provided to be combined with a computer that is hardware, and to perform a relief model generating method according to the disclosed embodiment.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific matters of the present invention are included in the detailed description and drawings.

본 발명의 실시예들을 통해, 환자의 일반적인 의료영상데이터을 기반으로 생성된 신체모델을 최소 침습 수술(예를 들어, 로봇수술, 복강경수술) 시의 기복상태로 구현함에 따라, 의료영상데이터에 의해 구현된 가상신체모델과 실제 환자 신체에서의 카메라 진입 위치 및 방향을 일치시킬 수 있다. Through the embodiments of the present invention, the body model generated based on the general medical image data of the patient is implemented by the medical image data as it is implemented in a relief state during minimally invasive surgery (eg, robot surgery, laparoscopic surgery). It is possible to match the position and orientation of the camera with the virtual body model in the actual patient's body.

또한, 환자의 일반적인 의료영상데이터을 기반으로 생성된 신체모델을 최소 침습 수술(예를 들어, 로봇수술, 복강경수술) 시의 기복상태로 구현하면서, 기복알고리즘 구현을 위한 학습데이터를 획득할 수 있다. 즉, 기존 환자의 의료영상데이터 기반의 신체모델을 수술 전 기복된 신체표면 스캐닝 데이터로 변형함에 따라 기복알고리즘을 학습시키기 위한 학습데이터를 획득하고, 학습데이터를 기반으로 학습된 기복알고리즘을 통해 새로운 환자의 의료영상데이터로 수술 시의 기복상태와 동일하게 구현할 수 있다.In addition, while the body model generated based on the patient's general medical image data is implemented in a undulating state during minimally invasive surgery (for example, robotic surgery or laparoscopic surgery), learning data for implementing the relief algorithm can be obtained. That is, as the body model based on the medical image data of the existing patient is transformed into undulating body surface scanning data before surgery, learning data for learning the relief algorithm is acquired, and new patients are obtained through the learning algorithm based on the learning data. The medical image data can be implemented in the same manner as the relief state during surgery.

따라서, 의료진은 최소침습수술 시와 동일한 카메라 뷰 방향으로 수술 전에 시뮬레이션을 수행함에 따라 실제 수술 시에 시뮬레이션 시와 동일한 영상을 보면서 수술할 수 있어서, 실제에 동일한 상황에서 수술 연습을 수행하여 실제 수술 시의 예상치 못한 상황을 미리 대비할 수 있다. 또한, 실제 수술시에 기복된 환자 신체와 동일하게 신체 표면이 구현된 가상신체모델에서 동일한 위치 및 방향으로 가상카메라를 진입시킴에 따라, 의료진이 카메라를 통해 실제로 보는 화면과 가상신체모델 상의 가상카메라가 주시하는 방향이 동일하여 의료진이 최소 침습 수술을 수행하고 있는 위치에 대한 정확한 정보를 가상신체모델을 통해 전달하여 수술보조를 수행할 수 있다.Therefore, the medical staff can perform the surgery while viewing the same image as the simulation at the time of actual surgery as the simulation is performed before the surgery in the same camera view direction as at the time of minimally invasive surgery. Can prepare for unexpected situations. In addition, as the virtual camera enters the virtual camera in the same position and direction in the virtual body model that has the same body surface as the patient's body that is undulated during the actual surgery, the screen that the medical staff actually sees through the camera and the virtual camera on the virtual body model Since the direction of the gaze is the same, it is possible to perform surgical assistance by transmitting accurate information about the location where the medical staff is performing minimally invasive surgery through a virtual body model.

또한, 실제 수술 자세와 동일한 자세로 촬영된 의료영상데이터를 이용하여 3차원 신체모델을 구현함에 따라, 가상신체모델의 장기 배치를 실제 수술 시 신체 내부의 장기 배치와 동일하게 구현할 수 있다. 이를 통해, 동일한 위치에서 동일한 방향으로 진입한 카메라를 통해 제공된 영상 정보가 동일하게 구현할 수 있다.In addition, as the 3D body model is implemented using medical image data photographed in the same posture as the actual surgical posture, the organ disposition of the virtual body model can be implemented in the same manner as the organ disposition inside the body during actual surgery. Through this, the image information provided through the camera entering the same direction from the same location can be implemented identically.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시 예에 따라 기복 모델을 생성하는 방법을 간략하게 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따라 실제 수술 자세를 반영한 의료영상 획득을 위해 보조 장치를 이용한 예시도면이다.
도 3은 환자의 의료영상 데이터와 기복 상태인 환자의 신체를 스캔한 스캔 데이터를 도시한 도면이다.
도 4는 컴퓨터가 정합을 수행하는 일 예를 도시한 흐름도이다.
도 5는 포인트 기반 정합을 수행하는 일 예를 도시한 도면이다.
도 6은 와핑을 수행하는 일 예를 도시한 도면이다.
도 7은 비강체 정합의 일 예를 도시한 도면이다.
도 8은 일 실시 예에 따른 장치의 구성도이다.
도 9는 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
1 is a flowchart briefly illustrating a method of generating a relief model according to an embodiment.
2 is an exemplary view using an auxiliary device for obtaining a medical image reflecting an actual surgical posture according to an embodiment of the present invention.
FIG. 3 is a view showing medical image data of a patient and scan data of a patient's body in an upset state.
4 is a flowchart illustrating an example in which a computer performs matching.
5 is a diagram illustrating an example of performing point-based matching.
6 is a diagram illustrating an example of performing warping.
7 is a view showing an example of non-rigid matching.
8 is a configuration diagram of an apparatus according to an embodiment.
9 is a schematic diagram of a system capable of performing robotic surgery according to the disclosed embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and / or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. Throughout the specification, the same reference numerals refer to the same components, and “and / or” includes each and every combination of one or more of the components mentioned. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.

명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.The term "part" or "module" as used in the specification refers to a hardware component such as software, FPGA or ASIC, and "part" or "module" performs certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The "unit" or "module" may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, “part” or “module” means components, processes, functions, attributes, such as software components, object-oriented software components, class components and task components. Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functionality provided within components and "parts" or "modules" can be combined into a smaller number of components and "parts" or "modules" or into additional components and "parts" or "modules" Can be further separated.

본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.In the present specification, 'computer' includes all of various devices capable of performing arithmetic processing and providing a result to a user. For example, the computer is a desktop PC, a notebook (Note Book), as well as a smart phone (Smart phone), tablet PC, cellular phone (Cellular phone), PC phone (PCS phone; Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), and a Personal Digital Assistant (PDA) may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. Also, the computer may be a server that receives a request from a client and performs information processing.

본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3D 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다. In this specification, "image" may mean multi-dimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). For example, the image may include a medical image of an object acquired by the CT imaging device.

본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. As used herein, "object" may be a person or animal, or a part or all of a person or animal. For example, the subject may include at least one of organs such as the liver, heart, uterus, brain, breast, and abdomen, and blood vessels.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.In the present specification, “user” may be a medical expert, a doctor, a nurse, a clinical pathologist, a medical imaging expert, or the like, but may be a technician repairing a medical device, but is not limited thereto.

본 명세서에서 "의료영상데이터"는 의료영상 촬영장비로 촬영되는 의료영상으로서, 대상체의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함한다. "의료영상데이터"는 컴퓨터 단층촬영(Computed Tomography; CT)영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 등을 포함할 수 있다.In the present specification, "medical image data" is a medical image photographed by a medical imaging device, and includes all medical images capable of realizing a body of an object as a 3D model. The "medical image data" may include computed tomography (CT) images, magnetic resonance imaging (MRI), positron tomography (PET) images, and the like.

본 명세서에서 "가상신체모델"은 의료영상데이터를 기반으로 실제 환자의 신체에 부합하게 생성된 모델을 의미한다. "가상신체모델"은 의료영상데이터를 그대로 3차원으로 모델링하여 생성한 것일 수도 있고, 모델링 후에 실제 수술 시와 같게 보정한 것일 수도 있다.In this specification, "virtual body model" refers to a model generated in conformity with an actual patient's body based on medical image data. The "virtual body model" may be generated by modeling medical image data in three dimensions as it is, or it may be corrected as in actual surgery after modeling.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

이하에서는, 컴퓨터(예를 들어, 제어부(30), 서버(100) 또는 수술실에 구비되는 컴퓨팅 장치)가 수행할 수 있는, 기복모델 생성방법에 대하여 설명한다. 예를 들어, 제어부(30), 서버(100) 또는 수술실에 구비되는 컴퓨팅 장치는 스캐닝 장비로부터 획득되는, 사용자의 신체 외형에 기초하여, 의료영상 촬영장비(10)로부터 획득된 환자의 의료영상 데이터(예를 들어, 의료영상으로부터 생성된 3D 모델)를 정합하는 방법을 수행한다.Hereinafter, a method of generating a relief model, which can be performed by a computer (for example, a control unit 30, a server 100, or a computing device provided in an operating room) will be described. For example, the computing device provided in the control unit 30, the server 100, or the operating room is obtained from a scanning device, based on a user's body appearance, medical image data of a patient obtained from the medical imaging device 10 A method of matching (eg, a 3D model generated from medical images) is performed.

구체적으로, 최소침습수술(예를 들어, 복강경 수술 또는 로봇 수술)을 수행하는 경우, 신체를 관통한 트로카(Trocar)를 통해 신체에 진입한 카메라를 통해 신체 내부의 일부 범위를 확인하면서 다른 위치에 삽입된 하나 이상의 트로카(Trocar)를 통해 진입한 수술도구로 수술을 수행한다. 수술도구가 움직일 공간을 제공하기 위해 최소 침습 수술 시에는 신체 내부(예를 들어, 복부 수술을 수행하는 경우에 복벽 사이 공간)에 기체(예를 들어, 이산화탄소)를 주입한다.Specifically, in the case of performing minimally invasive surgery (for example, laparoscopic surgery or robotic surgery), other locations are identified while checking some ranges inside the body through a camera entering the body through a trocar penetrating the body. Surgery is performed with surgical instruments that have entered through one or more trocars inserted in. In order to provide a space for the surgical tool to move, a gas (for example, carbon dioxide) is injected into the body (for example, a space between the abdominal walls when performing abdominal surgery) during minimally invasive surgery.

의료진은 실제 수술 전에 미리 수술을 시뮬레이션 수행하여 실제 수술 시에 발생할 수 있는 변수를 대비하기를 원한다. 실제 수술을 연습하기 위해서는 실제 수술과 동일한 환경에서 시뮬레이션을 수행하여야 한다. 최소 침습 수술은 신체 내부에 삽입된 카메라(즉, 내시경)만으로 확인하면서 수술을 하게 되므로, 시뮬레이션 시에 전혀 다른 위치 또는 방향으로 표시된 영상으로 연습을 한 후에 실제 수술을 진행하게 되면, 의료진에게 실제 수술 시에 제공되는 영상이 전혀 다르기 때문에 연습 효과를 전혀 얻을 수 없다. 특히, 신체 수술 시의 환자 신체 상태와 동일하게 가상신체모델을 모델링을 수행하더라도, 카메라가 상이한 위치 또는 방향으로 진입하게 되면 전혀 다른 영상을 보면서 연습을 수행하여 연습효과를 얻을 수 없다.The medical staff wants to prepare for the variables that may occur during the actual surgery by simulating the surgery in advance before the actual surgery. In order to practice actual surgery, simulation must be performed in the same environment as actual surgery. Since minimally invasive surgery is performed by checking only the camera (ie, endoscope) inserted inside the body, if the actual surgery is performed after practicing with images displayed in a completely different position or direction during simulation, the actual surgery to the medical staff is performed. Because the video provided in the poem is completely different, it is impossible to obtain a practice effect at all. In particular, even if the virtual body model is modeled in the same manner as the patient's body state during physical surgery, when the camera enters in a different position or direction, it is impossible to obtain a practice effect by performing exercises while viewing completely different images.

환자 신체에 기복 상태가 적용되면 신체 표면(예를 들어, 복부 표면)의 형상이 변형됨에 따라, 기복되지 않은 3차원 신체모델에 기복된 신체 표면과 동일한 위치를 지정하더라도, 카메라가 삽입되는 각도가 달라지게 된다. 따라서, 수술 시뮬레이션을 수행하기 위한 가상신체모델 생성 시에 실제 수술 시와 동일하게 기복상태가 적용된 신체 표면을 구현할 필요가 있다.When the relief state is applied to the patient's body, as the shape of the body surface (e.g., the abdominal surface) is deformed, even if the same position as the undulated body surface is assigned to the undulated 3D body model, the angle at which the camera is inserted Will be different. Therefore, when creating a virtual body model for performing a surgical simulation, it is necessary to implement a body surface to which a relief state is applied in the same way as in an actual surgery.

도 1은 일 실시 예에 따라 기복 모델을 생성하는 방법을 간략하게 도시한 흐름도이다. 1 is a flowchart briefly illustrating a method of generating a relief model according to an embodiment.

도 1에 도시된 각 단계들은 후술되는 제어부(30), 서버(100) 또는 수술실에 구비되는 컴퓨팅 장치 등의 컴퓨터에 의하여 시계열적으로 수행된다. 이하에서는, 설명의 편의를 위하여 도 1 및 이하에서 서술되는 각 단계들이 컴퓨터에 의하여 수행되는 것으로 서술한다. 하지만, 도 1 및 이하에서 서술되는 각 단계들의 적어도 일부 또는 전부는 제어부(30), 서버(100) 또는 수술실에 구비되는 컴퓨팅 장치에 의하여 수행될 수 있으며, 또한 그 주체는 이에 제한되지 않는다.Each step illustrated in FIG. 1 is performed in time series by a computer such as a control unit 30, a server 100, or a computing device provided in an operating room, which will be described later. Hereinafter, for convenience of description, it is described that each step described in FIG. 1 and below is performed by a computer. However, at least some or all of the steps described in FIG. 1 and below may be performed by the control unit 30, the server 100, or a computing device provided in the operating room, and the subject is not limited thereto.

단계 S110에서, 컴퓨터는 환자의 의료영상 데이터를 획득한다.In step S110, the computer acquires the medical image data of the patient.

일 실시 예에서, 의료영상 데이터는 상술한 의료영상 촬영장비(10)로부터 획득되는 의료영상을 포함하며, 그 종류는 제한되지 않는다. 예를 들어, 의료영상 데이터는 환자의 신체를 촬영한 CT 영상 데이터를 포함할 수 있고, CT 영상 데이터로부터 생성된 3D 모델링 영상 데이터를 포함할 수 있다.In one embodiment, the medical image data includes medical images obtained from the above-described medical image photographing equipment 10, and the type is not limited. For example, the medical image data may include CT image data of a patient's body, and may include 3D modeling image data generated from CT image data.

의료영상 촬영장치(예를 들어, CT 시스템)에서 획득된 환자의 3차원 의료영상은 의료영상 촬영장치(예를 들어, CT 시스템) 또는 외부 컴퓨터에 의하여 3D 모델링 영상을 생성하는 데 이용된다. 예를 들어, CT 시스템 또는 외부 컴퓨터는 환자의 3차원 의료영상을 이용하여 3D 모델링 영상을 렌더링하여 생성할 수 있다.The patient's 3D medical image obtained by the medical image capturing apparatus (for example, CT system) is used to generate a 3D modeling image by a medical image capturing apparatus (for example, CT system) or an external computer. For example, a CT system or an external computer may generate a 3D modeled image by rendering a 3D medical image of a patient.

일 실시 예로, CT 시스템은 갠트리, 테이블, X-ray 생성부 및 X-ray 검출부를 포함할 수 있다. 갠트리는 X-ray 생성부 및 X-ray 검출부를 포함할 수 있다. 환자는 테이블 상에 위치될 수 있고, 테이블은 CT 촬영 과정에서 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동할 수 있다. 테이블이 움직임에 따라 CT시스템은 3차원 신체 모델링 데이터 생성에 이용되는 복수의 신체 단면이미지를 획득한다.In one embodiment, the CT system may include a gantry, a table, an X-ray generator, and an X-ray detector. The gantry may include an X-ray generator and an X-ray detector. The patient may be placed on the table, and the table may move in a predetermined direction (eg, at least one of up, down, left, and right) during CT imaging. As the table moves, the CT system acquires a plurality of body cross-section images used for generating 3D body modeling data.

또한, 일 실시 예로, 의료진은 실제 수술시와 유사한 환자의 내부 장기 모양을 갖는 3차원 의료영상을 획득하기 위해 소정의 전처리 동작을 수행하거나 의료영상 촬영장치에 요청한다. 일반적으로 환자가 수평상태로 누운 상태에서 CT 시스템을 통하여 획득되는 환자의 3차원 영상에 포함된 내부 장기의 모양 또는 배치 상태는 수술시 환자의 내부 장기의 모양 또는 배치상태와 상이할 수 있다. 즉, 실제 수술 시에는 수술 유형 또는 수술 부위 등에 의해 환자의 수술자세가 바로 누운 자세와 상이하게 될 수 있으므로, 환자의 신체 장기가 중력 영향을 상이하게 받아서 배치상태가 달라질 수 있다. 즉, 수술시 환자가 눕혀지는 각도에 따른 중력의 영항으로 환자의 내부 장기 모양이 달라질 수 있다.In addition, in one embodiment, the medical staff performs a predetermined pre-processing operation or requests the medical imaging apparatus to obtain a 3D medical image having a shape of an internal organ of a patient similar to that of an actual operation. In general, the shape or arrangement of the internal organs included in the 3D image of the patient obtained through the CT system while the patient is lying in a horizontal state may differ from the shape or arrangement of the internal organs of the patient during surgery. That is, in the actual operation, the patient's surgical posture may be different from the reclined posture depending on the type of surgery or the surgical site, so the patient's body organs may be subject to different gravitational effects and thus the arrangement state may be different. That is, the shape of the internal organs of the patient may be changed due to the influence of gravity depending on the angle at which the patient is laid during surgery.

일 실시 예에서, 의료영상 획득장치은 테이블 또는 갠트리를 소정의 각도 기울여서 환자의 3차원 의료영상을 획득할 수 있다. 예를 들어, CT 시스템은 테이블을 15도 기울여서(즉, 환자 또한 15도 기울여서) 환자의 3차원 의료영상을 획득할 수 있다.또한, 다른 일실시예로, 도 2에서와 같이, 의료진은 실제 수술 시와 동일한 장기 배치를 구현할 수 있는 보조장치를 이용하여 일반적인 갠트리 내에서 실제 수술 부위를 실제 수술 시와 동일한 상태로 구현할 수 있다. 즉, 15도를 역으로 기울여서 수술하여야 하는 경우, 의료진은 환자의 의료영상 촬영 시에 환자 하체 쪽에 보조장치를 배치할 수 있다.일 실시 예에서, 단계 S110에서 획득되는 환자의 의료영상 데이터는 환자를 소정의 각도(예를 들어, 15도) 기울인 상태에서 촬영된 CT 영상으로부터 획득되는 3차원 의료영상을 의미할 수 있으나, 이에 제한되는 것은 아니다.In one embodiment, the apparatus for obtaining a medical image may acquire a 3D medical image of a patient by tilting a table or a gantry at a predetermined angle. For example, the CT system can acquire a 3D medical image of the patient by tilting the table 15 degrees (ie, the patient also tilts 15 degrees). In another embodiment, as shown in FIG. 2, the medical staff can actually By using an assisting device capable of implementing the same long-term arrangement as in surgery, the actual surgical site in the general gantry can be implemented in the same state as in actual surgery. That is, when surgery is to be performed by inclining 15 degrees in reverse, the medical staff may place an auxiliary device on the lower body side of the patient when taking a medical image of the patient. In one embodiment, the medical image data of the patient obtained in step S110 is the patient May mean a 3D medical image obtained from a CT image taken at a predetermined angle (for example, 15 degrees), but is not limited thereto.

단계 S120에서, 컴퓨터는 기복(pneumoperitoneum) 상태인 환자의 신체를 스캔한 스캔 데이터를 획득한다.In step S120, the computer acquires scan data that scans the patient's body in a pneumoperitoneum state.

일 실시 예에서, 기복 상태는 수술을 위해 환자의 신체에 가스를 주입한 상태를 의미한다. 컴퓨터는 기복 상태인 환자의 신체를 스캔한 스캔 데이터(예를 들어, 피부를 스캔하여 획득된 신체의 외양에 대한 데이터)를 획득한다.In one embodiment, the relief state refers to a state in which gas is injected into a patient's body for surgery. The computer acquires scan data (eg, data on the appearance of the body obtained by scanning the skin) that scans the patient's body in a undulating state.

도 3을 참조하면, 환자의 의료영상 데이터(200)와 기복 상태인 환자의 신체를 스캔한 스캔 데이터(300)가 도시되어 있다.Referring to FIG. 3, the medical image data 200 of the patient and the scan data 300 that scan the patient's body in an upset state are illustrated.

실시 예에 따라, 의료영상 데이터(200)는 환자의 신체를 기울임으로써 기복상태와 유사한 상태의 영상을 획득한 것일 수 있다. 하지만, 도 3에 도시된 스캔 데이터(300)와 같이 기복상태의 신체는 가스로 인하여 배가 부풀어오르는 등 의료영상 데이터(200)와 차이점이 발생하게 된다.According to an embodiment, the medical image data 200 may be obtained by tilting the patient's body to obtain an image in a state similar to the relief state. However, as shown in the scan data 300 shown in FIG. 3, the body in an undulating state is different from the medical image data 200 such as a stomach swelling due to gas.

따라서, 단계 S130에서 컴퓨터는 의료영상 데이터(200)를 스캔 데이터(300)에 정합하여 기복 신체 모델을 생성한다. 예를 들어, 상기 스캔 데이터(300)은 수술 전에 환자 신체 내에 이산화탄소를 주입한 후에 기복된 복부를 수직으로 바라보는 방향 또는 바닥에 수직한 방향에서 3D 스캐너로 촬영되어 획득될 수 있다.Accordingly, in step S130, the computer matches the medical image data 200 to the scan data 300 to generate a relief body model. For example, the scan data 300 may be obtained by shooting with a 3D scanner in a direction vertically or vertically on the floor after injecting carbon dioxide into the patient's body before surgery.

일 실시 예에서, 컴퓨터는 의료영상 데이터(200)의 외양을 스캔 데이터(300)에 따라 변형시킨다. 또한, 기복상태 구현에 따라 장기 배치가 변형되는 경우, 컴퓨터는 이에 대응하도록 의료영상 데이터(200)에 포함된 내부 장기 배치 구조 또한 함께 변형되도록 하는 정합을 수행할 수 있다.In one embodiment, the computer transforms the appearance of the medical image data 200 according to the scan data 300. In addition, when the organ configuration is modified according to the relief state implementation, the computer may perform a matching such that the internal organ configuration structure included in the medical image data 200 is also modified.

또한, 일 실시 예로, 스캔 데이터(300)와의 정합을 수행하기 전에, 컴퓨터는 의료영상 데이터(200)의 전처리 과정을 수행할 수 있다. 예를 들어, 컴퓨터는 의료영상 촬영장치로부터 3차원으로 모델링된 의료영상 데이터를 획득하거나 의료영상 촬영장치에 의해 획득된 연속된 프레임의 2차원 영상데이터를 기반으로 3차원 모델링데이터를 생성한 후, 3차원 모델링데이터에서 신체표면을 분리하는 과정을 수행한다. 즉, 컴퓨터는 기복이 반영되지 않은 3차원 신체모델에서 분리된 피부 모델 또는 신체 표면 모델을 생성한다. 컴퓨터는 스캔데이터(300)와 정합과정에서 의료영상 데이터로 3차원 신체모델을 직접 이용할 수도 있고, 신체 표면 모델(또는 피부 모델)을 이용할 수도 있다.In addition, as an example, before performing matching with the scan data 300, the computer may perform a pre-processing process of the medical image data 200. For example, the computer acquires medical image data modeled in three dimensions from the medical image photographing apparatus or generates three-dimensional modeling data based on two-dimensional image data of a continuous frame obtained by the medical image photographing apparatus, The process of separating the body surface from the 3D modeling data is performed. That is, the computer generates a skin model or a body surface model separated from a 3D body model in which relief is not reflected. In the matching process with the scan data 300, the computer may directly use a 3D body model as medical image data, or may use a body surface model (or skin model).

일 실시예로, 의료영상 데이터로 CT영상데이터를 이용하는 경우, 신체 표면 모델을 생성하기 위해, 컴퓨터는 밝기값을 기반으로 신체 표면을 분리하는 과정을 수행한다. 구체적으로, CT영상에서 피부는 낮은 밝기값을 가지고 있기 때문에, 컴퓨터는 -300HU으로 임계값을 산정하고, 임계값 범위 내의 한 지점을 자동으로 추출하여 씨앗 점으로 산정하고 영역 확장법을 이용하여 전체 복부 영역을 분할하고, 홀 채움 기법을 이용하여 내부를 채워준다. 그 후, 컴퓨터는 분할된 영역에서 피부 표면에 대한 표면 데이터로 만들어주기 위해 마칭 큐브 알고리즘을 사용하여 피부 표면 데이터로 변형한다.In one embodiment, when CT image data is used as medical image data, in order to generate a body surface model, the computer performs a process of separating the body surface based on the brightness value. Specifically, in the CT image, since the skin has a low brightness value, the computer calculates a threshold value of -300 HU, automatically extracts a point within the threshold range, calculates it as a seed point, and uses the region expansion method The abdominal region is divided and the inside is filled using a hole filling technique. Thereafter, the computer transforms the skin surface data using a marching cube algorithm to generate surface data for the skin surface in the divided region.

또한, 신체 표면 모델을 이용하여 정합 과정을 수행하고자 하는 경우, 컴퓨터는 스캔데이터와의 정합에 이용되지 않는 불필요한 부분을 삭제하는 과정을 추가로 수행할 수 있다. 즉, 복부 기복을 수행하는 경우, 컴퓨터는 전체 피부 표면 데이터에서 기복 형성과 관련이 없는 불필요한 등쪽 영역을 제거하는 과정을 수행한다.In addition, when it is desired to perform a matching process using a body surface model, the computer may additionally perform a process of deleting unnecessary parts that are not used for matching with scan data. That is, when performing abdominal undulation, the computer performs a process of removing unnecessary dorsal areas not related to undulation formation from the entire skin surface data.

구체적으로, 환자를 특정 각도로 기울여서 촬영한 영상인 경우, 전체 프레임에서 동일한 위치를 기준으로 불필요한 부분을 제거하기 어려우므로, 시상면(Sagittal Plane)을 기준으로 가장 상단 프레임에서 등부분에 해당하는 지점과 가장 하단 프레임에서 등 부분에 해당하는 지점을 사용자로부터 입력받아 직선을 생성하고, 각 프레임에서 제거해야하는 영역을 산출할 수 있다.Specifically, in the case of an image taken by tilting the patient at a specific angle, it is difficult to remove unnecessary parts based on the same position in the entire frame, so the point corresponding to the back part in the top frame based on the sagittal plane And a point corresponding to the back portion in the bottom frame is input from the user to generate a straight line, and an area to be removed in each frame can be calculated.

도 4는 컴퓨터가 정합을 수행하는 일 예를 도시한 흐름도이다.4 is a flowchart illustrating an example in which a computer performs matching.

단계 S132에서, 컴퓨터는 포인트 기반 정합(Point-based registration)을 수행한다.In step S132, the computer performs point-based registration.

일 실시 예에서, 컴퓨터는 의료영상 데이터(200) 및 스캔 데이터(300) 로부터 각각 하나 이상의 랜드마크(landmarks)를 선택한다. 예를 들어, 랜드마크는 갈비뼈, 배꼽, 골반 등의 특징적인 부분으로부터 선택될 수 있다.In one embodiment, the computer selects one or more landmarks from the medical image data 200 and the scan data 300, respectively. For example, the landmark may be selected from characteristic parts such as ribs, belly button, and pelvis.

일 실시 예에서, 랜드마크는 사용자에 의하여 선택될 수도 있고, 컴퓨터에 의하여 자동으로 선택될 수도 있다. 예를 들어, 컴퓨터는 랜드마크의 특징에 대한 정보에 기초하여 영상 인식을 통해 자동으로 랜드마크를 선택할 수 있다. 또한, 컴퓨터는 랜드마크 위치가 라벨링된 학습 데이터에 기초하여 학습된 모델을 이용, 영상으로부터 랜드마크를 자동으로 획득할 수 있다.In one embodiment, the landmark may be selected by the user or may be automatically selected by the computer. For example, the computer may automatically select the landmark through image recognition based on information on the feature of the landmark. In addition, the computer may automatically acquire the landmark from the image using the model trained based on the training data labeled with the landmark location.

도 5는 포인트 기반 정합을 수행하는 일 예를 도시한 도면이다.5 is a diagram illustrating an example of performing point-based matching.

도 5를 참조하면, 정합을 수행할 대상인 의료영상 데이터(210) 및 정합의 레퍼런스(reference)로서 이용될 스캔 데이터(310)가 도시되어 있다. 도 5에 도시된 실시 예에서, 스캔 데이터(310)는 하얀 점들로 도시되어 의료영상 데이터(210)에 오버래핑된 부분을 의미한다.Referring to FIG. 5, medical image data 210 to be matched and scan data 310 to be used as a reference for registration are illustrated. In the embodiment illustrated in FIG. 5, the scan data 310 is illustrated as white dots and means a portion overlapped with the medical image data 210.

도 5를 참조하면, 의료영상 데이터(210)에서 선택된 하나 이상의 랜드마크(보라색 점)와 스캔 데이터(310)에서 선택된 하나 이상의 랜드마크(빨간색 점)가 도시되어 있다. Referring to FIG. 5, one or more landmarks (purple dots) selected from the medical image data 210 and one or more landmarks (red dots) selected from the scan data 310 are illustrated.

일 실시 예에서, 컴퓨터는 의료영상 데이터(210)에서 선택된 하나 이상의 랜드마크 각각을 스캔 데이터(310)에서 선택된 하나 이상의 랜드마크 각각에 따라 정합시킨다. In one embodiment, the computer matches each of the one or more landmarks selected from the medical image data 210 with each of the one or more landmarks selected from the scan data 310.

예를 들어, 컴퓨터는 의료영상 데이터(210)에서 선택된 하나 이상의 랜드마크를 스캔 데이터(310)에서 선택된 하나 이상의 랜드마크 방향으로 이동시키는 방식으로, 포인트 기반 정합을 수행할 수 있다.For example, the computer may perform point-based matching by moving one or more landmarks selected from the medical image data 210 in the direction of one or more landmarks selected from the scan data 310.

일 실시 예에서, 컴퓨터는 의료영상 데이터(210)에 포함된 하나 이상의 랜드마크가 스캔 데이터(310)에 포함된 하나 이상의 랜드마크 방향으로 이동됨에 따라 의료영상 데이터(210)에 포함된 내부 장기의 위치, 모양 및 구조 등도 이에 따라 변경시킬 수 있다.In one embodiment, the computer may move the internal organs included in the medical image data 210 as one or more landmarks included in the medical image data 210 are moved in the direction of one or more landmarks included in the scan data 310. The position, shape and structure can also be changed accordingly.

일 실시 예에서, 컴퓨터는 포인트 기반 정합 방법으로서 의료영상 데이터(210)를 x, y, z축 방향으로 변환(translation)하거나, 회전(rotation)하거나, 크기(scale)를 변경시킬 수 있다. In an embodiment, the computer may transform, rotate, or change the medical image data 210 in the x, y, and z-axis directions as a point-based matching method.

단계 S134에서, 컴퓨터는 의료영상 데이터(200)를 스캔 데이터(300)에 따라 와핑(warping)할 수 있다. In step S134, the computer may warp the medical image data 200 according to the scan data 300.

예를 들어, 컴퓨터는 의료영상 데이터(200)를 스캔 데이터(300)에 따라 TPS(Thin Plate Spline) 와핑할 수 있다. For example, the computer may warp the medical image data 200 according to the scan data 300 to a thin plate spline (TPS).

도 6은 와핑을 수행하는 일 예를 도시한 도면이다.6 is a diagram illustrating an example of performing warping.

도 6을 참조하면, 컴퓨터는 의료영상 데이터(220)를 스캔 데이터(320)에 따라 와핑할 수 있다. Referring to FIG. 6, the computer may warp medical image data 220 according to the scan data 320.

일 실시 예에서, 도 6에 도시된 의료영상 데이터(220)는 도 5에 도시된 의료영상 데이터(210)를 스캔 데이터(310)에 따라 포인트 기반 정합을 수행한 결과에 따라 획득된 것일 수 있다.In one embodiment, the medical image data 220 shown in FIG. 6 may be obtained according to a result of performing point-based matching on the medical image data 210 shown in FIG. 5 according to the scan data 310. .

일 실시 예에서, 컴퓨터는 의료영상 데이터(220)로부터 하나 이상의 랜드마크를 선택한다. 일 실시 예에서, 의료영상 데이터(220)로부터 선택되는 랜드마크는 도 5의 의료영상 데이터(210)로부터 선택된 랜드마크의 적어도 일부 또는 전부를 포함할 수 있다. In one embodiment, the computer selects one or more landmarks from the medical image data 220. In one embodiment, the landmark selected from the medical image data 220 may include at least part or all of the landmark selected from the medical image data 210 of FIG. 5.

예를 들어, 컴퓨터는 갈비뼈, 배꼽 및 골반 등에서 하나 이상의 랜드마크를 선택하고, 선택된 랜드마크에 기반하여 의료영상 데이터(220)를 스캔 데이터(320)에 따라 와핑할 수 있다. 컴퓨터는 기복에 따른 신체의 변화정도를 평가하고, 이에 따라 와핑 기법을 이용하여 의료영상 데이터(220)를 스캔 데이터(320)에 정합시킬 수 있다.For example, the computer may select one or more landmarks from the ribs, belly button, and pelvis, and warp the medical image data 220 according to the scan data 320 based on the selected landmark. The computer may evaluate the degree of change in the body according to the relief, and accordingly, may match the medical image data 220 to the scan data 320 using a warping technique.

단계 S136에서, 컴퓨터는 의료영상 데이터(200)를 스캔 데이터(300)에 따라 비강체 정합(non-rigid registration)할 수 있다. 예를 들어, 컴퓨터는 B-Spline 비강체 정합을 수행할 수 있다.In step S136, the computer may perform non-rigid registration of the medical image data 200 according to the scan data 300. For example, a computer can perform B-Spline non-rigid matching.

컴퓨터는 컴퓨터는 기복에 따른 신체의 변화정도를 평가하고, 이에 따라 의료영상 데이터(200)에 대한 B-Spline 비강체 정합을 수행할 수 있다.The computer may evaluate the degree of change of the body according to the relief, and thus perform B-Spline non-rigid matching on the medical image data 200.

도 7은 비강체 정합의 일 예를 도시한 도면이다.7 is a view showing an example of non-rigid matching.

도 7을 참조하면, 의료영상 데이터(230)에 대하여 스캔 데이터(330)에 따라 비강체 정합을 수행하는 일 예가 도시되어 있다.Referring to FIG. 7, an example of performing non-rigid matching according to the scan data 330 with respect to the medical image data 230 is illustrated.

일 실시 예에서, 의료영상 데이터(230)는 도 6의 의료영상 데이터(220)에 대하여 와핑을 수행한 결과로서 획득될 수 있다.In one embodiment, the medical image data 230 may be obtained as a result of warping the medical image data 220 of FIG. 6.

컴퓨터는 의료영상 데이터(230)에 대한 비강체 정합을 수행함으로써, 스캔 데이터(330)에 의료영상 데이터(230)를 정합시킬 수 있다.The computer may match the medical image data 230 to the scan data 330 by performing non-rigid matching on the medical image data 230.

일 실시 예에서, 컴퓨터는 정합을 수행함에 있어서, 기복 상태에 따라 신체의 외양(즉, 신체 표면)가 변경되는 모양을 예측하기 위하여, 상술한 정합 방법에 더하여 환자의 성별 및 지방분포율 등을 포함하는 환자의 신체특성에 대한 정보를 활용할 수 있다. In one embodiment, the computer includes a patient's gender and fat distribution in addition to the above-described matching method, in order to predict a shape in which the appearance (ie, the body surface) of the body changes according to the relief state in performing matching. Information on the physical characteristics of the patient.

일 실시 예에서, 컴퓨터는 환자의 신체특성을 나타내는 하나 이상의 지표 및 환자의 기복 전후 의료영상 데이터를 학습 데이터로 하여, 환자의 기복 전 의료영상 데이터로부터 기복 후 신체특성을 획득할 수 있는 모델을 학습시킬 수 있다. 실시 예에 따라서, 학습 데이터에는 신체를 스캔한 데이터가 더 포함될 수 있다. In one embodiment, the computer learns a model capable of acquiring physical characteristics after relief from medical image data before and after the patient's relief by using one or more indicators representing the patient's physical characteristics and medical image data before and after the patient's relief. I can do it. Depending on the embodiment, the learning data may further include body scan data.

즉, 컴퓨터는 학습된 모델을 이용하여, 환자의 기복 전 의료영상 데이터, 환자의 신체특성을 나타내는 하나 이상의 지표 및 환자의 기복 후 스캔 데이터로부터 기복 후 환자의 내부 장기의 위치, 형태 및 구조가 반영된 모델을 획득할 수 있다.That is, the computer uses the trained model to reflect the position, shape, and structure of the patient's internal organs after relief from the patient's pre-relief medical image data, one or more indicators representing the patient's body characteristics, and the patient's post-relief scan data. Models can be acquired.

각각의 학습과정은 도 4에 도시된 흐름도에 따른 각각의 정합방법을 고도화시키기 위하여서도 이용될 수 있으며, 상술한 바와 같이 환자의 신체 특성에 대한 정보로부터 환자의 내부 장기상태를 판단하는 데에도 활용될 수 있다.Each learning process can also be used to advance each matching method according to the flow chart shown in FIG. 4, and can also be used to determine the internal organ condition of the patient from information on the patient's body characteristics as described above. Can be.

또한, 다른 일실시예로, 컴퓨터는 복수의 환자별 3차원 신체모델의 신체표면이 스캔 데이터(300)로 변형되는 정보(예를 들어, 기복 전의 3차원 신체모델 내의 랜드마크가 스캔데이터 상에 대응되는 랜드마크로 이동하는 벡터데이터)를 누적하여, 기복상태 구현을 위한 통계모델 또는 학습모델을 구현한다. 이를 통해, 컴퓨터는 새로운 환자의 의료영상데이터을 기반으로 생성된 3차원 신체모델을 기복상태 구현을 위한 통계모델 또는 학습모델에 적용하여 기복이 적용된 가상신체모델로 변형할 수 있다.In addition, in another embodiment, the computer may include information on which body surfaces of a plurality of patient-specific 3D body models are transformed into scan data 300 (eg, landmarks in a 3D body model before relief are on the scan data). By accumulating vector data moving to the corresponding landmark), a statistical model or a learning model for realizing a relief state is implemented. Through this, the computer can transform the 3D body model generated on the basis of the medical image data of the new patient into a virtual body model to which relief is applied by applying it to a statistical model or a learning model for realizing the relief state.

또한, 다른 일실시예로, 컴퓨터는 상기 통계모델 또는 학습모델 구현 시에 이용된 데이터에 각 환자의 신체정보(예를 들어, 키, 몸무게, BMI 등)을 함께 포함할 수 있다. 이를 통해, 컴퓨터는 환자 신체 조건에 따른 신체 표면 변화 특성을 반영하여 기복모델(즉, 기복상태가 반영된 가상신체모델)을 구현할 수 있다.In addition, in another embodiment, the computer may include body information (eg, height, weight, BMI, etc.) of each patient in data used when implementing the statistical model or learning model. Through this, the computer can implement a relief model (ie, a virtual body model reflecting the relief state) by reflecting the characteristics of the body surface change according to the patient's body condition.

또한, 다른 일실시예로, 신체 표면 모델(즉, 피부 모델)을 이용하여 스캔데이터와 정합을 수행하는 경우(즉, 기복모델이 기복이 적용된 가상 신체 표면 모델인 경우), 컴퓨터는 기복모델과 혈관 또는 장기 모델(즉, 의료영상데이터를 기반으로 장기와 혈관 배치에 대해 3차원으로 구현된 모델)을 정합한다. 이를 통해, 컴퓨터는 수술 시뮬레이션이 가능한 3차원 가상신체모델을 완성할 수 있다. 이 때, 혈관 또는 장기 모델은, 기복에 의해 장기 배치 상태에 변화가 없는 경우, 수술 자세를 반영하여 촬영된 의료영상데이터를 기반으로 모델링된 것을 그대로 적용할 수 있다.In addition, in another embodiment, when the scan data and registration are performed using the body surface model (ie, the skin model) (ie, the relief model is a virtual body surface model to which relief is applied), the computer is configured with the relief model. A blood vessel or organ model (ie, a model implemented in three dimensions for organ and blood vessel placement based on medical imaging data) is matched. Through this, the computer can complete a 3D virtual body model capable of surgical simulation. At this time, when there is no change in the organ placement state due to relief, the blood vessel or organ model may be applied as it is modeled based on the medical image data photographed by reflecting the surgical posture.

도 8은 일 실시 예에 따른 장치의 구성도이다.8 is a configuration diagram of an apparatus according to an embodiment.

프로세서(402)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 402 may include one or more cores (not shown) and a connection path (eg, a bus) for transmitting and receiving signals to and from a graphic processing unit (not shown) and / or other components. .

일 실시예에 따른 프로세서(402)는 메모리(404)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 7과 관련하여 설명된 기복모델 생성방법을 수행한다.The processor 402 according to an embodiment performs the relief model generation method described with reference to FIGS. 1 to 7 by executing one or more instructions stored in the memory 404.

예를 들어, 프로세서(402)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 환자의 의료영상 데이터를 획득하는 단계, 기복상태인 상기 환자의 신체를 스캔한 스캔 데이터를 획득하는 단계 및 상기 의료영상 데이터를 상기 스캔 데이터에 정합하여 기복 모델을 생성하는 단계를 수행할 수 있다.For example, the processor 402 may obtain medical image data of a patient by executing one or more instructions stored in a memory, obtain scan data of the patient's body that is in an ups and downs state, and receive the medical image data. A step of generating a relief model by matching the scan data may be performed.

한편, 프로세서(402)는 프로세서(402) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(402)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. Meanwhile, the processor 402 temporarily and / or permanently stores a signal (or data) processed inside the processor 402 (RAM: Random Access Memory, RAM) and ROM (Read-Only Memory). , Not shown). In addition, the processor 402 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.

메모리(404)에는 프로세서(402)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(404)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.Programs (one or more instructions) for processing and controlling the processor 402 may be stored in the memory 404. Programs stored in the memory 404 may be divided into a plurality of modules according to functions.

도 9은 개시된 실시 예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.9 is a schematic diagram of a system capable of performing robotic surgery according to the disclosed embodiment.

도 9에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.According to FIG. 9, the robotic surgical system includes a medical imaging device 10, a server 100, and a control unit 30, a display 32 and a surgical robot 34 provided in the operating room. Depending on the embodiment, the medical imaging device 10 may be omitted from the robotic surgery system according to the disclosed embodiment.

일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.In one embodiment, the surgical robot 34 includes an imaging device 36 and a surgical tool 38.

일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, robotic surgery is performed by a user controlling the surgical robot 34 using the control unit 30. In one embodiment, robotic surgery may be performed automatically by the control unit 30 without user control.

서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 100 is a computing device including at least one processor and a communication unit.

제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The control unit 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.

촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.The imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device, and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with the surgical arm of the surgical robot 34.

일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(32)에 표시된다.In one embodiment, the image captured by the imaging device 36 is displayed on the display 32.

일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.In one embodiment, the surgical robot 34 includes one or more surgical tools 38 capable of performing cutting, clipping, fixing, grabbing, etc. of the surgical site. The surgical tool 38 is used in combination with the surgical arm of the surgical robot 34.

제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The control unit 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery to provide to the user. For example, the control unit 30 displays information required for surgery, which is generated or received, on the display 32.

예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs robot surgery by controlling the movement of the surgical robot 34 by operating the control unit 30 while looking at the display 32.

서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing equipment 10 and provides the generated information to the control unit 30.

제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The control unit 30 provides information to the user by displaying the information received from the server 100 on the display 32 or controls the surgical robot 34 using the information received from the server 100.

일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the medical imaging equipment 10 is not limited, for example, CT, X-Ray, PET, MRI, and other various medical imaging means can be used.

개시된 실시 예에서, 촬영장치(36)에서 획득되는 수술영상은 제어부(30)로 전달된다. 도시되어 있지 않으나, 환자의 신체를 스캔할 수 있는 스캐닝 장비가 수술실에 더 구비될 수 있다. 예를 들어, 스캐닝 장비는 환자의 피부, 즉 신체의 외형을 스캔할 수 있는 장비를 포함할 수 있다.In the disclosed embodiment, the surgical image obtained from the imaging device 36 is transferred to the control unit 30. Although not shown, a scanning device capable of scanning the patient's body may be further provided in the operating room. For example, the scanning equipment may include equipment capable of scanning the appearance of the patient's skin, that is, the body.

일 실시 예에서, 제어부(30)는 수술 중에 획득되는 수술영상을 실시간으로 분할(segmentation)할 수 있다.In one embodiment, the controller 30 may segment a surgical image obtained during surgery in real time.

일 실시 예에서, 제어부(30)는 수술 중 또는 수술이 완료된 후 수술영상을 서버(100)에 전송한다.In one embodiment, the control unit 30 transmits the surgical image to the server 100 during or after surgery.

서버(100)는 수술영상을 분할하여 분석할 수 있다.The server 100 may analyze by dividing the surgical image.

서버(100)는 수술영상을 분할하여 분석하기 위한 적어도 하나의 모델을 학습 및 저장한다. 또한, 서버(100)는 최적화된 수술 프로세스를 생성하기 위한 적어도 하나의 모델을 학습 및 저장한다.The server 100 learns and stores at least one model for dividing and analyzing surgical images. In addition, the server 100 learns and stores at least one model for generating an optimized surgical process.

서버(100)는 적어도 하나의 모델을 학습하기 위하여 학습 데이터를 이용하며, 학습 데이터는 수술 영상 및 수술 영상에 대한 라벨링 정보를 포함하나, 이에 제한되지 않는다. The server 100 uses training data to train at least one model, and the training data includes, but is not limited to, surgical images and labeling information for the surgical images.

이상에서 전술한 본 발명의 일 실시예에 따른 학습용 데이터 관리방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The learning data management method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a hardware computer, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The above-described program is C, C ++, JAVA, machine language, etc., in which a processor (CPU) of the computer can be read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program. It may include a code (Code) coded in the computer language of. Such code may include functional code related to a function or the like that defines necessary functions for executing the above methods, and control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include a memory reference-related code as to which location (address address) of the computer's internal or external memory should be referred to additional information or media necessary for the computer's processor to perform the functions. have. Also, when the processor of the computer needs to communicate with any other computer or server in the remote to execute the functions, the code can be used to communicate with any other computer or server in the remote using the communication module of the computer. It may further include a communication-related code for whether to communicate, what information or media to transmit and receive during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short moment, such as a register, cache, memory, or the like. Specifically, examples of the medium to be stored include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers that the computer can access or various recording media on the computer of the user. In addition, the medium is distributed in a computer system connected by a network, so that the computer readable code may be stored in a distributed manner.

본 발명의 실시예들을 통해, 환자의 일반적인 의료영상데이터을 기반으로 생성된 신체모델을 최소 침습 수술(예를 들어, 로봇수술, 복강경수술) 시의 기복상태로 구현함에 따라, 의료영상데이터에 의해 구현된 가상신체모델과 실제 환자 신체에서의 카메라 진입 위치 및 방향을 일치시킬 수 있다. Through the embodiments of the present invention, the body model generated based on the general medical image data of the patient is implemented by the medical image data as it is implemented in a relief state during minimally invasive surgery (eg, robot surgery, laparoscopic surgery). It is possible to match the position and orientation of the camera with the virtual body model in the actual patient's body.

또한, 환자의 일반적인 의료영상데이터을 기반으로 생성된 신체모델을 최소 침습 수술(예를 들어, 로봇수술, 복강경수술) 시의 기복상태로 구현하면서, 기복알고리즘 구현을 위한 학습데이터를 획득할 수 있다. 즉, 기존 환자의 의료영상데이터 기반의 신체모델을 수술 전 기복된 신체표면 스캐닝 데이터로 변형함에 따라 기복알고리즘을 학습시키기 위한 학습데이터를 획득하고, 학습데이터를 기반으로 학습된 기복알고리즘을 통해 새로운 환자의 의료영상데이터로 수술 시의 기복상태와 동일하게 구현할 수 있다.In addition, while the body model generated based on the patient's general medical image data is implemented in a undulating state during minimally invasive surgery (for example, robotic surgery or laparoscopic surgery), learning data for implementing the relief algorithm can be obtained. That is, as the body model based on the medical image data of the existing patient is transformed into undulated body surface scanning data before surgery, learning data for learning the relief algorithm is acquired, and new patients are obtained through the relief algorithm learned based on the learning data. The medical image data can be implemented in the same manner as the relief state during surgery.

따라서, 의료진은 최소침습수술 시와 동일한 카메라 뷰 방향으로 수술 전에 시뮬레이션을 수행함에 따라 실제 수술 시에 시뮬레이션 시와 동일한 영상을 보면서 수술할 수 있어서, 실제에 동일한 상황에서 수술 연습을 수행하여 실제 수술 시의 예상치 못한 상황을 미리 대비할 수 있다. 또한, 실제 수술시에 기복된 환자 신체와 동일하게 신체 표면이 구현된 가상신체모델에서 동일한 위치 및 방향으로 가상카메라를 진입시킴에 따라, 의료진이 카메라를 통해 실제로 보는 화면과 가상신체모델 상의 가상카메라가 주시하는 방향이 동일하여 의료진이 최소 침습 수술을 수행하고 있는 위치에 대한 정확한 정보를 가상신체모델을 통해 전달하여 수술보조를 수행할 수 있다.Therefore, the medical staff can perform the surgery while viewing the same image as the simulation at the time of actual surgery as the simulation is performed before the surgery in the same camera view direction as at the time of minimally invasive surgery. Can prepare for unexpected situations. In addition, as the virtual camera enters the virtual camera in the same position and direction in the virtual body model that has the same body surface as the patient's body that is undulated during the actual surgery, the screen that the medical staff actually sees through the camera and the virtual camera on the virtual body model Since the direction of the gaze is the same, it is possible to perform surgical assistance by transmitting accurate information about the location where the medical staff is performing minimally invasive surgery through a virtual body model.

또한, 실제 수술 자세와 동일한 자세로 촬영된 의료영상데이터를 이용하여 3차원 신체모델을 구현함에 따라, 가상신체모델의 장기 배치를 실제 수술 시 신체 내부의 장기 배치와 동일하게 구현할 수 있다. 이를 통해, 동일한 위치에서 동일한 방향으로 진입한 카메라를 통해 제공된 영상 정보가 동일하게 구현할 수 있다.In addition, as the 3D body model is implemented using medical image data photographed in the same posture as the actual surgical posture, the organ disposition of the virtual body model can be implemented in the same manner as the organ disposition inside the body during actual surgery. Through this, the image information provided through the camera entering the same direction from the same location can be implemented identically.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. The embodiments of the present invention have been described above with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.

400 : 기복모델 생성장치
402 : 프로세서
404 : 메모리
400: relief model generating device
402: processor
404: memory

Claims (10)

컴퓨터가 환자의 의료영상 데이터를 획득하는 단계;
기복(pneumoperitoneum) 상태인 상기 환자의 신체를 스캔한 스캔 데이터를 획득하는 단계; 및
상기 의료영상 데이터를 상기 스캔 데이터에 정합하여 기복 모델을 생성하는 단계; 를 포함하는, 기복모델 생성방법.
A computer obtaining medical image data of a patient;
Obtaining scan data that scans the patient's body in a pneumoperitoneum state; And
Generating a relief model by matching the medical image data to the scan data; The relief model generation method comprising a.
제1 항에 있어서,
상기 의료영상 데이터는,
사전에 촬영된 상기 환자의 의료영상에 기초하여 생성된 상기 환자의 신체의 3D 모델링 데이터인 것을 특징으로 하는, 기복모델 생성방법.
According to claim 1,
The medical image data,
Method for generating a relief model, characterized in that it is 3D modeling data of the patient's body generated based on the medical image of the patient previously taken.
제2 항에 있어서,
상기 환자의 의료영상은,
상기 환자의 신체를 소정의 각도 기울여서 촬영된 의료영상인 것을 특징으로 하는, 기복모델 생성방법.
According to claim 2,
The medical image of the patient,
A method of generating a relief model, characterized in that the patient's body is a medical image taken at a predetermined angle.
제1 항에 있어서,
상기 기복 모델을 생성하는 단계는,
상기 의료영상 데이터 및 상기 스캔 데이터로부터 각각 하나 이상의 랜드마크(landmarks)를 선택하는 단계; 및
상기 의료영상 데이터에서 선택된 하나 이상의 랜드마크 각각을 상기 스캔 데이터에서 선택된 하나 이상의 랜드마크 각각에 따라 정합시키는 단계; 를 포함하는, 기복모델 생성방법.
According to claim 1,
The step of generating the relief model,
Selecting one or more landmarks from the medical image data and the scan data, respectively; And
Matching each of the one or more landmarks selected from the medical image data according to each of the one or more landmarks selected from the scan data; The relief model generation method comprising a.
제1 항에 있어서,
상기 기복 모델을 생성하는 단계는,
상기 의료영상 데이터를 상기 스캔 데이터에 따라 와핑(warping)하는 단계; 를 더 포함하는, 기복모델 생성방법.
According to claim 1,
The step of generating the relief model,
Warping the medical image data according to the scan data; Further comprising, relief model generation method.
제5 항에 있어서,
상기 와핑하는 단계는,
상기 의료영상 데이터 및 상기 스캔 데이터로부터 각각 하나 이상의 랜드마크를 선택하는 단계; 및
상기 선택된 하나 이상의 랜드마크에 기반하여 상기 의료영상 데이터를 상기 스캔 데이터에 따라 와핑하는 단계; 를 포함하는, 기복모델 생성방법.
The method of claim 5,
The step of warping,
Selecting one or more landmarks respectively from the medical image data and the scan data; And
Warping the medical image data according to the scan data based on the selected one or more landmarks; The relief model generation method comprising a.
제1 항에 있어서,
상기 기복 모델을 생성하는 단계는,
상기 의료영상 데이터를 상기 스캔 데이터에 따라 비강체 정합(non-rigid regstration) 하는 단계; 를 더 포함하는, 기복모델 생성방법.
According to claim 1,
The step of generating the relief model,
Non-rigid registration of the medical image data according to the scan data; Further comprising, relief model generation method.
제1 항에 있어서,
상기 기복 모델을 생성하는 단계는,
상기 환자의 신체 특성을 나타내는 적어도 하나의 지표에 기초하여 상기 환자의 내부 장기에 대한 정보를 획득하는 단계; 를 더 포함하는, 기복모델 생성방법.
According to claim 1,
The step of generating the relief model,
Obtaining information about the patient's internal organs based on at least one indicator indicating the patient's body characteristics; Further comprising, relief model generation method.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
환자의 의료영상 데이터를 획득하는 단계;
기복상태인 상기 환자의 신체를 스캔한 스캔 데이터를 획득하는 단계; 및
상기 의료영상 데이터를 상기 스캔 데이터에 정합하여 기복 모델을 생성하는 단계; 를 수행하는, 장치.
A memory for storing one or more instructions; And
And a processor executing the one or more instructions stored in the memory.
The processor executes the one or more instructions,
Obtaining medical image data of the patient;
Obtaining scan data that scans the patient's body in a undulating state; And
Generating a relief model by matching the medical image data to the scan data; To perform, the device.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a recording medium readable by a computer to perform the method of claim 1 in combination with a computer that is hardware.
KR1020180141076A 2018-11-15 2018-11-15 Method, apparatus and program for generating a pneumoperitoneum model KR102213412B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180141076A KR102213412B1 (en) 2018-11-15 2018-11-15 Method, apparatus and program for generating a pneumoperitoneum model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180141076A KR102213412B1 (en) 2018-11-15 2018-11-15 Method, apparatus and program for generating a pneumoperitoneum model

Publications (2)

Publication Number Publication Date
KR20200056855A true KR20200056855A (en) 2020-05-25
KR102213412B1 KR102213412B1 (en) 2021-02-05

Family

ID=70914662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180141076A KR102213412B1 (en) 2018-11-15 2018-11-15 Method, apparatus and program for generating a pneumoperitoneum model

Country Status (1)

Country Link
KR (1) KR102213412B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286926A1 (en) * 2021-07-16 2023-01-19 가톨릭대학교 산학협력단 System and method for providing image for neurosurgical practice
WO2023018138A1 (en) * 2021-08-10 2023-02-16 (주)휴톰 Device and method for generating virtual pneumoperitoneum model of patient

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110018573A (en) * 2009-08-18 2011-02-24 서울여자대학교 산학협력단 Apparatus and method for nonrigid lung registration between end-exhale and end-inhale computed tomography scan
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR20170096088A (en) * 2016-02-15 2017-08-23 삼성전자주식회사 Image processing apparatus, image processing method thereof and recording medium
KR101864411B1 (en) * 2017-12-28 2018-06-04 (주)휴톰 Program and method for displaying surgical assist image
KR101862359B1 (en) * 2017-12-28 2018-06-29 (주)휴톰 Program and method for generating surgical simulation information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110018573A (en) * 2009-08-18 2011-02-24 서울여자대학교 산학협력단 Apparatus and method for nonrigid lung registration between end-exhale and end-inhale computed tomography scan
KR20120111871A (en) * 2011-03-29 2012-10-11 삼성전자주식회사 Method and apparatus for creating medical image using 3d deformable model
KR20170096088A (en) * 2016-02-15 2017-08-23 삼성전자주식회사 Image processing apparatus, image processing method thereof and recording medium
KR101864411B1 (en) * 2017-12-28 2018-06-04 (주)휴톰 Program and method for displaying surgical assist image
KR101862359B1 (en) * 2017-12-28 2018-06-29 (주)휴톰 Program and method for generating surgical simulation information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286926A1 (en) * 2021-07-16 2023-01-19 가톨릭대학교 산학협력단 System and method for providing image for neurosurgical practice
WO2023018138A1 (en) * 2021-08-10 2023-02-16 (주)휴톰 Device and method for generating virtual pneumoperitoneum model of patient

Also Published As

Publication number Publication date
KR102213412B1 (en) 2021-02-05

Similar Documents

Publication Publication Date Title
KR102018565B1 (en) Method, apparatus and program for constructing surgical simulation information
US9498132B2 (en) Visualization of anatomical data by augmented reality
EP3986314A1 (en) Augmented reality system and method for tele-proctoring a surgical procedure
US11983824B2 (en) System and method for augmenting and synchronizing a virtual model with a physical model
WO2021048158A1 (en) Method for controlling a display, computer program and mixed reality display device
US11660142B2 (en) Method for generating surgical simulation information and program
KR102433473B1 (en) Method, apparatus and computer program for providing augmented reality based medical information of patient
JP6493885B2 (en) Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
KR102213412B1 (en) Method, apparatus and program for generating a pneumoperitoneum model
Schenkenfelder et al. Elastic registration of abdominal MRI scans and RGB-D images to improve surgical planning of breast reconstruction
US11393111B2 (en) System and method for optical tracking
US20220039881A1 (en) System and method for augmented reality spine surgery
US20220249170A1 (en) System and method for processing black bone mri data
De Paolis An augmented reality platform for preoperative surgical planning
US11657547B2 (en) Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system
Inácio et al. Augmented Reality in Surgery: A New Approach to Enhance the Surgeon's Experience
Condino et al. Single feature constrained manual registration method for Augmented Reality applications in gynecological laparoscopic interventions
JP2021045341A (en) Arthroscopic surgery support device, arthroscopic surgery support method, and program
Lu et al. Virtual-real registration of augmented reality technology used in the cerebral surgery lesion localization
TW202131875A (en) System and method for augmenting and synchronizing a virtual model with a physical model
CN114555002A (en) System and method for registering imaging data from different imaging modalities based on sub-surface image scans

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant