WO2019164271A1 - 가상신체모델 생성 방법 및 장치 - Google Patents

가상신체모델 생성 방법 및 장치 Download PDF

Info

Publication number
WO2019164271A1
WO2019164271A1 PCT/KR2019/002089 KR2019002089W WO2019164271A1 WO 2019164271 A1 WO2019164271 A1 WO 2019164271A1 KR 2019002089 W KR2019002089 W KR 2019002089W WO 2019164271 A1 WO2019164271 A1 WO 2019164271A1
Authority
WO
WIPO (PCT)
Prior art keywords
surgical
model
information
body model
computer
Prior art date
Application number
PCT/KR2019/002089
Other languages
English (en)
French (fr)
Inventor
이종혁
형우진
양훈모
김호승
허성환
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180098413A external-priority patent/KR102018565B1/ko
Application filed by (주)휴톰 filed Critical (주)휴톰
Publication of WO2019164271A1 publication Critical patent/WO2019164271A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image

Definitions

  • the present invention relates to a method and apparatus for generating a virtual body model.
  • data recording various surgical information may be collected in the course of the surgery.
  • the surgical procedure may be restored by using the data recording the surgical information.
  • the surgical information may be used for each individual patient. You can also reproduce dimensional medical images. Therefore, there is a need for a method that can utilize data recorded with surgical information.
  • the problem to be solved by the present invention is to provide a method, apparatus and program for the construction of surgical simulation information.
  • the problem to be solved by the present invention is to provide a method for building a virtual body model identical to the blood vessel and organ state of the patient at the time of surgery, for the simulation of preoperative surgery.
  • the problem to be solved by the present invention is to provide a method and apparatus for utilizing surgical information.
  • the problem to be solved by the present invention is to provide a method for implementing a virtual body model of a patient using data recording the surgical information obtained during surgery.
  • the problem to be solved by the present invention is to provide a method that can reproduce the entire process during the actual operation using the data recording the surgical information obtained during surgery.
  • the problem to be solved by the present invention is to provide a method and apparatus for generating a blood vessel model.
  • the problem to be solved by the present invention is to generate the overall hierarchy of blood vessels by detecting the path and thickness of the vessel in the vessel model.
  • the problem to be solved by the present invention is to grasp the correlation and geometric information of blood vessels to be able to specify a more precise surgical operation during the simulation.
  • the problem to be solved by the present invention is to provide a method and apparatus for generating a virtual body model using a surgical image.
  • the problem to be solved by the present invention is to provide a method and apparatus for implementing a virtual body model reflecting the interaction between the surgical tool and the organ by analyzing the operation of the surgical tool based on the surgical image.
  • the problem to be solved by the present invention is to provide a method and apparatus for predicting the degree of movement or the degree of movement of the organ during the actual operation to apply on the virtual body model.
  • a method for constructing surgery simulation information performed by a computer may include obtaining a parasitic virtual body model based on medical image data of an object, and performing an actual surgery taken during an actual operation on the object. Acquiring data, extracting texture information of the object from the actual surgery data, and reflecting the extracted texture information to the virtual body model.
  • a method of constructing a virtual body model includes: acquiring, by a computer, image data for artery extraction and vein extraction of a patient, image data for artery extraction and vein extraction by the computer; Searching for a matching reference point based on the image data, generating a vascular organ model using the matching reference point, and generating a virtual body model of the patient as a relief model based on the computer generated vascular organ model.
  • the artery extraction image data includes a contrasted artery
  • the vein extraction image data includes a contrasted vein
  • the vascular organ model includes the artery extraction image data and the vein extraction.
  • Surgery information utilization method performed by a computer according to an embodiment of the present invention, the step of acquiring the cue sheet data including the actual surgery information generated during the actual surgery process for the subject, the actual surgery included in the cue sheet data Obtaining body information of the surgery subject from the information, and generating a virtual body model of the surgery subject based on the body information of the surgery subject.
  • a method of generating a blood vessel model performed by a computer may include obtaining at least one polygon constituting a blood vessel, and extracting a normal vector from each of the at least one polygon. Calculating a center point of the blood vessel based on each normal vector, and generating a path of the blood vessel based on the center point of the blood vessel.
  • the step of extracting a feature (feature) by detecting an organ from a surgical image including a plurality of image frames, the each of the plurality of image frames Matching and connecting feature points, grouping regions having similar movements within the organs based on the connected feature points, dividing the organs into at least one cluster area, and dividing the at least one cluster area onto a virtual body model. Matching.
  • real surgery information is obtained in real time during surgery, and based on this, by constructing the same surgery simulation information as the actual surgery information of each patient, it is possible to provide an optimized patient surgery information to the doctor during surgery.
  • the present invention by matching the image data of the veins and arteries by using the matching reference point, it is possible to accurately match the image data of the veins and arteries that were not extracted at the same time.
  • vascular organ model generated based on the patient's image data with the relief standard model that matches the physical condition by using three registration points as a target point for determining the body part by matching In operation, a virtual body model identical to a patient's ups and downs may be generated.
  • the present invention by specifying a point that can distinguish the insertion position of the endoscope camera to be inserted during surgery, it is possible to insert the endoscope camera at the same position as when the simulation during the actual surgical procedure.
  • a virtual body model of the surgical subject can accurately reproduce the entire process during the actual surgery, it can also be used by visually playing back (play back).
  • the virtual body model reflecting different characteristics for each patient can give the same effect as the actual surgery, it is highly useful as a learning model.
  • a blood vessel path may be generated for a blood vessel portion (for example, a blood vessel portion which is not expressed in an accurate vessel form due to noise or is cut off in the middle due to noise), and also the vessel thickness By reflecting together can provide a more accurate three-dimensional blood vessel model.
  • the movement of the surgical tool is analyzed to predict how the organ responds to the movement of the surgical tool, and the predicted organ response is expressed on the virtual body model.
  • the virtual body model can be used to perform realistic training as in actual surgery.
  • FIG. 1 is a view showing a robot surgery system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method of constructing surgical simulation information according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a process of reflecting texture information on an actual surgical part of an object in a virtual body model according to an exemplary embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of applying a method for constructing surgical simulation information according to an embodiment of the present invention.
  • FIG. 5 is a diagram schematically showing the configuration of an apparatus 300 for building surgical simulation information according to an embodiment of the present invention.
  • FIG. 6 is a view for explaining a virtual body model building method according to an embodiment of the present invention.
  • FIG. 7 is a diagram for describing artery extraction image data including a contrasted artery and vein extraction image data including a contrasted vein.
  • FIG. 8 is a view for explaining a blood vessel state when not matched based on artery extraction image data and vein extraction image data.
  • 9 is a view for explaining the state when the relief is not applied and the relief is applied to the vascular organ model.
  • FIG. 10 is a diagram for describing a method of generating a blood vessel organ model using image data.
  • FIG. 11 is a diagram for describing a method of generating a blood vessel organ model by matching respective blood vessel models.
  • FIG. 12 is a view for explaining an embodiment of a matching reference point of the present invention.
  • FIG. 13 is a diagram for describing a method of finding a peritoneal artery as a matching reference point in a 3D first blood vessel model and a second blood vessel model.
  • FIG. 14 is a diagram for explaining a reference point for generating a virtual body model and a reference point applied to an actual patient's body in comparison with the virtual body model during surgery.
  • 15 is a diagram schematically illustrating a system capable of performing robot surgery according to an embodiment of the present invention.
  • 16 is a flowchart illustrating a method of using surgical information according to an embodiment of the present invention.
  • 17 is a flowchart illustrating a method of using surgical information according to another embodiment of the present invention.
  • FIG. 18 is a diagram schematically showing the configuration of an apparatus 300 for performing a method of utilizing surgical information according to an embodiment of the present invention.
  • 19 is a flowchart illustrating a method of generating a blood vessel model according to an embodiment of the present invention.
  • 20 and 21 are diagrams for explaining a process of extracting a normal vector from at least one polygon constituting a blood vessel according to an embodiment of the present invention.
  • FIG. 22 is a diagram illustrating a process of calculating a center point of a blood vessel according to an embodiment of the present invention.
  • 23 and 24 are views for explaining a process of generating a blood vessel path according to an embodiment of the present invention.
  • 25 is a view schematically showing an example of the path of the blood vessel generated in accordance with an embodiment of the present invention.
  • FIG. 26 is a diagram schematically illustrating a configuration of an apparatus 500 for performing a method of generating a blood vessel model according to an embodiment of the present invention.
  • FIG. 27 is a schematic diagram of a system capable of performing robot surgery in accordance with one embodiment of the present invention.
  • FIG. 28 is a flowchart schematically illustrating a method of generating a virtual body model using a surgical image according to an embodiment of the present invention.
  • 29 illustrates an example for describing a process of dividing a surgical image into at least one video clip (ie, a sequence) according to an embodiment of the present invention.
  • FIG. 30 illustrates an example for explaining a process of detecting an organ from an image frame according to an embodiment of the present invention.
  • FIG. 31 illustrates an example for explaining a process of matching at least one cluster region on a virtual body model according to an embodiment of the present invention.
  • 32 to 34 are views showing an example of applying a method for generating a virtual body model using a surgical image according to an embodiment of the present invention.
  • 35 is a diagram schematically showing the configuration of an apparatus 600 for performing a method for generating a virtual body model using a surgical image according to an embodiment of the present invention.
  • a “part” or “module” refers to a hardware component such as software, FPGA, or ASIC, and the “part” or “module” plays certain roles. However, “part” or “module” is not meant to be limited to software or hardware.
  • the “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors.
  • a “part” or “module” may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and “parts” or “modules” may be combined into smaller numbers of components and “parts” or “modules” or into additional components and “parts” or “modules”. Can be further separated.
  • image may mean multidimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image).
  • the image may include a medical image of the object obtained by the CT imaging apparatus.
  • an "object” may be a person or an animal, or part or all of a person or an animal.
  • the subject may include at least one of organs such as the liver, heart, uterus, brain, breast, abdomen, and blood vessels.
  • a "user” may be a doctor, a nurse, a clinical pathologist, a medical imaging professional, or the like, and may be a technician who repairs a medical device, but is not limited thereto.
  • medical image data is a medical image photographed by a medical imaging apparatus, and includes all medical images that can be implemented as a three-dimensional model of the body of an object.
  • Medical image data may include computed tomography (CT) images, magnetic resonance imaging (MRI), positron emission tomography (PET) images, and the like.
  • CT computed tomography
  • MRI magnetic resonance imaging
  • PET positron emission tomography
  • the term "virtual body model” refers to a model generated according to the actual patient's body based on medical image data.
  • the “virtual body model” may be generated by modeling medical image data in three dimensions as it is, or may be corrected as in actual surgery after modeling.
  • virtual surgery data refers to data including rehearsal or simulation actions performed on a virtual body model.
  • the “virtual surgery data” may be image data for which rehearsal or simulation has been performed on the virtual body model in the virtual space, or may be data recorded for a surgical operation performed on the virtual body model.
  • actual surgery data refers to data obtained by performing a surgery by an actual medical staff.
  • Real surgery data may be image data photographing the surgical site in the actual surgical procedure, or may be data recorded for the surgical operation performed in the actual surgical procedure.
  • a computer includes all the various devices capable of performing arithmetic processing to provide a result to a user.
  • a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • a head mounted display (HMD) device includes a computing function
  • the HMD device may be a computer.
  • the computer may correspond to a server that receives a request from a client and performs information processing.
  • FIG. 1 is a view showing a robot surgery system according to an embodiment of the present invention.
  • the robotic surgical system includes a medical imaging apparatus 10, a server 20, and a control unit 30 provided in an operating room, an imaging unit 36, a display 32, and a surgical robot 34. do.
  • the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.
  • the server 20 is a computing device including at least one processor and a communication unit.
  • the controller 30 includes a computing device including at least one processor and a communication unit.
  • the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.
  • the image capturing unit 36 includes at least one image sensor. That is, the image capturing unit 36 includes at least one camera device and is used to photograph the surgical site. In one embodiment, the imaging unit 36 is used in conjunction with the surgical robot 34. For example, the image capturing unit 36 may include at least one camera coupled with a surgical arm of the surgical robot 34.
  • the image photographed by the image capturing unit 36 is displayed on the display 340.
  • the controller 30 receives information necessary for surgery from the server 20 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.
  • the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.
  • the server 20 generates information necessary for robotic surgery using medical image data of a subject (patient) previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.
  • the control unit 30 provides the user with the information received from the server 20 on the display 32 or controls the surgical robot 34 using the information received from the server 20.
  • the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.
  • FIG. 2 is a flowchart illustrating a method of constructing surgical simulation information according to an embodiment of the present invention.
  • each step shown in FIG. 2 is performed in time series in the server 20 or the controller 30 shown in FIG. 1.
  • each step is described as being performed by a computer, but the performing agent of each step is not limited to a specific device, and all or part thereof may be performed by the server 20 or the controller 30. Can be.
  • the computer acquires a parasitic virtual body model based on medical image data of the object (S100), and actually Acquiring real surgery data photographed at the time of operation (S110), extracting texture information on the object from the actual surgery data (S120), and reflecting the extracted texture information to the virtual body model It includes a step (S130).
  • S100 medical image data of the object
  • S110 actually Acquiring real surgery data photographed at the time of operation
  • S120 extracting texture information on the object from the actual surgery data
  • S130 reflecting the extracted texture information to the virtual body model
  • the computer may acquire a parasitic virtual body model based on the medical image data of the object (S100).
  • the subject refers to the body of the patient, and may be a body organ or a blood vessel.
  • the subject may include the liver, heart, uterus, brain, breast, abdomen, and the like.
  • the computer may acquire medical image data of the object photographed from the medical imaging apparatus 10 such as CT, MRI, PET, and the like, and generate a virtual body model based on the acquired medical image data in advance.
  • the virtual body model generated based on the medical image data accurately represents the appearance of the object (eg, an organ), but the surface features (eg, texture features such as color, material, and texture) of the object ) Is not expressed. Therefore, it is necessary to provide information reflecting the actual surface characteristics of the object to a virtual body model previously generated based on the medical image data.
  • the computer may first obtain a parasitic virtual body model based on the medical image data.
  • the virtual body model may be 3D modeling data generated based on medical image data of all or a part of a body organ (ie, an object) that is a target of a surgical site of a patient.
  • the computer may acquire the actual surgical data photographed during the actual surgery on the subject (S110).
  • the actual surgery data is data obtained by performing a surgery by the medical staff, and may be image data photographing the actual surgical region of the object.
  • the computer may acquire, as the actual surgical data, an image captured by a camera entering the patient's body.
  • the actual surgical data may be taken of the process of moving from the patient's inside of the body to the surgical part of the body, and from the start of the action by the surgical tool to the end of the body. It may be image data.
  • the computer may extract surface feature information of the object, that is, texture information such as color, material, and texture represented on the surface of the object from the actual surgery data (S120), and extract the extracted texture information from the parasitic acquired in step S100. Can be reflected in the virtual body model (S130).
  • the computer may acquire a virtual image of the object in the virtual body model, and obtain an image of the actual surgical site of the object from the actual surgery data. Thereafter, the computer may acquire a corresponding region corresponding to the actual surgical region image from the virtual image, and map texture information of the actual surgical region of the object to the corresponding region.
  • the virtual image may mean an image acquired at the same point of time as viewed by an actual camera in a virtual body model constructed in three dimensions.
  • the camera entering the patient's body during surgery is to shoot all the objects in the direction the camera looks. That is, the camera records the surgical scene from the start of the action by the surgical tool to the end of the specific surgical site of the patient.
  • the computer may select image data of a desired time point from among image data (actual surgery data) captured by a camera entering the patient's body during surgery, and reflect the image data to the virtual body model using the selected image data.
  • the computer may generate a virtual body model using the actual surgical image data obtained at the beginning of the total actual surgical data.
  • a virtual body model at the initial stage of surgery may be generated by reflecting texture, fat placement, initial organ state, etc. from the actual surgical image data acquired at the beginning.
  • the medical staff may perform a surgery simulation using a virtual body model in advance before the reoperation.
  • the computer may configure the virtual body model by reflecting the actual surgical image data obtained later in the entire actual surgical data. Subsequently, when the medical staff simulates the reoperation, virtual surgery data may be generated by performing a process of following the actual surgical operation in the virtual body model.
  • FIG. 3 is a flowchart illustrating a process of reflecting texture information on an actual surgical part of an object in a virtual body model according to an exemplary embodiment of the present invention.
  • the computer is to match the camera position information between the virtual image of the virtual body model and the surgical site image of the actual surgical data in order to make the rendering of the virtual body model and the actual surgical data the same. It may be (S131).
  • the position of the virtual camera of the virtual image and the position of a camera (eg, a camera included in a surgical tool such as an endoscope) of the actual surgical site image may be matched.
  • the computer may match the virtual image and the actual surgical site image based on the location information between the cameras (S132). That is, the computer may allow the part of the object included in the virtual image corresponding to the surgical site to be matched with the surgical site based on the location information between the cameras.
  • the computer may extract a portion corresponding to the object in the virtual image.
  • the computer may adjust the enlargement and reduction of the portion extracted from the virtual image to correspond to the surgical region included in the actual surgical region image. Through such adjustment, an object of the virtual image corresponding to the surgical region of the actual surgical region image may be matched. Accordingly, a corresponding region corresponding to the surgical site may be obtained from the object of the virtual image.
  • the computer may acquire the location information of the corresponding region by detecting a corresponding region in the virtual image corresponding to the surgical region from the actual surgical region image through matching between the images (S133).
  • the computer may derive the position information of the corresponding area in the virtual image based on the conversion relationship between the camera position information on the actual surgical site image and the camera position information on the virtual image.
  • location information of the corresponding area may be calculated using a perspective value of the camera.
  • the computer may extract the surgical site from the actual surgical site image, and acquire texture information about the surgical site (S134).
  • the texture information may include information representing a surface color of an object (for example, a diffuse map), information representing a surface roughness and a height of an object (for example, a normal map and a height map), and information representing a surface reflectivity of an object (for example, and occlusion maps.
  • a shader capable of generating a texture in real time through calculation may be applied. For example, applying a shader can generate changes in real time on an object's surface, such as all pixels, vertices, texture locations, hue, saturation, brightness, contrast, etc. that are used to compose an image. Texture information can be calculated using information on normal, vertical) values, general surface properties such as transparency, reflectivity, and object color, and the type, number, and direction of lighting.
  • the computer may map texture information extracted from the actual surgical site image to the virtual image based on the location information of the corresponding region in the virtual image (S135).
  • the computer may extract the surgical region including texture information from the actual surgical region image, and mount the extracted region on the surface of the object based on the position information of the corresponding region in the virtual image.
  • the computer may acquire a standardized template image of the object.
  • the standardized template image of the object may be image data in which a template of each object is constructed as a 3D model by standardizing anatomical features such as appearance, size, and position of each object.
  • the computer may acquire a standardized template image and match it with the parasitic virtual body model obtained in step S100.
  • the computer may extract the missing portion from the virtual image including the object in the virtual body model.
  • the computer may receive a standardized template image of the object from a database in which the standardized template image is previously stored and stored, and correct the missing portion in the virtual image based on the received standardized template image. Through this, it is possible to provide a virtual body model such as the appearance of the actual object more.
  • the computer may perform a process of reflecting the texture information as described above using the virtual body model that is matched with the standardized template image.
  • the computer may reconstruct the virtual body model by reflecting the texture information in step S130.
  • the computer may provide surgical information of the subject in comparison with the actual surgery data in real time during the actual surgery based on the reconstructed virtual body model.
  • the reconstructed virtual body model maps texture information extracted from the actual surgical data of the patient under actual surgery
  • the reconstructed virtual body model includes the same information as the actual surgical site of the patient. Therefore, if the surgery is performed using the virtual body model reconstructed during the actual surgery, the virtual image can be obtained in the same visual aspect as the actual surgery image, so that the location of the actual surgical site can be specified or additional information related to the surgery (e.g., Location, direction, movement, etc. of the surgical instruments) can be effective.
  • FIG. 4 is a diagram illustrating an example of applying a method for constructing surgical simulation information according to an embodiment of the present invention.
  • the computer may acquire a parasitic virtual body model 102 based on the medical image data 100 of the object (S200).
  • the computer may acquire the standardized template image 112 for the object from the database 110 in which the standardized template image is previously constructed and stored (S210).
  • the computer may acquire the actual surgical data 120 photographing the surgical site of the patient during the actual operation (S220).
  • the computer then corrects for the missing portion or correction in the virtual body model 102 through comparison with the virtual body model 102 (ie, the 3D modeled virtual image including the subject of the patient) based on the standardized template image 112. This necessary part can be detected. Accordingly, the computer may match the missing part of the virtual body model 102 or the part requiring correction using the standardized template image 112. Therefore, the computer may derive the matched virtual body model (S230).
  • the computer may detect a region corresponding to the actual surgical region from the actual surgery data 120, and extract texture information of the detected actual surgical region (S240).
  • the computer may acquire a corresponding region corresponding to the detected actual surgical region from the matched virtual body model, and map texture information of the actual surgical region to the acquired corresponding region (S250). Therefore, the virtual body model 130 having the same texture information as the actual surgical region of the patient may be finally obtained. That is, the finally obtained virtual body model 130 is reconstructed by reflecting the texture information of the actual surgical site on the parasitic virtual body model 102 generated based on the medical image data 100 of the object.
  • step S240 to S250 of mapping texture information about the actual surgical site of the patient to the matched virtual body model may be performed by applying the method of FIG. 3.
  • the present invention uses the same information (actual surgery data, virtual body model, standardized template image) about the surgical site of the patient during the actual surgery to build the surgical simulation information to the same information as the actual surgical site of the patient Can be provided in real time during surgery.
  • the texture information of the patient organ extracted from the image data during the actual surgery is mapped to a virtual body model previously constructed for a specific patient in real time.
  • the actual surgical image of the patient and the surgical simulation (that is, the virtual body model) can be made identical in terms of visual. Through this visual identity, it is effective to compare the surgical image and the surgical simulation image to the surgeon during the operation and to obtain the information necessary for the operation (for example, the location of the surgical site).
  • the postoperative surgical simulation model can reproduce the same organ image as the actual surgical image, it is possible to express all the procedures of the surgery (eg, endoscope or surgical tool movement) as if the actual surgery is in progress.
  • the surgical simulation model in the present invention can be used not only in real time during the operation, but also try to reoperate later, or can be used as educational material.
  • the physics engine is applied to an organ in a surgical simulation model, it can be visually reproduced in the same manner as the actual patient's organ when attempting a reoperation.
  • FIG. 5 is a diagram schematically showing the configuration of an apparatus 300 for building surgical simulation information according to an embodiment of the present invention.
  • the processor 310 may include a connection passage (for example, a bus or the like) that transmits and receives a signal with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • a connection passage for example, a bus or the like
  • the processor 310 executes one or more instructions stored in the memory 320 to perform the method of constructing surgical simulation information described with reference to FIGS. 2 to 4.
  • the processor 310 obtains a parasitic virtual body model based on the medical image data of the object by executing one or more instructions stored in the memory 320, and performs the actual surgery taken during the actual surgery on the object.
  • Data may be obtained, texture information of the object may be extracted from the actual surgical data, and the extracted texture information may be reflected in the virtual body model.
  • the processor 310 may read random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 310. , Not shown) may be further included.
  • the processor 310 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.
  • SoC system on chip
  • the memory 320 may store programs (one or more instructions) for processing and controlling the processor 310. Programs stored in the memory 320 may be divided into a plurality of modules according to their functions.
  • the method for constructing surgical simulation information according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.
  • a 'computer' includes various devices capable of performing arithmetic processing and providing a result to a user.
  • a computer can be a desktop PC, a notebook, as well as a smart phone, tablet PC, cellular phone, PCS phone (Personal Communication Service phone), synchronous / asynchronous
  • IMT-2000 International Mobile Telecommunication-2000
  • PCS phone Personal Communication Service phone
  • synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • IMT-2000 International Mobile Telecommunication-2000
  • PC Palm Personal Computer
  • PDA Personal Digital Assistant
  • 'artery extraction image data' is image data for extracting an artery, and includes imaged arteries, and is image data in which arteries are clearly and clearly displayed through contrast medium.
  • Image data for arterial extraction show that arteries appear more clearly and clearly, including veins and other organs.
  • 'vein extraction image data' is image data for extracting veins, and includes imaged veins, and is image data in which veins are clearly and clearly displayed through contrast medium.
  • Image data for vein extraction only shows the vein more clearly and clearly, and may include arteries and other organs.
  • 'image data' includes all images acquired by a medical image processing method.
  • the image data may be computed tomography (CT), nuclear magnetic resonance computed tomography (NMR-CT), positron emission tomography (PET), conebeamCT (CBCT), electron beam Electron beam tomography, X-rays, and magnetic resonance imaging may be applicable.
  • CT computed tomography
  • NMR-CT nuclear magnetic resonance computed tomography
  • PET positron emission tomography
  • CBCT conebeamCT
  • electron beam Electron beam tomography X-rays
  • magnetic resonance imaging may be applicable.
  • the 'vascular organ model' is a virtual vascular organ model modeled in the same position and size as blood vessels and organs inside a patient's body.
  • the 'first blood vessel model' is a blood vessel model modeled at the same position and size as blood vessels such as arteries and veins in a patient's body based on image data for artery extraction including an artery.
  • the 'second blood vessel model' is a blood vessel model modeled at the same position and size as blood vessels such as arteries and veins in a patient's body based on image data for vein extraction including the contrasted vein.
  • the ⁇ relief model '' is a model of a virtual undulation state in which the placement of blood vessels and / or organs when the gas is injected into the patient's body for surgery, or the undulation state, is made similar to the actual patient state. .
  • the standard of relief is a relief model that becomes a standard based on the age, sex and physical condition of the patient.
  • FIG. 6 is a view for explaining a virtual body model building method according to an embodiment of the present invention.
  • FIG. 7 is a diagram for describing artery extraction image data including a contrasted artery and vein extraction image data including a contrasted vein.
  • FIG. 8 is a view for explaining a blood vessel state when not matched based on artery extraction image data and vein extraction image data.
  • the computer acquires image data for artery extraction and vein extraction of a patient (S100), and the computer selects a matching reference point. Generating a blood vessel organ model using the step (S200) and the computer generates a virtual body model (S300).
  • the computer acquires the artery extraction image data and the vein extraction image data of the patient, the artery extraction image data includes a contrasted artery, and the vein extraction image data includes a contrasted vein.
  • FIGS. 7A and 7B illustrate an artery including a contrasted artery.
  • 7A is before extraction
  • FIG. 7B is after branching
  • FIGS. 7C and 7D are image data for vein extraction including an image of a vein.
  • C) of FIG. 7 shows before branching
  • (d) of FIG. 7 shows after branching.
  • FIGS. 7 (A) and (b) of FIG. 7 are image data in which arteries are contrasted, and the circular portion in the center appears brighter than other portions, and the same portions are different portions in FIGS. 7 (c) and (d). It looks similar to the brightness, and the circular part in the center can be seen that the aorta.
  • FIG. 7 (d) and (d) show the shape of several circular and elliptical shapes in the peripheral part presumed to be the aorta, the same parts are not shown in FIG. 7 (a) and (b). In other words, it can be considered that the part is a vein.
  • the artery can be matched based on the artery.
  • step S200 the computer generates a blood vessel organ model using the matching reference point, and searches for a matching reference point based on the acquired artery image data and the vein extraction image data, and uses the matching reference point.
  • a vascular organ model Arterial extraction image data and vein extraction image data are not obtained at the same time, so the position information of the patient's body may be displaced. If the matching process is not performed based on the arterial extraction image data and the venous extraction image data, it is difficult to accurately reproduce the state of blood vessels inside the patient's body.
  • Figure 8 (a) is a view showing the artery
  • Figure 8 (b) is a state of unmatched arteries and veins
  • Figure 8 (c) is a matched artery
  • the matching reference point may be preset or may be designated by the user.
  • the registration reference point is a celiac axis, which corresponds to a bifurcation in the artery.
  • Generating a blood vessel organ model (S200) generates a blood vessel organ model by matching image data, and in another embodiment, generates a blood vessel organ model by matching blood vessel models using respective image data. .
  • the vascular organ model includes modeling an organ based on organ image information obtained from any one of arterial image data and vein extraction image data.
  • the vascular organ model is a virtual vascular organ model modeled at the same position and size as the blood vessels and organs inside the body of the patient as described above, and therefore, the organs as well as the blood vessels need modeling.
  • the blood vessels are modeled by matching the arterial extraction image data and the vein extraction image data, and in the case of organ modeling, the organs obtained from any one of the arterial extraction image data and the vein extraction image data. Organs are modeled based on image information.
  • the vascular organ model is generated by matching the generated vascular model with the organ model.
  • the arterial extraction image data may also include organ forms, and the vein extraction image data may also include organ forms.
  • the computer may acquire organ image information from any one of arterial extraction image data and vein extraction image data, and model an organ based on the acquired organ image information.
  • the step S300 of generating a virtual body model by the computer is to generate a virtual body model of the patient, which is a relief model, based on the vascular organ model generated by the computer.
  • the computer generates a virtual body model of the patient representing the ups and downs of the vascular organs state of the ups and downs, reflecting the ups and downs of the ups and downs by injecting gas into the generated vascular organs model during surgery.
  • FIG. 9A may identify a body state not undulating
  • FIG. 9B may identify a body state after ups and downs.
  • a model of a blood vessel organ as an unreliable body state should be combined with a model of a relief state.
  • the state of blood vessels and organs in the body can be formed as it is as a virtual body model.
  • the virtual body model is generated by matching the blood vessel organ model and the relief standard model to generate a virtual body model of the patient.
  • the virtual body of the patient is utilized by using the learning model. To create a model.
  • a method of generating a virtual body model of a patient by matching a blood vessel organ model and a relief standard model which is one embodiment of the method of generating a virtual body model, will be described later with reference to FIG.
  • a method of generating a virtual body model will also be described later with reference to FIG. 14.
  • FIG. 10 is a diagram for describing a method of generating a blood vessel organ model using image data.
  • FIG. 11 is a diagram for describing a method of generating a blood vessel organ model by matching respective blood vessel models.
  • FIG. 12 is a view for explaining an embodiment of a matching reference point of the present invention.
  • the computer sets the artery extraction image data and the vein extraction image data in the axial direction (axial direction), and the aorta on each image frame. Extracting the points of each step (S210), the computer continuously searching each matching frame while changing each image frame based on the artery point (S220), the computer image for artery extraction based on the matching reference point Matching the data with the image data for vein extraction (S230); and generating a vascular organ model using the matched image data by the computer (S240).
  • step S210 when the computer extracts the artery points on the image frame of the artery extraction image data and the vein extraction image data, the vein extraction image data includes an unimaged artery, and the artery extraction image data is contrasted. It may also include non-venous veins.
  • the computer can extract the arterial spot from the vein extraction image data.
  • the computer extracts the arterial point in a plurality of frames of each of the artery and vein extraction image data.
  • the computer searches for the registration reference point while continuously changing each image frame based on the artery point (S220).
  • the computer continuously searches each image frame based on the aortic point in the direction from the head of the patient to the foot. Searching for a matching reference point by changing frame by frame.
  • the matching reference point may be preset or may be designated by the user.
  • the registration reference point is a celiac axis, which corresponds to a bifurcation in the artery.
  • FIG. 12 is a diagram illustrating arterial vessels, and a point that appears as a small branch point on the vessel corresponds to the abdominal artery 10.
  • the abdominal artery 10 corresponds to the second bifurcation starting from the heart of the arteries.
  • the abdominal artery 10 Since the abdominal artery 10 is a matching reference point as a bifurcation point, the abdominal artery 10 which is a reference point can be searched by checking which frame and the number of bifurcation points of the blood vessels in each image frame.
  • the step of searching for the matching reference point may include changing the artery extraction image data by one frame continuously from the patient's head to the foot, and then performing a circular simulation of the aorta. Setting the first layer where the other circle protrudes into the branch of the abdominal artery, recording the first coordinate of the branch of the abdominal artery, and the image data for vein extraction in a continuous frame from the patient's head to the foot And step by step, setting the first layer of the other circle protruding at the circular edge of the aorta as the bifurcation of the abdominal artery, and recording the second coordinate of the bifurcation of the abdominal artery.
  • the displacement of the first coordinate and the second coordinate is corrected, and the arterial extraction image data and the vein extraction image data are matched.
  • matching match without considering rotation.
  • the computer may match the image data for artery extraction and the image data for vein extraction based on the registration reference point, based on the abdominal artery 10 obtained by searching, and the image where the abdominal artery 10 is located. Based on the frame, the image data for artery extraction and the image data for vein extraction are matched.
  • FIG. 11 Unlike a method of generating a blood vessel organ model using image data, a method of generating a blood vessel organ model by matching a blood vessel model generated using each artery extraction image data and a vein extraction image data is illustrated in FIG. 11. Reference may be made.
  • a method of generating a vascular organ model by matching each vascular model may include: searching for a matching reference point on the first blood vessel model and the second blood vessel model (S250), and the computer matching point.
  • a first blood vessel model, a second blood vessel model, and an organ model are matched to generate a blood vessel organ model.
  • the computer searches for a matching reference point on the first blood vessel model and the second blood vessel model, wherein the computer includes a second blood vessel model based on artery extraction image data and a second blood vessel based image data for vein extraction.
  • the matching reference point is searched on the vessel model.
  • the computer first generates a three-dimensional first blood vessel model based on the artery extraction image data, and generates a three-dimensional second blood vessel model based on the vein extraction image data.
  • vein extraction image data includes an uncontrast artery
  • the artery is also generated when the second blood vessel model is generated.
  • the matching of the generated three-dimensional first vessel model and the second vessel model, respectively, based on the matching reference point, which is a reference, even when matching the first vessel model and the second vessel model as a matching reference point Can be matched.
  • the computer should extract the peritoneal artery, which is the bifurcation, as a registration reference point, and perform registration.
  • the method of extracting the abdominal artery which is a matching reference point by the computer, can be applied to both the first and second blood vessel models, and the computer can be applied at each 360 ° point on the blood vessel model. Identify where the normal vector contacts the outer wall of the vessel model.
  • the computer identifies the aorta as having a long cross-section of the vessel, based on a plurality of normal vectors in contact with the outer wall of the vessel model.
  • the computer After identifying what the aorta is, the computer continues to identify where the normal vector at each 360 ° point on the vessel model contacts the outer wall of the vessel model relative to the aorta.
  • the normal vector in contact with the outer wall is gradually longer in the part of the branching point, which is the celiac artery, and therefore, from which part and from where the branching point exists based on the length of the normal vector, etc. It can also be figured out.
  • the organ model may be one of the artery extraction image data and the vein extraction image data. An organ model that is modeled based on the organ image information obtained from either.
  • the computer generates a first vessel model, a second vessel model, respectively, using the peritoneal artery, which is a registration reference point extracted in the step S250 of searching for a registration reference point on the first vessel model and the second vessel model. Matching the organ model produces the same vascular organ model as the body of the patient.
  • FIG. 14 is a diagram for explaining a reference point in generating a virtual body model and a reference point applied to an actual patient's body in comparison with the virtual body model during surgery.
  • FIG. 14 is a view showing the body.
  • the inside of the body (the inside of a vascular organ model, a relief standard model, or a virtual body model) includes a xiphoid process 20 and a right anterior iliac spine.
  • the relief standard model is a standard relief model based on the age, sex and physical condition of the patient, the physical condition refers to the basic physical conditions such as the patient's height, weight, BMI.
  • the specific physical condition may be different for each patient, and the upper body is longer or the lower body is longer, the chest pain is wide on both sides, or the chest pain is wide back and forth, etc.
  • the standard model of relief does not perfectly match the patient's body.
  • the shape of the vascular organ model and the relief standard model may be different, a point of reference for registration is required when the vessel organ model and the relief standard model are matched.
  • the reference point for matching is a point that does not change, and at least three points are required.
  • the reference point for registration is, in one embodiment, in the vascular organ model and the relief standard model, the xiphoid process 20, the right anterior superior iliac spine 30 and the left upper electric field. Three points of the left anterior superior iliac spine 40.
  • Apex is a small cartilage tissue located at the lower end of the dressbone between the ribs of a person.
  • the right upper iliac spine and the left upper iliac spine often refer to bones protruding into the shear of the pelvic bone and can be palpated subcutaneously.
  • the scoliosis, right anterior iliac spine and left anterior iliac spine can be used as a target point for determining a patient's body part, and thus accurate matching of the vascular organ model and the relief standard model can be performed.
  • the method of matching the vascular organ model and the relief standard model to generate the patient's virtual body model is based on the xiphoid process 20 and the right anterior superior iliac in the vascular organ model and the relief standard model, respectively.
  • a virtual body model of the patient by extracting three points of the spine (30) and the left anterior superior iliac spine (40) and matching the vascular organ model and the relief standard model based on the three points.
  • the method of matching the vascular organ model and the relief standard model based on three points is that when compared with the three points, the shape of the patient's vascular organ model is higher and lower (y-axis) than the relief standard model. Or check how much stretches to the left and right (x-axis), increase the degree of swelling to the front and back (z-axis) of the body by increasing the ratio up or down or left and right to match.
  • the position of the navel 50 on the virtual body model is positioned at the same position as the actual navel position of the patient.
  • the position of the navel 50 is a criterion for setting the position of the endoscope camera during laparoscopic surgery. If the navel 50 is not included in the virtual body model, even if the simulation of the surgery is performed based on the virtual body model, It is difficult to hold the same position where the endoscope camera enters.
  • specifying the position of the navel 50 on the virtual body model at the same position as the actual navel position of the patient is the same as the method of generating the virtual body model of the patient utilizing the learning model described below. Is applied.
  • a method of generating a virtual body model of a patient by using a training model may be performed by applying medical image data of a patient to a learning model of generating a virtual body model. Predicting the placement or ups and downs is to create a virtual body model of the patient.
  • the learning model is performed by matching a basic virtual body model and an ups and downs state virtual body model generated based on medical image data acquired from a plurality of surgical objects, and constructing a learning data set.
  • the basic virtual body model is generated based on medical image data taken in a preoperative posture or a posture.
  • the virtual body model is generated based on ups and downs image data in which the ups and downs are applied to the operation posture during the operation.
  • the learning model provides a prediction of a relief state virtual body model to which an ups and downs state is applied to a posture during surgery based on medical image data photographed in a preoperative posture through the execution of learning. On the basis of the captured medical image data, it is to provide a virtual state model of the ups and downs in which the ups and downs are applied to the operation posture during surgery.
  • a virtual body model to which a relief state is applied to a surgical posture at the time of surgery may be generated through a learning model, whether the image data of the patient taken before surgery is a posture or a posture posture.
  • Generating a virtual body model using the learning model is, in one embodiment, when the medical image data of the patient is a medical image data taken in the preoperative posture, the computer is a medical image taken in the preoperative posture of the patient.
  • a virtual body model of a patient is applied to which at least one of changes in the appearance of the patient's body surface according to implementation of the patient's relief state and a change in organ placement according to the implementation of the relief state is applied.
  • the medical image data of the patient when the medical image data of the patient is taken before the posture of the patient, by applying the medical image data taken of the posture of the patient before the posture to the learning model of the virtual body model generation, according to the posture To generate a virtual body model of the patient to which at least one of the long-term placement, the change in the appearance of the patient's body surface according to the implementation of the relief state during the operation of the patient and the change in the long-term placement according to the implementation of the relief state is applied.
  • the above-described method for constructing a virtual body model according to an embodiment of the present invention may be implemented as a computer program (or application) and stored in a medium to be executed in combination with a computer which is hardware.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
  • a computer includes all the various devices capable of performing arithmetic processing to provide a result to a user.
  • a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • a head mounted display (HMD) device includes a computing function
  • the HMD device may be a computer.
  • the computer may correspond to a server that receives a request from a client and performs information processing.
  • 15 is a diagram schematically illustrating a system capable of performing robot surgery according to an embodiment of the present invention.
  • the robotic surgical system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34.
  • the medical imaging apparatus 10 may be omitted in the robot surgery system according to the disclosed embodiment.
  • surgical robot 34 includes imaging device 36 and surgical instrument 38.
  • the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.
  • the server 100 is a computing device including at least one processor and a communication unit.
  • the controller 30 includes a computing device including at least one processor and a communication unit.
  • the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.
  • the imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.
  • the image photographed by the photographing apparatus 36 is displayed on the display 340.
  • surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, fixing, grabbing operations, and the like, of the surgical site.
  • Surgical tool 38 is used in conjunction with the surgical arm of the surgical robot 34.
  • the controller 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.
  • the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.
  • the server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.
  • the controller 30 displays the information received from the server 100 on the display 32 to provide the user, or controls the surgical robot 34 by using the information received from the server 100.
  • the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.
  • the present invention is to provide a method for inversely estimating the information on the actual operation target or the actual surgery process by using the surgery information obtained in the surgery process.
  • medical image data such as CT, PET, MRI, etc. of a patient or virtual body model generated based on such medical image data or images of actual surgical scenes of a patient are included. Sharing is not possible. As such, when data including personal medical information such as medical image data or a virtual body model of the patient cannot be obtained directly from the patient, there is a problem in that the actual surgical procedure of the patient or a detailed surgical procedure cannot be visually provided. . In order to solve this problem, the present invention is to provide a way to reproduce the actual surgical process of the patient and to implement a virtual body model by obtaining the cue sheet data in place of the image of the medical image data or the actual surgical scene.
  • Computer performs a method of utilizing surgical information according to an embodiment disclosed herein.
  • Computer may mean the server 100 or the controller 30 of FIG. 15, but is not limited thereto and may be used to encompass a device capable of performing a computing process.
  • the embodiments disclosed below may not be applicable only in connection with the robotic surgery system illustrated in FIG. 15, but may be applied to all kinds of embodiments that may acquire and utilize surgical information.
  • 16 is a flowchart illustrating a method of using surgical information according to an embodiment of the present invention.
  • obtaining cue sheet data including actual surgery information generated in a real surgery procedure for a surgery target person may include obtaining physical information of the surgical subject from the actual surgery information included in the cuesheet data (S110), and generating a virtual body model of the surgical subject based on the physical information of the surgical subject (S120). .
  • S110 actual surgery information included in the cuesheet data
  • S120 physical information of the surgical subject
  • the computer may acquire cue sheet data including the actual surgical information generated during the actual surgical procedure for the surgical subject (S100).
  • the medical staff may directly perform the actual surgery on the subject, or may perform the actual surgery using the surgical robot as described with reference to FIG. 15.
  • various kinds of information ie, actual surgical information
  • the computer acquires the actual surgical information generated from the actual surgical procedure of the subject, and based on this, Cuesheet data can be configured.
  • the computer may configure the cue sheet data by acquiring the actual surgical information from the image data photographing the actual surgical procedure or the data recorded for the surgical operation performed in the actual surgical procedure.
  • the medical staff may transmit and receive information related to the operation of the patient through the server, or may generate the surgery-related information by using a simulator or an artificial intelligence device and transmit and receive the generated information through the server.
  • the server may record the surgical-related information transmitted and received in a message format. Therefore, the computer can obtain the surgery-related information recorded in the server and configure the cue sheet data.
  • each cue sheet data may be composed of data arranged in order over time based on the minimum operation unit.
  • each cue sheet data may include actual surgery information corresponding to the minimum surgical operation unit, the actual surgery information may include surgical tool information, body part information and the like.
  • Surgical tool information is information about the surgical tool used during the actual surgery, and may include information such as the type of surgical tool, the number of surgical tools, the movement of the surgical tool (for example, forward / retreat), and the direction of the surgical tool. Can be.
  • the body part information is information about a body part related to the operation of the surgical part or the surgical tool, and may include information such as the type (name) of the body part and the position of the body part.
  • the body part may be part or all of the body, and may include at least one of organs such as the liver, heart, uterus, brain, breast, abdomen, and blood vessels.
  • the computer may acquire the body information of the surgery subject from the actual surgery information included in the cue sheet data (S110).
  • the computer may first obtain specific body part information associated with the operation information of the surgical tool from the actual surgery information included in the cue sheet data.
  • the cuesheet data includes a record of the surgical operation, which may include operation information performed on a specific body part (eg, a specific organ, a blood vessel, etc.) using a specific surgical tool.
  • a specific body part eg, a specific organ, a blood vessel, etc.
  • the type of cutting tool and the part of the body to be cut eg, blood vessel, liver, fat, etc.
  • the computer may detect the cue sheet data associated with the operation information of the surgical tool from the cue sheet data, and obtain information about the specific body part associated with the operation of the surgical tool from the detected cue sheet data.
  • the computer may extract the type and spatial information of the specific body part from the acquired specific body part information. That is, the body part information of the surgery subject can be obtained.
  • the cue sheet data related to the operation information of the surgical tool may be used, but the body information may be used using the cue sheet data including the camera information or the movement information of the surgical tool.
  • the computer may detect data of photographing a specific body part based on view information of the camera or location information of the camera included in the cue sheet data, and obtain specific body part information from the detected data. Since the contact with the body part does not occur when the surgical tool is moved, the body part does not exist in the cue sheet data associated with the movement information of the surgical tool. In this case, the computer may obtain body information of the surgical subject from the cue sheet data except for the cue sheet data associated with the movement information of the surgical tool.
  • the computer may generate a virtual body model of the surgery subject based on the body information of the surgery subject (S120).
  • the virtual body model refers to three-dimensional modeling data generated in accordance with the body of the actual surgical target.
  • the computer is reflected in the standard body model based on the physical information of the patient, that is, the type and spatial information of the specific body part, and based on the standard body model to match the body of the patient during the actual surgery You can create a body model.
  • the standard body model may be a three-dimensional body model generated by standardizing the anatomical features of the body.
  • each body part is three-dimensional by standardizing anatomical features such as shape, size, and location for each part of the body (e.g. liver, heart, uterus, brain, breast, abdomen, and blood vessels, etc.). It may be a body model constructed by modeling.
  • the computer maps a specific body part in the space of the standard body model using the spatial information of the specific body part, and in the space of the mapped standard body model.
  • the body parts of the standard body model can be modified to match the shape of the specific body parts.
  • the computer may map spatial information (eg, coordinate information on a three-dimensional space) of a specific body part obtained from actual surgical information of cuesheet data with coordinate information on a three-dimensional space of a standard body model.
  • the computer compares whether the corresponding body part located in the three-dimensional space of the mapped standard body model matches the specific body part obtained from the actual surgery information, and according to the comparison result, the specific body acquired from the actual surgery information.
  • the body parts on the standard body model can be modified to match the shape of the site.
  • the computer acquires it from the cue sheet data based on the surrounding body parts located in the vicinity of the specific body part which is not obtained from the cue sheet data in the space of the standard body model. You can interpolate certain parts of your body that you haven't. In general, since the location and shape of human organs are not very different (for example, the location of organs such as stomach and liver are the same), the entire virtual body model can be completed by performing interpolation using surrounding information.
  • the computer in generating a virtual body model based on a standard body model, may generate a virtual body model by repeatedly applying to the standard body model by changing the body information of the surgical subject, where the actual surgery of the subject You can choose a virtual body model that best matches the body of the poem. That is, in order to complete the virtual body model closest to the physical state at the time of the actual operation of the subject, the steps S110 to S120 may be repeatedly performed a plurality of times.
  • the computer may adopt the virtual body model having the least error by performing the steps S110 to S120 repeatedly by changing the initial position of the subject or changing the body shape of the subject.
  • the computer uses reinforcement learning to change the location information or change the shape of organs for the entire body part (ie, organs) of the patient, and finally, the virtual body model that best matches the physical condition of the patient's actual surgery. Can be derived.
  • the computer may match a particular organ point described in the cue sheet data with a specific point on the standard body model corresponding thereto, and the matching process may be performed on the entire cue sheet data to accumulate a matching relationship. And the computer can implement a virtual body model based on the accumulated results.
  • the computer can set the basic size of the standard body model to reflect the BMI values of the patient (ie, the subject).
  • the cue sheet data includes surgical tool information and body part information for all surgical operations.
  • surgical tool information such as a surgical tool type, position information of a surgical tool (for example, a position in a three-dimensional space), and a surgical operation performed by the surgical tool.
  • body part information such as the type of body part (eg, body organ name, detailed part of body organ, etc.) related to operation of the surgical tool, and the position of the body part.
  • the detailed parts of the body organs may be medically divided into the front, back, top, bottom, right side, left side.
  • the position of the surgical tool for example, the position in the three-dimensional space
  • the body organs and the detailed parts of the body organs can be identified from the cue sheet data
  • the computer may obtain the position of each body organ where contact occurred by the operation of the surgical tool from the cue sheet data, and express it as points in three-dimensional space.
  • the points in the three-dimensional space is represented in the form of a cloud
  • a representation of the position of each body organ in the three-dimensional space is referred to as a coordinate cloud.
  • the computer may estimate the size of each body organ from the minimum or maximum coordinate value of the coordinate cloud, and enlarge or reduce the corresponding body organ on the standard body model based on the estimated size of each body organ.
  • the modified standard body model based on each body organ information of the coordinate cloud is referred to as a modified standard body model.
  • the three-dimensional coordinates coincide with the details of the body organs (e.g., front, back, top, bottom, right, left, etc.) that the surgical tool on the cuesheet data contacts. You can check. If no match is found, the computer can be adjusted to match the detail of the body organs on the cuesheet data, either by rotating the deformed standard body model or by expanding or contracting certain parts.
  • the computer can reconfirm the detail of the organs and the three-dimensional coordinates based on these modified standard body models. That is, by repeatedly applying the above-described process, the computer can deform the standard body model to best fit the shape and size of the patient's actual body organs, and apply it to all the body organs to derive the optimal modified standard body model. Can be. The computer can finally create a virtual body model of the patient using the optimal modified standard body model.
  • the computer may use the learning model in the process of implementing the virtual body model.
  • a computer may perform training using a standard body model and data of a patient who has both a virtual body model and cuesheet data.
  • the computer can learn the process of deriving the virtual body model by applying the cue sheet data to the standard body model.
  • a virtual body model of the surgical subject can accurately reproduce the entire process during the actual surgery, it can also be used by visually playing back (play back).
  • virtual surgery can be performed in the virtual space through the virtual body model.
  • the medical staff may perform a surgery simulation using a virtual body model in advance before the reoperation.
  • the virtual body model since the virtual body model is generated based on the cue sheet data after the first operation of the surgical subject is completed, the virtual body model may have the same effect as the actual reoperation by performing the simulation in advance.
  • the use of a virtual body model reflecting different characteristics for each patient can have the same effect as a real surgery, compared to the generalized standard body model, it is highly useful as a learning model.
  • FIG. 17 is a flowchart illustrating a method of using surgical information according to another embodiment of the present invention.
  • the process overlapping with each step of FIG. 16 is the same or similar, and thus a detailed description thereof will be omitted.
  • the computer may acquire cue sheet data including the actual surgery information generated during the actual surgery of the patient (S200).
  • the computer may acquire image information about the actual surgery process of the surgical target from the actual surgery information included in the cue sheet data (S210).
  • the image information refers to information indicating a matching relationship with the image in response to a surgical operation.
  • the computer may obtain image information of the actual operation process of the operation subject from the cue sheet data and describe the operation information performed on a specific body part (eg, a specific organ or blood vessel) using a specific surgical tool.
  • the present invention may be obtained as information indicating a matching relationship with a predetermined specific image corresponding to the corresponding surgery operation.
  • the computer may generate surgical image data corresponding to the actual surgical process of the surgical subject based on the image information (S220).
  • the computer can visually reproduce the actual operation of the subject through the surgical image data. Therefore, it is difficult for the medical staff to understand the actual surgery process using only the cue sheet data, but it is easy to understand the entire surgery process by utilizing the virtual body model and the surgical image data of the operation subject as described above.
  • FIG. 18 is a diagram schematically showing the configuration of an apparatus 300 for performing a method of utilizing surgical information according to an embodiment of the present invention.
  • the processor 310 may include a connection passage (for example, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • a connection passage for example, a bus or the like
  • a graphic processor not shown
  • the processor 310 may include a connection passage (for example, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • the processor 310 executes one or more instructions stored in the memory 320 to perform the method of utilizing surgical information described with reference to FIGS. 16 and 17.
  • the processor 310 obtains the cue sheet data including the actual surgical information generated during the actual surgical procedure for the patient by executing one or more instructions stored in the memory 320, and the actual surgery included in the cue sheet data.
  • the physical information of the surgical subject may be obtained from the information, and a virtual body model of the surgical subject may be generated based on the physical information of the surgical subject.
  • the processor 310 obtains the cue sheet data including the actual surgery information generated during the actual surgery process for the surgical subject by executing one or more instructions stored in the memory 320, and from the actual surgery information included in the cue sheet data Image information about the actual surgical procedure of the surgical target person may be obtained, and surgical image data corresponding to the actual surgical procedure of the surgical target person may be generated based on the image information.
  • the processor 310 may read random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 310. , Not shown) may be further included.
  • the processor 310 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.
  • SoC system on chip
  • the memory 320 may store programs (one or more instructions) for processing and controlling the processor 310. Programs stored in the memory 320 may be divided into a plurality of modules according to their functions.
  • the above-described method for using surgical information according to an embodiment of the present invention may be implemented as a program (or an application) to be executed in combination with a computer which is hardware and stored in a medium.
  • a computer includes all the various devices capable of performing arithmetic processing to provide a result to a user.
  • a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • a head mounted display (HMD) device includes a computing function
  • the HMD device may be a computer.
  • the computer may correspond to a server that receives a request from a client and performs information processing.
  • 19 is a flowchart illustrating a method of generating a blood vessel model according to an embodiment of the present invention.
  • the subject of each step is not limited to a specific device but may be used to encompass a device capable of performing computing processing. That is, in the present embodiment, the computer may mean an apparatus capable of performing the method of generating a blood vessel model according to the embodiment of the present invention.
  • S100 blood vessel
  • S110 normal vector from each of the at least one polygon
  • S120 normal vector from each normal vector
  • S130 generating a path of blood vessels based on the center point of blood vessels
  • the computer may acquire at least one polygon constituting the blood vessel (S100).
  • the computer may generate a 3D blood vessel model based on medical image data of the inside of the body of the object (eg, the patient).
  • the medical image data is a medical image photographed by a medical image photographing apparatus and includes all medical images that can be implemented as a three-dimensional model of the body of the object.
  • the medical image data may include a computed tomography (CT) image, a magnetic resonance imaging (MRI), a positron emission tomography (PET) image, and the like.
  • CT computed tomography
  • MRI magnetic resonance imaging
  • PET positron emission tomography
  • the computer may extract the blood vessel of the patient from the medical image data and 3D model the extracted blood vessel.
  • the computer may sequentially extract arteries and veins from the medical image data, and 3D model and match the vessel models including the arteries and the vessel models including the veins, respectively.
  • the blood vessel model may be a polygon model of 3D modeling by constructing at least one polygon of blood vessels extracted from the medical image data.
  • the computer can obtain at least one polygon constituting the vessel from the 3D vessel model.
  • Polygon refers to a polygon, which is the smallest unit used to express a three-dimensional shape of an object in 3D computer graphics, and polygons may be gathered to represent a 3D object (ie, a blood vessel).
  • the computer may obtain a 3D blood vessel model pre-built for the subject and obtain at least one polygon constituting the blood vessel therefrom.
  • the computer may construct and store the 3D blood vessel model in advance, or may acquire and use a 3D blood vessel model generated by another device.
  • the blood vessel model is determined according to how accurately the blood vessels are captured and reflected in the medical image data, and how precisely the outline of the vessel can be extracted from the medical image data.
  • Can affect implementation For example, when blood vessels are extracted from medical image data, but the blood vessels cannot be accurately expressed due to noise, blood vessels cannot be connected and a broken part occurs in the middle. There is a limit to using the vascular model. Accordingly, the blood vessel model generation method according to an embodiment of the present invention provides more accurate and accurate 3D blood vessel model by applying steps S100 to S130 to the 3D vessel model generated based on the medical image data.
  • the computer may extract a normal vector from each of the at least one polygon constituting the blood vessel obtained in step S100 (S110).
  • the normal vector refers to a vector perpendicular to a curve or curved surface, and may refer to a polygon constituting a blood vessel surface or a vector perpendicular to an outward direction from a vertex of the polygon.
  • 20 and 21 are diagrams for explaining a process of extracting a normal vector from at least one polygon constituting a blood vessel according to an embodiment of the present invention.
  • the computer may acquire at least one polygon 100 constituting the vessel surface in the 3D vessel model.
  • the computer may extract the normal vector 110 from each of the at least one polygon 100.
  • the normal vector 110 may be a vector perpendicular to the polygon 100 while facing outward from the blood vessel surface.
  • the computer acquires a first polygon 200 constituting a blood vessel surface, and normals 210, 211, and 212 with respect to the vertex of the first polygon 200.
  • Polygons are composed of vertices, and at least three vertices can form a single polygon. Vertices may include position information (eg, (x, y, z) coordinate information) and vector values (eg, vector size).
  • position information eg, (x, y, z) coordinate information
  • vector values eg, vector size
  • the computer may extract the normal vectors 210, 211, and 212 for each of the three vertices of the first polygon 200.
  • the normal vectors 210, 211, and 212 may include location information and vector values, respectively.
  • the computer acquires a first polygon 200 constituting a blood vessel surface, and extracts a normal vector 220 for the surface of the first polygon 200.
  • the normal vector 220 for the surface of the first polygon 200 may use an average vector calculated based on the normal vector for each of three vertices of the first polygon 200.
  • the average vector may be a normal vector calculated by averaging the vector values of the normal vectors for each of the three vertices.
  • the computer may acquire adjacent polygons constituting the blood vessel surface and extract an average normal vector obtained by averaging normal vectors of adjacent polygons.
  • the average normal vector may be an average normal vector 230, 231, 232, 233, or 234 for each vertex of adjacent polygons, or an average normal vector 240 for each surface of the adjacent polygons.
  • the computer extracts a normal vector from the polygon, but in accordance with an embodiment, the normal vector for the vertex of the polygon, the normal vector for the surface of the polygon, the average normal vector for the vertex of the polygon, and the average for the surface of the polygon. Any one of the normal vectors may be extracted as a normal vector of the polygon.
  • each step according to an embodiment of the present invention may be repeatedly applied to each polygon and each normal vector, when one or more normal vectors are extracted from one polygon (that is, a normal vector for a vertex of a polygon, The same can be applied to the average normal vector for the vertices of the polygon and the average normal vector for the surface of the polygon).
  • the computer may calculate a center point of the blood vessel based on each normal vector extracted from each of the at least one polygon (S120).
  • the computer calculates the center point of the blood vessel for each polygon using the normal vector of each polygon.
  • the center point of the blood vessel with respect to the first polygon may be calculated based on the normal vector of the first polygon.
  • the computer selects a polygon (eg, a first polygon) of one of the polygons that make up the vessel, and for a normal vector (eg, a first normal vector) of the selected polygon (eg, a first polygon) It is possible to detect the intersection point when extending in the opposite direction.
  • the computer may calculate the center point of the vessel for the first polygon based on the intersection point and the first normal vector.
  • FIG. 22 is a diagram illustrating a process of calculating a center point of a blood vessel according to an embodiment of the present invention.
  • FIG. 22A illustrates a cross-sectional view of a blood vessel formed in a tube shape perpendicular to the longitudinal direction (ie, the direction in which blood flow flows).
  • each polygon constituting the blood vessel surface may include a normal vector perpendicular to the outward direction of the blood vessel surface.
  • the computer obtains a first normal vector 300 at the vertex P1 of the first polygon and locates in the opposite direction of the first normal vector 300.
  • the intersection point P2 may be detected in the polygon.
  • the computer may expand 310 the first normal vector 300 in the opposite direction and detect an intersection point P2 in the polygon that meets the expanded opposite direction vector 310.
  • the computer may calculate the center point C from the vertex P1 and the intersection point P2 of the first polygon.
  • the computer uses the location information about the vertex P1 of the first polygon and the magnitude of the normal vector, and the location information of the intersection point P2 and the magnitude of the normal vector to determine the midpoint between the two vertices. Can be calculated as By repeating this process for each polygon obtained in the 3D blood vessel model, it is possible to derive all the center points of blood vessels for each polygon.
  • the computer may generate a path of the blood vessel based on the center point of the blood vessel calculated in step S120 (S130).
  • the computer can generate the vascular pathway in the 3D vascular model based on the center point of each vessel calculated from each polygon.
  • the computer may obtain a plurality of adjacent polygons among at least one polygon constituting the blood vessel, and calculate an average center point based on the center points of the blood vessels for each of the plurality of adjacent polygons.
  • the computer can then generate a route of the blood vessel based on the average center point for the plurality of adjacent polygons. A detailed description thereof will be described with reference to FIGS. 23 and 24.
  • the computer may calculate the diameter of the vessel along with the center point of the vessel using the normal vector of each polygon.
  • the computer may generate a path of the vessel based on the center point of the vessel and the diameter of the vessel.
  • the computer may reflect the diameter of the vessel in the vessel pathway generated based on the center point of the vessel.
  • the computer obtains the first normal vector 300 at the vertex P1 of the first polygon, and calculates the first normal vector ( An intersection point P2 may be detected in a polygon located in an opposite direction of the 300.
  • the computer may calculate the diameter of the blood vessel from the vertex P1 and the intersection point P2 of the first polygon.
  • the computer may calculate the distance between the vertex P1 and the intersection point P2 of the first polygon to use as the diameter of the blood vessel. In this case, the distance between two vertices may be calculated based on the size of the vector.
  • the computer may calculate an average diameter based on the diameter of the blood vessel.
  • the computer may generate a path of the blood vessel based on the average diameter along with the average center point calculated based on the center point of the blood vessel. A detailed description thereof will be described with reference to FIGS. 23 and 24.
  • 23 and 24 are views for explaining a process of generating a blood vessel path according to an embodiment of the present invention.
  • FIG. 23 is a view illustrating a portion of the surface of blood vessels, and illustrates an example of polygons constituting a portion of the surface of blood vessels.
  • FIG. 24 illustrates the polygons shown in FIG. 23 as a data structure in a graph form.
  • the computer may obtain adjacent polygons adjacent to each other among the polygons constituting the blood vessel.
  • adjacent polygons for A polygon may be A, B, C, D polygons
  • adjacent polygons for F polygon may be F, H, E, G polygons.
  • the 3D blood vessel model may be represented using an array of polygons constituting blood vessels and an array of vertices constituting each polygon. Thus, using such an array of polygons and an array of vertices can identify adjacent polygons that are adjacent to each other.
  • the computer may extract A polygons from the polygon array and then obtain polygons B, C, D that share at least two vertices with the vertices of the A polygon from the vertex array. That is, when each polygon shares two or more vertices with each other (ie, shares an edge), the polygons A, B, C, and D may be determined to be adjacent to each other. In this manner, E, F, G, and H polygons may also be determined as adjacent polygons adjacent to each other.
  • each polygon may be represented by one node and may be represented by connecting nodes adjacent to one node by a graph.
  • an A polygon may be represented as an A node in a graph
  • an A polygon and B, C, and D polygons adjacent to each other may be connected to and represented by a B, C, and D node connected to an A node.
  • the B polygon is adjacent to the E polygon
  • the B node and the E node may be connected to each other and represented. In this way, all polygons can be represented graphically based on their connections.
  • the computer determines that nodes A, B, C, and D are adjacent to each other (ie, adjacent polygons) through the graph, and nodes where E, F, G, and H nodes are adjacent to each other (ie, adjacent polygons). Can be judged.
  • the computer may acquire adjacent polygons in the manner as described above, and calculate an average center point of the obtained adjacent polygons. For example, the computer may average the vessel center point of each of the adjacent polygons A, B, C, D, and calculate this average value as the mean center point.
  • the average value may be average location information (ie, coordinate information) averaged using location information of each of the adjacent polygons A, B, C, and D.
  • the computer in calculating the average center point by acquiring the adjacent polygons, the computer repeatedly acquires the adjacent polygons adjacent to each other by using a graph-like data structure showing the overall structure of the polygons to the entire polygons constituting the blood vessel.
  • the mean center point can be calculated.
  • the computer obtains adjacent nodes B, C, and D based on node A in a graph showing the overall structure of polygons, and averages (i.e., from the vessel center points of each node for the obtained A, B, C, and D nodes). Average center point) can be calculated.
  • the computer can move to node B in a graph showing the overall structure of the polygons.
  • the B node since the B node has already been extracted to an adjacent node of the A node to calculate an average center value, the B node may move to any one node (eg, F node) adjacent to the B node.
  • the computer may calculate neighboring nodes (eg, H, E, G nodes) again at the moved node (eg F node) to calculate the mean center point.
  • the computer proceeds with this process for all polygons, and then for neighbor nodes (e.g., A, B, C, D nodes) again adjacent nodes (e.g., E, F, G, H node) can be merged into one adjacent node (eg, A, B, C, D, E, F, G, H node) to calculate the mean center point from the center point of each of these vessels.
  • the computer can repeat this process for the entire polygon.
  • the number of repetitions of all the polygons may be determined by the number of total polygons constituting the blood vessel, the size of one polygon, and the physical size of one polygon in comparison to the size of the entire blood vessel. That is, the computer may repeat the process of calculating the average center point for the adjacent polygons in the same manner as described above until a meaningful vessel path is derived.
  • the computer may calculate the average diameter based on the diameter of the blood vessel.
  • the computer may obtain a plurality of adjacent polygons adjacent to each other among the polygons constituting the blood vessel.
  • the computer may calculate an average value by averaging the diameters of blood vessels for each of the plurality of adjacent polygons, and derive the calculated average value as the average diameter of the plurality of adjacent polygons.
  • each step ie, obtaining a plurality of adjacent polygons and calculating an average diameter from the plurality of adjacent polygons
  • the computer can generate a final vascular pathway based on the average center point and the average diameter calculated from the plurality of adjacent polygons.
  • 25 is a view schematically showing an example of the path of the blood vessel generated in accordance with an embodiment of the present invention.
  • the computer may generate the vessel path 400 by calculating the center point of the vessel from each polygon.
  • the computer may generate a meaningful blood vessel path 410 by repeating a process of calculating an average center point of the blood vessel center points from a plurality of adjacent polygons.
  • the computer can derive a more precise vessel path by correcting the vessel path based on the average center point for a plurality of adjacent polygons while maintaining the connectivity of the vessel center point for each polygon.
  • the computer can also calculate the diameter of the vessel from each polygon and reflect it in the vessel path 400.
  • the computer may repeat the process of calculating the average diameter with respect to the diameter of the blood vessel from a plurality of adjacent polygons, and reflect the average diameter calculated therefrom to generate a meaningful blood vessel path 410. .
  • the computer can finally build the 3D vessel model by three-dimensional rendering the vessel's path 410 and the vessel's diameter.
  • the portion of the blood vessel that is not accurately implemented in the initial 3D vessel model generated using the medical image data (for example, the portion of the blood vessel that is not represented in the exact vessel shape due to noise or broken in the middle) Etc.) to compensate for this.
  • the portion of the blood vessel that is not accurately implemented in the initial 3D vessel model generated using the medical image data (for example, the portion of the blood vessel that is not represented in the exact vessel shape due to noise or broken in the middle) Etc.) to compensate for this.
  • the computer may identify branch points on the vessel path based on the average center point calculated from the plurality of adjacent polygons.
  • the computer may compare the average center point calculated from the plurality of adjacent polygons with a predetermined value to determine whether the point corresponding to the average center point is a branch point on the path of the blood vessel. For example, the computer may determine the branch point if the vector value at the mean center point is larger than the predetermined value.
  • the predetermined value may use the normal vector size of the polygon.
  • the computer may branch the path of the blood vessel based on the branch point according to the determination result.
  • the computer may also assign a vessel name to a branched vessel path based on the branch point. For example, the computer may specify vessel names for branched vessel pathways based on anatomical vessel distribution.
  • the computer may derive a hierarchical structure for the path of the blood vessel based on the branch point.
  • the computer can derive the overall vascular structure by creating a vascular pathway branched from the bifurcation on the entire vascular pathway and naming the vascular pathway for each vascular pathway.
  • the computer may derive the flow direction of the blood flow on the path of the blood vessel.
  • the computer may determine the flow direction of the blood flow based on the size of the normal vector extracted from each polygon. For example, the computer may compare the magnitude of the normal vector of the first polygon with the magnitude of the normal vector of the second polygon, and determine that blood flows in a path connecting the magnitude of the normal vector from a large value to a small value.
  • the 3D vessel model can be constructed by accurately deriving the vessel path and the vessel diameter (that is, the vessel thickness), and further, the hierarchy of the vessel path based on the branching point of the vessel.
  • the structure and blood flow can be identified. Therefore, in the 3D blood vessel model according to the embodiment of the present invention, since the correlation and geometric information of blood vessels can be accurately understood, more precise surgical operation can be designated when the simulation is performed by using the same. For example, when performing a simulation using the 3D blood vessel model according to an embodiment of the present invention, when the medical staff already cuts the upper end of the blood vessel and then cuts the lower end again, the operation of cutting the lower end may be determined as unnecessary. This information can also be provided to medical personnel.
  • the optimal size of a clip for tying a specific blood vessel can be informed when performing the operation of tying a specific blood vessel in a simulation using the 3D blood vessel model.
  • FIG. 26 is a diagram schematically illustrating a configuration of an apparatus 500 for performing a method of generating a blood vessel model according to an embodiment of the present invention.
  • the processor 510 may include a connection passage (for example, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • a connection passage for example, a bus or the like
  • the processor 510 executes one or more instructions stored in the memory 520 to perform the blood vessel model generation method described with reference to FIGS. 19 to 25.
  • the processor 510 obtains at least one polygon constituting the vessel by executing one or more instructions stored in the memory 520, and extracts a normal vector from each of the at least one polygon.
  • the center point of the vessel may be calculated based on each normal vector, and a path of the vessel may be generated based on the center point of the vessel.
  • the processor 510 may include random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 510. , Not shown) may be further included.
  • the processor 510 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.
  • SoC system on chip
  • the memory 520 may store programs (one or more instructions) for processing and controlling the processor 510. Programs stored in the memory 520 may be divided into a plurality of modules according to their functions.
  • the blood vessel model generation method according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.
  • a computer includes all the various devices capable of performing arithmetic processing to provide a result to a user.
  • a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • a head mounted display (HMD) device includes a computing function
  • the HMD device may be a computer.
  • the computer may correspond to a server that receives a request from a client and performs information processing.
  • FIG. 27 is a schematic diagram of a system capable of performing robot surgery in accordance with one embodiment of the present invention.
  • the robotic surgical system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34.
  • the medical imaging apparatus 10 may be omitted in the robot surgery system according to the disclosed embodiment.
  • surgical robot 34 includes imaging device 36 and surgical instrument 38.
  • the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.
  • the server 100 is a computing device including at least one processor and a communication unit.
  • the controller 30 includes a computing device including at least one processor and a communication unit.
  • the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.
  • the imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.
  • the image photographed by the photographing apparatus 36 is displayed on the display 340.
  • surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, fixing, grabbing operations, and the like, of the surgical site.
  • Surgical tool 38 is used in conjunction with the surgical arm of the surgical robot 34.
  • the controller 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.
  • the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.
  • the server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.
  • the controller 30 displays the information received from the server 100 on the display 32 to provide the user, or controls the surgical robot 34 by using the information received from the server 100.
  • the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.
  • the present invention when performing a robot operation, it is possible to obtain data including various surgical information in the surgical image taken during the surgical procedure or the control of the surgical robot. In this way, the surgical image or surgical data obtained during the surgery process may be used as learning data or used in the surgery process of other patients. Accordingly, the present invention generates a virtual body model that allows the simulation of the surgery using the surgical image obtained at the time of surgery, and through this virtual surgery to provide a surgical environment similar to the physical state of the actual patient and the actual surgical state We want to provide a simulation.
  • Computer performs a method of generating learning data based on a surgical image according to an embodiment disclosed herein.
  • Computer may mean the server 100 or the controller 30 of FIG. 27, but is not limited thereto and may be used to encompass a device capable of performing computing processing.
  • the computer may be a computing device provided separately from the device shown in FIG. 27.
  • the embodiments disclosed below may not be applicable only in connection with the robotic surgery system illustrated in FIG. 27, but may be applied to all kinds of embodiments that may acquire and utilize a surgical image in a surgical procedure.
  • robotic surgery it can be applied in connection with minimally invasive surgery such as laparoscopic surgery or endoscopic surgery.
  • FIG. 28 is a flowchart schematically illustrating a method of generating a virtual body model using a surgical image according to an embodiment of the present invention.
  • the computer may detect an organ from a surgical image including a plurality of image frames and extract a feature point (S100).
  • the computer may first acquire a surgical image.
  • the medical staff may directly perform the actual surgery on the patient, and perform laparoscopic or endoscopes, including the surgical robot as described in FIG. 27.
  • Minimally invasive surgery may be performed.
  • the computer may acquire a surgical image photographing a scene including a surgical operation performed in the surgical procedure, a surgical tool related thereto, a surgical site, and the like.
  • the computer may acquire a surgical image photographing a scene including a surgical site and a surgical tool that is currently undergoing surgery from a camera entering the patient's body.
  • the surgical image may include one or more image frames.
  • Each image frame may represent a scene in which a surgical operation is performed, including a surgical site, a surgical tool, and the like of a patient.
  • the surgical image may be composed of image frames in which a surgical operation is recorded for each scene (scene) according to time during the surgical procedure.
  • the surgical image may be composed of image frames that record each surgical scene according to the spatial movement such as the surgical site or the position of the camera during the surgery.
  • the surgical image may be composed of all image frames including the entire surgical procedure, or may be formed in the form of at least one video clip (ie, a sequence) divided according to a specific classification criterion.
  • the computer may acquire a surgical image in the form of a video clip divided into predefined sections for a specific operation, and acquire a surgical image including all or part of a surgical procedure and at least one video clip. It can also be divided into surgical images.
  • the computer may acquire a surgical image including all or part of a surgical procedure and divide the surgical image into at least one video clip according to a specific classification criterion.
  • the computer may divide the surgical image according to the time course of the surgery, or may divide the surgical image according to the position or state change of the surgical site based on the surgical site during the surgery.
  • the computer may segment the surgical image based on the position of the camera or the moving range of the camera during the operation, or divide the surgical image based on the change (eg replacement) of the surgical tool during the operation. You may.
  • the computer may segment the surgical image based on image frames formed of a series of surgical operations in relation to the surgical operation.
  • each operation may be predetermined surgery stages classified according to a specific classification criteria. In this case, the computer may segment the surgical image based on the surgical stage.
  • 29 illustrates an example for describing a process of dividing a surgical image into at least one video clip (ie, a sequence) according to an embodiment of the present invention.
  • the computer may acquire a surgical image 200 including all or part of a surgical procedure.
  • Computers can use deep learning, such as the Convolutional Neural Network (CNN), to learn whether or not there is an interaction between a surgical tool and an organ in a surgical image.
  • CNN Convolutional Neural Network
  • the computer determines whether contact between the surgical tool and the organ occurs from the surgical image 200 through CNN learning, and determines whether the surgical image 200 includes a plurality of video clips based on whether the contact between the surgical tool and the organ occurs. That is, it can be divided into a sequence (210, 220).
  • Each video clip 210 or 220 may be composed of image frames including a point of contact between the surgical tool and the organ to a point of time when the surgical tool is separated from the organ.
  • the computer acquires a surgical image divided into a plurality of video clips (ie, a sequence) as described above, and applies processes to be described later for each obtained video clip (ie, sequence). can do.
  • the computer may acquire a surgical image (that is, a video clip) including a plurality of image frames, extract a feature point by detecting an organ from the plurality of image frames.
  • a surgical image that is, a video clip
  • the computer may detect an organ associated with the operation of the surgical tool from each of the plurality of image frames. For example, the computer may detect from each image frame an organ in which interaction occurs due to the operation of the surgical tool, such as an organ in contact with the surgical tool. In this case, in detecting an organ from an image frame, the computer may apply an image recognition technique (eg, semantic segmentation) using deep learning, and a surgical tool from the image frame according to the characteristics of each surgical tool and each organ. And organs. The computer can derive the recognized surgical instruments and location information, types, etc. of organ regions.
  • an image recognition technique eg, semantic segmentation
  • FIG. 30 illustrates an example for explaining a process of detecting an organ from an image frame according to an embodiment of the present invention.
  • the computer may receive the image frame 300 and detect the organ 310 and the surgical tool 320 with respect to the received image frame 300 using CNN or semantic segmentation.
  • the computer may derive the location information of the detected organ 310 and the surgical tool 320.
  • the location information may be represented by coordinate information on a two-dimensional or three-dimensional space.
  • the computer may recognize operation information of the surgical tool 320 and recognize whether the surgical tool 320 is in contact with the organ 310.
  • the computer may extract feature points for the detected organ from each of the plurality of image frames.
  • the computer may extract feature points using algorithms such as Scale-Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) for long-term regions in each image frame.
  • SIFT Scale-Invariant Feature Transform
  • SURF Speeded Up Robust Features
  • the computer may connect the feature points extracted from the plurality of image frames, and may match and connect the feature points between the plurality of image frames (S200).
  • the computer may match and connect the first feature points extracted from the first image frame and the second feature points extracted from the second image frame among the plurality of image frames. In this manner, trajectories may be generated by matching feature points between the image frames for all image frames in the surgical image. In this case, in matching feature points between each image frame, the computer may remove an outlier. In addition, the removed portion may be corrected through interpolation or the like.
  • the computer may divide the organs into at least one cluster area by grouping regions having similar movements in the organs based on the connected feature points (S300).
  • the computer may first determine the degree of movement of the organ according to the operation of the surgical tool based on the connected feature points.
  • a contact occurs between the surgical tool and the organ by the operation of the surgical tool, a physical force is applied to the contact position in the organ, so that a change (ie, movement) may occur in a specific area of the organ based on the contact position.
  • the change of organs ie, movement
  • the feature points extracted for the organs may also change in a specific pattern. Therefore, the organ may have a lot of movement in some areas in relation to the surgical instruments, and may be less in some areas. In other words, organs may show different movement responses in relation to surgical instruments.
  • the computer can group regions in which organ movements are similar based on the degree of movement.
  • the computer may extract a contact position where a contact occurs between the surgical tool and the organ according to the operation of the surgical tool from each of the plurality of image frames.
  • the computer may acquire the position change value of the organ based on the contact position, and determine the degree of movement of the organ based on the acquired position change value of the organ.
  • the computer may acquire a position change value for each feature point extracted from each image frame, and detect feature points having a similar degree of movement in the organ based on this.
  • the computer may group regions having similar movements in the organs and divide them into at least one cluster region based on the degree of movement of the organs. For example, the computer may detect feature points that have the same or similar location change value (i.e., the location change value relative to the feature point) of the organ, and group the same or similar feature points, respectively. The computer may then assign each grouped feature point to each cluster region.
  • the computer may detect feature points that have the same or similar location change value (i.e., the location change value relative to the feature point) of the organ, and group the same or similar feature points, respectively. The computer may then assign each grouped feature point to each cluster region.
  • the computer may apply an algorithm such as motion segmentation to each feature point extracted from each image frame.
  • the computer can detect feature points that move independently of each other in the organ. In other words, the computer can detect feature points with similar degrees of movement within the organ. Therefore, the computer can group the feature points having similar movements and divide the organs into a plurality of cluster regions.
  • the computer may estimate an elasticity parameter for each of the cluster regions divided by grouping regions having similar movements in the organ.
  • Each organ may have a specific range of elasticity, which is predetermined. Therefore, when movement occurs as the physical force is applied to the organ by the operation of the surgical tool, the elasticity parameter of the corresponding organ may be inversely estimated by reflecting the degree of movement in a predetermined degree of elasticity of the corresponding organ.
  • the computer may estimate the elastic parameters of each cluster region based on the position change value for each feature point. That is, the elasticity parameter of each cluster region may be calculated by reflecting the degree of movement of each cluster region (that is, the position change value for each feature point) in the predetermined degree of elasticity of the corresponding organ.
  • the computer may perform learning using deep learning (eg, CNN) in the process of calculating the position change value of the organ according to the operation of the surgical tool and determining the degree of movement of the organ.
  • deep learning eg, CNN
  • the computer recognizes the type, position, and operation of the surgical tool in the image frame, and performs CNN learning based on the information of the surgical tool to acquire the position change value of the organ according to the operation of the surgical tool as the learning result.
  • the computer may estimate the elasticity parameter of each cluster region in the organ by using the position change value of the organ obtained as a result of the learning.
  • the computer may match the at least one cluster region divided for the organ on the virtual body model (S400).
  • the virtual body model may be three-dimensional modeling data generated based on medical image data (eg, medical images taken through CT, PET, MRI, etc.) previously photographed inside the body of the patient.
  • the model may be modeled in accordance with the body of the surgical subject, and may be corrected to the same state as the actual surgical state.
  • Medical staff can perform rehearsals or simulations using a virtual body model that is implemented in the same way as the physical state of the subject, and can experience the same state as during the actual surgery.
  • virtual surgery data including rehearsal or simulation behavior for the virtual body model can be obtained.
  • the virtual surgery data may be a virtual surgery image including a surgical site on which a virtual surgery is performed on a virtual body model, or may be data recorded on a surgical operation performed on the virtual body model.
  • the surgical image including the plurality of image frames obtained in step S100 may be a stereoscopic 3D image, and thus the surgical image may be an image having a three-dimensional stereoscopic sense, that is, a depth.
  • the computer may obtain depth information (ie, depth map) from each image frame.
  • the computer may convert at least one cluster area into 3D coordinate information based on a depth map of each of the plurality of image frames.
  • the computer may detect and match a point corresponding to the 3D coordinate information on the virtual body model based on the 3D coordinate information about the at least one cluster region. This will be described in detail with reference to FIG. 31.
  • FIG. 31 illustrates an example for explaining a process of matching at least one cluster region on a virtual body model according to an embodiment of the present invention.
  • the computer may group feature points having similar movements in an organ based on the feature points extracted from the image frame 400 and divide the feature points into a plurality of cluster regions 410 and 420.
  • the computer may match the plurality of divided cluster regions 410 and 420 with the corresponding organ 500 on the virtual body model.
  • the computer may acquire depth maps of the plurality of cluster regions 410 and 420, and calculate coordinate information in three-dimensional space of each feature point in the plurality of cluster regions 410 and 420 based on the depth map. .
  • the computer may detect pairs having the closest coordinate positions in each coordinate space by comparing the three-dimensional coordinate information of each feature point in the plurality of cluster regions 410 and 420 with the three-dimensional coordinate information of the virtual body model. Then, the computer may model the plurality of cluster regions 410 and 420 on the corresponding organ 500 on the virtual body model by matching the detected pairs. For example, the computer may match each feature point in the plurality of cluster regions 410 and 420 with the corresponding organ 500 of the virtual body model using an iterative closet point (ICP) algorithm.
  • ICP iterative closet point
  • the computer applies the elastic parameters estimated for each of the plurality of cluster regions 410 and 420 to the virtual body model. can do.
  • the organ 500 of the virtual body model may be modeled as a plurality of partitions 510 and 520 matched to each of the plurality of cluster areas 410 and 420.
  • Each of the divided regions 510 and 520 may have the same motion response information as the movement of each of the plurality of cluster regions 410 and 420.
  • the degree or degree of movement of the organ during actual surgery through the virtual body model can be reproduced in the simulation.
  • the virtual body model can be used to perform realistic training as in actual surgery.
  • 32 to 34 are views showing an example of applying a method for generating a virtual body model using a surgical image according to an embodiment of the present invention. 32 to 34, descriptions of operations that overlap with those described with reference to FIGS. 28 to 31 will be omitted.
  • the computer may acquire a surgical image including a surgical procedure (S500).
  • the computer may acquire a plurality of (eg, N) surgical images.
  • the plurality of surgical images may be images of surgery procedures of different patients, and each surgery procedure may be performed by performing different operations.
  • the computer may determine whether the surgical tool is in contact with the organ through CNN learning for each of the acquired surgical images (S502).
  • the computer may divide each surgical image into a plurality of video clips (that is, a sequence) based on whether the surgical tool and the organ are in contact with each of the plurality of surgical images (S504). For example, the computer divides the first surgical image into a single video clip from the time when the contact between the surgical tool and the organ occurs to the time when the contact between the surgical tool and the organ ends, and finally, the plurality of first surgical images (Eg, M) video clips.
  • the computer may repeatedly perform the following processes for each video clip divided from each of the plurality of surgical images. For convenience of description, the following procedure is described based on one video clip, but may be applied to all video clips.
  • the computer may calculate a depth map for an image frame in a video clip (S510).
  • the computer may recognize a position, an operation, and the like of the surgical tool from the image frame in the video clip (S520), and store information related to the recognized surgical tool (S522).
  • the computer may recognize the surgical tool using the CNN from the image frame.
  • the computer may extract the organ in which the contact with the surgical tool recognized in step S520 occurs from the image frame in the video clip (S524).
  • the computer may extract organs in which contact with the surgical tool occurs using semantic segmentation from the image frame.
  • the computer may acquire the feature points of the organs extracted from each of the image frames in the video clip, and match the acquired feature points between the respective image frames.
  • the computer may perform motion segmentation by grouping and dividing regions having similar movements in the organ based on the connected feature points between the image frames (S530).
  • the computer may match each area divided for the organ on the virtual body model, and may use an ICP algorithm (S540).
  • the computer may group and divide the feature points based on the degree of movement in the organ.
  • the degree of movement in the organ may be calculated using a change in the position of the organ.
  • the computer may recognize the type, location, and operation of the surgical tool from each image frame (S600), and may perform CNN learning based on the information of the recognized surgical tool (S610). As a learning result, the computer may acquire a position change value of the organ, which is a degree of movement of the organ according to the operation of the surgical tool (S620).
  • the computer may generate a movement response of the organ according to the operation of the surgical tool on the virtual body model, and may use the same to determine the degree of movement of the organ.
  • the computer recognizes contact between the surgical tool and the organ on the virtual body model (S700), and extracts information such as the contact position between the recognized surgical tool and the organ, the type, position, and operation of the surgical tool. It may be (S710).
  • the computer may perform CNN learning based on the extracted information (S720).
  • the computer can predict the degree of movement of the organ according to the operation of the surgical tool as a learning result, and can implement it as a learning model. Therefore, the computer may be represented on the virtual body model reflecting the degree of movement of the organ according to the operation of the surgical tool obtained as a learning result (S730).
  • the computer calculates an elastic parameter for each cluster region divided by grouping feature points for the organ based on the degree of movement in the organ (i.e., the change in the position of the organ as described above or the movement response of the organ on the virtual body model). It can be estimated.
  • the computer may match the organs on the virtual body model based on the elasticity parameters for each cluster region.
  • 35 is a diagram schematically showing the configuration of an apparatus 600 for performing a method for generating a virtual body model using a surgical image according to an embodiment of the present invention.
  • the processor 610 may include a connection passage (for example, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • a connection passage for example, a bus or the like
  • a graphic processor not shown
  • the processor 610 may include a connection passage (for example, a bus or the like) that transmits and receives signals with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • the processor 610 executes one or more instructions stored in the memory 620 to perform a virtual body model generation method using the surgical images described with reference to FIGS. 28 to 34.
  • the processor 610 may detect an organ from a surgical image including a plurality of image frames and extract a feature point by executing one or more instructions stored in the memory 620, between each of the plurality of image frames. Matching and matching the feature points, dividing the organs into at least one cluster region by grouping regions having similar movements within the organs based on the connected feature points, and dividing the at least one cluster region into a virtual body model; Matching may be performed.
  • the processor 610 may include random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 610. , Not shown) may be further included.
  • the processor 610 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.
  • SoC system on chip
  • the memory 620 may store programs (one or more instructions) for processing and controlling the processor 610. Programs stored in the memory 620 may be divided into a plurality of modules according to functions.
  • the virtual body model generation method using the surgical image according to the embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer which is hardware and stored in a medium.
  • the program may be read by the computer's processor (CPU) through the device interface of the computer in order for the computer to read the program and execute the methods implemented as the program.
  • Code that is coded in a computer language such as C, C ++, JAVA, or machine language.
  • Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do.
  • the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have.
  • the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.
  • the stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device.
  • examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

컴퓨터에 의해 수행되는 수술 시뮬레이션 정보 구축 방법이 제공된다. 상기 방법은 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계, 상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계, 상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계, 및 상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 포함한다.

Description

가상신체모델 생성 방법 및 장치
본 발명은 가상신체모델을 생성하는 방법 및 장치에 관한 것이다.
수술과정에서, 의사의 수술을 보조하기 위한 정보를 제공할 수 있는 기술들의 개발이 요구되고 있다. 수술을 보조하기 위한 정보를 제공하기 위해서는, 수술 행위를 인식할 수 있어야 한다.
기존에는 수술 프로세스를 최적화 하기 위한 시나리오 구상을 위해서는 사전에 촬영된 의료영상을 참고하거나 매우 숙련된 의사의 자문을 받았으나, 의료영상만으로는 불필요한 프로세스의 판단이 어려웠으며 숙련된 의사의 자문은 특정 환자에 맞는 자문을 받기에 어려운 문제점이 있었다.
따라서, 의료영상이나 숙련된 의사의 자문은 수술대상 환자에 대한 수술프로세스의 최적화를 위한 보조 용도로는 활용되기 어려운 점이 많았다.
이에, 3차원 의료영상(예를 들어, 3차원 수술도구 움직임 및 도구의 움직임으로 인해 발생하는 장기 내부의 변화에 대한 가상영상)을 이용하여 수술을 행하는데 있어서 불필요한 프로세스를 최소화하여 수술 프로세스를 최적화하고, 이에 기반한 수술보조 정보를 제공할 수 있는 방법에 대한 개발이 요구된다.
특히, 실제 수술시에 획득되는 수술영상을 활용하여 실제 수술시와 동일한 신체 상태를 구현하고, 이를 통해 실제 수술과 유사한 현실감을 제공하여 줄 수 있는 시뮬레이션 구현 방법이 필요하다.
또한, 환자의 혈관 및 장기 상태와 동일한 가상 신체 모델을 이용하여, 수술을 행하는데 있어서 불필요한 프로세스를 최소화하여 수술 프로세스를 최적화하고, 이에 기반한 수술보조 정보를 제공할 수 있는 방법에 대한 개발이 요구된다.
또한, 수술이 진행되는 과정에서 다양한 수술 정보를 기록한 데이터들이 수집될 수 있다. 이 경우, 수술이 완료된 이후에 수술 정보를 기록한 데이터들을 활용하면 다시 수술 과정을 복원할 수도 있고, 특히 개별 환자에 대한 의료영상을 획득하지 못한 상황에서도 수술 정보를 기록한 데이터들을 활용하여 개별 환자마다 3차원 의료영상을 재현해 낼 수도 있다. 따라서, 수술 정보를 기록한 데이터들을 활용할 수 있는 방법이 필요하다.
특히, 혈관을 포함하는 3차원 의료영상의 경우, 각 혈관의 위치 및 경로를 정확하게 제공함으로써, 혈관의 전체 계층구조 및 혈류의 흐름 등을 파악할 수 있도록 하여 수술 시나 시뮬레이션 시에 최적화된 수술 정보를 제공하는 방법이 필요하다.
본 발명이 해결하고자 하는 과제는 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 수술 전 수술의 시뮬레이션을 위한, 수술 시의 환자의 혈관 및 장기 상태와 동일한 가상 신체 모델을 구축하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 수술정보 활용 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 수술시 획득된 수술정보를 기록한 데이터들을 이용하여 환자의 가상신체모델을 구현하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 수술시 획득된 수술정보를 기록한 데이터를 이용하여 실제수술 시의 전체 과정을 재현해낼 수 있는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 혈관 모델 생성 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 혈관 모델에서 혈관의 경로 및 혈관의 두께를 검출하여 혈관의 전체적인 계층구조를 생성하는 것이다.
본 발명이 해결하고자 하는 과제는 혈관의 상관관계와 기하학적 정보를 파악함으로써 시뮬레이션 시에 보다 정밀한 수술동작을 지정할 수 있도록 하는 것이다.
본 발명이 해결하고자 하는 과제는 수술영상을 이용한 가상신체모델 생성 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 수술영상을 기초로 수술도구의 동작을 분석하여 수술도구와 장기 간의 상호 작용을 반영한 가상신체모델을 구현하는 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 실제 수술시에 장기가 변형되는 정도나 움직임 정도를 예측하여 가상신체모델 상에 적용하는 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 컴퓨터에 의해 수행되는 수술 시뮬레이션 정보 구축 방법은 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계, 상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계, 상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계, 및 상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 포함한다.
본 발명의 일 실시예에 따른 가상 신체 모델 구축 방법은 컴퓨터가 환자의 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 획득하는 단계, 상기 컴퓨터가 획득한 상기 동맥 추출용 영상 데이터 및 상기 정맥 추출용 영상 데이터를 기반으로 정합 기준 지점을 탐색하고, 상기 정합 기준 지점을 이용하여 혈관 장기 모델을 생성하는 단계, 상기 컴퓨터가 생성된 상기 혈관 장기 모델을 기반으로 기복 모델인 상기 환자의 가상 신체 모델을 생성하는 단계를 포함하고, 상기 동맥 추출용 영상 데이터는 조영된 동맥을 포함하고, 상기 정맥 추출용 영상 데이터는 조영된 정맥을 포함하고, 상기 혈관 장기 모델은, 상기 동맥 추출용 영상 데이터 및 상기 정맥 추출용 영상 데이터 중 어느 하나에서 얻어진 장기 영상 정보를 기반으로 장기를 모델링 하는 것이다.
본 발명의 일 실시예에 따른 컴퓨터에 의해 수행되는 수술정보 활용 방법은, 수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득하는 단계, 상기 큐시트데이터에 포함된 실제수술정보로부터 상기 수술 대상자의 신체 정보를 획득하는 단계, 및 상기 수술 대상자의 신체 정보를 기초로 상기 수술 대상자의 가상신체모델을 생성하는 단계를 포함한다.
본 발명의 일 실시예에 따른 컴퓨터가 수행하는 혈관 모델 생성 방법은, 혈관을 구성하는 적어도 하나의 폴리곤(polygon)을 획득하는 단계, 상기 적어도 하나의 폴리곤 각각으로부터 법선 벡터(normal vector)를 추출하는 단계, 상기 각각의 법선 벡터를 기초로 상기 혈관의 중심점을 산출하는 단계, 및 상기 혈관의 중심점을 기초로 상기 혈관의 경로(path)를 생성하는 단계를 포함한다.
본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법은, 복수의 영상프레임을 포함하는 수술영상으로부터 장기를 검출하여 특징점(feature)을 추출하는 단계, 상기 복수의 영상프레임 각각 간에 상기 특징점을 매칭시켜 연결하는 단계, 상기 연결된 특징점을 기초로 상기 장기 내 움직임이 유사한 영역을 그룹화하여 상기 장기를 적어도 하나의 클러스터 영역으로 분할하는 단계, 및 상기 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 단계를 포함한다.
본 발명에 따르면, 수술 중에 실시간으로 실제 수술 정보를 획득하고, 이를 바탕으로 각 환자의 실제 수술 정보와 동일한 수술 시뮬레이션 정보를 구축함으로써, 수술 중 의사에게 최적화된 환자의 수술 정보를 제공할 수 있다.
상기 본 발명에 의하면, 정맥 및 동맥이 조영된 영상 데이터를 정합 기준 지점을 이용하여 정합함으로써, 동일한 시간에 추출하지 못하였던 정맥 및 동맥이 조영된 영상 데이터를 정확하게 정합할 수 있다.
또한, 상기 본 발명에 의하면, 환자의 영상 데이터를 기반으로 생성된 혈관 장기 모델을 신체 조건이 일치하는 기복 표준 모델과 정합 시, 체부위를 결정하는 목표지점으로서 3개의 정합 지점을 이용하여 정합함으로써, 수술 시 환자의 기복 상태와 동일한 가상 신체 모델을 생성할 수 있다.
또한, 상기 본 발명에 의하면, 수술 시 삽입하는 내시경 카메라의 삽입 위치를 구분할 수 있는 지점을 지정함으로써, 실제 수술 과정에서 시뮬레이션 할 때와 동일한 위치에 내시경 카메라를 삽입할 수 있다.
본 발명에 따르면, 수술 대상자의 가상신체모델을 구현함으로써 실제수술 시의 전체 과정을 정확하게 재현해 낼 수 있으며, 또한 이를 시각적으로 재생(play back)하여 활용할 수도 있다.
본 발명에 따르면, 환자마다 상이한 특징을 반영한 가상신체모델을 통해 실제 수술과 같은 효과를 줄 수 있기 때문에, 학습용 모델로서 활용적 가치가 높다.
본 발명에 따르면, 수술 대상자의 수술영상데이터를 구현함으로써 실제수술 과정을 시각적으로 재현해 낼 수 있다.
본 발명에 따르면, 의료영상데이터만으로 정확하게 제공되지 못하는 혈관 부분(예컨대, 노이즈로 인하여 정확한 혈관 형태로 표현되지 못하거나 중간에 끊어진 혈관 부분 등)에 대해 혈관 경로를 생성하여 줄 수 있고, 또한 혈관 두께를 함께 반영함으로써 보다 정밀한 3차원 혈관 모델을 제공해 줄 수 있다.
본 발명에 따르면, 혈관 경로 상에서의 분기 지점을 검출함으로써 혈관의 계층 구조 및 혈류 흐름까지 파악할 수 있도록 한다.
본 발명에 따르면, 혈관의 계층 구조 및 혈류 흐름을 제공함으로써 시뮬레이션 시에 보다 정밀한 수술동작을 행하는 것이 가능하다.
본 발명에 따르면, 실제 수술과정에서 획득된 수술영상을 기초로 구현된 가상신체모델을 생성함으로써, 가상신체모델을 통한 시뮬레이션 시에 실제 수술과 동일한 효과를 줄 수 있다.
본 발명에 따르면, 실제 수술과정에서 수술도구의 동작을 행함으로써 장기에 가해지는 변화를 기초로 가상신체모델을 구현함으로써, 실제 수술 시에 장기가 변형되는 정도나 움직임 정도를 가상신체모델을 통한 시뮬레이션 시에도 동일하게 재현할 수 있다.
본 발명에 따르면, 수술도구의 움직임을 분석하여 수술도구의 움직임에 따라 장기가 어떻게 반응할지를 예측하고, 예측된 장기의 반응을 가상신체모델 상에서 표현한다. 또한, 이러한 가상신체모델을 이용함으로써 실제 수술과 같이 현실감 있는 훈련을 실행할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 로봇수술 시스템을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따라 대상체의 실제 수술부위에 대한 텍스처 정보를 가상신체모델에 반영하는 과정을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 적용하는 일례를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보를 구축하는 장치(300)의 구성을 개략적으로 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 가상 신체 모델 구축 방법을 설명하기 위한 도면이다.
도 7은 조영된 동맥을 포함하는 동맥 추출용 영상 데이터와 조영된 정맥을 포함하는 정맥 추출용 영상 데이터를 설명하기 위한 도면이다.
도 8은 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 기반으로 하여 정합하지 않았을 경우와 정합하였을 경우의 혈관 상태를 설명하기 위한 도면이다.
도 9는 혈관 장기 모델에 기복을 적용하지 않을 때와 기복을 적용하였을 때의 상태를 설명하기 위한 도면이다.
도 10은 영상 데이터를 이용하여 혈관 장기 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 11은 각각의 혈관 모델을 정합하여 혈관 장기 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 정합 기준 지점의 일 실시예를 설명하기 위한 도면이다.
도 13은 3차원 제1 혈관 모델 및 제2 혈관 모델에서 정합 기준 지점인 복강 동맥을 찾는 방법을 설명하기 위한 도면이다.
도 14는 가상 신체 모델의 생성에 있어서 기준이 되는 지점과 수술 시 가상 신체 모델과 비교하여 실제 환자의 신체에 대하여 적용하는 기준 지점을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 16은 본 발명의 일 실시예에 따른 수술정보 활용 방법을 도시한 흐름도이다.
도 17은 본 발명의 다른 실시예에 따른 수술정보 활용 방법을 도시한 흐름도이다.
도 18은 본 발명의 일 실시예에 따른 수술정보 활용 방법을 수행하는 장치(300)의 구성을 개략적으로 나타내는 도면이다.
도 19는 본 발명의 일 실시예에 따른 혈관 모델 생성 방법을 도시한 흐름도이다.
도 20 및 도 21은 본 발명의 일 실시예에 따른 혈관을 구성하는 적어도 하나의 폴리곤으로부터 법선 벡터를 추출하는 과정을 설명하기 위해 도시한 도면이다.
도 22는 본 발명의 일 실시예에 따른 혈관의 중심점을 산출하는 과정을 설명하기 위해 도시한 도면이다.
도 23 및 도 24는 본 발명의 일 실시예에 따른 혈관 경로를 생성하는 과정을 설명하기 위해 도시한 도면이다.
도 25는 본 발명의 일 실시예에 따라 생성되는 혈관의 경로의 일례를 개략적으로 도시한 도면이다.
도 26은 본 발명의 일 실시예에 따른 혈관 모델 생성 방법을 수행하는 장치(500)의 구성을 개략적으로 나타내는 도면이다.
도 27은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 28은 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법을 개략적으로 도시한 흐름도이다.
도 29는 본 발명의 일 실시예에 따라 수술영상을 적어도 하나의 비디오 클립(즉, 시퀀스)으로 분할하는 과정을 설명하기 위한 일례를 나타낸 것이다.
도 30은 본 발명의 일 실시예에 따라 영상프레임으로부터 장기를 검출하는 과정을 설명하기 위한 일례를 나타낸 것이다.
도 31은 본 발명의 일 실시예에 따라 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 과정을 설명하기 위한 일례를 나타낸 것이다.
도 32 내지 도 34는 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법을 적용한 일례를 나타낸 도면이다.
도 35는 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법을 수행하는 장치(600)의 구성을 개략적으로 나타내는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
이하에서는 도 1 내지 도 5를 참조하여, 본 발명의 실시예에 따른 수술 시뮬레이션 정보 구축 방법 및 장치에 관해 상세히 설명한다.
본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3D 영상에 있어서의 복셀들)로 구성된 다차원(multidimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.
본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다.
본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
본 명세서에서 "의료영상데이터"는 의료영상 촬영장비로 촬영되는 의료영상으로서, 대상체의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함한다. " 의료영상데이터"는 컴퓨터 단층촬영(Computed Tomography; CT)영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 등을 포함할 수 있다.
본 명세서에서 "가상신체모델"은 의료영상데이터를 기반으로 실제 환자의 신체에 부합하게 생성된 모델을 의미한다. "가상신체모델"은 의료영상데이터를 그대로 3차원으로 모델링하여 생성한 것일 수도 있고, 모델링 후에 실제 수술 시와 같게 보정한 것일 수도 있다.
본 명세서에서 "가상수술데이터"는 가상신체모델에 대해 수행되는 리허설 또는 시뮬레이션 행위를 포함하는 데이터를 의미한다. "가상수술데이터"는 가상공간에서 가상신체모델에 대해 리허설 또는 시뮬레이션이 수행된 영상데이터일 수도 있고, 가상신체모델에 대해 수행된 수술동작에 대해 기록된 데이터일 수도 있다.
본 명세서에서 "실제수술데이터"는 실제 의료진이 수술을 수행함에 따라 획득되는 데이터를 의미한다. "실제수술데이터"는 실제 수술과정에서 수술부위를 촬영한 영상데이터일 수도 있고, 실제 수술과정에서 수행된 수술동작에 대해 기록된 데이터일 수도 있다.
본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 로봇수술 시스템을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이 도시되어 있다.
도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(20) 및 수술실에 구비된 제어부(30), 영상촬영부(36), 디스플레이(32) 및 수술로봇(34)을 포함한다.
일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.
서버(20)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.
제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.
영상촬영부(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 영상촬영부(36)는 적어도 하나의 카메라 장치를 포함하여, 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 영상촬영부(36)는 수술로봇(34)과 결합되어 이용된다. 예를 들어, 영상촬영부(36)는 수술로봇(34)의 수술 암(Arm)과 결합된 적어도 하나의 카메라를 포함할 수 있다.
일 실시 예에서, 영상촬영부(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.
제어부(30)는 서버(20)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.
예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.
서버(20)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체(환자)의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다.
제어부(30)는 서버(20)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(20)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.
일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다.
이하에서는, 도면을 참조하여 수술 시뮬레이션 정보 구축 방법에 대하여 상세하게 설명한다.
도 2는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 도시한 흐름도이다.
도 2에 도시된 각 단계들은 도 1에 도시된 서버(20) 또는 제어부(30)에서 시계열적으로 수행된다. 이하에서는, 설명의 편의를 위하여 각 단계들이 컴퓨터에 의하여 수행되는 것으로 서술하나, 각 단계의 수행주체는 특정 장치에 제한되지 않고, 그 전부 또는 일부가 서버(20) 또는 제어부(30)에서 수행될 수 있다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보 구축 방법은, 컴퓨터가 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계(S100), 상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계(S110), 상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계(S120), 및 상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계(S130)를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기재한다.
컴퓨터는 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득할 수 있다(S100). 여기서 대상체는 환자의 신체를 말하는 것으로, 신체 장기 또는 혈관 등일 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등을 포함할 수 있다.
일 실시 예에서, 컴퓨터가 CT, MRI, PET 등과 같은 의료영상 촬영장비(10)로부터 촬영된 대상체의 의료영상데이터를 획득하고, 획득된 의료영상데이터를 기반으로 가상신체모델을 사전에 생성할 수 있다. 그러나, 의료영상데이터를 기반으로 사전에 생성된 가상신체모델은 대상체(예: 장기)의 외형은 정확하게 구현하고 있으나, 대상체의 표면 특징들(예: 색, 재질, 질감 등의 텍스처(texture) 특징)을 표현하고 있지는 않다. 따라서, 의료영상데이터를 기반으로 사전에 생성된 가상신체모델에 대상체의 실제 표면 특징들을 반영한 정보를 제공할 필요가 있다.
이에, 환자의 실제 수술 중, 먼저 컴퓨터는 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득할 수 있다. 여기서 가상신체모델은, 상술한 바와 같이 환자의 수술부위 대상인 신체 장기(즉, 대상체)의 전부 또는 일부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터일 수 있다.
이후, 컴퓨터는 대상체에 대한 실제 수술 중에 촬영한 실제수술데이터를 획득할 수 있다(S110). 여기서 실제수술데이터는 의료진이 수술을 수행함에 따라 획득되는 데이터로, 대상체의 실제 수술 부위를 촬영한 영상데이터일 수 있다.
일 실시 예에서, 복강경 수술, 로봇 수술 등과 같은 최소 침습 수술을 수행하는 경우, 환자의 수술 부위에 수술도구와 카메라만 삽입하여 수술을 시행하게 된다. 이러한 경우, 컴퓨터는 환자의 신체 내부로 진입하는 카메라에 의해 촬영되는 영상을 실제수술데이터로 획득할 수 있다. 예를 들어, 실제수술데이터는 환자의 신체 내부로의 진입시부터 신체 내부의 수술 부위까지 이동하는 과정, 신체 내부의 수술 부위에 대해 수술도구에 의한 액션을 시작할 때부터 종료시까지 과정 등을 모두 촬영한 영상데이터일 수 있다.
컴퓨터는 실제수술데이터로부터 대상체에 대한 표면 특징 정보, 즉 대상체의 표면에서 표현되는 색, 재질, 질감 등과 같은 텍스처 정보를 추출할 수 있고(S120), 추출한 텍스처 정보를 단계 S100에서 획득한 기생성된 가상신체모델에 반영할 수 있다(S130).
구체적으로, 컴퓨터는 가상신체모델에서 대상체에 대한 가상 영상을 획득하고, 실제수술데이터에서 대상체의 실제 수술부위 영상을 획득할 수 있다. 이후, 컴퓨터는 가상 영상으로부터 실제 수술부위 영상에 대응하는 대응 영역을 획득하고, 대응 영역에 대상체의 실제 수술부위에 대한 텍스처 정보를 매핑하여 반영할 수 있다. 여기서, 가상 영상이란 3차원으로 구축된 가상신체모델에서 실제 카메라로 바라보는 것과 동일한 시점으로 획득된 영상을 의미할 수 있다.
일 실시 예에서, 수술 시에 환자의 신체 내부로 진입하는 카메라는 카메라가 주시하는 방향에 있는 모든 객체를 촬영하게 된다. 즉, 카메라가 환자의 특정 수술 부위에 대해 수술도구에 의한 액션을 시작할 때부터 종료시까지 수술 장면을 기록하게 된다. 컴퓨터는 수술 시에 환자의 신체 내부로 진입하는 카메라에 의해 촬영된 영상데이터(실제수술데이터) 중 원하는 시점의 영상데이터를 선택하고, 선택한 영상데이터를 이용하여 가상신체모델에 반영할 수 있다.
예를 들어, 여러 의료진이 동일한 수술을 연습하는 경우에는 실제 환자의 수술 시작시의 상태와 동일하게 가상신체모델을 구현해야 한다. 이를 위해, 컴퓨터는 전체 실제수술데이터 중에서 초반부에 획득된 실제 수술 영상데이터를 이용하여 가상신체모델을 생성할 수 있다. 예컨대, 초반부에 획득된 실제 수술 영상데이터로부터 텍스처, 지방 배치, 초기 장기 상태 등을 반영함으로써 수술 초기의 가상신체모델을 생성할 수 있다. 반면, 1차 수술을 수행한 이후 재수술이 필요한 경우, 의료진은 재수술 전에 미리 가상신체모델을 이용하여 수술 시뮬레이션을 수행할 수 있다. 이 경우, 컴퓨터는 전체 실제수술데이터 중에서 후반부에 획득된 실제 수술 영상데이터를 반영하여 가상신체모델을 구성할 수 있다. 이후, 의료진이 재수술을 시뮬레이션할 때, 실제 수술 동작을 가상신체모델에서 따라하는 과정을 수행함으로써 가상수술데이터를 생성할 수도 있다.
도 3은 본 발명의 일 실시예에 따라 대상체의 실제 수술부위에 대한 텍스처 정보를 가상신체모델에 반영하는 과정을 나타내는 흐름도이다.
일 실시예로, 도 3에서와 같이, 컴퓨터는 가상신체모델과 실제수술데이터의 렌더링 모습을 동일하게 하기 위해서, 가상신체모델의 가상 영상과 실제수술데이터의 수술부위 영상 간의 카메라 위치정보를 일치시킬 수 있다(S131).
예를 들어, 가상 영상의 가상 카메라의 위치와 실제 수술부위 영상의 카메라(예: 내시경 등의 수술도구에 포함된 카메라) 위치를 일치시킬 수 있다.
이와 같이, 두 영상 간의 카메라 위치정보를 일치시킴으로써, 2D 또는 3D, 한 공간에서 다른 공간으로의 매핑 시에 대상체 간의 위치가 동일하게 변환될 수 있다.
컴퓨터는 카메라 간의 위치정보를 기초로 가상 영상과 실제 수술부위 영상을 매칭시킬 수 있다(S132). 즉, 컴퓨터는 카메라 간의 위치정보를 기초로 실제 수술부위 영상에서 수술부위에 대응하는 가상 영상에 포함된 대상체의 부분이 매칭되도록 할 수 있다.
예를 들어, 컴퓨터는 가상 영상에서 대상체에 해당하는 부분을 추출할 수 있다. 그리고, 컴퓨터는 가상 영상에서 추출한 부분을 실제 수술부위 영상에 포함된 수술부위에 대응하도록 확대, 축소 등의 조정을 할 수 있다. 이러한 조정을 통해서 실제 수술부위 영상의 수술부위에 해당하는 가상 영상의 대상체를 매칭시킬 수 있다. 이에 따라 가상 영상의 대상체에서 수술부위에 대응하는 대응 영역을 획득할 수 있다.
컴퓨터는 영상 간의 매칭을 통해 실제 수술부위 영상에서 수술부위에 대응하는 가상 영상 내의 대응 영역을 검출하여 대응 영역의 위치 정보를 획득할 수 있다(S133).
예를 들어, 컴퓨터는 실제 수술부위 영상에 대한 카메라의 위치정보와 가상 영상에 대한 카메라의 위치정보 간의 변환 관계를 기초로 가상 영상 내의 대응 영역의 위치 정보를 도출할 수 있다. 이때 카메라의 퍼스펙티브(perspective) 값을 이용하여 대응 영역의 위치 정보를 계산할 수 있다.
컴퓨터는 실제 수술부위 영상에서 수술부위를 추출하고, 이 수술부위에 대한 텍스처 정보를 획득할 수 있다(S134).
여기서, 텍스처 정보는 대상체의 표면 컬러를 표현하는 정보(예: diffuse map), 대상체의 표면 거칠기 및 높낮이를 표현하는 정보(예: normal map, height map), 대상체의 표면 반사도를 표현하는 정보(예: occlusion map) 등을 포함할 수 있다. 또한, 정형화된 이미지 기반의 텍스처 정보뿐만 아니라, 연산을 통해 텍스처를 실시간으로 생성할 수 있는 셰이더(shader)를 적용할 수도 있다. 예를 들어, 셰이더를 적용하면 영상을 구성하는데 사용되는 모든 픽셀, 정점, 텍스처의 위치, 색조, 채도, 밝기, 대비 등과 같은 대상체의 표면의 변화를 실시간으로 생성할 수 있으며, 대상체 표면의 normal(법선, 수직방향)값에 대한 정보와 투명도, 반사도, 물체 색상 등의 일반적인 표면 속성, 조명의 종류, 개수와 방향 등에 대한 정보를 이용해 텍스처 정보를 계산할 수 있다.
컴퓨터는 가상 영상 내의 대응 영역의 위치정보를 기초로 실제 수술부위 영상으로부터 추출한 텍스처 정보를 가상 영상에 매핑할 수 있다(S135).
예를 들어, 컴퓨터는 실제 수술부위 영상으로부터 텍스처 정보를 포함하는 수술부위 영역을 추출하고, 추출한 영역을 가상 영상 내의 대응 영역의 위치 정보를 기반으로 대상체의 표면에 장착시켜 렌더링할 수 있다.
상술한 도 3의 과정을 카메라의 위치를 이동시킴으로써 반복 실행하게 되면 전체 대상체에 대해서 텍스처 정보를 추출하여 해당 대상체에 매핑할 수 있으므로, 환자의 실제 장기 모습과 동일한 가상신체모델을 얻을 수 있다.
한편, 본 발명의 일 실시예에 따르면, 컴퓨터는 대상체에 대한 표준화된 템플릿(template) 영상을 획득할 수 있다. 대상체의 표준화된 템플릿 영상은 각 대상체에 대한 외형, 크기, 위치 등과 같은 해부학적 특징들을 표준화하여 각 대상체의 템플릿을 3D 모델로 구축하여 둔 영상데이터일 수 있다. 이 경우, 컴퓨터는 표준화된 템플릿 영상을 획득하여 단계 S100에서 획득한 기생성된 가상신체모델과 정합할 수 있다.
예를 들어, 컴퓨터는 가상신체모델 내의 대상체를 포함하는 가상 영상에서 결손 부분을 추출할 수 있다. 그리고 컴퓨터는 표준화된 템플릿 영상을 사전에 구축하여 저장하여 둔 데이터베이스로부터 대상체에 대한 표준화 템플릿 영상을 수신하고, 수신한 표준화 템플릿 영상을 기반으로 가상 영상에서의 결손 부분을 보정할 수 있다. 이를 통해, 보다 실제 대상체의 외형과 같은 가상신체모델을 제공할 수 있다.
이후, 컴퓨터는 표준화된 템플릿 영상과의 정합을 거친 가상신체모델을 이용하여 상술한 것과 같은 텍스처 정보를 반영하는 과정을 수행할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 컴퓨터는 단계 S130에 의해서 텍스처 정보를 반영하여 가상신체모델을 재구성할 수 있다.
또한, 본 발명의 일 실시예에 따르면, 컴퓨터는 재구성된 가상신체모델을 기반으로 실제 수술 중 실시간으로 실제수술데이터와 비교하여, 대상체의 수술 정보를 제공할 수 있다.
즉, 재구성된 가상신체모델은 실제 수술 중인 환자의 실제수술데이터로부터 추출된 텍스처 정보를 매핑한 것이기 때문에, 환자의 실제 수술부위와 동일한 정보를 포함하고 있다. 따라서, 실제 수술 중에 재구성된 가상신체모델을 활용하여 수술을 진행하면, 실제 수술 영상과 시각적인 측면에서 동일한 가상 영상을 획득할 수 있어서 실제 수술부위의 위치를 특정하거나 수술과 관련된 추가적인 정보(예: 수술도구의 위치, 방향, 움직임 등)를 얻는데 효과적일 수 있다.
도 4는 본 발명의 일 실시예에 따라 수술 시뮬레이션 정보를 구축하는 방법을 적용하는 일례를 도시한 도면이다.
도 4를 참조하면, 컴퓨터는 대상체의 의료영상데이터(100)를 기반으로 기생성된 가상신체모델(102)을 획득할 수 있다(S200). 또한, 컴퓨터는 표준화된 템플릿 영상을 사전에 구축하여 저장하여 둔 데이터베이스(110)로부터 대상체에 대한 표준화 템플릿 영상(112)을 획득할 수 있다(S210). 또한, 컴퓨터는 실제 수술 중에 환자의 수술부위를 촬영한 실제수술데이터(120)를 획득할 수 있다(S220).
이후, 컴퓨터는 표준화 템플릿 영상(112)을 기초로 가상신체모델(102)(즉, 환자의 대상체를 포함하는 3D 모델링된 가상 영상)과의 비교를 통해서 가상신체모델(102)에서 결손 부분이나 보정이 필요한 부분을 검출할 수 있다. 이에 따라 컴퓨터는 가상신체모델(102)의 결손 부분이나 보정이 필요한 부분을 표준화 템플릿 영상(112)을 이용하여 정합을 수행할 수 있다. 따라서, 컴퓨터는 정합된 가상신체모델을 도출할 수 있다(S230).
다음으로, 컴퓨터는 실제수술데이터(120)에서 실제 수술부위에 해당하는 영역을 검출하고, 검출된 실제 수술부위 영역의 텍스처 정보를 추출할 수 있다(S240).
다음으로, 컴퓨터는 검출된 실제 수술부위 영역에 대응하는 대응 영역을 정합된 가상신체모델로부터 획득하고, 획득한 대응 영역에 실제 수술부위 영역의 텍스처 정보를 매핑할 수 있다(S250). 따라서, 환자의 실제 수술부위와 동일한 텍스처 정보를 가진 가상신체모델(130)을 최종적으로 획득할 수 있다. 즉, 최종적으로 획득된 가상신체모델(130)은 대상체의 의료영상데이터(100)를 기반으로 기생성된 가상신체모델(102)에 실제 수술부위의 텍스처 정보가 반영되어 재구성된 것이다.
상기 환자의 실제 수술부위에 대한 텍스처 정보를 정합된 가상신체모델에 매핑하는 과정(단계 S240~ S250)은 도 3의 방법을 적용하여 수행될 수 있다.
상술한 바와 같이 본 발명은 실제 수술 중에 환자의 수술부위에 대한 여러 가지 정보(실제수술데이터, 가상신체모델, 표준화된 템플릿 영상)를 이용하여 수술 시뮬레이션 정보를 구축함으로써 환자의 실제 수술부위와 동일한 정보를 수술 중에 실시간으로 제공할 수 있다.
그러나, CT, MRI, PET 등으로부터 얻은 영상을 이용하여 구축된 종래의 3D 장기 모델의 경우, 장기의 외형은 비교적 정확하지만 장기의 색, 재질 등과 같은 표면의 텍스처 정보는 표현하고 있지 못하여 실제 환자의 장기를 수술하기 전에는 알 수 있는 방법이 없다. 따라서 종래에는 각 장기에 대해서 통상적으로 많이 사용하는 색, 재질 등을 적용하거나, 도감 등을 참조하거나, 다른 환자의 수술 영상으로부터 색, 재질 등의 텍스처를 얻어서 매핑하는 방법을 사용하였다. 이러한 방식으로 구축된 수술 시뮬레이션 모델의 경우, 실제 수술 영상에서의 환자의 장기와는 표면 특징들이 전혀 다르게 표현되기 때문에 동일한 환자의 장기라고 하더라도 시각적으로 판단하기에 어려움이 있다.
이러한 종래의 수술 시뮬레이션 모델을 개선하기 위해서, 상술한 바와 같이 본 발명에서는 특정 환자에 대해서 사전에 구축된 가상신체모델에 실제 수술 중의 영상 데이터에서 추출한 환자 장기의 텍스처 정보를 실시간으로 매핑하여 수술 집도의에게 제공한다. 즉, 환자의 실제 수술 영상과 수술 시뮬레이션(즉, 가상신체모델) 영상을 시각적인 측면에서 동일하게 만들 수 있다. 이러한 시각적 동일성을 통해, 수술 중 집도의에게 수술 영상과 수술 시뮬레이션 영상을 비교하고 수술시 필요한 정보(예: 수술 부위의 위치 등)를 얻는데 효과적이다. 또한, 수술 후 수술 시뮬레이션 모델을 이용함에 있어서 실제 수술 영상과 동일한 장기의 모습을 재현할 수 있으므로, 수술의 모든 과정(예: 내시경이나 수술도구의 움직임 등)을 마치 실제 수술을 진행하고 있는 것처럼 표현할 수 있다. 따라서 본 발명에서의 수술 시뮬레이션 모델은 수술 중에 실시간으로 활용될 수 있을 뿐만 아니라, 추후 재수술을 시도하거나, 교육용 자료로 활용될 수 있다. 예를 들어, 수술 시뮬레이션 모델에서 장기에 물리 엔진을 적용할 경우, 재수술 시도시 실제 환자의 장기와 동일하게 시각적으로 재현할 수 있다.
도 5는 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보를 구축하는 장치(300)의 구성을 개략적으로 나타내는 도면이다.
도 5를 참조하면, 프로세서(310)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 2 내지 도 4과 관련하여 설명된 수술 시뮬레이션 정보 구축 방법을 수행한다.
예를 들어, 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써 대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하고, 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하고, 실제수술데이터로부터 대상체에 대한 텍스처(texture) 정보를 추출하고, 추출한 텍스처 정보를 가상신체모델에 반영할 수 있다.
한편, 프로세서(310)는 프로세서(310) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(310)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(320)에는 프로세서(310)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(320)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 수술 시뮬레이션 정보 구축 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
이하에서는 도 6 내지 도 14를 참조하여, 본 발명의 실시예에 따른 환자의 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 이용하여 가상신체모델을 구축하는 방법 및 장치에 관해 상세히 설명한다.
본 명세서에서 '컴퓨터'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book)뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다.
본 명세서에서 '동맥 추출용 영상 데이터'는 동맥을 추출하기 위한 영상 데이터로서, 조영된 동맥을 포함하고, 조영제를 통해 동맥이 명확하고 선명하게 나타나는 영상 데이터이다. 동맥 추출용 영상 데이터는 동맥이 더욱 명확하고 선명하게 나타날 뿐이며, 정맥 및 기타 장기들도 포함되어 나타날 수 있다.
본 명세서에서 '정맥 추출용 영상 데이터'는 정맥을 추출하기 위한 영상 데이터로서, 조영된 정맥을 포함하고, 조영제를 통해 정맥이 명확하고 선명하게 나타나는 영상 데이터이다. 정맥 추출용 영상 데이터는 정맥이 더욱 명확하고 선명하게 나타날 뿐이며, 동맥 및 기타 장기들도 포함되어 나타날 수 있다.
본 명세서에서 '영상 데이터'는 의학 화상 처리 방식에 의해 획득된 영상은 모두 포함된다. 예를 들어, 영상 데이터는 CT(Computer tomography), 핵자기공명 컴퓨터 단층촬영 영상(Nuclear Magnetic Resonance Computed Tomography, NMR-CT), 양전자 단층촬영 영상(positron emission tomography; PET), CBCT(conebeamCT), 전자빔 단층촬영 영상(Electron beam tomography), 엑스레이(X-ray), 자기공명영상(margnetic resonance imaging)이 해당될 수 있다.
본 명세서에서 '혈관 장기 모델'은 환자의 신체 내부의 혈관 및 장기와 동일한 위치 및 크기 등으로 모델링 된 가상의 혈관 장기 모델이다.
본 명세서에서 '제1 혈관 모델'은 조영된 동맥을 포함하는 동맥 추출용 영상 데이터를 기반으로 하여 환자의 신체 내부의 동맥 및 정맥 등의 혈관과 동일한 위치 및 크기 등으로 모델링 된 혈관 모델이다.
본 명세서에서 '제2 혈관 모델'은 조영된 정맥을 포함하는 정맥 추출용 영상 데이터를 기반으로 하여 환자의 신체 내부의 동맥 및 정맥 등의 혈관과 동일한 위치 및 크기 등으로 모델링 된 혈관 모델이다.
본 명세서에서 '기복 모델'은 수술을 위해 기체를 환자의 신체 안에 주입하였을 때의 혈관 및/또는 장기의 배치, 또는 기복 상태를 실제의 환자의 상태와 유사하게 만들어 놓은 가상의 기복 상태의 모델이다.
본 명세서에서 '기복 표준 모델'은 환자의 나이, 성별 및 신체 조건을 기반으로 하여 표준이 되는 기복 모델이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 6은 본 발명의 일 실시예에 따른 가상 신체 모델 구축 방법을 설명하기 위한 도면이다.
도 7은 조영된 동맥을 포함하는 동맥 추출용 영상 데이터와 조영된 정맥을 포함하는 정맥 추출용 영상 데이터를 설명하기 위한 도면이다.
도 8은 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 기반으로 하여 정합하지 않았을 경우와 정합하였을 경우의 혈관 상태를 설명하기 위한 도면이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 가상 신체 모델 구축 방법은, 컴퓨터가 환자의 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 획득하는 단계(S100), 컴퓨터가 정합 기준 지점을 이용하여 혈관 장기 모델을 생성하는 단계(S200) 및 컴퓨터가 가상 신체 모델을 생성하는 단계(S300)를 포함한다.
컴퓨터가 환자의 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 획득하는 단계(S100)에서, 동맥 추출용 영상 데이터는 조영된 동맥을 포함하고, 정맥 추출용 영상 데이터는 조영된 정맥을 포함한다.
컴퓨터가 환자의 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 획득하는 단계(S100)와 관련하여, 도 7을 참조하면, 도 7의 (a) 및 (b)는 조영된 동맥을 포함하는 동맥 추출용 영상 데이터이며, 도 7의 (a)는 분기전, 도 7의 (b)는 분기후를 나타내고, 도 7의 (c) 및 (d)는 조영된 정맥을 포함하는 정맥 추출용 영상 데이터이며, 도 7의 (c)는 분기전, 도 7의 (d)는 분기후를 나타낸다.
도 7의 (a) 및 (b)에는 동맥이 조영된 영상 데이터로서, 중앙에 있는 원형 부분이 다른 부분과 비교하여 더 밝게 보이고, 동일한 부분이 도 7의 (c) 및 (d)에는 다른 부분과 비슷한 밝기로 보이는 형태로서, 중앙에 있는 원형 부분이 대동맥인 것을 확인할 수 있다.
또한, 도 7의 (d) 및 (d)에는 대동맥으로 추정되는 주변 부분에 복수의 원형 및 타원형 등의 형태가 보이지만, 도 7의 (a) 및 (b)에는 동일한 부분이 나타나 있지 않은 것으로 보아, 해당 부분은 정맥인 것으로 파악할 수 있다.
도 7의 (a), (b), (c) 및 (d)에서 확인된 바와 같이, 조영된 정맥을 포함하는 정맥 추출용 영상 데이터라 하더라도, 동맥 부분을 확인할 수 있다.
따라서, 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 획득하여 정합할 때에 동맥을 기준으로 하여 정합할 수 있다.
동맥을 기준으로 하여 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 정합하는 방법에 대한 자세한 설명은 후술한다.
컴퓨터가 정합 기준 지점을 이용하여 혈관 장기 모델을 생성하는 단계(S200)는 컴퓨터가 획득한 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 기반으로 정합 기준 지점을 탐색하고, 정합 기준 지점을 이용하여 혈관 장기 모델을 생성하는 것이다. 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터는 동시간에 획득한 것이 아니므로 환자 신체의 위치 정보가 어긋날 수 있다. 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 기반으로 정합 과정을 거치지 않는다면, 환자 신체 내부의 혈관 상태를 정확하게 재현하기 어려운 문제점이 있다.
도 8을 참고하면, 도 8의 (a)는 동맥을 도시한 도면이며, 도 8의 (b)는 정합을 실시하지 않은 동맥과 정맥의 상태이고, 도 8의 (c)는 정합을 실시한 동맥과 정맥의 상태를 나타낸 도면이다.
도 8의 (b)와 (c)를 비교하기 위하여, 중앙에 표시한 원형안의 혈관 상태를 살펴보면, 동일한 위치의 중앙 원형 안의 혈관 상태는, 도 8의 (b)에서는 혈관과 혈관이 서로 뚫고 나가는 모습이 확인되며, 도 8의 (c)에서는 혈관이 서로를 뚫고 나가지 않으며, 잘 어우러져 있는 모습을 확인할 수 있다.
도 8을 참고하여 볼 때, 다른 시간에 획득한 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터는 완전하게 일치할 수 없으므로 반드시 정합 과정이 필요하다. 또한, 정확한 정합을 위하여 정합 기준 지점이 필요하다.
정합 기준 지점은 미리 설정되어 있거나, 사용자 등이 지정할 수 있다.
바람직하게는 정합 기준 지점은 복강 동맥(celiac axis)이며, 복강 동맥은 동맥에서 분기점에 해당된다.
복강 동맥과 관련하여 자세한 것은 도 12에서 설명한다.
혈관 장기 모델을 생성하는 단계(S200)는 일 실시예로, 영상 데이터를 정합하여 혈관 장기 모델을 생성하고, 다른 실시예로, 각각의 영상 데이터를 이용한 혈관 모델을 정합하여 혈관 장기 모델을 생성한다.
혈관 장기 모델을 생성하는 단계(S200)의 각각의 실시예는 도 10 및 도 11에서 자세하게 후술한다.
혈관 장기 모델은, 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터 중 어느 하나에서 얻어진 장기 영상 정보를 기반으로 장기를 모델링 하는 것을 포함한다.
혈관 장기 모델은 상술한 바와 같이 환자의 신체 내부의 혈관 및 장기와 동일한 위치 및 크기 등으로 모델링 된 가상의 혈관 장기 모델이며, 따라서, 혈관뿐만 아니라 장기 또한 모델링이 필요하다.
혈관의 모델링의 경우에는, 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 정합함으로써 혈관을 모델링하며, 장기의 모델링의 경우에는, 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터 중 어느 하나에서 얻어진 장기 영상 정보를 기반으로 장기를 모델링 하는 것이다.
생성된 혈관 모델과 장기 모델을 정합하여 혈관 장기 모델을 생성한다.
동맥 추출용 영상 데이터에서는 장기의 형태 또한 함께 포함될 수 있으며, 정맥 추출용 영상 데이터에도 장기의 형태가 함께 포함될 수 있다.
따라서, 컴퓨터는 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터 중 어느 하나에서 장기 영상 정보를 획득할 수 있고, 획득한 장기 영상 정보를 기반으로 하여 장기를 모델링한다.
컴퓨터가 가상 신체 모델을 생성하는 단계(S300)는 컴퓨터가 생성된 혈관 장기 모델을 기반으로 기복 모델인 환자의 가상 신체 모델을 생성하는 것이다.
컴퓨터는 생성된 혈관 장기 모델에 수술 시에 기체를 주입하여 기복될 기복 상태를 반영한, 기복된 상태의 혈관 장기 상태를 나타내는 환자의 가상 신체 모델을 생성한다.
도 9를 참조하면, 도 9의 (a)는 기복하지 않은 신체 상태를 확인할 수 있으며, 도 9의 (b)는 기복 후 신체 상태를 확인할 수 있다.
도 9의 (a)와 도 9의 (b)의 혈관 및 장기의 형태와 배치 등이 서로 상이한 것을 확인할 수 있으므로, 기복하지 않은 신체 상태로서의 혈관 장기 모델을 기복 상태의 모델과 결합하여야 수술 시 환자 신체 내부의 혈관 및 장기의 상태를 그대로 가상 신체 모델로서 형성할 수 있다.
가상 신체 모델을 생성하는 단계(S300)는 일 실시예로, 혈관 장기 모델과 기복 표준 모델을 정합하여 환자의 가상 신체 모델을 생성하는 것이고, 다른 실시예로는 학습 모델을 활용하여 환자의 가상 신체 모델을 생성하는 것이다.
가상 신체 모델을 생성하는 방법 중 일 실시예인, 혈관 장기 모델과 기복 표준 모델을 정합하여 환자의 가상 신체 모델을 생성하는 방법은 도 14의 설명에서 후술하며, 다른 실시예인 학습 모델을 활용하여 환자의 가상 신체 모델을 생성하는 방법 또한 도 14의 설명 이후 후술한다.
도 10은 영상 데이터를 이용하여 혈관 장기 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 11은 각각의 혈관 모델을 정합하여 혈관 장기 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 정합 기준 지점의 일 실시예를 설명하기 위한 도면이다.
도 10을 참조하면, 영상 데이터를 이용하여 혈관 장기 모델을 생성하는 방법은, 컴퓨터가 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 축방향(axial 방향)으로 설정하여, 각각의 영상 프레임 상에서 대동맥의 지점을 각각 추출하는 단계(S210), 컴퓨터가 동맥 지점을 기준으로 각각의 영상 프레임을 연속적으로 변화시키면서 정합 기준 지점을 탐색하는 단계(S220), 컴퓨터가 정합 기준 지점을 기반으로 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 정합하는 단계(S230) 및 컴퓨터가 정합된 영상 데이터를 이용하여 혈관 장기 모델을 생성하는 단계(S240)를 포함한다.
컴퓨터가 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터의 영상 프레임 상에서 동맥 지점을 각각 추출하는 단계(S210)에서, 정맥 추출용 영상 데이터는 조영되지 않은 동맥을 포함하고, 동맥 추출용 영상 데이터는 조영되지 않은 정맥도 포함할 수 있다.
정맥 추출용 영상 데이터는 조영되지 않은 동맥도 포함하므로, 컴퓨터는 정맥 추출용 영상 데이터 상에서 동맥 지점을 추출할 수 있다.
따라서, 컴퓨터는 동맥 및 정맥 추출용 영상 데이터 각각의 복수의 프레임에서 동맥 지점을 추출한다.
컴퓨터가 동맥 지점을 기준으로 각각의 영상 프레임을 연속적으로 변화시키면서 정합 기준 지점을 탐색하는 단계(S220)는 컴퓨터가 대동맥 지점을 기준으로 각각의 영상 프레임을 환자의 머리에서 발 방향으로 연속적으로 하나의 프레임씩 변화시키면서 정합 기준 지점을 탐색하는 것이다.
정합 기준 지점은 미리 설정되어 있거나, 사용자 등이 지정할 수 있다.
바람직하게는 정합 기준 지점은 복강 동맥(celiac axis)이며, 복강 동맥은 동맥에서 분기점에 해당된다.
복강 동맥의 정합 기준 지점과 관련하여 도 12를 참조하면, 도 12는 동맥 혈관을 도시하고 있는 도면으로서, 혈관 상에서 작은 분기점으로 보이는 지점이 복강 동맥(10)에 해당한다.
복강 동맥(10)은 동맥 중 심장에서 출발하여 2번째 분기점에 해당한다.
복강 동맥(10)은 분기점으로써 정합 기준 지점이므로, 각각의 영상 프레임에서 혈관이 어떤 프레임에서 분기되었는지, 몇 번째 분기점인지를 확인함으로써 기준 지점인 복강 동맥(10)을 탐색할 수 있다.
따라서, 정합 기준 지점이 복강 동맥(celiac axis)인 경우, 정합 기준 지점을 탐색하는 단계는, 동맥 추출용 영상 데이터를 환자의 머리에서 발 방향으로 연속적으로 하나의 프레임씩 변화시키면서, 대동맥의 원형 가장 자리에 다른 원형이 돌출하는 첫 번째 레이어를 복강 동맥의 분기점으로 설정하고, 복강 동맥의 분기점의 제1 좌표를 기록하는 단계 및 정맥 추출용 영상 데이터를 환자의 머리에서 발 방향으로 연속적으로 하나의 프레임씩 변화시키면서, 대동맥의 원형 가장 자리에 다른 원형이 돌출하는 첫 번째 레이어를 복강 동맥의 분기점으로 설정하고, 복강 동맥의 분기점의 제2 좌표를 기록하는 단계를 포함한다.
또한, 이 때, 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 정합하는 단계는, 제1 좌표와 제2 좌표의 변위를 보정하며 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 정합한다. 정합 시, 회전은 고려하지 않고 정합한다.
컴퓨터가 정합 기준 지점을 기반으로 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 정합하는 단계(S230)는, 탐색하여 획득한 복강 동맥(10)을 기반으로 하여, 복강 동맥(10)이 위치한 영상 프레임을 기준으로 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 정합한다.
컴퓨터가 정합된 영상 데이터를 이용하여 혈관 장기 모델을 생성하는 단계(S240)는, 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 정합한 영상 데이터를 기준으로 하여 환자의 혈관 및 장기 배치를 나타내는 혈관 장기 모델을 생성하는 것이다.
영상 데이터를 이용하여 혈관 장기 모델을 생성하는 방법과는 다르게, 각각의 동맥 추출용 영상 데이터와 정맥 추출용 영상 데이터를 이용하여 생성된 혈관 모델을 정합하여 혈관 장기 모델을 생성하는 방법은 도 11을 참조할 수 있다.
도 11을 참조하면, 각각의 혈관 모델을 정합하여 혈관 장기 모델을 생성하는 방법은, 컴퓨터가 제1 혈관 모델과 제2 혈관 모델 상에서 정합 기준 지점을 탐색하는 단계(S250) 및 컴퓨터가 정합 기준 지점을 이용하여 제1 혈관 모델, 제2 혈관 모델 및 장기 모델을 정합하여 혈관 장기 모델을 생성하는 단계(S260)를 포함한다.
컴퓨터가 제1 혈관 모델과 제2 혈관 모델 상에서 정합 기준 지점을 탐색하는 단계(S250)는 컴퓨터가 동맥 추출용 영상 데이터를 기반으로 한 제1 혈관 모델과 정맥 추출용 영상 데이터를 기반으로 한 제2 혈관 모델 상에서 정합 기준 지점을 탐색하는 것이다.
구체적으로 설명하면, 먼저 컴퓨터가 동맥 추출용 영상 데이터를 기반으로 3차원 제1 혈관 모델을 생성하고, 정맥 추출용 영상 데이터를 기반으로 3차원 제2 혈관 모델을 생성한다.
정맥 추출용 영상 데이터는 조영되지 않은 동맥도 포함하므로, 제2 혈관 모델 생성 시, 동맥 또한 함께 생성한다.
각각 생성된 3차원 제1 혈관 모델 및 제2 혈관 모델의 정합시에도 기준이 되는 정합 기준 지점을 기반으로 하여 정합하여야 하는데, 이 때에도 복강 동맥을 정합 기준 지점으로써 제1 혈관 모델 및 제2 혈관 모델을 정합할 수 있다.
각각 생성된 3차원 제1 혈관 모델 및 제2 혈관 모델에서 컴퓨터가 정합 기준 지점으로써 분기점인 복강 동맥을 추출하여 정합을 수행하여야 한다.
컴퓨터가 정합 기준 지점인 복강 동맥을 추출하는 방법은, 도 5을 참조하면, 각각의 제1 혈관 모델 및 제2 혈관 모델에 모두 적용이 가능하며, 컴퓨터가 혈관 모델 상의 360° 각각의 지점에서의 법선 벡터가 혈관 모델의 외벽과 접촉하는 부분을 파악한다.
컴퓨터는 혈관 모델의 외벽과 접촉하는 복수의 법선 벡터를 기반으로 하여 혈관의 단면의 길이가 긴 것을 대동맥으로 파악한다.
대동맥이 어떤 것인지 파악이 된 후에는, 컴퓨터는 대동맥을 기준으로 하여 계속 혈관 모델 상의 360° 각각의 지점에서의 법선 벡터가 혈관 모델의 외벽과 접촉하는 부분을 파악하는 것을 반복한다.
분기점이 없는 혈관과 비교하여, 복강 동맥인 분기점의 부분에서는 외벽과 접촉하는 법선 벡터가 점차적으로 매우 길게 나타나며, 따라서 법선 벡터의 길이를 기반으로 하여 분기점이 어느 부분부터 시작되어 어느 부분까지 존재하는지 등 또한 파악될 수 있다. 컴퓨터가 정합 기준 지점을 이용하여 제1 혈관 모델, 제2 혈관 모델 및 장기 모델을 정합하여 혈관 장기 모델을 생성하는 단계(S260)에서 장기 모델은 동맥 추출용 영상 데이터 및 상기 정맥 추출용 영상 데이터 중 어느 하나에서 얻어진 장기 영상 정보를 기반으로 모델링 된 장기 모델이다.
컴퓨터가 제1 혈관 모델과 제2 혈관 모델 상에서 정합 기준 지점을 탐색하는 단계(S250)에서 추출된 정합 기준 지점인 복강 동맥을 이용하여, 컴퓨터가 각각 생성된 제1 혈관 모델, 제2 혈관 모델 및 장기 모델을 정합함으로써 환자의 신체 내부와 동일한 혈관 장기 모델을 생성한다.
도 14는 가상 신체 모델의 생성에 있어서 기준이 되는 지점과, 수술 시 가상 신체 모델과 비교하여 실제 환자의 신체에 대하여 적용하는 기준 지점을 설명하기 위한 도면이다.
도 14는 신체를 나타낸 도면으로서, 도 9를 참조하면, 신체 내부(혈관 장기 모델, 기복 표준 모델 또는 가상 신체 모델의 내부)는 검상돌기(xiphoid process)(20), 우측 상전장골극(right anterior superior iliac spine)(30), 좌측 상전장골극(left anterior superior iliac spine)(40) 및 배꼽(50)을 포함한다.
각각의 지점들에 대한 구체적인 설명은 가상 신체 모델의 생성 방법과 함께 설명한다.
가상 신체 모델을 생성하는 방법 중 일 실시예인, 혈관 장기 모델과 기복 표준 모델을 정합하여 환자의 가상 신체 모델을 생성하는 방법에 대하여 이하 설명한다.
기복 표준 모델은 환자의 나이, 성별 및 신체 조건을 기반으로 하여 표준이 되는 기복 모델인데, 신체조건은 환자의 키, 몸무게, BMI 등 기초적인 신체 조건을 의미한다.
환자의 키, 몸무게, BMI 등이 일치한다고 하여도 각각의 환자마다 구체적인 신체 조건이 상이할 수 있으며, 상체가 더 길거나 하체가 더 긴 경우, 흉통이 양 옆으로 넓은 경우 또는 흉통이 앞뒤로 넓은 경우 등의 경우에는 기복 표준 모델과 환자의 신체가 완벽하게 일치할 수는 없다.
환자의 혈관 장기 모델과 환자의 기초적인 신체조건을 기반으로 한 기복 표준 모델 정합시에 형태가 일치하지 않는 경우에는 정합할 수가 없다.
따라서, 혈관 장기 모델과 기복 표준 모델의 형태가 상이할 수 있으므로, 혈관 장기 모델과 기복 표준 모델의 정합 시, 정합에 있어 기준이 되는 지점이 필요하다.
정합에 있어 기준이 되는 지점은 변경되지 않는 지점으로써, 최소 3개 이상의 지점이 필요하다.
정합에 있어 기준이 되는 지점은 일 실시예로, 혈관 장기 모델과 기복 표준모델에서, 검상돌기(xiphoid process)(20), 우측 상전장골극(right anterior superior iliac spine)(30) 및 좌측 상전장골극(left anterior superior iliac spine)(40)의 3개의 지점이다.
검상돌기는 사람의 갈비뼈 사이의 복장뼈의 아래 끝에 위치하는 작은 연골조직으로서 청소년기 이후에는 움직임이 없는 섬유화 관절이다.
우측 상전장골극과 좌측 상전장골극은 흔히 일반적으로 골반뼈 중 전단으로 튀어나와 있는 뼈를 의미하는 것으로, 피하에서 잘 촉지할 수 있다.
검상돌기와 우측 상전장골극 및 좌측 상전장골극은 환자의 체부위를 결정하는 목표 지점으로서 활용한다면 혈관 장기 모델과 기복 표준 모델의 정확한 정합을 수행할 수 있다.
따라서, 혈관 장기 모델과 기복 표준 모델을 정합하여 환자의 가상 신체 모델을 생성하는 방법은 혈관 장기 모델과 기복 표준 모델 각각에서 검상돌기(xiphoid process)(20), 우측 상전장골극(right anterior superior iliac spine)(30) 및 좌측 상전장골극(left anterior superior iliac spine)(40)의 3개의 지점을 추출하여, 3개의 지점을 기반으로 하여 혈관 장기 모델과 기복 표준 모델을 정합시킴으로써 환자의 가상 신체 모델을 생성하는 것이다.
3개의 지점을 기반으로 하여 혈관 장기 모델과 기복 표준 모델을 정합시키는 방법은, 3개의 지점을 기반으로 하여 비교할 때, 기복 표준 모델에 비하여 환자의 혈관 장기 모델의 형태가 신체의 상하(y축) 또는 좌우(x축)으로 얼마나 늘어나는지를 확인하여, 상하 또는 좌우로 늘어나는 비율만큼 신체의 앞뒤(z축)로 부푸는 정도 또한 늘려주어 정합시킨다.
또한, 가상 신체 모델의 생성 시, 환자의 실제 배꼽 위치와 동일한 위치에 가상 신체 모델 상에 배꼽(50)의 위치를 지정한다.
배꼽(50)의 위치는 복강경 수술 시, 내시경 카메라가 들어가는 위치를 잡는 기준으로써, 가상 신체 모델에 배꼽(50)이 없다면, 가상 신체 모델을 기반으로 하여 수술의 시뮬레이션을 실시하였다 하더라도, 실제 수술에서 내시경 카메라가 들어가는 위치를 동일하게 잡기 어렵다.
따라서, 배꼽(50)의 위치 또한 가상 신체 모델에 지정함으로써, 수술의 시뮬레이션에서 실시하였던 동일한 위치상에 내시경 카메라를 삽입할 수 있는 효과가 있다.
가상 신체 모델의 생성 시, 환자의 실제 배꼽 위치와 동일한 위치에 가상 신체 모델 상에 배꼽(50)의 위치를 지정하는 것은, 후술하는 학습 모델을 활용한 환자의 가상 신체 모델을 생성하는 방법에도 동일하게 적용된다.
가상 신체 모델을 생성하는 방법의 다른 실시예인 학습 모델을 활용하여 환자의 가상 신체 모델을 생성하는 방법은, 환자의 의료 영상 데이터를 가상 신체 모델 생성의 학습 모델에 적용함으로써, 환자의 수술시 장기의 배치 또는 기복 상태를 예측하여 환자의 가상 신체 모델을 생성하는 것이다.
학습 모델은, 수술 받은 복수의 대상체에서 획득된 의료 영상 데이터를 기반으로 하여 생성된 기본 가상 신체 모델 및 기복 상태 가상 신체모델을 매칭하여 학습 데이터셋으로 구축하여 학습을 수행한 것이다.
기본 가상 신체 모델은, 수술 전 정자세 또는 수술 자세로 촬영된 의료 영상 데이터를 기반으로 생성된다.
기복 상태 가상 신체 모델은, 수술 시 수술자세로 기복 상태가 적용된 기복 상태 영상 데이터를 기반으로 생성된다.
즉, 학습 모델은 학습의 수행을 통해, 수술 전 정자세로 촬영된 의료 영상 데이터를 기반으로 하여 수술 시 수술 자세로 기복 상태가 적용된 기복 상태 가상 신체 모델을 예측할 수 있도록 제공하고, 수술 전 수술자세로 촬영된 의료 영상 데이터를 기반으로 하여 수술 시 수술 자세로 기복 상태가 적용된 기복 상태 가상 신체 모델을 예측할 수 있도록 제공하는 것이다.
따라서, 수술 전 촬영된 환자의 영상 데이터가 정자세이든 수술 자세이든 학습 모델을 통하여 수술 시의 수술 자세로 기복 상태가 적용된 가상 신체 모델을 생성할 수 있다.
학습 모델을 이용하여 가상 신체 모델을 생성하는 것은, 일 실시예로, 환자의 의료 영상 데이터가 수술 전 수술자세로 촬영된 의료 영상 데이터인 경우, 컴퓨터가 환자의 수술 전 수술자세로 촬영된 의료 영상 데이터를 가상 신체 모델 생성의 학습 모델에 적용함으로써, 환자의 수술 시 기복 상태 구현에 따른 환자의 신체 표면 외형 변화 및 기복 상태 구현에 따른 장기 배치 변화 중 적어도 하나가 적용된 환자의 가상 신체 모델을 생성하는 것이다.
다른 실시예로, 환자의 의료 영상 데이터가 수술 전 정자세로 촬영된 의료 영상 데이터인 경우, 환자의 수술 전 정자세로 촬영된 의료 영상 데이터를 가상 신체 모델 생성의 학습 모델에 적용함으로써, 수술자세에 따른 장기 배치, 환자의 수술 시 기복 상태 구현에 따른 환자의 신체 표면 외형 변화 및 기복 상태 구현에 따른 장기 배치 변화 중 적어도 하나가 적용된 환자의 가상 신체 모델을 생성하는 것이다.
이상에서 전술한 본 발명의 일 실시예에 따른 가상 신체 모델 구축 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 컴퓨터 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이하에서는 도 15 내지 도 18을 참조하여, 본 발명의 실시예에 따른 수술정보 활용 방법 및 장치에 관해 상세히 설명한다.
본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 15는 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 15에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.
일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.
일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.
서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.
제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.
촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.
일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.
일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.
제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.
예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.
서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다.
제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.
일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다.
상술한 바와 같이, 로봇수술을 수행할 경우 수술 과정에서 촬영된 수술영상 또는 수술로봇의 제어과정에서 다양한 수술정보를 포함하는 데이터를 획득할 수 있다. 이와 같이, 본 발명에서는 수술 과정에서 획득할 수 있는 수술정보를 활용하여 실제 수술 대상자에 대한 정보 또는 실제수술 과정을 역으로 추정하여 볼 수 있는 방법을 제공하고자 한다.
일반적으로 환자의 CT, PET, MRI 등과 같은 의료영상데이터나 이러한 의료영상데이터를 기초로 생성되는 가상신체모델이나 환자의 실제수술 장면을 촬영한 영상의 경우는 개인 정보를 포함하기 때문에 외부로 반출하거나 공유가 불가능하다. 이와 같이 환자의 의료영상데이터 또는 가상신체모델 등과 같은 개인 의료 정보를 포함하는 데이터를 환자로부터 직접적으로 획득하지 못하는 경우, 환자의 실제수술 과정을 재현하거나 자세한 수술과정을 시각적으로 제공하지 못하는 문제점이 있다. 이러한 문제점을 해결하고자, 본 발명에서는 의료영상데이터나 실제수술 장면을 촬영한 영상 대신에 큐시트데이터를 획득함으로써 환자의 실제수술 과정을 재현해내고 가상신체모델을 구현할 수 있는 방안을 제공하고자 한다.
이하에서는 설명의 편의를 위해 "컴퓨터"가 본 명세서에서 개시되는 실시예에 따른 수술정보 활용 방법을 수행하는 것으로 설명한다. "컴퓨터"는 도 15의 서버(100) 또는 제어부(30)를 의미할 수 있으나, 이에 한정되는 것은 아니고 컴퓨팅 처리를 수행할 수 있는 장치를 포괄하는 의미로 사용될 수 있다. 또한, 이하에서 개시되는 실시예들은 도 15에 도시된 로봇수술 시스템과 연관되어서만 적용될 수 있는 것은 아니고, 수술정보를 획득하고 이를 활용할 수 있는 모든 종류의 실시예들에 적용될 수 있다.
도 16은 본 발명의 일 실시예에 따른 수술정보 활용 방법을 도시한 흐름도이다.
도 16을 참조하면, 본 발명의 일 실시예에 따른 컴퓨터에 의해 수행되는 수술정보 활용 방법은, 수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득하는 단계(S100), 큐시트데이터에 포함된 실제수술정보로부터 수술 대상자의 신체 정보를 획득하는 단계(S110), 및 수술 대상자의 신체 정보를 기초로 수술 대상자의 가상신체모델을 생성하는 단계(S120)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기재한다.
컴퓨터는 수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득할 수 있다(S100).
일 실시예로, 의료진들은 직접 수술 대상자에 대해 실제수술을 수행할 수도 있고, 도 15에서 설명한 바와 같이 수술로봇을 이용하여 실제수술을 수행할 수도 있다. 이때, 이러한 실제수술 과정에서 행해진 수술동작이나 수술동작과 관련하여 사용된 수술도구, 수술부위 등에 관한 다양한 정보(즉, 실제수술정보)가 기록될 수 있다. 따라서, 컴퓨터는 수술 대상자의 실제수술 과정으로부터 생성되는 실제수술정보를 획득하고, 이를 바탕으로 큐시트데이터를 구성할 수 있다. 예를 들어, 컴퓨터는 실제수술 과정을 촬영한 영상 데이터 또는 실제수술 과정에서 수행된 수술동작에 대해 기록된 데이터로 실제수술정보를 획득하여 큐시트데이터를 구성할 수 있다. 또한, 다른 예로, 수술 대상자의 실제수술 영상을 외부로 반출하는 것이 가능하지 않은 경우, 실제 수술 시 수술관련 정보를 서버를 통해 통신함으로써 메시지 형식으로 기록하는 방식을 활용할 수도 있다. 의료진들은 실제수술을 수행할 때 수술 대상자의 수술과 관련된 정보를 서버를 통해 상호간에 송수신하거나, 시뮬레이터나 인공지능 장치를 이용하여 수술관련 정보를 생성하고 생성된 정보를 서버를 통해 송수신할 수 있다. 이때, 서버에서는 송수신되는 수술관련 정보를 메시지 형식으로 기록할 수 있다. 따라서, 컴퓨터는 서버에 기록된 수술관련 정보를 획득하여 큐시트데이터로 구성할 수 있다.
여기서, 큐시트데이터는 최소 수술동작 단위를 기초로 실제수술 과정을 시간에 따라 순서대로 나열한 데이터로 구성될 수 있다. 일 실시예로, 각 큐시트데이터는 최소 수술동작 단위에 대응하는 실제수술정보를 포함할 수 있으며, 실제수술정보는 수술도구 정보, 신체부위 정보 등을 포함할 수 있다. 수술도구 정보는 실제수술 시에 사용되는 수술도구에 대한 정보로서, 예컨대 수술도구의 종류, 수술도구의 개수, 수술도구의 움직임(예컨대, 전진/후퇴), 수술도구의 방향 등의 정보를 포함할 수 있다. 신체부위 정보는 수술부위 또는 수술도구의 동작과 관련한 신체부위에 대한 정보로서, 예컨대 신체부위의 종류(명칭), 신체부위의 위치 등의 정보를 포함할 수 있다. 이때, 신체부위는 신체의 일부 또는 전부일 수 있으며, 예컨대 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다.
컴퓨터는 큐시트데이터에 포함된 실제수술정보로부터 수술 대상자의 신체 정보를 획득할 수 있다(S110).
일 실시예로, 컴퓨터는 먼저 큐시트데이터에 포함된 실제수술정보로부터 수술도구의 동작 정보와 연관된 특정 신체부위 정보를 획득할 수 있다. 큐시트데이터는 수술동작에 대한 기록을 포함하고 있으며, 이는 특정 수술도구를 이용하여 특정 신체부위(예: 특정 장기, 혈관 등)에 대해 행해지는 동작 정보를 포함할 수 있다. 예를 들어, 자르는 동작을 포함하는 큐시트데이터의 경우, 자르는 수술도구의 종류 및 자르는 대상 신체부위(예: 혈관, 간, 지방 등) 등을 실제수술정보로 기록하고 있을 수 있다. 이 경우, 컴퓨터는 큐시트데이터로부터 수술도구의 동작 정보와 연관되어 있는 큐시트데이터를 검출하고, 검출된 큐시트데이터에서 수술도구의 동작과 연관된 특정 신체부위에 대한 정보를 획득할 수 있다. 다음으로, 컴퓨터는 획득된 특정 신체부위 정보로부터 특정 신체부위의 종류 및 공간 정보를 추출할 수 있다. 즉, 수술 대상자의 신체 일부 정보를 획득할 수 있다.
단계 S110에서 수술 대상자의 신체 정보를 획득함에 있어서, 상술한 바와 같이 수술도구의 동작 정보와 관련된 큐시트데이터를 이용할 수도 있으나, 카메라 정보나 수술도구의 이동 정보를 포함하는 큐시트데이터를 이용하여 신체 정보를 획득할 수도 있다. 예를 들어, 컴퓨터는 큐시트데이터에 포함된 카메라의 뷰 정보나 카메라의 위치 정보를 기초로 특정 신체부위를 촬영한 데이터를 검출하고, 검출된 데이터에서 특정 신체부위 정보를 획득할 수 있다. 수술도구가 이동할 때는 신체부위와 접촉이 발생하지 않으므로, 수술도구의 이동 정보와 연관되어 있는 큐시트데이터에는 신체부위가 존재하지 않게 된다. 이 경우, 컴퓨터는 수술도구의 이동 정보와 연관되어 있는 큐시트데이터를 제외한 큐시트데이터로부터 수술 대상자의 신체 정보를 획득할 수도 있다.
컴퓨터는 수술 대상자의 신체 정보를 기초로 수술 대상자의 가상신체모델을 생성할 수 있다(S120).
여기서, 가상신체모델이라 함은, 실제 수술 대상자의 신체에 부합하게 생성된 3차원 모델링 데이터를 말한다.
일 실시예로, 컴퓨터는 수술 대상자의 신체 정보, 즉 특정 신체부위의 종류 및 공간 정보를 기초로 표준신체모델에 반영하고, 표준신체모델을 기반으로 수술 대상자의 실제수술 시의 신체와 부합하는 가상신체모델을 생성할 수 있다.
여기서, 표준신체모델은 신체의 해부학적 특징을 표준화하여 생성한 3차원 신체모델일 수 있다. 예를 들어, 각 신체부위(예: 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 등)에 대한 외형, 크기, 위치 등과 같은 해부학적 특징들을 표준화하여 각 신체부위를 3차원 모델링하여 구축된 신체모델일 수 있다.
실시예로 수술 대상자의 신체 정보를 표준신체모델에 반영함에 있어서, 컴퓨터는 특정 신체부위의 공간 정보를 이용하여 표준신체모델의 공간 상에 특정 신체부위를 매핑하고, 매핑된 표준신체모델의 공간 상에서 특정 신체부위의 형태에 부합하도록 표준신체모델의 해당 신체부위를 변형시킬 수 있다. 예를 들어, 컴퓨터는 큐시트데이터의 실제수술정보로부터 획득된 특정 신체부위의 공간 정보(예컨대, 3차원 공간 상의 좌표 정보)을 표준신체모델의 3차원 공간 상의 좌표 정보와 매핑할 수 있다. 이때, 컴퓨터는 매핑된 표준신체모델의 3차원 공간 상에 위치하는 해당 신체부위를 실제수술정보로부터 획득된 특정 신체부위와 일치하는지 여부를 비교하고, 비교 결과에 따라 실제수술정보로부터 획득된 특정 신체부위의 형태와 일치하도록 표준신체모델 상의 해당 신체부위를 변형시킬 수 있다.
또한, 큐시트데이터로부터 수술 대상자의 특정 신체부위 정보를 획득하지 못한 경우, 컴퓨터는 표준신체모델의 공간 상에서 큐시트데이터로부터 획득하지 못한 특정 신체부위의 주변에 위치하는 주변 신체부위를 기초로 큐시트데이터로부터 획득하지 못한 특정 신체부위를 보간할 수 있다. 일반적으로 사람의 장기 위치 및 모양은 크게 다르지 않기 때문에(예컨대, 위, 간 등의 장기 위치는 동일함), 주변 정보를 이용하여 보간을 수행하면 전체 가상신체모델을 완성할 수 있다.
실시예로 표준신체모델을 기반으로 가상신체모델을 생성함에 있어서, 컴퓨터는 수술 대상자의 신체 정보를 변화시켜 반복적으로 표준신체모델에 적용하여 가상신체모델을 생성할 수 있으며, 이때 수술 대상자의 실제수술 시의 신체와 가장 부합하는 가상신체모델을 선택할 수 있다. 즉, 수술 대상자의 실제수술 시의 신체 상태와 가장 가까운 가상신체모델을 완성하기 위해서, 반복적으로 복수 회에 걸쳐 상술한 단계 S110~S120을 수행할 수 있다. 예를 들어, 컴퓨터는 수술 대상자의 초기 위치를 달리하거나 수술 대상자의 체형을 변화시켜 여러 번 반복적으로 단계 S110~S120을 수행하여 가장 오차가 적은 가상신체모델을 채택할 수 있다. 또한, 컴퓨터는 강화학습을 통해 수술 대상자의 전체 신체부위(즉, 장기)에 대해 위치 정보를 변경하거나 장기의 형태를 변형함으로써 최종적으로 수술 대상자의 실제수술 시의 신체 상태와 가장 부합하는 가상신체모델을 도출할 수 있다.
일 실시예로, 컴퓨터는 큐시트데이터에 기재된 특정 장기 지점과 이에 대응되는 표준신체모델 상의 특정 지점을 매칭할 수 있으며, 이러한 매칭 과정을 전체 큐시트데이터에 대해 수행하여 매칭 관계를 누적시킬 수 있다. 그리고 컴퓨터는 누적된 결과를 기반으로 가상신체모델을 구현할 수 있다.
예를 들어, 컴퓨터는 환자(즉, 수술 대상자)의 BMI 수치를 반영하여 표준신체모델의 기본적인 크기를 설정할 수 있다. 상술한 바와 같이, 큐시트데이터는 모든 수술동작에 대해서 수술도구 정보 및 신체부위 정보를 포함하고 있다. 예컨대, 수술도구 종류, 수술도구의 위치 정보(예: 3차원 공간상의 위치), 수술도구에 의해 수행된 수술동작 등의 수술도구 정보를 포함하고 있다. 또한, 수술도구의 동작과 관련한 신체부위의 종류(예: 신체장기 이름, 신체장기의 세부적 부위 등), 신체부위의 위치 등의 신체부위 정보를 포함하고 있다. 여기서, 신체장기의 세부적 부위는 의학적으로 앞면, 뒷면, 윗면, 아랫면, 오른쪽면, 왼쪽면으로 구분되어 구성될 수 있다.
따라서, 큐시트데이터로부터 수술도구의 위치(예: 3차원 공간상의 위치)와 해당 위치에서의 신체장기 및 해당 신체장기의 세부 부위를 파악할 수 있으므로, 수술 시 환자의 모든 큐시트데이터를 수집하면 각 신체장기에 대한 정보를 획득할 수 있다. 예를 들어, 컴퓨터는 큐시트데이터로부터 수술도구의 동작에 의해 접촉이 발생한 각 신체장기의 위치를 획득하고, 이를 3차원 공간상의 점들로 표현할 수 있다. 이때, 3차원 공간상의 점들은 구름(cloud; 클라우드) 형태로 표시되므로, 3차원 공간상에서 각 신체장기의 위치를 표현한 것을 좌표구름이라고 지칭한다. 컴퓨터는 좌표구름의 최소 또는 최대 좌표값으로부터 각 신체장기의 크기를 추정할 수 있고, 추정된 각 신체장기의 크기를 바탕으로 표준신체모델 상에서의 해당 신체장기를 확대 또는 축소시킬 수 있다. 이와 같이, 좌표구름의 각 신체장기 정보를 기초로 변형된 표준신체모델을 변형표준신체모델이라 지칭한다. 컴퓨터는 변형표준신체모델을 기반으로 큐시트데이터 상에서의 수술도구가 접촉한 신체장기의 세부 부위(예: 세부 부위의 앞면, 뒷면, 윗면, 아랫면, 오른쪽면, 왼쪽면 등)와 3차원 좌표가 일치하는지 확인할 수 있다. 일치하지 않는 것으로 확인된 경우, 컴퓨터는 변형표준신체모델을 회전하거나, 특정 부분을 확대 또는 축소 등의 변형을 통해서 큐시트데이터 상에서의 신체장기의 세부 부위와 일치하도록 조정할 수 있다. 컴퓨터는 이러한 조정을 거친 변형표준신체모델을 기반으로 신체장기의 세부 부위와 3차원 좌표가 일치하는지 재확인할 수 있다. 즉, 컴퓨터는 상술한 과정을 반복적으로 적용함으로써 환자의 실제 신체장기의 모양과 크기에 최대한 부합하게 표준신체모델을 변형할 수 있고, 이를 모든 신체장기에 적용하여 최적의 변형표준신체모델을 도출할 수 있다. 컴퓨터는 최적의 변형표준신체모델을 이용하여 최종적으로 환자의 가상신체모델을 생성할 수 있다.
다른 실시예로, 컴퓨터는 가상신체모델의 구현 과정에서 학습모델을 이용할 수도 있다. 예컨대, 컴퓨터는 표준신체모델과, 기존에 가상신체모델 및 큐시트데이터를 모두 가지고 있는 환자의 데이터를 이용하여 학습을 수행할 수 있다. 또한 컴퓨터는 표준신체모델에 큐시트데이터를 적용하여 가상신체모델을 도출하는 과정을 학습할 수 있다.
본 발명의 실시예에 따르면, 수술 대상자의 가상신체모델을 구현함으로써 실제수술 시의 전체 과정을 정확하게 재현해 낼 수 있으며, 또한 이를 시각적으로 재생(play back)하여 활용할 수도 있다.
또한, 가상신체모델을 통해서 가상공간에서 가상수술을 수행할 수 있다. 예컨대, 1차 수술을 수행한 이후 재수술을 수행할 필요가 있을 경우, 의료진은 재수술 전에 미리 가상신체모델을 이용하여 수술 시뮬레이션을 수행할 수 있다. 이때 가상신체모델은 수술 대상자의 1차 수술이 완료된 이후 큐시트데이터를 기반으로 생성된 것이므로, 이를 이용하여 미리 시뮬레이션을 수행함으로써 실제 재수술을 수행하여 보는 것과 같은 효과를 줄 수 있다. 또한, 일반화된 표준신체모델을 활용하는 것에 비해서 환자마다 상이한 특징을 반영한 가상신체모델을 활용하는 것이 실제 수술과 같은 효과를 줄 수 있기 때문에, 학습용 모델로서 활용적 가치가 높다.
도 17은 본 발명의 다른 실시예에 따른 수술정보 활용 방법을 도시한 흐름도이다. 도 17의 방법에서 도 16의 각 단계와 중복되는 과정은 동일하거나 유사하므로, 구체적인 설명을 생략하도록 한다.
도 17을 참조하면, 컴퓨터는 수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득할 수 있다(S200).
다음으로, 컴퓨터는 큐시트데이터에 포함된 실제수술정보로부터 수술 대상자의 실제수술 과정에 대한 영상 정보를 획득할 수 있다(S210).
여기서, 영상 정보는 수술동작에 대응하여 영상과의 매칭 관계를 나타내는 정보를 말한다. 예컨대, 컴퓨터는 큐시트데이터로부터 수술 대상자의 실제수술 과정에 대한 영상 정보로, 특정 수술도구를 이용하여 특정 신체부위(예: 특정 장기, 혈관 등)에 대해 행해지는 동작 정보를 기술하는 형태로 획득할 수도 있고, 해당 수술동작에 대응하는 기설정된 특정 영상과의 매칭 관계를 나타내는 정보로 획득할 수도 있다.
다음으로, 컴퓨터는 영상 정보를 기초로 수술 대상자의 실제수술 과정에 대응하는 수술영상데이터를 생성할 수 있다(S220).
컴퓨터는 수술영상데이터를 통해 수술 대상자의 실제수술 과정을 시각적으로 재현해 낼 수 있다. 따라서, 의료진들은 큐시트데이터만으로 실제수술 과정을 이해하기 힘들지만, 상술한 바와 같은 수술 대상자의 가상신체모델 및 수술영상데이터를 활용함으로써 실제수술 과정 전체를 이해하기 용이하다.
일반적으로 수술 대상자의 CT, PET 등의 의료영상이나 실제수술 장면을 촬영한 영상 등은 공유가 불가능하다. 따라서, 종래에는 수술을 위한 자료를 활용하기 힘든 문제점이 있었다. 그러나, 본 발명에 따르면 의료영상이나 실제수술 장면을 촬영한 영상이 없더라도 큐시트데이터만 확보하면 역으로 환자의 가상신체모델 및 실제수술 영상데이터를 재현해 낼 수 있으므로, 보다 충분한 수술 자료를 확보할 수 있는 장점이 있다.
도 18은 본 발명의 일 실시예에 따른 수술정보 활용 방법을 수행하는 장치(300)의 구성을 개략적으로 나타내는 도면이다.
도 18을 참조하면, 프로세서(310)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 16 및 도 17과 관련하여 설명된 수술정보 활용 방법을 수행한다.
예를 들어, 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써 수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득하고, 큐시트데이터에 포함된 실제수술정보로부터 수술 대상자의 신체 정보를 획득하고, 수술 대상자의 신체 정보를 기초로 수술 대상자의 가상신체모델을 생성할 수 있다.
또한, 프로세서(310)는 메모리(320)에 저장된 하나 이상의 인스트럭션을 실행함으로써 수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득하고, 큐시트데이터에 포함된 실제수술정보로부터 수술 대상자의 실제수술 과정에 대한 영상 정보를 획득하고, 영상 정보를 기초로 수술 대상자의 실제수술 과정에 대응하는 수술영상데이터를 생성할 수 있다.
한편, 프로세서(310)는 프로세서(310) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(310)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(320)에는 프로세서(310)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(320)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 수술정보 활용 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
이하에서는 도 19 내지 도 26을 참조하여, 본 발명의 실시예에 따른 혈관 모델 생성 방법 및 장치에 관해 상세히 설명한다.
본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 19는 본 발명의 일 실시예에 따른 혈관 모델 생성 방법을 도시한 흐름도이다.
도 19의 방법은 설명의 편의를 위하여 컴퓨터에 의하여 수행되는 것으로 서술하나, 각 단계의 수행주체가 특정 장치에 제한되는 것은 아니고 컴퓨팅 처리를 수행할 수 있는 장치를 포괄하는 의미로 사용될 수 있다. 즉, 본 실시예에서 컴퓨터는 본 발명의 실시예에 따른 혈관 모델 생성 방법을 수행할 수 있는 장치를 의미할 수 있다.
도 19를 참조하면, 본 발명의 일 실시예에 따른 혈관 모델 생성 방법은, 혈관을 구성하는 적어도 하나의 폴리곤(polygon)을 획득하는 단계(S100), 적어도 하나의 폴리곤 각각으로부터 법선 벡터(normal vector)를 추출하는 단계(S110), 각각의 법선 벡터를 기초로 혈관의 중심점을 산출하는 단계(S120), 및 혈관의 중심점을 기초로 혈관의 경로(path)를 생성하는 단계(S130)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기재한다.
컴퓨터는 혈관을 구성하는 적어도 하나의 폴리곤(polygon)을 획득할 수 있다(S100).
일 실시예로, 컴퓨터는 대상체(예컨대, 환자)의 신체 내부를 촬영한 의료영상데이터를 기반으로 3D 혈관 모델을 생성할 수 있다. 여기서, 의료영상데이터는 의료영상 촬영장비로 촬영되는 의료영상으로서, 대상체의 신체를 3차원 모델로 구현 가능한 모든 의료영상을 포함한다. 예컨대, 의료영상데이터는 컴퓨터 단층촬영(Computed Tomography; CT) 영상, 자기공명영상(Magnetic Resonance Imaging; MRI), 양전자 단층촬영(Positron Emission Tomography; PET) 영상 등을 포함할 수 있다. 컴퓨터는 이와 같은 의료영상데이터로부터 환자의 혈관을 추출하고, 추출된 혈관을 3D 모델링할 수 있다. 일 실시예로, 컴퓨터는 의료영상데이터로부터 동맥과 정맥을 순차적으로 추출하고, 동맥을 포함하는 혈관 모델과 정맥을 포함하는 혈관 모델을 각각 3D 모델링한 다음 정합시킬 수 있다. 이때, 혈관 모델은 의료영상데이터로부터 추출된 혈관을 적어도 하나의 폴리곤으로 구성하여 3D 모델링한 폴리곤 모델일 수 있다. 따라서, 컴퓨터는 3D 혈관 모델로부터 혈관을 구성하는 적어도 하나의 폴리곤을 획득할 수 있다. 폴리곤이라 함은, 3D 컴퓨터그래픽에서 물체의 입체형상을 표현할 때 사용하는 가장 작은 단위인 다각형을 말하며, 폴리곤이 모여서 3D 오브젝트(즉, 혈관)를 표현할 수 있다.
다른 실시예로, 컴퓨터는 대상체에 대해 미리 구축된 3D 혈관 모델을 획득하고, 이로부터 혈관을 구성하는 적어도 하나의 폴리곤을 획득할 수도 있다. 이때, 컴퓨터가 3D 혈관 모델을 미리 구축하여 저장하여 둘 수도 있고, 다른 장치에서 생성한 3D 혈관 모델을 획득하여 이용할 수도 있다.
한편, 의료영상데이터를 기반으로 생성된 3D 혈관 모델의 경우, 의료영상데이터에 혈관이 얼마나 정확하게 촬영되어 반영되어 있는지, 의료영상데이터로부터 혈관의 외곽선을 얼마나 정밀하게 추출할 수 있는지 등에 따라 혈관 모델을 구현하는데 영향을 미칠 수 있다. 예컨대, 의료영상데이터로부터 혈관을 추출했으나, 노이즈로 인하여 정확한 혈관 형태를 표현하지 못하는 경우, 혈관이 연결되지 못하고 중간에 끊어진 부분이 발생하는 경우 등과 같은 문제로 인해 의료영상데이터를 기반으로 생성된 3D 혈관 모델을 이용하는데 한계가 있다. 따라서, 본 발명의 일 실시예에 따른 혈관 모델 생성 방법은 의료영상데이터를 기반으로 생성된 3D 혈관 모델에 단계 S100~S130을 적용함으로써 보다 정밀하고 정확한 3D 혈관 모델을 제공한다.
컴퓨터는 단계 S100에서 획득된 혈관을 구성하는 적어도 하나의 폴리곤 각각으로부터 법선 벡터(normal vector)를 추출할 수 있다(S110).
여기서, 법선 벡터는 곡선이나 곡면에 수직인 벡터를 말하는 것으로, 혈관 표면을 구성하는 폴리곤 혹은 폴리곤의 정점(vertex)에서 바깥 방향으로 수직인 벡터를 의미할 수 있다.
도 20 및 도 21은 본 발명의 일 실시예에 따른 혈관을 구성하는 적어도 하나의 폴리곤으로부터 법선 벡터를 추출하는 과정을 설명하기 위해 도시한 도면이다.
도 20을 참조하면, 컴퓨터는 3D 혈관 모델에서 혈관 표면을 구성하는 적어도 하나의 폴리곤(100)을 획득할 수 있다. 또한, 컴퓨터는 적어도 하나의 폴리곤(100) 각각으로부터 법선 벡터(110)를 각각 추출할 수 있다. 이때, 법선 벡터(110)는 혈관 표면에서 바깥 방향을 향하면서 폴리곤(100)에 대해 수직인 벡터일 수 있다.
일 실시예로, 도 21의 (a)를 참조하면, 컴퓨터는 혈관 표면을 구성하는 제1 폴리곤(200)을 획득하여, 제1 폴리곤(200)의 정점에 대한 법선 벡터(210, 211, 212)를 추출할 수 있다. 폴리곤은 정점(vertex)으로 구성되며, 적어도 3개의 정점이 모여서 하나의 폴리곤을 형성할 수 있다. 정점은 위치 정보(예컨대, (x, y, z) 좌표 정보)와 벡터 값(예컨대, 벡터 크기)을 포함할 수 있다. 예를 들어, 제1 폴리곤(200)이 삼각형으로 이루어진 폴리곤일 때, 3개의 정점을 포함할 수 있다. 이 경우, 컴퓨터는 제1 폴리곤(200)의 3개의 정점 각각에 대한 법선 벡터(210, 211, 212)를 추출할 수 있다. 이때, 법선 벡터(210, 211, 212)는 각각 위치 정보 및 벡터 값을 포함할 수 있다.
다른 실시예로, 도 21의 (b)를 참조하면, 컴퓨터는 혈관 표면을 구성하는 제1 폴리곤(200)을 획득하여, 제1 폴리곤(200)의 표면에 대한 법선 벡터(220)를 추출할 수 있다. 예를 들어, 제1 폴리곤(200)의 표면에 대한 법선 벡터(220)는 제1 폴리곤(200)의 3개의 정점 각각에 대한 법선 벡터를 기반으로 산출된 평균 벡터를 이용할 수 있다. 평균 벡터는 3개의 정점 각각에 대한 법선 벡터의 벡터 값을 평균하여 산출된 법선 벡터일 수 있다.
또 다른 실시예로, 도 21의 (c)를 참조하면, 컴퓨터는 혈관 표면을 구성하는 인접 폴리곤들을 획득하여, 인접 폴리곤들의 법선 벡터들을 평균한 평균 법선 벡터를 추출할 수 있다. 이때, 평균 법선 벡터는 인접 폴리곤들의 각 정점에 대한 평균 법선 벡터(230, 231, 232, 233, 234), 또는 인접 폴리곤들의 각 표면에 대한 평균 법선 벡터(240)일 수 있다.
상술한 바와 같이, 컴퓨터는 폴리곤으로부터 법선 벡터를 추출하되, 실시예에 따라 폴리곤의 정점에 대한 법선 벡터, 폴리곤의 표면에 대한 법선 벡터, 폴리곤의 정점에 대한 평균 법선 벡터, 폴리곤의 표면에 대한 평균 법선 벡터 중 어느 하나를 폴리곤의 법선 벡터로 추출할 수 있다.
이하에서는 설명의 편의를 위해서 폴리곤의 표면에 대한 법선 벡터를 추출한 경우를 예로 들어 설명하도록 한다. 다만, 본 발명의 일 실시예에 따른 각 단계는 각 폴리곤 및 각 법선 벡터에 대해 반복적으로 적용될 수 있으므로, 하나의 폴리곤으로부터 하나 이상의 법선 벡터가 추출되는 경우(즉, 폴리곤의 정점에 대한 법선 벡터, 폴리곤의 정점에 대한 평균 법선 벡터, 폴리곤의 표면에 대한 평균 법선 벡터가 추출되는 경우)에 대해서도 동일한 방식으로 적용될 수 있다.
다시 도 19를 참조하면, 컴퓨터는 적어도 하나의 폴리곤 각각으로부터 추출된 법선 벡터 각각을 기초로 혈관의 중심점을 산출할 수 있다(S120).
즉, 컴퓨터는 각 폴리곤의 법선 벡터를 이용하여 각 폴리곤에 대한 혈관의 중심점을 산출한다. 예컨대, 제1 폴리곤의 법선 벡터를 기초로 제1 폴리곤에 대한 혈관의 중심점을 산출할 수 있다.
일 실시예로, 컴퓨터는 혈관을 구성하는 폴리곤들 중 하나의 폴리곤(예: 제1 폴리곤)을 선택하고, 선택된 폴리곤(예: 제1 폴리곤)의 법선 벡터(예: 제1 법선 벡터)에 대해 반대 방향으로 연장했을 때 만나는 교차 지점을 검출할 수 있다. 컴퓨터는 교차 지점 및 제1 법선 벡터를 기초로 제1 폴리곤에 대한 혈관의 중심점을 산출할 수 있다.
도 22는 본 발명의 일 실시예에 따른 혈관의 중심점을 산출하는 과정을 설명하기 위해 도시한 도면이다.
도 22의 (a)는 튜브 형태로 이루어진 혈관을 길이 방향(즉, 혈류가 흐르는 방향)에 대해 수직으로 자른 단면을 도시한 도면이다. 도 22의 (a)를 참조하면, 혈관 표면을 구성하는 각 폴리곤들은 혈관 표면에서 바깥 방향으로 수직인 법선 벡터를 포함할 수 있다.
일 실시예로, 도 22의 (b)를 참조하면, 컴퓨터는 제1 폴리곤의 정점(P1)에서의 제1 법선 벡터(300)를 획득하고, 제1 법선 벡터(300)의 반대 방향에 위치하는 폴리곤에서 교차 지점(P2)을 검출할 수 있다. 예를 들어, 컴퓨터는 제1 법선 벡터(300)를 반대 방향으로 확장(310)하고, 확장된 반대 방향 벡터(310)와 만나는 폴리곤에서의 교차 지점(P2)을 검출할 수 있다. 컴퓨터는 제1 폴리곤의 정점(P1)과 교차 지점(P2)으로부터 중심점(C)을 산출할 수 있다. 예를 들어, 컴퓨터는 제1 폴리곤의 정점(P1)대한 위치 정보와 법선 벡터의 크기, 및 교차 지점(P2)의 위치 정보와 법선 벡터의 크기를 이용하여 두 정점 사이의 중간 지점을 중심점(C)으로 산출할 수 있다. 이와 같은 과정을 3D 혈관 모델에서 획득된 각 폴리곤에 대해 반복 수행함으로써, 각 폴리곤에 대한 혈관의 중심점을 모두 도출할 수 있다.
다시 도 19를 참조하면, 컴퓨터는 단계 S120에서 산출된 혈관의 중심점을 기초로 혈관의 경로(path)를 생성할 수 있다(S130).
즉, 컴퓨터는 각 폴리곤으로부터 산출된 각 혈관의 중심점을 기초로 3D 혈관 모델에서의 혈관 경로를 생성할 수 있다.
일 실시예로, 컴퓨터는 혈관을 구성하는 적어도 하나의 폴리곤 중에서, 인접하는 복수의 인접 폴리곤을 획득하고, 복수의 인접 폴리곤 각각에 대한 혈관의 중심점을 기초로 평균 중심점을 산출할 수 있다. 그리고, 컴퓨터는 복수의 인접 폴리곤에 대한 평균 중심점을 기초로 혈관의 경로를 생성할 수 있다. 이에 대한 구체적인 설명은 도 23 및 도 24를 참조하여 기재한다.
실시예에 따라서, 컴퓨터는 각 폴리곤의 법선 벡터를 이용하여 혈관의 중심점과 함께 혈관의 직경을 산출할 수도 있다. 이 경우, 컴퓨터는 혈관의 중심점 및 혈관의 직경을 기초로 혈관의 경로를 생성할 수 있다. 예를 들어, 컴퓨터는 혈관의 중심점을 기초로 생성된 혈관 경로에 혈관의 직경을 반영할 수 있다.
일 실시예로, 혈관의 직경을 산출함에 있어서 도 22의 (b)를 참조하면, 컴퓨터는 제1 폴리곤의 정점(P1)에서의 제1 법선 벡터(300)를 획득하고, 제1 법선 벡터(300)의 반대 방향에 위치하는 폴리곤에서 교차 지점(P2)을 검출할 수 있다. 컴퓨터는 제1 폴리곤의 정점(P1)과 교차 지점(P2)으로부터 혈관의 직경을 산출할 수 있다. 예를 들어, 컴퓨터는 제1 폴리곤의 정점(P1)과 교차 지점(P2) 사이의 거리를 산출하여 혈관의 직경으로 이용할 수 있다. 이때, 두 정점 사이의 거리는 벡터의 크기에 기초하여 산출될 수 있다.
또한 실시예에 따라, 컴퓨터는 혈관의 직경을 기초로 평균 직경을 산출할 수도 있다. 이 경우, 컴퓨터는 혈관의 중심점을 기초로 산출된 평균 중심점과 함께 평균 직경을 기초로 혈관의 경로를 생성할 수 있다. 이에 대한 구체적인 설명은 도 23 및 도 24를 참조하여 기재한다.
도 23 및 도 24는 본 발명의 일 실시예에 따른 혈관 경로를 생성하는 과정을 설명하기 위해 도시한 도면이다.
도 23은 혈관의 표면 일부를 도시한 도면으로, 혈관의 표면 일부를 구성하는 폴리곤들의 일례를 나타낸 것이다. 도 24는 도 23에 도시된 폴리곤들을 그래프 형태의 데이터 구조로 표현한 것이다.
일 실시예로, 컴퓨터는 혈관을 구성하는 폴리곤들 중에서 서로 인접하는 인접 폴리곤들을 획득할 수 있다. 예컨대, 도 23을 참조하면, A 폴리곤에 대해서 인접하는 인접 폴리곤들은 A, B, C, D 폴리곤일 수 있고, F 폴리곤에 대해서 인접하는 인접 폴리곤들은 F, H, E, G 폴리곤일 수 있다. 3D 혈관 모델은 혈관을 구성하는 폴리곤들의 어레이(array) 및 각 폴리곤을 구성하는 정점들의 어레이를 이용하여 표현할 수 있다. 따라서, 이러한 폴리곤들의 어레이 및 정점들의 어레이를 이용하면 서로 인접하는 인접 폴리곤들을 파악할 수 있다. 예를 들어, 컴퓨터는 폴리곤 어레이로부터 A 폴리곤을 추출한 다음, 정점 어레이로부터 A 폴리곤의 정점들과 적어도 2개의 정점을 공유하는 폴리곤들(B, C, D)을 획득할 수 있다. 즉, 각 폴리곤이 서로 2개 이상의 정점을 공유(즉, 엣지(edge)를 공유)하면 이들 폴리곤(A, B, C, D)은 서로 인접해 있는 것으로 판단할 수 있다. 또한, 이러한 방식으로 E, F, G, H 폴리곤도 서로 인접해 있는 인접 폴리곤들로 판단할 수 있다.
이때, 도 23에 도시된 바와 같은 혈관을 구성하는 폴리곤들은 그래프 형태의 데이터 구조로 구현될 수 있다. 예를 들어, 각 폴리곤은 하나의 노드로 표현될 수 있고, 하나의 노드와 인접하고 있는 노드들을 그래프로 연결하여 표현할 수 있다. 도 24를 참조하면, A 폴리곤은 그래프에서 A 노드로 표현될 수 있으며, A 폴리곤과 서로 인접하는 B, C, D 폴리곤은 A 노드와 연결된 B, C, D 노드로 연결되어 표현될 수 있다. 또한, B 폴리곤은 E 폴리곤과 서로 인접하므로, B 노드와 E 노드는 서로 연결되어 표현될 수 있다. 이와 같은 방식으로 전체 폴리곤에 대해 서로 연결관계를 기초로 그래프로 표현할 수 있다. 따라서, 컴퓨터는 그래프를 통해서 A, B, C, D 노드가 서로 인접하는 노드(즉, 인접 폴리곤들)로 판단하고, E, F, G, H 노드가 서로 인접하는 노드(즉, 인접 폴리곤들)로 판단할 수 있다.
컴퓨터는 상술한 바와 같은 방식으로 인접 폴리곤들을 획득하고, 획득된 인접 폴리곤들의 평균 중심점을 산출할 수 있다. 예를 들어, 컴퓨터는 인접 폴리곤들(A, B, C, D) 각각의 혈관 중심점을 평균하여, 이 평균값을 평균 중심점으로 산출할 수 있다. 평균값은 인접 폴리곤들(A, B, C, D) 각각의 위치 정보를 이용하여 평균한 평균 위치 정보(즉, 좌표 정보)일 수 있다.
여기서, 인접 폴리곤들을 획득하여 평균 중심점을 산출함에 있어서, 컴퓨터는 폴리곤들의 전체 구조를 나타낸 그래프 형태의 데이터 구조를 이용하여 서로 인접하는 인접 폴리곤들을 반복적으로 획득하는 과정을 통해서 혈관을 구성하는 전체 폴리곤에 대해서 평균 중심점을 산출할 수 있다. 예컨대, 컴퓨터는 폴리곤들의 전체 구조를 나타낸 그래프에서 A 노드를 기준으로 인접 노드 B, C, D를 획득하고, 획득한 A, B, C, D 노드에 대해 각 노드의 혈관 중심점으로부터 평균값(즉, 평균 중심점)을 계산할 수 있다. 다음으로, 컴퓨터는 폴리곤들의 전체 구조를 나타낸 그래프에서 B 노드로 이동할 수 있다. 이때, B 노드는 이미 A 노드의 인접 노드로 추출되어 평균 중심값을 산출하였기 때문에, B 노드와 인접하고 있는 어느 하나의 노드(예컨대, F 노드)로 이동할 수 있다. 컴퓨터는 이동한 노드(예컨대, F 노드)에서 다시 인접 노드들(예컨대, H, E, G 노드)을 획득하여 평균 중심점을 계산할 수 있다. 즉, 컴퓨터는 이와 같은 과정을 전체 폴리곤들에 대해 진행하고, 이후 인접 노드들(예컨대, A, B, C, D 노드)에 대해 다시 이와 인접하는 인접 노드들(예컨대, E, F, G, H 노드)을 하나의 인접 노드들(예컨대, A, B, C, D, E, F, G, H 노드)로 병합하여 이들 각 혈관의 중심점으로부터 평균 중심점을 계산할 수 있다. 컴퓨터는 전체 폴리곤에 대해 이와 같은 과정을 반복 수행할 수 있다.
이때, 전체 폴리곤에 대해 반복 수행하는 횟수는 혈관을 구성하는 전체 폴리곤의 개수, 하나의 폴리곤의 크기, 전체 혈관의 크기와 대비하여 하나의 폴리곤의 물리적 크기 등에 의해서 결정될 수 있다. 즉, 컴퓨터는 의미 있는 혈관의 경로를 도출할 때까지 상술한 바와 같은 방식으로 인접 폴리곤들에 대한 평균 중심점을 산출하는 과정을 반복 수행할 수 있다.
또한, 본 발명의 실시예에 따르면, 상술하였듯 컴퓨터는 혈관의 직경을 기초로 평균 직경을 산출할 수 있다. 일 실시예로, 컴퓨터는 혈관을 구성하는 폴리곤들 중에서 서로 인접하는 복수의 인접 폴리곤들을 획득할 수 있다. 컴퓨터는 획득한 복수의 인접 폴리곤들 각각에 대한 혈관의 직경을 평균하여 평균값을 산출할 수 있고, 산출된 평균값을 복수의 인접 폴리곤들에 대한 평균 직경으로 도출할 수 있다. 이때, 각 단계(즉, 복수의 인접 폴리곤을 획득하는 과정 및 복수의 인접 폴리곤으로부터 평균 직경을 산출하는 과정)는 도 23 및 도 24에서 상술한 과정과 동일하게 적용될 수 있으므로, 여기서는 상세한 설명을 생략하도록 한다.
즉, 컴퓨터는 복수의 인접 폴리곤들로부터 산출된 평균 중심점 및 평균 직경을 기초로 최종적인 혈관 경로를 생성할 수 있다.
도 25는 본 발명의 일 실시예에 따라 생성되는 혈관의 경로의 일례를 개략적으로 도시한 도면이다.
도 25를 참조하면, 컴퓨터는 각 폴리곤으로부터 혈관의 중심점을 산출함으로써 혈관의 경로(400)를 생성할 수 있다. 이때, 컴퓨터는 복수의 인접 폴리곤들로부터 혈관의 중심점들에 대한 평균 중심점을 산출하는 과정을 반복 수행함으로써 의미있는 혈관의 경로(410)를 생성할 수 있다. 다시 말해, 컴퓨터는 각 폴리곤에 대한 혈관 중심점의 연결성은 유지하면서 복수의 인접 폴리곤들에 대한 평균 중심점을 기초로 혈관의 경로를 보정함으로써 보다 정밀한 혈관의 경로를 도출할 수 있다.
또한, 컴퓨터는 각 폴리곤으로부터 혈관의 직경을 산출하고, 이를 혈관의 경로(400)에 반영할 수 있다. 또한, 컴퓨터는 복수의 인접 폴리곤들로부터 혈관의 직경에 대한 평균 직경을 산출하는 과정을 반복 수행할 수 있고, 이로부터 산출된 평균 직경을 의미있는 혈관의 경로(410)를 생성하는데 반영할 수 있다.
컴퓨터는 혈관의 경로(410) 및 혈관의 직경을 3차원 렌더링함으로써 최종적으로 3D 혈관 모델을 구축할 수 있다.
상술한 바와 같은 본 발명의 실시예에 따르면, 의료영상데이터를 이용하여 생성된 초기 3D 혈관 모델에서 정확하게 구현되지 못한 혈관 부분(예컨대, 노이즈로 인하여 정확한 혈관 형태로 표현되지 못하거나 중간에 끊어진 혈관 부분 등)에 대해 보상하는 효과를 얻을 수 있다. 즉, 정확하게 구현되지 못한 혈관 부분에 대해 혈관 경로를 생성하여 줄 수 있고, 또한 혈관 경로와 함께 혈관 직경을 표현해 줌으로써 보다 정밀한 3D 혈관 모델을 제공해 줄 수 있다.
본 발명의 실시예에 있어서, 컴퓨터는 복수의 인접 폴리곤들로부터 산출되는 평균 중심점을 기초로 혈관의 경로 상에서 분기점을 파악할 수 있다. 일 실시예로, 컴퓨터는 복수의 인접 폴리곤들로부터 산출되는 평균 중심점을 소정의 값과 비교하여, 평균 중심점에 대응하는 지점이 혈관의 경로 상에서의 분기점인지를 판단할 수 있다. 예컨대, 컴퓨터는 평균 중심점에서의 벡터 값이 소정의 값보다 크면 분기점으로 판단할 수 있다. 여기서, 소정의 값은 폴리곤의 법선 벡터 크기를 이용할 수 있다. 이후, 컴퓨터는 판단 결과에 따라 분기점을 기초로 혈관의 경로를 분기시킬 수 있다. 또한, 컴퓨터는 분기점을 기초로 분기된 혈관 경로에 대해 혈관 이름을 지정할 수도 있다. 예컨대, 컴퓨터는 해부학적 혈관 분포도를 기초로 분기된 혈관 경로에 대한 혈관 이름을 지정할 수 있다.
또한 본 발명의 실시예에 있어서, 컴퓨터는 분기점을 기초로 혈관의 경로에 대한 계층 구조를 도출할 수 있다. 예를 들어, 컴퓨터는 전체 혈관 경로 상에서 분기점으로부터 분기된 혈관 경로를 생성하고 각 혈관 경로에 대해 혈관 이름을 지정함으로써 전체 혈관 구조를 도출할 수 있다.
또한 본 발명의 실시예에 있어서, 컴퓨터는 혈관의 경로 상에서 혈류의 흐름 방향을 도출할 수 있다. 일 실시예로, 컴퓨터는 각 폴리곤으로부터 추출된 법선 벡터의 크기를 기초로 혈류의 흐름 방향을 파악할 수 있다. 예컨대, 컴퓨터는 제1 폴리곤의 법선 벡터의 크기와 제2 폴리곤의 법선 벡터의 크기를 비교하여, 법선 벡터의 크기가 큰 값에서 작은 값으로 연결되는 경로로 혈류가 흐르는 것으로 판단할 수 있다.
상술한 바와 같은 본 발명의 실시예에 따르면, 혈관의 경로 및 혈관의 직경(즉, 혈관의 두께)을 정확하게 도출하여 3D 혈관 모델을 구축할 수 있고, 나아가 혈관의 분기점을 기초로 혈관 경로의 계층 구조 및 혈류 흐름까지 파악할 수 있다. 따라서, 이와 같은 본 발명의 실시예에 따른 3D 혈관 모델에서는 혈관의 상관관계 및 기하학적 정보를 정확하게 파악할 수 있으므로, 이를 이용하여 시뮬레이션을 수행할 경우 보다 정밀한 수술 동작을 지정할 수 있다. 예컨대, 본 발명의 실시예에 따른 3D 혈관 모델을 이용하여 시뮬레이션을 수행하는 경우, 의료진이 이미 혈관부의 상단을 자른 후에 다시 하단을 자르는 동작을 수행할 때 하단을 자르는 동작은 불필요한 동작으로 판단할 수 있고, 또한 이러한 정보를 의료진에게 제공할 수 있다. 또한, 3D 혈관모델을 통해 혈관의 굵기를 파악할 수 있으므로, 3D 혈관 모델을 이용한 시뮬레이션에서 특정 혈관을 묶는 동작을 수행할 때 특정 혈관을 묶는 클립의 최적 크기를 알려줄 수 있다.
도 26은 본 발명의 일 실시예에 따른 혈관 모델 생성 방법을 수행하는 장치(500)의 구성을 개략적으로 나타내는 도면이다.
도 26을 참조하면, 프로세서(510)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(510)는 메모리(520)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 19 내지 도 25와 관련하여 설명된 혈관 모델 생성 방법을 수행한다.
예를 들어, 프로세서(510)는 메모리(520)에 저장된 하나 이상의 인스트럭션을 실행함으로써 혈관을 구성하는 적어도 하나의 폴리곤(polygon)을 획득하고, 적어도 하나의 폴리곤 각각으로부터 법선 벡터(normal vector)를 추출하고, 각각의 법선 벡터를 기초로 혈관의 중심점을 산출하고, 혈관의 중심점을 기초로 혈관의 경로(path)를 생성할 수 있다.
한편, 프로세서(510)는 프로세서(510) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(510)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(520)에는 프로세서(510)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(520)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 혈관 모델 생성 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
이하에서는 도 27 내지 도 35를 참조하여, 본 발명의 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법 및 장치에 관해 상세히 설명한다.
본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 27은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.
도 27에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.
일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.
일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.
서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.
제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.
촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.
일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.
일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.
제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.
예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.
서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다.
제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.
일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다.
상술한 바와 같이, 로봇수술을 수행할 경우 수술 과정에서 촬영된 수술영상 또는 수술로봇의 제어과정에서 다양한 수술정보를 포함하는 데이터를 획득할 수 있다. 이와 같이 수술과정에서 획득된 수술영상이나 수술데이터는 학습용 자료로 활용되거나 다른 환자의 수술과정에 활용될 수 있다. 이에, 본 발명에서는 수술 시에 획득되는 수술영상을 이용하여 수술 시뮬레이션을 할 수 있도록 하는 가상신체모델을 생성하고, 이를 통해 보다 실제 환자의 신체 상태 및 실제 수술 상태와 유사한 수술환경을 제공하는 가상 수술 시뮬레이션을 제공하고자 한다.
이하에서는 설명의 편의를 위해 "컴퓨터"가 본 명세서에서 개시되는 실시예에 따른 수술영상을 기초로 학습데이터를 생성하는 방법을 수행하는 것으로 설명한다. "컴퓨터"는 도 27의 서버(100) 또는 제어부(30)를 의미할 수 있으나, 이에 한정되는 것은 아니고 컴퓨팅 처리를 수행할 수 있는 장치를 포괄하는 의미로 사용될 수 있다. 예를 들어, 컴퓨터는 도 27에 도시된 장치와는 별도로 구비된 컴퓨팅 장치일 수도 있다.
또한, 이하에서 개시되는 실시예들은 도 27에 도시된 로봇수술 시스템과 연관되어서만 적용될 수 있는 것은 아니고, 수술과정에서 수술영상을 획득하고 이를 활용할 수 있는 모든 종류의 실시예들에 적용될 수 있다. 예를 들어, 로봇수술 이외에도 복강경 수술이나 내시경을 이용한 수술 등과 같은 최소침습수술과 연관되어서 적용될 수 있다.
도 28은 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법을 개략적으로 도시한 흐름도이다.
도 28을 참조하면, 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법은, 복수의 영상프레임을 포함하는 수술영상으로부터 장기를 검출하여 특징점(feature)을 추출하는 단계(S100), 상기 복수의 영상프레임 각각 간에 상기 특징점을 매칭시켜 연결하는 단계(S200), 상기 연결된 특징점을 기초로 상기 장기 내 움직임이 유사한 영역을 그룹화하여 상기 장기를 적어도 하나의 클러스터 영역으로 분할하는 단계(S300), 및 상기 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 단계(S400)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기재한다.
컴퓨터는 복수의 영상프레임을 포함하는 수술영상으로부터 장기를 검출하여 특징점(feature)을 추출할 수 있다(S100).
일 실시예로, 컴퓨터는 먼저 수술영상을 획득할 수 있다.
환자에 대해 특정 수술(예컨대, 위암 수술, 대장암 수술 등)을 수행할 경우, 의료진들은 환자에 대해 직접 실제수술을 수행할 수도 있고, 도 27에서 설명한 바와 같은 수술로봇을 비롯하여 복강경이나 내시경 등을 이용한 최소침습수술을 수행할 수도 있다. 이때, 컴퓨터는 수술과정에서 행해진 수술동작 및 이와 관련된 수술도구, 수술부위 등을 포함하는 장면을 촬영한 수술영상을 획득할 수 있다. 예를 들어, 컴퓨터는 환자의 신체내부로 진입한 카메라로부터 현재 수술이 행해지고 있는 수술부위 및 수술도구를 포함하는 장면을 촬영한 수술영상을 획득할 수 있다.
여기서, 수술영상은 하나 이상의 영상프레임들을 포함할 수 있다. 각 영상프레임은 환자의 수술부위, 수술도구 등을 포함하여 수술동작을 행하고 있는 하나의 장면을 나타낼 수 있다. 예를 들어, 수술영상은 수술과정에서 시간에 따른 수술동작을 각 장면(씬; scene)별로 기록한 영상프레임들로 구성될 수 있다. 또는 수술영상은 수술과정에서 수술부위나 카메라의 위치 등과 같은 공간상의 이동에 따라 각 수술장면을 기록한 영상프레임들로 구성될 수도 있다.
또한, 수술영상은 전체 수술과정을 포함하는 전체 영상프레임들로 구성될 수도 있으나, 특정 분류 기준에 따라 분할된 적어도 하나의 비디오 클립 형태(즉, 시퀀스)로 이루어질 수도 있다.
실시예에 따라, 컴퓨터는 특정 수술에 대해 미리 정의된 구간으로 분할된 비디오 클립 형태의 수술영상을 획득할 수도 있고, 전체 또는 일부 수술과정을 포함하고 있는 수술영상을 획득하고 이를 적어도 하나의 비디오 클립 형태의 수술영상으로 분할할 수도 있다.
일 실시예로, 컴퓨터는 전체 또는 일부 수술과정을 포함하고 있는 수술영상을 획득하고, 특정 분류 기준에 따라 적어도 하나의 비디오 클립 형태의 수술영상으로 분할할 수 있다. 예를 들어, 컴퓨터는 수술이 진행되는 시간 경과에 따라 수술영상을 분할하거나, 수술 시의 수술부위를 기준으로 수술부위의 위치나 상태 변화에 따라 수술영상을 분할할 수 있다. 또는, 컴퓨터는 수술이 진행되는 동안 카메라의 위치나 카메라의 이동 범위를 기준으로 수술영상을 분할할 수도 있고, 수술이 진행되는 동안 수술도구의 변화(예컨대, 교체 등)를 기준으로 수술영상을 분할할 수도 있다. 또는, 컴퓨터는 수술동작과 관련하여 일련의 수술동작으로 이루어진 영상프레임들을 기준으로 수술영상을 분할할 수도 있다. 또한, 각 수술마다 특정 분류 기준에 따라 분류된 수술단계가 미리 정해져 있을 수도 있다. 이 경우, 컴퓨터는 수술단계를 기준으로 수술영상을 분할할 수도 있다.
도 29는 본 발명의 일 실시예에 따라 수술영상을 적어도 하나의 비디오 클립(즉, 시퀀스)으로 분할하는 과정을 설명하기 위한 일례를 나타낸 것이다.
도 29를 참조하면, 컴퓨터는 전체 또는 일부 수술과정을 포함하고 있는 수술영상(200)을 획득할 수 있다. 컴퓨터는 CNN(Convolutional Neural Network)과 같은 딥러닝을 이용하여 수술영상에서 수술도구와 장기 간의 상호작용이 존재하는지 여부를 파악하는 학습을 수행할 수 있다. 예를 들어, 컴퓨터는 CNN 학습을 통해 수술영상(200)으로부터 수술도구와 장기 간의 접촉 발생 여부를 판단하고, 수술도구와 장기 간의 접촉 발생 여부를 기준으로 수술영상(200)을 복수 개의 비디오 클립(즉, 시퀀스)(210, 220)로 분할할 수 있다. 각 비디오 클립(210, 220)은 수술도구와 장기 간의 접촉이 발생한 시점부터 수술도구가 장기로부터 분리된 시점까지를 포함하는 영상프레임들로 구성될 수 있다.
다시 도 28을 참조하여 설명하면, 컴퓨터는 상술한 바와 같이 복수의 비디오 클립(즉, 시퀀스)으로 분할된 수술영상을 획득하고, 획득된 각 비디오 클립(즉, 시퀀스)에 대해 후술할 과정들을 적용할 수 있다.
즉, 컴퓨터는 복수의 영상프레임을 포함하는 수술영상(즉, 비디오 클립)을 획득하고, 복수의 영상프레임으로부터 장기를 검출하여 특징점을 추출할 수 있다.
일 실시예로, 컴퓨터는 복수의 영상프레임 각각으로부터 수술도구의 동작과 연관된 장기를 검출할 수 있다. 예를 들어, 컴퓨터는 수술도구의 동작으로 인해 상호작용이 발생하는 장기, 예컨대 수술도구와 접촉이 발생한 장기를 각 영상프레임으로부터 검출할 수 있다. 이때, 영상프레임으로부터 장기를 검출함에 있어서, 컴퓨터는 딥러닝을 이용한 이미지 인식 기술(예컨대, 시멘틱 세그먼테이션; semantic segmentation)을 적용할 수 있으며, 각 수술도구 및 각 장기의 특징에 따라 영상프레임으로부터 수술도구 및 장기를 인식할 수 있다. 컴퓨터는 인식된 수술도구 및 장기 영역의 위치 정보, 종류 등을 도출할 수 있다.
도 30은 본 발명의 일 실시예에 따라 영상프레임으로부터 장기를 검출하는 과정을 설명하기 위한 일례를 나타낸 것이다.
도 30을 참조하면, 컴퓨터는 영상프레임(300)을 입력받고, 입력받은 영상프레임(300)에 대해 CNN 또는 시멘틱 세그먼테이션을 이용하여 장기(310) 및 수술도구(320)를 검출할 수 있다. 이때, 컴퓨터는 검출된 장기(310) 및 수술도구(320)의 위치 정보를 도출할 수 있다. 위치 정보는 2차원 또는 3차원 공간상의 좌표 정보로 표현될 수 있다. 또한, 컴퓨터는 수술도구(320)의 동작 정보를 인식하여 수술도구(320)와 장기(310) 간의 접촉 여부를 인식할 수도 있다.
컴퓨터는 복수의 영상프레임 각각으로부터 검출된 장기에 대한 특징점을 추출할 수 있다. 예를 들어, 컴퓨터는 각 영상프레임 내 장기 영역에 대해 SIFT(Scale-Invariant Feature Transform), SURF(Speeded Up Robust Features) 등과 같은 알고리즘을 이용하여 특징점을 추출할 수 있다.
컴퓨터는 복수의 영상프레임으로부터 추출된 특징점들을 연결하되, 복수의 영상프레임 각각 간에 특징점을 매칭시켜 연결할 수 있다(S200).
일 실시예로, 컴퓨터는 복수의 영상프레임 중에서, 제1 영상프레임으로부터 추출된 제1 특징점들과 제2 영상프레임으로부터 추출된 제2 특징점들을 매칭시켜 연결할 수 있다. 이와 같은 방식으로 수술영상 내 모든 영상프레임에 대해, 각 영상프레임 간에 특징점들을 매칭시켜 궤적(trajectory)을 생성할 수 있다. 이때, 각 영상프레임 간에 특징점들을 매칭함에 있어서, 컴퓨터는 아웃라이어(outlier)를 제거할 수 있다. 또한, 제거된 부분에 대해서 보간 등을 통해 보정을 할 수도 있다.
컴퓨터는 연결된 특징점들을 기초로 장기 내 움직임이 유사한 영역을 그룹화하여, 장기를 적어도 하나의 클러스터 영역으로 분할할 수 있다(S300).
일 실시예로, 먼저 컴퓨터는 연결된 특징점들을 기초로 수술도구의 동작에 따른 장기의 움직임 정도를 판단할 수 있다. 수술도구의 동작에 의해 수술도구와 장기 사이에 접촉이 발생하면, 장기 내 접촉 위치에 물리적인 힘이 가해지게 되므로, 접촉 위치를 기준으로 장기의 특정 영역에 변화(즉, 움직임)가 발생할 수 있다. 이와 같이 장기의 변화(즉, 움직임)가 발생하게 되면 이에 따라 장기에 대해 추출된 특징점 역시 특정 패턴으로 변화가 발생할 수 있다. 따라서, 장기는 수술도구와의 관계에 있어서 일부 영역에서는 움직임 정도가 많이 발생할 수도 있고, 다른 일부 영역에서는 움직임 정도가 적게 발생할 수도 있다. 즉, 장기는 수술도구와의 관계에 있어서 서로 다른 움직임 반응을 보일 수 있다. 따라서, 컴퓨터는 움직임 정도를 기초로 장기 내 움직임이 유사한 영역을 그룹화할 수 있다.
예를 들어, 컴퓨터는 복수의 영상프레임 각각으로부터 수술도구의 동작에 따라 수술도구와 장기 사이에 접촉이 발생한 접촉 위치를 추출할 수 있다. 컴퓨터는 접촉 위치를 기초로 장기의 위치 변화값을 획득하고, 획득된 장기의 위치 변화값을 기초로 장기의 움직임 정도를 판단할 수 있다. 예컨대, 컴퓨터는 각 영상프레임으로부터 추출된 각 특징점에 대해 위치 변화값을 획득하고, 이를 기초로 장기 내 움직임 정도가 유사한 특징점들을 검출할 수 있다.
다음으로, 컴퓨터는 장기의 움직임 정도에 기초하여 장기 내 움직임이 유사한 영역을 그룹화하여 적어도 하나의 클러스터 영역으로 분할할 수 있다. 예를 들어, 컴퓨터는 장기의 위치 변화값(즉, 특징점에 대한 위치 변화값)이 동일하거나 유사한 특징점들을 검출하고, 동일하거나 유사한 특징점들끼리 각각 그룹화할 수 있다. 그리고 컴퓨터는 각 그룹화된 특징점들을 각 클러스터 영역으로 할당할 수 있다.
또한 장기 내 움직임이 유사한 영역을 그룹화함에 있어서, 컴퓨터는 각 영상프레임으로부터 추출된 각 특징점에 대해 움직임 분할(motion segmentation)과 같은 알고리즘을 적용할 수 있다. 특징점들에 대해 움직임 분할을 적용한 결과, 컴퓨터는 장기 내에서 각각 독립적으로 움직이는 특징점들을 검출할 수 있다. 다시 말해, 컴퓨터는 장기 내에서 움직임 정도가 유사한 특징점들을 검출할 수 있다. 따라서, 컴퓨터는 유사한 움직임을 가지는 특징점들끼리 그룹화하여, 장기를 복수의 클러스터 영역으로 분할할 수 있다.
실시예에 따라, 컴퓨터는 장기 내 움직임이 유사한 영역을 그룹화하여 분할한 클러스터 영역 각각에 대해 탄성 파라미터를 추정할 수 있다. 각 장기는 특정 범위의 탄성도를 가질 수 있으며, 이는 미리 정해져 있다. 따라서, 수술도구의 동작에 의해 장기에 물리적인 힘이 가해짐에 따라 움직임이 발생한 경우, 미리 정해진 해당 장기의 탄성도에 움직임 정도를 반영함으로써 해당 장기의 탄성 파라미터를 역으로 추정할 수 있다.
일 실시예로, 컴퓨터는 각 특징점들에 대한 위치 변화값을 기초로 각 클러스터 영역의 탄성 파라미터를 추정할 수 있다. 즉, 미리 정해진 해당 장기의 탄성도에 각 클러스터 영역의 움직임 정도(즉, 각 특징점들에 대한 위치 변화값)을 반영하여, 각 클러스터 영역의 탄성 파라미터를 계산할 수 있다.
또한, 컴퓨터는 수술도구의 동작에 따른 장기의 위치 변화값을 산출하고 이를 기초로 장기의 움직임 정도를 판단하는 과정에서 딥러닝(예컨대, CNN)을 이용한 학습을 수행할 수도 있다. 예컨대, 컴퓨터는 영상프레임 내 수술도구의 종류, 위치, 동작 등을 인식하고, 이러한 수술도구의 정보를 기초로 CNN 학습을 수행하여 수술도구의 동작에 따른 장기의 위치 변화값을 학습결과로 획득할 수 있다. 따라서, 컴퓨터는 학습 결과로 획득된 장기의 위치 변화값을 이용하여 장기 내 각 클러스터 영역의 탄성 파라미터를 추정할 수 있다.
컴퓨터는 장기에 대해 분할된 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭할 수 있다(S400).
여기서, 가상신체모델이라 함은, 사전에 수술 대상자의 신체내부를 촬영한 의료영상데이터(예: CT, PET, MRI 등을 통해 촬영된 의료영상)를 기반으로 생성된 3차원 모델링 데이터일 수 있다. 예컨대, 수술 대상자의 신체와 부합하게 모델링된 것으로서, 실제수술 상태와 동일한 상태로 보정된 것일 수도 있다. 의료진들은 수술 대상자의 신체 상태와 동일하게 구현된 가상신체모델을 이용하여 리허설 또는 시뮬레이션을 수행할 수 있고, 이를 통해 실제수술 시와 동일한 상태를 경험할 수 있다. 또한 가상신체모델을 이용한 가상수술을 수행할 경우, 가상신체모델에 대한 리허설 또는 시뮬레이션 행위를 포함하는 가상수술데이터를 획득할 수 있다. 예컨대, 가상수술데이터는 가상신체모델 상에 가상수술을 수행한 수술부위를 포함하는 가상수술영상일 수도 있고, 가상신체모델 상에 수행된 수술동작에 대해 기록된 데이터일 수도 있다.
또한, 단계 S100에서 획득된 복수의 영상프레임을 포함하는 수술영상은 스테레오스코픽 3D 영상일 수 있으며, 이에 따라 수술영상은 3차원적인 입체감, 즉 깊이감을 가진 영상일 수 있다. 따라서, 컴퓨터는 각 영상프레임으로부터 깊이 정보(즉, 뎁스 맵)를 획득할 수 있다.
일 실시예로, 컴퓨터는 복수의 영상프레임 각각에 대한 뎁스 맵(depth map)을 기초로 적어도 하나의 클러스터 영역을 3차원 좌표 정보로 변환할 수 있다. 컴퓨터는 적어도 하나의 클러스터 영역에 대한 3차원 좌표 정보를 기초로 가상신체모델 상의 3차원 좌표 정보에 대응하는 지점을 검출하여 매칭할 수 있다. 이에 대해서는 도 31을 참조하여 구체적으로 설명한다.
도 31은 본 발명의 일 실시예에 따라 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 과정을 설명하기 위한 일례를 나타낸 것이다.
도 31을 참조하면, 컴퓨터는 영상프레임(400)으로부터 추출된 특징점들을 기초로 장기 내 움직임이 유사한 특징점들을 그룹화하여 복수의 클러스터 영역(410, 420)으로 분할할 수 있다.
컴퓨터는 분할된 복수의 클러스터 영역(410, 420)을 가상신체모델 상의 해당 장기(500)에 매칭시킬 수 있다. 이때, 컴퓨터는 복수의 클러스터 영역(410, 420)에 대한 뎁스 맵을 획득하고, 뎁스 맵을 기초로 복수의 클러스터 영역(410, 420) 내 각 특징점들의 3차원 공간상에서의 좌표 정보를 계산할 수 있다.
컴퓨터는 복수의 클러스터 영역(410, 420) 내 각 특징점들의 3차원 좌표 정보와 가상신체모델의 3차원 좌표 정보를 비교하여, 각 좌표 공간 상에서 가장 근접한 좌표 위치를 가지는 쌍들을 검출할 수 있다. 이후, 컴퓨터는 검출된 각 쌍들을 매칭함으로써, 복수의 클러스터 영역(410, 420)을 가상신체모델 상의 해당 장기(500)에 모델링할 수 있다. 예를 들어, 컴퓨터는 ICP(Iterative Closet Point) 알고리즘을 이용하여 복수의 클러스터 영역(410, 420) 내 각 특징점들과 가상신체모델의 해당 장기(500)를 매칭시킬 수 있다.
또한, 복수의 클러스터 영역(410, 420)을 가상신체모델 상의 해당 장기(500)에 매칭함에 있어서, 컴퓨터는 복수의 클러스터 영역(410, 420) 각각에 대해 추정된 탄성 파라미터를 가상신체 모델에 적용할 수 있다. 도 31에 도시된 것처럼, 가상신체모델의 해당 장기(500)는 복수의 클러스터 영역(410, 420) 각각에 대응하여 매칭된 복수의 분할 영역(510, 520)으로 모델링될 수 있다. 복수의 분할 영역(510, 520) 각각은 복수의 클러스터 영역(410, 420) 각각의 움직임과 동일한 움직임 반응 정보를 가질 수 있다.
본 발명에 따르면, 실제 수술과정에서 획득된 수술영상을 기초로 구현된 가상신체모델을 생성함으로써, 가상신체모델을 통한 시뮬레이션 시에 실제 수술과 동일한 효과를 줄 수 있다.
또한 본 발명에 따르면, 실제 수술과정에서 수술도구의 동작을 행함으로써 장기에 가해지는 변화를 기초로 가상신체모델을 구현함으로써, 실제 수술 시에 장기가 변형되는 정도나 움직임 정도를 가상신체모델을 통한 시뮬레이션 시에도 동일하게 재현할 수 있다.
또한 본 발명에 따르면, 수술도구의 움직임을 분석하여 수술도구의 움직임에 따라 장기가 어떻게 반응할지를 예측하고, 예측된 장기의 반응을 가상신체모델 상에서 표현한다. 또한, 이러한 가상신체모델을 이용함으로써 실제 수술과 같이 현실감 있는 훈련을 실행할 수 있다.
도 32 내지 도 34는 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법을 적용한 일례를 나타낸 도면이다. 도 32 내지 도 34의 실시예에서는 상술한 도 28 내지 도 31을 참조하여 설명한 내용과 중복되는 동작 과정에 대해서는 설명을 생략하도록 한다.
도 32를 참조하면, 컴퓨터는 수술과정을 포함하고 있는 수술영상을 획득할 수 있다(S500). 이때, 컴퓨터는 복수(예컨대, N개)의 수술영상을 획득할 수 있다. 예컨대, 복수의 수술영상은 각각 서로 다른 환자의 수술과정을 촬영한 영상일 수 있고, 각 수술과정은 서로 상이한 수술을 수행한 것일 수 있다.
컴퓨터는 획득한 복수의 수술영상 각각에 대해서, CNN 학습을 통해 수술도구와 장기 간의 접촉 여부를 판단할 수 있다(S502).
컴퓨터는 복수의 수술영상 각각에 대해서, 수술도구와 장기 간의 접촉 여부를 기준으로 각 수술영상을 복수의 비디오 클립(즉, 시퀀스)으로 분할할 수 있다(S504). 예를 들어, 컴퓨터는 제1 수술영상에 대해 수술도구와 장기 간의 접촉이 발생한 시점부터 수술도구와 장기 간의 접촉이 종료된 시점까지를 하나의 비디오 클립으로 분할하고, 최종적으로 제1 수술영상을 복수(예컨대, M개)의 비디오 클립으로 생성할 수 있다.
컴퓨터는 복수의 수술영상 각각으로부터 분할된 각 비디오 클립에 대해 이하의 과정들을 반복적으로 수행할 수 있다. 설명의 편의 상 이하의 과정에서는 하나의 비디오 클립을 기준으로 설명하지만, 모든 비디오 클립에 대해 적용될 수 있다.
컴퓨터는 획득된 수술영상이 스테레오스코픽 3D 영상인 경우에 비디오 클립 내 영상프레임에 대해 뎁스 맵을 계산할 수 있다(S510).
컴퓨터는 비디오 클립 내 영상프레임으로부터 수술도구의 위치, 동작 등을 인식하고(S520), 인식된 수술도구와 관련된 정보를 저장할 수 있다(S522). 일 실시예로, 컴퓨터는 영상프레임으로부터 CNN을 이용하여 수술도구를 인식할 수 있다.
컴퓨터는 비디오 클립 내 영상프레임으로부터 단계 S520에서 인식된 수술도구와 접촉이 발생한 장기를 추출할 수 있다(S524). 일 실시예로, 컴퓨터는 영상프레임으로부터 시멘틱 세그멘테이션을 이용하여 수술도구와의 접촉이 발생한 장기를 추출할 수 있다. 또한, 컴퓨터는 비디오 클립 내 영상프레임 각각으로부터 추출된 장기의 특징점을 획득하고, 획득된 특징점들을 각 영상프레임 간에 매칭시켜 연결할 수 있다.
컴퓨터는 각 영상프레임 간의 연결된 특징점들을 기초로 장기 내 움직임이 유사한 영역을 그룹화하여 분할하는 움직임 분할(motion segmentation)을 수행할 수 있다(S530).
컴퓨터는 장기에 대해 분할된 각 영역을 가상신체모델 상에 매칭할 수 있으며, 이때 ICP 알고리즘을 이용할 수 있다(S540).
단계 S530에서, 컴퓨터는 장기 내 움직임 정도에 기초하여 특징점들을 그룹화하여 분할할 수 있다. 예컨대, 장기 내 움직임 정도는 장기의 위치 변화값을 이용하여 산출될 수 있다. 도 33을 참조하면, 컴퓨터는 각 영상프레임으로부터 수술도구의 종류, 위치, 동작 등을 인식하고(S600), 인식된 수술도구의 정보를 기초로 CNN 학습을 수행할 수 있다(S610). 컴퓨터는 학습 결과로 수술도구의 동작에 따라 장기의 움직임이 변화된 정도인 장기의 위치 변화값을 획득할 수 있다(S620).
또한, 컴퓨터는 가상신체모델 상에서 수술도구의 동작에 따른 장기의 움직임 반응을 생성하고, 이를 이용하여 장기의 움직임 정도를 파악할 수도 있다. 도 8을 참조하면, 컴퓨터는 가상신체모델 상에서 수술도구와 장기 간의 접촉 여부를 인식하고(S700), 인식된 수술도구와 장기 간의 접촉 위치, 수술도구의 종류, 위치, 동작 등의 정보를 추출할 수 있다(S710). 컴퓨터는 추출된 정보를 기초로 CNN 학습을 수행할 수 있다(S720). 컴퓨터는 학습 결과로 수술도구의 동작에 따른 장기의 움직임 정도를 예측할 수 있고, 이를 학습 모델로 구현할 수 있다. 따라서, 컴퓨터는 학습 결과로 획득된 수술도구의 동작에 따른 장기의 움직임 정도를 반영하여 가상신체모델 상에서 표현할 수 있다(S730).
컴퓨터는 장기 내 움직임 정도(즉, 상술한 바와 같은 장기의 위치 변화값 또는 가상신체모델 상에서의 장기의 움직임 반응)에 기초하여, 장기에 대한 특징점들을 그룹화하여 분할한 각 클러스터 영역에 대해 탄성 파라미터를 추정할 수 있다. 단계 S540에서, 컴퓨터는 각 클러스터 영역에 대한 탄성 파라미터를 기초로 가상신체모델 상의 장기에 매칭시킬 수 있다.
도 35는 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법을 수행하는 장치(600)의 구성을 개략적으로 나타내는 도면이다.
도 35를 참조하면, 프로세서(610)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(610)는 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 28 내지 도 34와 관련하여 설명된 수술영상을 이용한 가상신체모델 생성 방법을 수행한다.
일례로, 프로세서(610)는 메모리(620)에 저장된 하나 이상의 인스트럭션을 실행함으로써 복수의 영상프레임을 포함하는 수술영상으로부터 장기를 검출하여 특징점(feature)을 추출하는 단계, 상기 복수의 영상프레임 각각 간에 상기 특징점을 매칭시켜 연결하는 단계, 상기 연결된 특징점을 기초로 상기 장기 내 움직임이 유사한 영역을 그룹화하여 상기 장기를 적어도 하나의 클러스터 영역으로 분할하는 단계, 및 상기 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 단계를 수행할 수 있다.
한편, 프로세서(610)는 프로세서(610) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(610)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(620)에는 프로세서(610)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(620)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 수술영상을 이용한 가상신체모델 생성 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
한편 상기에서 설명된 본 발명의 실시예들에서, 프로그램은, 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (54)

  1. 컴퓨터에 의해 수행되는 수술 시뮬레이션 정보 구축 방법에 있어서,
    대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계;
    상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계;
    상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계; 및
    상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  2. 제1항에 있어서,
    상기 텍스처 정보를 추출하는 단계는,
    상기 실제수술데이터에 기초하여 획득된 상기 대상체의 수술부위 영상으로부터 실시간으로 상기 대상체의 수술부위에 대한 텍스처 정보를 추출하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  3. 제2항에 있어서,
    상기 가상신체모델에 반영하는 단계는,
    상기 가상신체모델 내의 대상체에 대한 가상 영상으로부터 상기 수술부위 영상에 대응하는 대응 영역을 획득하는 단계; 및
    상기 대응 영역에 상기 대상체의 수술부위에 대한 텍스처 정보를 매핑하는 단계를 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  4. 제3항에 있어서,
    상기 대응 영역을 획득하는 단계는,
    상기 가상 영상에 대한 카메라 위치정보와 상기 수술부위 영상에 대한 카메라 위치정보를 일치시키는 단계; 및
    상기 카메라 위치정보를 기초로 상기 가상 영상과 상기 수술부위 영상을 매칭하여 상기 대응 영역의 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  5. 제1항에 있어서,
    상기 대상체에 대한 표준화된 템플릿(template) 영상을 획득하는 단계; 및
    상기 템플릿 영상을 상기 가상신체모델 내의 대상체에 대한 가상 영상에 정합하는 단계를 더 포함하며,
    상기 가상신체모델에 반영하는 단계는,
    상기 정합된 가상 영상에 기초하여 상기 텍스처 정보를 반영하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  6. 제1항에 있어서,
    상기 텍스처 정보를 반영하여 상기 가상신체모델을 재구성하는 단계를 더 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  7. 제6항에 있어서,
    상기 재구성된 가상신체모델을 기반으로 상기 실제수술데이터와 비교하여 상기 실제 수술 중 실시간으로 상기 대상체의 수술 정보를 제공하는 단계를 더 포함하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  8. 제1항에 있어서,
    상기 가상신체모델은,
    상기 대상체의 수술부위를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터인 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  9. 제1항에 있어서,
    상기 텍스처 정보를 추출하는 단계는,
    상기 대상체에 대한 표면 컬러를 표현하는 정보, 표면의 거칠기 및 높낮이를 표현하는 정보, 및 표면의 반사도를 표현하는 정보 중 적어도 하나를 추출하는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  10. 제1항에 있어서,
    상기 실제수술데이터는,
    상기 실제 수술 시에 상기 대상체의 수술부위로 진입하는 수술용 카메라에 의해 획득되는 것을 특징으로 하는 수술 시뮬레이션 정보 구축 방법.
  11. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    대상체의 의료영상데이터를 기반으로 기생성된 가상신체모델을 획득하는 단계;
    상기 대상체에 대한 실제 수술 시에 촬영한 실제수술데이터를 획득하는 단계;
    상기 실제수술데이터로부터 상기 대상체에 대한 텍스처(texture) 정보를 추출하는 단계; 및
    상기 추출한 텍스처 정보를 상기 가상신체모델에 반영하는 단계를 수행하는 것을 특징으로 하는 장치.
  12. 하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
  13. 컴퓨터가 환자의 동맥 추출용 영상 데이터 및 정맥 추출용 영상 데이터를 획득하는 단계;
    상기 컴퓨터가 획득한 상기 동맥 추출용 영상 데이터 및 상기 정맥 추출용 영상 데이터를 기반으로 정합 기준 지점을 탐색하고, 상기 정합 기준 지점을 이용하여 혈관 장기 모델을 생성하는 단계;
    상기 컴퓨터가 생성된 상기 혈관 장기 모델을 기반으로 기복 모델인 상기 환자의 가상 신체 모델을 생성하는 단계를 포함하고,
    상기 동맥 추출용 영상 데이터는 조영된 동맥을 포함하고,
    상기 정맥 추출용 영상 데이터는 조영된 정맥을 포함하고,
    상기 혈관 장기 모델은,
    상기 동맥 추출용 영상 데이터 및 상기 정맥 추출용 영상 데이터 중 어느 하나에서 얻어진 장기 영상 정보를 기반으로 장기를 모델링 하는 것인,
    가상 신체 모델 구축 방법.
  14. 제13항에 있어서,
    상기 정합 기준 지점은 복강 동맥(celiac axis)이며, 상기 복강 동맥은 분기점인 것을 특징으로 하는,
    가상 신체 모델 구축 방법.
  15. 제13항에 있어서,
    상기 혈관 장기 모델을 생성하는 단계는,
    상기 컴퓨터가 상기 동맥 추출용 영상 데이터 및 상기 정맥 추출용 영상 데이터를 축방향(axial 방향)으로 설정하여, 각각의 영상 프레임 상에서 대동맥의 지점을 각각 추출하는 단계;
    상기 컴퓨터가 상기 대동맥 지점을 기준으로 각각의 상기 영상 프레임을 상기 환자의 머리에서 발 방향으로 연속적으로 하나의 프레임씩 변화시키면서 상기 정합 기준 지점을 탐색하는 단계; 및
    상기 컴퓨터가 탐색하여 추출된 상기 정합 기준 지점을 기반으로 상기 동맥 추출용 영상 데이터와 상기 정맥 추출용 영상 데이터를 정합하는 단계; 및
    상기 컴퓨터가 정합된 영상 데이터를 이용하여 상기 혈관 장기 모델을 생성하는 단계를 포함하고,
    상기 정맥 추출용 영상 데이터는 조영되지 않은 동맥도 포함하는 것인,
    가상 신체 모델 구축 방법.
  16. 제15항에 있어서,
    상기 정합 기준 지점이 복강 동맥(celiac axis)인 경우,
    상기 정합 기준 지점을 탐색하는 단계는,
    상기 동맥 추출용 영상 데이터를 상기 환자의 머리에서 발 방향으로 연속적으로 하나의 프레임씩 변화시키면서, 대동맥의 원형 가장 자리에 다른 원형이 돌출하는 첫 번째 레이어를 복강 동맥의 분기점으로 설정하고, 상기 복강 동맥의 분기점의 제1 좌표를 기록하는 단계; 및
    상기 정맥 추출용 영상 데이터를 상기 환자의 머리에서 발 방향으로 연속적으로 하나의 프레임씩 변화시키면서, 대동맥의 원형 가장 자리에 다른 원형이 돌출하는 첫 번째 레이어를 복강 동맥의 분기점으로 설정하고, 상기 복강 동맥의 분기점의 제2 좌표를 기록하는 단계를 포함하고,
    상기 동맥 추출용 영상 데이터와 상기 정맥 추출용 영상 데이터를 정합하는 단계는,
    상기 제1 좌표와 상기 제2 좌표의 변위를 보정하며 상기 동맥 추출용 영상 데이터와 상기 정맥 추출용 영상 데이터를 정합하되, 회전과는 무관하게 정합하는 것인,
    가상 신체 모델 구축 방법.
  17. 제13항에 있어서,
    상기 혈관 장기 모델을 생성하는 단계는,
    상기 컴퓨터가 상기 동맥 추출용 영상 데이터를 기반으로 한 제1 혈관 모델과 상기 정맥 추출용 영상 데이터를 기반으로 한 제2 혈관 모델 상에서 상기 정합 기준 지점을 탐색하는 단계; 및
    상기 컴퓨터가 상기 정합 기준 지점을 이용하여 상기 제1 혈관 모델, 상기 제2 혈관 모델 및 상기 모델링 된 장기 모델을 정합하여 상기 혈관 장기 모델을 생성하는 단계를 포함하는,
    가상 신체 모델 구축 방법.
  18. 제17항에 있어서,
    상기 정합 기준 지점을 탐색하는 것은,
    혈관 모델 상의 360° 각각의 지점에서의 법선 벡터가 상기 혈관 모델의 외벽과 접촉하는 부분을 파악하고,
    혈관 단면의 길이가 가장 긴 대동맥을 기준으로 하여, 상기 대동맥부터 혈관 모델 상의 360° 각각의 지점에서의 법선 벡터가 상기 혈관 모델의 외벽과 접촉하는 부분을 파악하는 것을 반복함으로써 상기 정합 기준 지점을 탐색하는 것인,
    가상 신체 모델 구축 방법.
  19. 제13항에 있어서,
    상기 환자의 가상 신체 모델을 생성하는 단계는,
    상기 혈관 장기 모델과 기복 표준 모델을 정합하여 상기 환자의 가상 신체 모델을 생성하는 것으로서,
    상기 혈관 장기 모델과 기복 표준 모델에서, 검상돌기(xiphoid process), 우측 상전장골극(right anterior superior iliac spine) 및 좌측 상전장골극(left anterior superior iliac spine)의 3개의 지점을 추출하여 상기 혈관 장기 모델과 상기 기복 표준 모델을 정합시킴으로써 상기 환자의 가상 신체 모델을 생성하는 것이고,
    상기 기복 표준 모델은 환자의 나이, 성별 및 신체 조건을 기반으로 하여 표준이 되는 기복 모델인,
    가상 신체 모델 구축 방법.
  20. 제13항에 있어서,
    상기 환자의 가상 신체 모델을 생성하는 단계는,
    상기 환자의 의료 영상 데이터를 가상 신체 모델 생성의 학습 모델에 적용함으로써, 상기 환자의 수술 시 장기의 배치 또는 기복 상태를 예측하여 상기 환자의 가상 신체 모델을 생성하는 것을 포함하는,
    가상 신체 모델 구축 방법.
  21. 제20항에 있어서,
    상기 환자의 가상 신체 모델을 생성하는 단계는,
    상기 환자의 의료 영상 데이터가 수술 전 수술자세로 촬영된 의료 영상 데이터인 경우,
    상기 환자의 수술 전 수술자세로 촬영된 의료 영상 데이터를 가상 신체 모델 생성의 학습 모델에 적용함으로써, 상기 환자의 수술 시 기복 상태 구현에 따른 환자의 신체 표면 외형 변화 및 기복 상태 구현에 따른 장기 배치 변화 중 적어도 하나가 적용된 상기 환자의 가상 신체 모델을 생성하는 것인,
    가상 신체 모델 구축 방법.
  22. 제20항에 있어서,
    상기 환자의 가상 신체 모델을 생성하는 단계는,
    상기 환자의 의료 영상 데이터가 수술 전 정자세로 촬영된 의료 영상 데이터인 경우,
    상기 환자의 수술 전 정자세로 촬영된 의료 영상 데이터를 가상 신체 모델 생성의 학습 모델에 적용함으로써, 수술자세에 따른 장기 배치, 상기 환자의 수술 시 기복 상태 구현에 따른 환자의 신체 표면 외형 변화 및 기복 상태 구현에 따른 장기 배치 변화 중 적어도 하나가 적용된 상기 환자의 가상 신체 모델을 생성하는 것인,
    가상 신체 모델 구축 방법.
  23. 제20항에 있어서,
    상기 학습 모델은,
    수술 받은 복수의 대상체에서 획득된 의료 영상 데이터로서, 수술 전 정자세 또는 수술 자세로 촬영된 의료 영상 데이터 및 수술 시 기복 상태 영상 데이터를 기반으로 하여,
    기본 가상 신체 모델은, 수술 전 정자세 또는 수술 자세로 촬영된 의료 영상 데이터를 기반으로 생성하고,
    기복 상태 가상 신체 모델은, 수술 시 수술자세로 기복 상태가 적용된 기복 상태 영상 데이터를 기반으로 생성하여,
    상기 복수의 대상체에 대하여 상기 기본 가상 신체 모델 및 상기 기복 상태 가상 신체 모델을 매칭하여 학습 데이터셋을 구축하고,
    구축된 상기 학습 데이터셋을 이용하여 학습을 수행한 것인,
    가상 신체 모델 구축 방법.
  24. 하드웨어인 컴퓨터와 결합되어, 제13항 내지 제23항 중 어느 한 항의 방법을 실행시키기 위해 매체에 저장된, 가상 신체 모델 구축 컴퓨터 프로그램.
  25. 컴퓨터에 의해 수행되는 수술정보 활용 방법에 있어서,
    수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득하는 단계;
    상기 큐시트데이터에 포함된 실제수술정보로부터 상기 수술 대상자의 신체 정보를 획득하는 단계; 및
    상기 수술 대상자의 신체 정보를 기초로 상기 수술 대상자의 가상신체모델을 생성하는 단계를 포함하는 것을 특징으로 하는 수술정보 활용 방법.
  26. 제25항에 있어서,
    상기 큐시트데이터는,
    최소 수술동작 단위를 기초로 상기 실제수술 과정을 시간에 따라 순서대로 나열한 데이터로서, 수술도구 정보 및 신체부위 정보 중 적어도 하나를 포함하는 상기 실제수술정보가 기록되는 데이터인 것을 특징으로 하는 수술정보 활용 방법.
  27. 제25항에 있어서,
    상기 수술 대상자의 신체 정보를 획득하는 단계는,
    상기 큐시트데이터에 포함된 실제수술정보로부터 수술도구의 동작 정보와 연관된 특정 신체부위 정보를 획득하는 단계; 및
    상기 특정 신체부위 정보로부터 상기 특정 신체부위의 종류 및 공간 정보를 추출하는 단계를 포함하는 것을 특징으로 하는 수술정보 활용 방법.
  28. 제27항에 있어서,
    상기 수술 대상자의 가상신체모델을 생성하는 단계는,
    상기 특정 신체부위의 종류 및 공간 정보를 기초로 표준신체모델에 반영하는 단계; 및
    상기 표준신체모델을 기반으로 상기 수술 대상자의 실제수술 시의 신체와 부합하는 상기 가상신체모델을 생성하는 단계를 포함하는 것을 특징으로 하는 수술정보 활용 방법.
  29. 제28항에 있어서,
    상기 표준신체모델에 반영하는 단계는,
    상기 특정 신체부위의 공간 정보를 이용하여 상기 표준신체모델의 공간 상에 상기 특정 신체부위를 매핑하는 단계; 및
    상기 표준신체모델의 공간 상에서 상기 매핑된 특정 신체부위의 형태에 부합하도록 변형하는 단계를 포함하는 것을 특징으로 하는 수술정보 활용 방법.
  30. 제28항에 있어서,
    상기 표준신체모델에 반영하는 단계는,
    상기 큐시트데이터로부터 상기 수술 대상자의 특정 신체부위 정보를 획득하지 못한 경우,
    상기 표준신체모델의 공간 상에서 상기 획득하지 못한 특정 신체부위의 주변에 위치하는 주변 신체부위를 기초로 상기 획득하지 못한 특정 신체부위를 보간하는 단계를 더 포함하는 것을 특징으로 하는 수술정보 활용 방법.
  31. 제28항에 있어서,
    상기 표준신체모델은,
    신체의 해부학적 특징을 표준화하여 생성한 3차원 신체모델인 것을 특징으로 하는 수술정보 활용 방법.
  32. 제25항에 있어서,
    상기 수술 대상자의 가상신체모델을 생성하는 단계는,
    상기 수술 대상자의 신체 정보를 변화시켜 반복적으로 상기 가상신체모델을 생성하되, 상기 수술 대상자의 실제수술 시의 신체와 가장 부합하는 상기 가상신체모델을 선택하는 것을 특징으로 하는 수술정보 활용 방법.
  33. 제25항에 있어서,
    상기 큐시트데이터에 포함된 실제수술정보로부터 상기 수술 대상자의 실제수술 과정에 대한 영상 정보를 획득하는 단계; 및
    상기 영상 정보를 기초로 상기 수술 대상자의 실제수술 과정에 대응하는 수술영상데이터를 생성하는 단계를 더 포함하는 것을 특징으로 하는 수술정보 활용 방법.
  34. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    수술 대상자에 대한 실제수술 과정에서 생성된 실제수술정보를 포함하는 큐시트데이터를 획득하는 단계;
    상기 큐시트데이터에 포함된 실제수술정보로부터 상기 수술 대상자의 신체 정보를 획득하는 단계; 및
    상기 수술 대상자의 신체 정보를 기초로 상기 수술 대상자의 가상신체모델을 생성하는 단계를 수행하는 것을 특징으로 하는 장치.
  35. 하드웨어인 컴퓨터와 결합되어, 제25항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
  36. 컴퓨터가 수행하는 혈관 모델 생성 방법에 있어서,
    혈관을 구성하는 적어도 하나의 폴리곤(polygon)을 획득하는 단계;
    상기 적어도 하나의 폴리곤 각각으로부터 법선 벡터(normal vector)를 추출하는 단계;
    상기 각각의 법선 벡터를 기초로 상기 혈관의 중심점을 산출하는 단계; 및
    상기 혈관의 중심점을 기초로 상기 혈관의 경로(path)를 생성하는 단계를 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  37. 제36항에 있어서,
    상기 혈관의 중심점을 산출하는 단계는,
    상기 각각의 법선 벡터에 대해, 상기 법선 벡터의 반대 방향에 위치하는 폴리곤을 획득하여 상기 법선 벡터의 반대 방향 벡터와 만나는 교차 지점을 검출하는 단계; 및
    상기 교차 지점 및 상기 법선 벡터를 기초로 상기 혈관의 중심점을 산출하는 단계를 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  38. 제37항에 있어서,
    상기 혈관의 경로를 생성하는 단계는,
    상기 적어도 하나의 폴리곤 중 인접하는 복수의 인접 폴리곤을 획득하는 단계;
    상기 복수의 인접 폴리곤 각각에 대한 상기 혈관의 중심점을 기초로 평균 중심점을 산출하는 단계; 및
    상기 복수의 인접 폴리곤에 대한 평균 중심점을 기초로 상기 혈관의 경로를 생성하는 단계를 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  39. 제37항에 있어서,
    상기 교차 지점 및 상기 법선 벡터를 기초로 상기 혈관의 직경을 산출하는 단계를 더 포함하며,
    상기 혈관의 경로를 생성하는 단계는,
    상기 혈관의 직경을 상기 혈관의 경로에 반영하여 생성하는 것을 특징으로 하는 혈관 모델 생성 방법.
  40. 제39항에 있어서,
    상기 혈관의 경로를 생성하는 단계는,
    상기 적어도 하나의 폴리곤 중 인접하는 복수의 인접 폴리곤을 획득하는 단계;
    상기 복수의 인접 폴리곤 각각에 대한 상기 혈관의 직경을 기초로 평균 직경을 산출하는 단계; 및
    상기 복수의 인접 폴리곤에 대한 평균 직경을 기반으로 상기 혈관의 경로에 반영하는 단계를 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  41. 제38항에 있어서,
    상기 평균 중심점을 소정의 값과 비교하여 상기 혈관의 경로 상에서의 분기점인지를 판단하는 단계; 및
    상기 판단 결과에 따라 상기 분기점을 기초로 상기 혈관의 경로를 분기시키는 단계를 더 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  42. 제41항에 있어서,
    상기 분기점을 기초로 상기 혈관의 경로에 대한 계층 구조를 도출하는 단계를 더 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  43. 제36항에 있어서,
    상기 각각의 법선 벡터의 크기를 기초로 상기 혈관의 경로 상에서의 혈류의 흐름 방향을 도출하는 단계를 더 포함하는 것을 특징으로 하는 혈관 모델 생성 방법.
  44. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    혈관을 구성하는 적어도 하나의 폴리곤(polygon)을 획득하는 단계;
    상기 적어도 하나의 폴리곤 각각으로부터 법선 벡터(normal vector)를 추출하는 단계;
    상기 각각의 법선 벡터를 기초로 상기 혈관의 중심점을 산출하는 단계; 및
    상기 혈관의 중심점을 기초로 상기 혈관의 경로(path)를 생성하는 단계를 수행하는 것을 특징으로 하는 장치.
  45. 하드웨어인 컴퓨터와 결합되어, 제36항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
  46. 컴퓨터가 수행하는 수술영상을 이용한 가상신체모델 생성 방법에 있어서,
    복수의 영상프레임을 포함하는 수술영상으로부터 장기를 검출하여 특징점(feature)을 추출하는 단계;
    상기 복수의 영상프레임 각각 간에 상기 특징점을 매칭시켜 연결하는 단계;
    상기 연결된 특징점을 기초로 상기 장기 내 움직임이 유사한 영역을 그룹화하여 상기 장기를 적어도 하나의 클러스터 영역으로 분할하는 단계; 및
    상기 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  47. 제46항에 있어서,
    상기 특징점을 추출하는 단계는,
    상기 복수의 영상프레임 각각으로부터 수술도구의 동작과 연관된 장기를 검출하는 단계; 및
    상기 복수의 영상프레임 각각으로부터 검출된 상기 장기에 대한 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  48. 제47항에 있어서,
    상기 적어도 하나의 클러스터 영역으로 분할하는 단계는,
    상기 연결된 특징점을 기초로 상기 수술도구의 동작에 따른 상기 장기의 움직임 정도를 판단하는 단계; 및
    상기 장기의 움직임 정도에 기초하여 상기 장기 내 움직임이 유사한 영역을 그룹화하여 상기 적어도 하나의 클러스터 영역으로 분할하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  49. 제48항에 있어서,
    상기 장기의 움직임 정도를 판단하는 단계는,
    상기 복수의 영상프레임 각각으로부터 상기 수술도구의 동작에 따라 상기 장기와 접촉된 접촉 위치를 추출하는 단계;
    상기 접촉 위치를 기초로 상기 장기의 위치 변화값을 획득하는 단계; 및
    상기 장기의 위치 변화값을 기초로 상기 장기의 움직임 정도를 판단하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  50. 제48항에 있어서,
    상기 장기의 움직임 정도에 기초하여 상기 적어도 하나의 클러스터 영역 각각에 대한 탄성 파라미터를 추정하는 단계를 더 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  51. 제50항에 있어서,
    상기 가상신체모델 상에 매칭된 상기 적어도 하나의 클러스터 영역 각각에 상기 탄성 파라미터를 적용하는 단계를 더 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  52. 제46항에 있어서,
    상기 가상신체모델 상에 매칭하는 단계는,
    상기 복수의 영상프레임 각각에 대한 뎁스맵(depth map)을 기초로 상기 적어도 하나의 클러스터 영역을 3차원 좌표 정보로 변환하는 단계; 및
    상기 적어도 하나의 클러스터 영역에 대한 3차원 좌표 정보를 기초로 상기 가상신체모델 상의 3차원 좌표 정보에 대응하는 지점을 검출하여 매칭하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 가상신체모델 생성 방법.
  53. 하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    복수의 영상프레임을 포함하는 수술영상으로부터 장기를 검출하여 특징점(feature)을 추출하는 단계;
    상기 복수의 영상프레임 각각 간에 상기 특징점을 매칭시켜 연결하는 단계;
    상기 연결된 특징점을 기초로 상기 장기 내 움직임이 유사한 영역을 그룹화하여 상기 장기를 적어도 하나의 클러스터 영역으로 분할하는 단계; 및
    상기 적어도 하나의 클러스터 영역을 가상신체모델 상에 매칭하는 단계를 수행하는 것을 특징으로 하는 장치.
  54. 하드웨어인 컴퓨터와 결합되어, 제46항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
PCT/KR2019/002089 2018-02-20 2019-02-20 가상신체모델 생성 방법 및 장치 WO2019164271A1 (ko)

Applications Claiming Priority (16)

Application Number Priority Date Filing Date Title
KR20180019866 2018-02-20
KR10-2018-0019867 2018-02-20
KR10-2018-0019866 2018-02-20
KR10-2018-0019868 2018-02-20
KR20180019867 2018-02-20
KR20180019868 2018-02-20
KR10-2018-0098413 2018-08-23
KR1020180098413A KR102018565B1 (ko) 2018-02-20 2018-08-23 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램
KR1020180135578A KR20190100004A (ko) 2018-02-20 2018-11-07 수술정보 활용 방법 및 장치
KR10-2018-0135578 2018-11-07
KR1020180135590A KR102016959B1 (ko) 2018-02-20 2018-11-07 혈관 모델 생성 방법 및 장치
KR10-2018-0135590 2018-11-07
KR1020180153569A KR102013814B1 (ko) 2018-02-20 2018-12-03 수술영상을 이용한 가상신체모델 생성 방법 및 장치
KR10-2018-0153569 2018-12-03
KR10-2018-0155562 2018-12-05
KR1020180155562A KR102013863B1 (ko) 2018-02-20 2018-12-05 가상 신체 모델 구축 방법 및 프로그램

Publications (1)

Publication Number Publication Date
WO2019164271A1 true WO2019164271A1 (ko) 2019-08-29

Family

ID=67687988

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/002089 WO2019164271A1 (ko) 2018-02-20 2019-02-20 가상신체모델 생성 방법 및 장치

Country Status (1)

Country Link
WO (1) WO2019164271A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021182686A1 (ko) * 2020-03-13 2021-09-16 숭실대학교 산학협력단 가상 객체의 변형에 따른 의료 영상의 변형 방법, 이를 수행하기 위한 기록 매체 및 장치
CN113761776A (zh) * 2021-08-24 2021-12-07 中国人民解放军总医院第一医学中心 基于增强现实的心脏出血与止血模型的仿真系统和方法
CN115798725A (zh) * 2022-10-27 2023-03-14 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法
CN117504170A (zh) * 2023-12-13 2024-02-06 诺克(广州)医疗设备技术有限公司 一种体表复模方法及相关设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046439A (ko) * 2010-11-02 2012-05-10 서울대학교병원 (분사무소) 3d 모델링을 이용한 수술 시뮬레이션 방법 및 자동 수술장치
KR20120111871A (ko) * 2011-03-29 2012-10-11 삼성전자주식회사 3차원적 모델을 이용한 신체 장기의 영상 생성 방법 및 장치
KR20130015146A (ko) * 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
KR20150000450A (ko) * 2011-08-26 2015-01-02 이비엠 가부시키가이샤 혈관혈류 시뮬레이션 시스템, 그 방법 및 컴퓨터 소프트웨어 프로그램
JP2015127965A (ja) * 2015-01-06 2015-07-09 三菱プレシジョン株式会社 手術シミュレーション用モデルの生成方法、手術シミュレーション方法、及び手術シミュレータ
KR101572487B1 (ko) * 2013-08-13 2015-12-02 한국과학기술연구원 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
KR20160118295A (ko) * 2014-02-04 2016-10-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 중재 도구의 가상 항행을 위한 조직의 비강체 변형을 위한 시스템 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046439A (ko) * 2010-11-02 2012-05-10 서울대학교병원 (분사무소) 3d 모델링을 이용한 수술 시뮬레이션 방법 및 자동 수술장치
KR20120111871A (ko) * 2011-03-29 2012-10-11 삼성전자주식회사 3차원적 모델을 이용한 신체 장기의 영상 생성 방법 및 장치
KR20130015146A (ko) * 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
KR20150000450A (ko) * 2011-08-26 2015-01-02 이비엠 가부시키가이샤 혈관혈류 시뮬레이션 시스템, 그 방법 및 컴퓨터 소프트웨어 프로그램
KR101572487B1 (ko) * 2013-08-13 2015-12-02 한국과학기술연구원 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
KR20160118295A (ko) * 2014-02-04 2016-10-11 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 중재 도구의 가상 항행을 위한 조직의 비강체 변형을 위한 시스템 및 방법
JP2015127965A (ja) * 2015-01-06 2015-07-09 三菱プレシジョン株式会社 手術シミュレーション用モデルの生成方法、手術シミュレーション方法、及び手術シミュレータ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021182686A1 (ko) * 2020-03-13 2021-09-16 숭실대학교 산학협력단 가상 객체의 변형에 따른 의료 영상의 변형 방법, 이를 수행하기 위한 기록 매체 및 장치
CN113761776A (zh) * 2021-08-24 2021-12-07 中国人民解放军总医院第一医学中心 基于增强现实的心脏出血与止血模型的仿真系统和方法
CN115798725A (zh) * 2022-10-27 2023-03-14 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法
CN115798725B (zh) * 2022-10-27 2024-03-26 佛山读图科技有限公司 用于核医学的带病灶人体仿真影像数据制作方法
CN117504170A (zh) * 2023-12-13 2024-02-06 诺克(广州)医疗设备技术有限公司 一种体表复模方法及相关设备

Similar Documents

Publication Publication Date Title
WO2019164271A1 (ko) 가상신체모델 생성 방법 및 장치
WO2019164275A1 (ko) 수술도구 및 카메라의 위치 인식 방법 및 장치
WO2018155894A1 (ko) 영상 정합 장치 및 영상 정합 방법
WO2015126189A1 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
WO2011040769A2 (ko) 수술용 영상 처리 장치, 영상 처리 방법, 복강경 조작 방법, 수술 로봇 시스템 및 그 동작 제한 방법
EP3331447A1 (en) Tomography imaging apparatus and method of reconstructing tomography image
WO2017142183A1 (ko) 영상처리장치, 영상처리방법 및 이를 기록한 기록매체
WO2016080813A1 (en) Method and apparatus for processing medical image
WO2017188706A1 (ko) 이동 로봇 및 이동 로봇의 제어방법
WO2015108306A1 (en) Medical image providing apparatus and medical image processing method of the same
WO2019125026A1 (ko) 심혈관 질병 진단 보조 방법 및 장치
EP3107457A1 (en) Tomography apparatus and method of reconstructing a tomography image by the tomography apparatus
WO2015122687A1 (en) Tomography apparatus and method of displaying a tomography image by the tomography apparatus
WO2018048054A1 (ko) 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치
KR20220112246A (ko) 증강 현실을 사용하는 의료 절차
JP5604225B2 (ja) 人体姿勢推定装置、人体姿勢推定方法およびコンピュータプログラム
WO2014200289A2 (en) Apparatus and method for providing medical information
JPWO2020110278A1 (ja) 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
EP3104782A1 (en) Tomography apparatus and method of displaying a tomography image by the tomography apparatus
WO2021187958A1 (ko) 스포츠 플레이어 평가 방법들, 장치들 및 시스템들
WO2012005501A2 (ko) 아바타 생성 방법 및 장치
WO2022103236A1 (ko) 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
EP3280331A1 (en) Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
WO2019164274A1 (ko) 학습데이터 생성 방법 및 장치
WO2022145537A1 (ko) 의료 영상 분석 방법, 의료 영상 분석 장치 및 의료 영상 분석 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19757996

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19757996

Country of ref document: EP

Kind code of ref document: A1