WO2019164278A1 - Method and device for providing surgical information using surgical image - Google Patents

Method and device for providing surgical information using surgical image Download PDF

Info

Publication number
WO2019164278A1
WO2019164278A1 PCT/KR2019/002096 KR2019002096W WO2019164278A1 WO 2019164278 A1 WO2019164278 A1 WO 2019164278A1 KR 2019002096 W KR2019002096 W KR 2019002096W WO 2019164278 A1 WO2019164278 A1 WO 2019164278A1
Authority
WO
WIPO (PCT)
Prior art keywords
surgical
surgery
organ
image
information
Prior art date
Application number
PCT/KR2019/002096
Other languages
French (fr)
Korean (ko)
Inventor
이종혁
형우진
양훈모
김호승
어수행
Original Assignee
(주)휴톰
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180145177A external-priority patent/KR20190100011A/en
Application filed by (주)휴톰 filed Critical (주)휴톰
Publication of WO2019164278A1 publication Critical patent/WO2019164278A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image

Definitions

  • the present invention relates to a method and apparatus for providing surgical information using a surgical image.
  • Laparoscopic surgery refers to surgery performed by medical staff to see and touch the part to be treated.
  • Minimally invasive surgery is also known as keyhole surgery, and laparoscopic surgery and robotic surgery are typical.
  • laparoscopic surgery a small hole is made in a necessary part without opening, and a laparoscopic with a special camera is attached and a surgical tool is inserted into the body and observed through a video monitor.
  • Microsurgery is performed using a laser or a special instrument.
  • robot surgery is to perform minimally invasive surgery using a surgical robot.
  • radiation surgery refers to surgical treatment with radiation or laser light outside the body.
  • the surgical image is obtained during the actual surgery and the surgery is performed based on this. Therefore, it is important to provide the surgical site and various information related thereto through the surgical image acquired during the actual surgery.
  • the problem to be solved by the present invention is to provide a method and apparatus for providing surgical information using a surgical image.
  • the problem to be solved by the present invention is to provide a method and apparatus for estimating the observable organs in the surgical image by identifying the current surgical stage through the surgical image, and providing information on the estimated organs.
  • the problem to be solved by the present invention is to provide a method and apparatus for providing the same simulation environment as the actual progress of the operation through the surgical image.
  • the problem to be solved by the present invention is to provide a method and apparatus for providing information of organs in a more significant surgical image by analyzing the surgical image using deep learning.
  • Surgical information providing method using a surgical image performed by a computer obtaining a surgical image for a specific operation, recognizing the operation step in the specific surgery corresponding to the surgical image Estimating an organ candidate group including at least one organ that can be extracted in the operation step, and specifying an organ region in the surgical image based on a positional relationship between organs in the organ candidate group. do.
  • the step of recognizing the operation step the step of performing the learning based on at least one surgical image of the previous time and the surgical image of the current time point, for the surgical image through the learning Deriving context information, and recognizing a surgery step corresponding to the surgery image among the surgery steps determined for the specific surgery based on the context information on the surgery image.
  • the step of recognizing the operation step when the specific surgery comprises a hierarchical structure including the lowest hierarchy to the highest hierarchy, any one operation operation belonging to a specific hierarchy on the hierarchy It may be recognized as a surgical step corresponding to the surgical image.
  • specifying the organ region in the surgical image learning the positional relationship between the organs in the organ candidate group, calculating the position information of the organs included in the surgical image, And specifying an organ region in which the organ exists in the surgical image based on the location information of the organ.
  • the step of specifying the organ region in the surgical image by learning the texture (texture) information on the organs in the organ candidate population, the texture information of the organs included in the surgical image
  • the method may further include detecting an organ region corresponding to the texture information of the organ in the surgical image based on the calculation and the location information of the organ.
  • the method may further include displaying the specific organ region on the surgical image and providing the same to the user.
  • the virtual body model is The 3D modeling data may be generated based on medical image data photographing the inside of the body of the specific surgery subject.
  • the method may further include generating cue sheet data for the specific surgery by obtaining simulation data.
  • An apparatus includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, wherein the processor executes the one or more instructions to perform a particular operation.
  • a computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium to perform a method for providing surgical information using the surgical image.
  • the present invention it is possible to accurately determine the operation stage in the surgery currently being performed through the surgical image. In addition, it is effective in estimating the observable organs in the surgical image by identifying the current stage of surgery, thereby improving the long-term recognition rate.
  • the present invention it is possible to accurately determine the position and shape of the actual organs through the surgical image.
  • the location and shape of these organs can be used to provide more meaningful information to the medical staff performing the surgery.
  • the present invention by accurately specifying the position and shape of the actual organs through the surgical image it is possible to implement the same simulation environment as the actual operation is in progress.
  • medical staff can perform rehearsal or virtual surgery more accurately and effectively, thereby improving the learning effect of medical staff.
  • FIG. 1 is a schematic diagram of a system capable of performing robot surgery according to an embodiment of the present invention.
  • FIGS. 2 and 3 are flowcharts illustrating a method for providing surgical information using a surgical image according to an embodiment of the present invention.
  • FIG. 4 is an example showing a process of recognizing a surgical step based on a surgical image according to an embodiment of the present invention.
  • FIG. 5 is an example illustrating a process of specifying an organ region in a surgical image based on information about an organ in an organ candidate group according to an embodiment of the present invention.
  • FIG. 6 is a view schematically showing the configuration of an apparatus 200 for performing a method for providing surgical information using a surgical image according to an embodiment of the present invention.
  • a “part” or “module” refers to a hardware component such as software, FPGA, or ASIC, and the “part” or “module” plays certain roles. However, “part” or “module” is not meant to be limited to software or hardware.
  • the “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors.
  • a “part” or “module” may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and “parts” or “modules” may be combined into smaller numbers of components and “parts” or “modules” or into additional components and “parts” or “modules”. Can be further separated.
  • a computer includes all the various devices capable of performing arithmetic processing to provide a result to a user.
  • a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • a head mounted display (HMD) device includes a computing function
  • the HMD device may be a computer.
  • the computer may correspond to a server that receives a request from a client and performs information processing.
  • FIG. 1 is a schematic diagram of a system capable of performing robot surgery according to an embodiment of the present invention.
  • the robotic surgical system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34.
  • the medical imaging apparatus 10 may be omitted in the robot surgery system according to the disclosed embodiment.
  • surgical robot 34 includes imaging device 36 and surgical instrument 38.
  • the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.
  • the server 100 is a computing device including at least one processor and a communication unit.
  • the controller 30 includes a computing device including at least one processor and a communication unit.
  • the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.
  • the imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.
  • the image photographed by the photographing apparatus 36 is displayed on the display 340.
  • surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, fixing, grabbing operations, and the like, of the surgical site.
  • Surgical tool 38 is used in conjunction with the surgical arm of the surgical robot 34.
  • the controller 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.
  • the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.
  • the server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.
  • the controller 30 displays the information received from the server 100 on the display 32 to provide the user, or controls the surgical robot 34 by using the information received from the server 100.
  • the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.
  • the present invention is to provide more meaningful information to the medical staff undergoing surgery by using the surgical image or the surgical data that can be obtained in the surgical process.
  • Computer may mean the server 100 or the controller 30 of FIG. 1, but is not limited thereto and may be used to encompass a device capable of performing computing processing.
  • the computer may be a computing device provided separately from the device shown in FIG. 1.
  • embodiments disclosed below may not be applicable only in connection with the robotic surgery system illustrated in FIG. 1, but may be applied to all kinds of embodiments that may acquire and utilize a surgical image in a surgical procedure.
  • FIGS. 2 and 3 are flowcharts illustrating a method for providing surgical information using a surgical image according to an embodiment of the present invention.
  • obtaining a surgical image for a specific operation (S100)
  • the specific surgery corresponding to the surgical image Recognizing a surgical step in (S200)
  • estimating the organ candidate group including at least one organ that can be extracted in the surgical step (S300)
  • based on the positional relationship between organs in the organ candidate group And specifying an organ region in the surgical image (S400).
  • the computer may acquire a surgical image for a specific surgery (S100).
  • the medical staff may perform the actual surgery on the subject directly, or perform minimally invasive surgery using a laparoscopic or endoscope as well as the surgical robot described in FIG. 1. .
  • the computer may acquire a surgical image photographing a scene including a surgical operation performed in the surgical procedure, a surgical tool related thereto, a surgical site, and the like.
  • the computer may acquire a surgical image photographing a scene including a surgical site and a surgical tool that is currently undergoing surgery from a camera that enters the body of the subject.
  • the surgical image may include one or more image frames.
  • Each image frame may represent a scene in which a surgical operation is performed, including a surgical site, a surgical tool, and the like of a surgical subject.
  • the surgical image may be composed of image frames in which a surgical operation is recorded for each scene (scene) according to time during the surgical procedure.
  • the surgical image may be composed of image frames that record each surgical scene according to the spatial movement such as the surgical site or the position of the camera during the surgery.
  • the computer may recognize a surgical workflow stage in a specific surgical process corresponding to the surgical image acquired in step S100 (S200).
  • the computer may perform learning using deep learning on a surgical image (eg, at least one image frame) acquired during a specific surgical procedure, and the context information of the surgical image through the learning. Can be derived.
  • the computer may recognize a surgery stage corresponding to the surgery image on a specific surgery procedure including at least one surgery stage based on the context information of the surgery image. A detailed process thereof will be described with reference to FIG. 4.
  • FIG. 4 is an example showing a process of recognizing a surgical step based on a surgical image according to an embodiment of the present invention.
  • the computer may learn a surgical image (ie, at least one image frame) acquired at a specific surgery.
  • the computer may perform learning using a convolutional neural network (CNN) for each image frame included in the surgical image (S210). For example, the computer may learn characteristics of the surgical image by inputting each image frame to at least one layer (eg, a convolution layer). As a result of this learning, the computer can infer what each image frame represents or represents.
  • CNN convolutional neural network
  • the computer may perform learning using a recurrent neural network (RNN) on the surgical image (that is, at least one image frame) derived as a result of learning using the CNN (S220).
  • the computer may receive the surgical image in units of frames and learn what the surgical image in the frame means by using an RNN (eg, an LSTM method).
  • RNN eg, an LSTM method
  • the computer receives a surgical image (eg, the first image frame) of the current view and at least one surgical image (eg, the second to nth image frames) of the previous view and uses the RNN (eg, LSTM). Learning may be performed and context information of the surgical image (ie, the first image frame of the current view) of the current view may be derived as the learning result.
  • the context information is information indicating what the surgical image means, and may include information related to a specific surgical operation in the surgical procedure.
  • the computer may recognize the meaning (ie, context information) of the surgery image based on the learning result of the surgery image, and recognize the surgery stage corresponding to the surgery image.
  • the computer may recognize the operation step for each image frame based on the context information for each image frame derived as a learning result of the RNN (S230).
  • the specific surgical process may be composed of at least one surgical step.
  • at least one surgical step may be predefined for each particular surgery.
  • each operation step may be classified according to the time course of a specific operation, or each operation step may be classified to correspond to each operation part based on the operation site.
  • each operation stage may be classified based on the position of the camera or the movement range of the camera during a specific operation, or each operation based on a change (eg, replacement) of a surgical tool during a specific operation.
  • the steps may be categorized.
  • the surgical stages thus classified may be configured in a hierarchical structure.
  • a specific surgical procedure may be classified step by step from the lowest hierarchy (level) to the highest hierarchy (level) to form a hierarchical structure.
  • the lowest layer is composed of the smallest units representing the surgical procedure, and may include a minimum operation operation having a meaning as one minimum operation.
  • the computer may recognize a surgical operation that represents one constant motion pattern as a minimum operation motion such as cutting, grabbing, moving, etc., and configure it as the lowest hierarchy (ie, the lowest surgical step).
  • the computer may be configured in a higher layer by grouping at least one minimal surgery operation according to a specific classification criteria (eg, time course, surgical site, camera movement, change of surgical tool, etc.).
  • the minimum operation can be grouped into one higher layer when it has meaning as a specific operation. have.
  • each minimal surgical operation such as clipping, moving, or cutting is performed continuously, it may be recognized that this is a surgical operation for cutting blood vessels and may be grouped into one higher layer.
  • each minimal surgical operation such as grabbing, lifting, cutting, or kicking is performed in succession, it may be recognized that this is a surgical operation to remove fat and grouped into one higher layer.
  • a hierarchical structure can be finally formed up to the highest hierarchy (ie, the highest surgical stage) of a specific surgical procedure.
  • certain surgical procedures may have a hierarchical structure, such as a tree.
  • the computer can estimate the meaning of the surgical image by deriving context information for each image frame, the computer can recognize the specific operation stage to which the image frame belongs among the predefined operation stages for the specific operation.
  • the recognized specific surgery stage may include a hierarchical layer (eg, first level) hierarchically configured for a specific surgery, and a specific layer (eg, second to nth levels) among the highest hierarchy (n level). It can mean any one of the surgical operation) belonging to any one level. That is, the computer may recognize the operation step belonging to a specific layer on the hierarchical structure of the operation process through the context information for each image frame.
  • the computer may estimate an organ candidate group including at least one organ that may be extracted from the surgery step recognized in step S200 (S300).
  • the specific surgery process may be composed of predetermined surgery steps, and thus, various pieces of information (eg, information about a specific surgery operation, a specific surgery part, a specific surgery tool, a camera position, etc.) may be obtained from each predetermined surgery step. Can be extracted.
  • the computer may extract the organ-organ information observable at each operation stage to generate a long-term candidate group for each operation stage. Alternatively, the computer may obtain a long-term candidate group for each surgery stage that is previously generated.
  • the computer may recognize first to nth surgical steps for each image frame.
  • the computer may extract organs that may be observed at the time of surgery from each of the first to n th surgical steps, and may construct an organ candidate group including the extracted organs for each of the surgical steps.
  • the computer recognizes a k-stage operation (eg, left hepatic artery (LHA) incision stage) from a specific surgical image (k-th image frame), and uses the stomach, liver, and spleen as organs observable in the recognized k-stage operation. It can be estimated and composed of long-term candidate groups.
  • LHA left hepatic artery
  • the computer may specify an organ region in a surgical image (that is, at least one image frame) based on information on at least one organ in the organ candidate population estimated in step S300 (S400).
  • the computer may specify an organ region in the surgical image based on at least one of the positional relationship between organs in the organ candidate population estimated from the operation stage for the surgical image and texture information of the organs. Can be. A detailed process thereof will be described with reference to FIG. 5.
  • FIG. 5 is an example illustrating a process of specifying an organ region in a surgical image based on information about an organ in an organ candidate group according to an embodiment of the present invention.
  • the computer may calculate positional information of at least one organ included in a surgical image by learning a positional relationship between organs in an organ candidate group (S410).
  • the computer may construct a neural network (eg, a backbone network) that includes at least one layer (eg, a convolution layer) to learn the positional relationship between organs in the organ candidate population.
  • a neural network eg, a backbone network
  • the computer may input a surgical image (that is, a specific image frame) and an organ candidate group into the backbone network, and determine the positional relationship between organs in the organ candidate group through learning in the first convolutional layer.
  • the computer may calculate location information of at least one organ included in the surgical image, based on a learning result about the positional relationship between organs in the organ candidate group.
  • the position information of the organ may use coordinate values of a specific point (for example, a center point) among regions where organs are distributed in the surgical image.
  • Each organ has its own fixed position inside the body.
  • location information of organs in the organ candidate group can also be obtained.
  • the computer can perform the learning based on fixed locations of organs in the organ candidate population. That is, organs having a fixed position may be photographed as if they exist in different positions according to the field of view (FOV) of the camera, the angle of the camera, the position of the camera, etc., but the positional relationship between the organs is maintained. do.
  • the computer can learn the spatial topological relationship between organs in the organ candidate group.
  • the computer can recognize the organ placement existing in the surgical image by learning the spatial topological relationships between these organs.
  • the computer may calculate the position information of the organs in the surgical image based on the organ placement.
  • the computer may learn texture information about organs in the organ candidate group to calculate texture information of at least one organ included in the surgical image (S420).
  • the computer may include at least one layer (eg, a convolution layer) in a neural network (eg, a backbone network) to learn texture information about organs in the organ candidate population.
  • a convolution layer e.g., a convolution layer
  • the computer may input a surgical image (ie, a specific image frame) and an organ candidate group into the backbone network, and derive texture information of organs in the organ candidate group through learning in the second convolutional layer.
  • the computer may calculate texture information of at least one organ included in the surgical image based on the learning result of the texture information of the organs in the organ candidate group.
  • the computer may specify an organ region in which an organ exists in the surgical image based on the location information of the organs in the surgical image calculated in step S410, and detect an area corresponding to the texture information of the organ calculated in step S420. S430).
  • the computer recognizes the organ at the location based on the location information of the organs present in the surgical image, and in the surgical image having the same or similar texture information using the texture information calculated for the recognized organs
  • the distribution area can be detected. For example, if the computer calculates position information of three organs (eg, A, B, and C organs) in the surgical image through learning, the computer recognizes the A organ at the position of the A organ in the surgical image. The A organ region matching the texture information of the A organ may be detected in the surgical image based on the texture information of the A organ calculated through learning.
  • the computer can detect the B organ region and the C organ region by repeating the same process for the B organ and the C organ. Thus, the computer can finally specify each organ region in which each organ included in the surgical image is present.
  • the computer may display the specific organ region in the surgical image to provide to the medical staff performing the actual surgery in real time.
  • the computer can specify the organ region present in the surgical image through the steps S100 ⁇ S400, so that the specified organ region It can be displayed on the corresponding surgical image output on the screen. Accordingly, it is possible to more effectively provide meaningful information (important long-term information) through the surgical image in the surgical process.
  • the computer can match the organ region specified in the surgical image on the virtual body model.
  • the computer may perform the simulation based on the long-term region matched on the virtual body model.
  • the virtual body model may be three-dimensional modeling data generated based on medical image data (eg, medical images taken through CT, PET, MRI, etc.) previously photographed inside the body of the patient.
  • the model may be modeled in accordance with the body of the surgical subject, and may be corrected to the same state as the actual surgical state.
  • Medical staff can perform rehearsals or simulations using a virtual body model that is implemented in the same way as the physical state of the subject, and can experience the same state as during the actual surgery.
  • virtual surgery data including rehearsal or simulation behavior for the virtual body model can be obtained.
  • the virtual surgery data may be a virtual surgery image including a surgical site on which a virtual surgery is performed on a virtual body model, or may be data recorded on a surgical operation performed on the virtual body model.
  • the computer can obtain the type of organs present in the surgical image, the location information of the organs, the positional relationship between the organs, the texture information of the organs, etc. Match exactly on the model. This matching enables the same situation in the virtual body model that is currently being performed in a real surgery. Accordingly, the computer may perform simulation by applying surgical tools and surgical operations used in the surgical procedure actually performed by the medical staff based on the matched organ region on the virtual body model. In other words, the simulation can be performed in the same way as the current physical surgery is performed through the virtual body model, and it can play a role of assisting medical staff to perform the surgery more accurately and effectively. In addition, during the re-surgery or learning can be reproduced the same surgical process as the actual surgical situation, thereby improving the learning effect of the medical staff.
  • the computer may acquire simulation data through simulation on a virtual body model, and generate cue sheet data on a corresponding surgical procedure based on the obtained simulation data.
  • the computer may acquire simulation data that records a target surgical site, a surgical tool, a surgical operation, and the like by performing a simulation using a virtual body model.
  • the computer may generate cuesheet data about the actual surgical procedure being performed by the medical staff based on the simulation data containing this record.
  • the cue sheet data may be data consisting of information in which the surgical procedures are arranged in order according to time based on the surgical operation performed at the time of surgery.
  • the cue sheet data may include surgical information on a surgical operation that may be performed as a meaningful surgical operation or a minimum unit.
  • the surgical information may include surgical tool information, surgical site information, surgical operation information, and the like.
  • Such cuesheet data can be used to implement the same surgical operations as the actual surgical procedure, through which can be used to evaluate the operation or to be used as a learning model later.
  • FIG. 6 is a view schematically showing the configuration of an apparatus 200 for performing a method for providing surgical information using a surgical image according to an embodiment of the present invention.
  • the processor 210 may include a connection passage (eg, a bus or the like) that transmits and receives a signal with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
  • a connection passage eg, a bus or the like
  • the processor 210 executes one or more instructions stored in the memory 220 to perform a method of providing surgery information using the surgery image described with reference to FIGS. 2 to 5.
  • the processor 210 acquires a surgical image for a specific surgery by executing one or more instructions stored in the memory 220, recognizing a surgery step in the specific surgery corresponding to the surgical image, Estimating an organ candidate group including at least one organ that can be extracted in a surgical step, and specifying an organ region in the surgical image based on a positional relationship between organs in the organ candidate group. have.
  • the processor 210 is a random access memory (RAM) and a ROM (Read-Only Memory) for temporarily and / or permanently storing signals (or data) processed in the processor 210. , Not shown) may be further included.
  • the processor 210 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.
  • SoC system on chip
  • the memory 220 may store programs (one or more instructions) for processing and controlling the processor 210. Programs stored in the memory 220 may be divided into a plurality of modules according to their functions.
  • the surgical information providing method using the surgical image according to the embodiment of the present invention described above may be implemented as a program (or an application) to be executed by being combined with a computer which is hardware and stored in a medium.
  • the above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program.
  • Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do.
  • the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have.
  • the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.
  • the stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device.
  • examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

A method for providing surgical information using surgical image is provided. The method comprises the steps of: acquiring a surgical image for a specific surgery; recognizing a surgical step in the specific surgery corresponding to the surgical image; estimating a candidate organ group comprising at least one organ which can be extracted in the surgical step; and specifying an organ area in the surgical image on the basis of the positional relationship between organs in the candidate organ group.

Description

수술영상을 이용한 수술정보 제공 방법 및 장치Surgical information provision method and apparatus using surgical images
본 발명은 수술영상을 이용한 수술정보 제공 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for providing surgical information using a surgical image.
의료수술은 개복수술(open surgery), 복강경 수술 및 로봇 수술을 포함하는 최소침습수술(MIS: Minimally Invasive Surgery), 방사선수술(radio surgery) 등으로 분류할 수 있다. 개복수술은 치료되어야 할 부분을 의료진이 직접 보고 만지며 시행하는 수술을 말하며, 최소침습수술은 키홀 수술(keyhole surgery)이라고도 하는데 복강경 수술과 로봇 수술이 대표적이다. 복강경 수술은 개복을 하지 않고 필요한 부분에 작은 구멍을 내어 특수 카메라가 부착된 복강경과 수술 도구를 몸속에 삽입하여 비디오 모니터를 통해서 관측하며 레이저나 특수기구를 이용하여 미세수술을 한다. 또한, 로봇수술은 수술로봇을 이용하여 최소 침습수술을 수행하는 것이다. 나아가 방사선 수술은 체외에서 방사선이나 레이저 광으로 수술 치료를 하는 것을 말한다.Medical surgery can be classified into open surgery, laparoscopic surgery, minimally invasive surgery (MIS) including radio surgery, radio surgery, and the like. Laparoscopic surgery refers to surgery performed by medical staff to see and touch the part to be treated. Minimally invasive surgery is also known as keyhole surgery, and laparoscopic surgery and robotic surgery are typical. In laparoscopic surgery, a small hole is made in a necessary part without opening, and a laparoscopic with a special camera is attached and a surgical tool is inserted into the body and observed through a video monitor. Microsurgery is performed using a laser or a special instrument. In addition, robot surgery is to perform minimally invasive surgery using a surgical robot. Furthermore, radiation surgery refers to surgical treatment with radiation or laser light outside the body.
이러한 의료수술의 경우, 특히 최소침습수술과 같은 경우, 실제 수술시 수술영상을 획득하여 이를 기초로 수술을 수행하게 된다. 따라서, 실제 수술시 획득되는 수술영상을 통해서 수술부위 및 이와 관련된 다양한 정보를 제공하여 주는 것이 중요하다. In the case of such medical surgery, especially in the case of minimally invasive surgery, the surgical image is obtained during the actual surgery and the surgery is performed based on this. Therefore, it is important to provide the surgical site and various information related thereto through the surgical image acquired during the actual surgery.
본 발명이 해결하고자 하는 과제는 수술영상을 이용한 수술정보 제공 방법 및 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide a method and apparatus for providing surgical information using a surgical image.
본 발명이 해결하고자 하는 과제는 수술영상을 통해 현재 수술단계를 파악하여 수술영상 내 관측 가능한 장기들을 추정하고, 추정된 장기들에 대한 정보를 제공하는 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is to provide a method and apparatus for estimating the observable organs in the surgical image by identifying the current surgical stage through the surgical image, and providing information on the estimated organs.
본 발명이 해결하고자 하는 과제는 수술영상을 통해 실제수술이 진행되고 있는 상황과 동일한 시뮬레이션 환경을 제공하여 주는 방법 및 장치를 제공하는 것이다.The problem to be solved by the present invention is to provide a method and apparatus for providing the same simulation environment as the actual progress of the operation through the surgical image.
본 발명이 해결하고자 하는 과제는 딥러닝을 이용한 수술영상 분석을 통해 보다 유의미한 수술영상 내 장기들의 정보를 제공하는 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is to provide a method and apparatus for providing information of organs in a more significant surgical image by analyzing the surgical image using deep learning.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 컴퓨터가 수행하는 수술영상을 이용한 수술정보 제공 방법은, 특정 수술에 대한 수술영상을 획득하는 단계, 상기 수술영상에 대응하는 상기 특정 수술에서의 수술단계를 인식하는 단계, 상기 수술단계에서 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정하는 단계, 및 상기 장기 후보 집단 내 장기 간의 위치 관계를 기초로 상기 수술영상 내에서 장기 영역을 특정하는 단계를 포함한다.Surgical information providing method using a surgical image performed by a computer according to an embodiment of the present invention, obtaining a surgical image for a specific operation, recognizing the operation step in the specific surgery corresponding to the surgical image Estimating an organ candidate group including at least one organ that can be extracted in the operation step, and specifying an organ region in the surgical image based on a positional relationship between organs in the organ candidate group. do.
본 발명의 일 실시예에 있어서, 상기 수술단계를 인식하는 단계는, 이전 시점의 적어도 하나의 수술영상 및 현재 시점의 수술영상을 기초로 학습을 수행하는 단계, 상기 학습을 통해 상기 수술영상에 대한 콘텍스트(context) 정보를 도출하는 단계, 및 상기 수술영상에 대한 콘텍스트 정보를 기초로 상기 특정 수술에 대해 정해진 수술단계들 중 상기 수술영상에 대응하는 수술단계를 인식하는 단계를 포함할 수 있다.In one embodiment of the present invention, the step of recognizing the operation step, the step of performing the learning based on at least one surgical image of the previous time and the surgical image of the current time point, for the surgical image through the learning Deriving context information, and recognizing a surgery step corresponding to the surgery image among the surgery steps determined for the specific surgery based on the context information on the surgery image.
본 발명의 일 실시예에 있어서, 상기 수술단계를 인식하는 단계는, 상기 특정 수술이 최하위 계층부터 최상위 계층까지 포함하는 계층 구조로 이루어진 경우, 상기 계층 구조 상에서 특정 계층에 속하는 어느 하나의 수술동작을 상기 수술영상에 대응하는 수술단계로 인식할 수 있다.In one embodiment of the present invention, the step of recognizing the operation step, when the specific surgery comprises a hierarchical structure including the lowest hierarchy to the highest hierarchy, any one operation operation belonging to a specific hierarchy on the hierarchy It may be recognized as a surgical step corresponding to the surgical image.
본 발명의 일 실시예에 있어서, 상기 수술영상 내에서 장기 영역을 특정하는 단계는, 상기 장기 후보 집단 내 장기 간의 위치 관계를 학습하여, 상기 수술영상 내 포함된 장기의 위치 정보를 산출하는 단계, 및 상기 장기의 위치 정보를 기초로 상기 수술영상 내에서 상기 장기가 존재하는 장기 영역을 특정하는 단계를 포함할 수 있다.In one embodiment of the present invention, specifying the organ region in the surgical image, learning the positional relationship between the organs in the organ candidate group, calculating the position information of the organs included in the surgical image, And specifying an organ region in which the organ exists in the surgical image based on the location information of the organ.
본 발명의 일 실시예에 있어서, 상기 수술영상 내에서 장기 영역을 특정하는 단계는, 상기 장기 후보 집단 내 장기에 대한 텍스처(texture) 정보를 학습하여, 상기 수술영상 내 포함된 장기의 텍스처 정보를 산출하는 단계, 및 상기 장기의 위치 정보를 기초로 상기 수술영상 내에서 상기 장기의 텍스처 정보에 상응하는 장기 영역을 검출하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, the step of specifying the organ region in the surgical image, by learning the texture (texture) information on the organs in the organ candidate population, the texture information of the organs included in the surgical image The method may further include detecting an organ region corresponding to the texture information of the organ in the surgical image based on the calculation and the location information of the organ.
본 발명의 일 실시예에 있어서, 상기 수술영상에 상기 특정된 장기 영역을 표시하여 사용자에게 제공하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, the method may further include displaying the specific organ region on the surgical image and providing the same to the user.
본 발명의 일 실시예에 있어서, 가상신체모델 상에서 상기 특정된 장기 영역을 매칭하는 단계, 및 상기 가상신체모델 상에서 매칭된 상기 장기 영역을 기초로 시뮬레이션하는 단계를 더 포함하며, 상기 가상신체모델은, 상기 특정 수술 대상자의 신체내부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터일 수 있다.In one embodiment of the present invention, further comprising the step of matching the specified organ region on the virtual body model, and simulating based on the matched organ region on the virtual body model, the virtual body model is The 3D modeling data may be generated based on medical image data photographing the inside of the body of the specific surgery subject.
본 발명의 일 실시예에 있어서, 상기 시뮬레이션하는 단계는, 상기 가상신체모델 상에서 매칭된 상기 장기 영역을 기초로 상기 특정 수술시에 사용되는 수술도구 및 수술동작을 적용하여 시뮬레이션하되, 상기 시뮬레이션을 통해 시뮬레이션 데이터를 획득하여 상기 특정 수술에 대한 큐시트데이터를 생성하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, the step of simulating, by applying the surgical instruments and surgical operations used during the specific surgery based on the matched organ region on the virtual body model, but through the simulation The method may further include generating cue sheet data for the specific surgery by obtaining simulation data.
본 발명의 일 실시예에 따른 장치는, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 특정 수술에 대한 수술영상을 획득하는 단계, 상기 수술영상에 대응하는 상기 특정 수술에서의 수술단계를 인식하는 단계, 상기 수술단계에서 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정하는 단계, 및 상기 장기 후보 집단 내 장기 간의 위치 관계를 기초로 상기 수술영상 내에서 장기 영역을 특정하는 단계를 수행한다.An apparatus according to an embodiment of the present invention includes a memory for storing one or more instructions, and a processor for executing the one or more instructions stored in the memory, wherein the processor executes the one or more instructions to perform a particular operation. Obtaining a surgical image for the patient, recognizing a surgical step in the specific surgery corresponding to the surgical image, estimating an organ candidate group including at least one organ that can be extracted in the surgical step, and Specifying an organ region in the surgical image based on the positional relationship between organs in the organ candidate population.
본 발명의 일 실시예에 따른 컴퓨터프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 수술영상을 이용한 수술정보 제공 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다. A computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium to perform a method for providing surgical information using the surgical image.
본 발명에 따르면, 수술영상을 통해 현재 행해지고 있는 수술에서의 수술단계를 정확하게 파악할 수 있다. 또한, 현재 수술단계를 파악함으로써 수술영상 내 관측 가능한 장기들을 추정하는데 효과적이고, 이로 인해 장기 인식률을 향상시킬 수 있다. According to the present invention, it is possible to accurately determine the operation stage in the surgery currently being performed through the surgical image. In addition, it is effective in estimating the observable organs in the surgical image by identifying the current stage of surgery, thereby improving the long-term recognition rate.
본 발명에 따르면, 수술영상을 통해 실제 장기들의 위치 및 모양을 정확하게 파악할 수 있다. 또한, 이러한 장기들의 위치 및 모양을 활용하여 실제 수술을 수행하는 의료진들에게 보다 의미있는 정보를 제공해 줄 수 있다. According to the present invention, it is possible to accurately determine the position and shape of the actual organs through the surgical image. In addition, the location and shape of these organs can be used to provide more meaningful information to the medical staff performing the surgery.
본 발명에 따르면, 수술영상을 통해 실제 장기들의 위치 및 모양을 정확하게 특정함으로써 실제수술이 진행되고 있는 상황과 동일한 시뮬레이션 환경을 구현해 낼 수 있다. 또한, 실제수술 과정과 동일한 시뮬레이션 환경을 구현함으로써 의료진들에게 보다 정확하고 효과적으로 리허설 또는 가상수술을 수행할 수 있도록 하며, 이를 통해 의료진들의 학습효과를 향상시킬 수 있다. According to the present invention, by accurately specifying the position and shape of the actual organs through the surgical image it is possible to implement the same simulation environment as the actual operation is in progress. In addition, by implementing the same simulation environment as the actual operation process, medical staff can perform rehearsal or virtual surgery more accurately and effectively, thereby improving the learning effect of medical staff.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.1 is a schematic diagram of a system capable of performing robot surgery according to an embodiment of the present invention.
도 2 및 도 3은 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법을 설명하기 위해 도시한 흐름도이다.2 and 3 are flowcharts illustrating a method for providing surgical information using a surgical image according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 수술영상을 기초로 수술단계를 인식하는 과정을 나타낸 일례이다.4 is an example showing a process of recognizing a surgical step based on a surgical image according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 장기 후보 집단 내의 장기에 대한 정보를 기초로 수술영상에서의 장기 영역을 특정하는 과정을 나타낸 일례이다.5 is an example illustrating a process of specifying an organ region in a surgical image based on information about an organ in an organ candidate group according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법을 수행하는 장치(200)의 구성을 개략적으로 나타내는 도면이다.6 is a view schematically showing the configuration of an apparatus 200 for performing a method for providing surgical information using a surgical image according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component such as software, FPGA, or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.
본 명세서에서 "컴퓨터"는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 헤드마운트 디스플레이(Head Mounted Display; HMD) 장치가 컴퓨팅 기능을 포함하는 경우, HMD장치가 컴퓨터가 될 수 있다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버가 해당될 수 있다.As used herein, the term "computer" includes all the various devices capable of performing arithmetic processing to provide a result to a user. For example, a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable. In addition, when a head mounted display (HMD) device includes a computing function, the HMD device may be a computer. Also, the computer may correspond to a server that receives a request from a client and performs information processing.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따라 로봇수술을 수행할 수 있는 시스템을 간략하게 도식화한 도면이다.1 is a schematic diagram of a system capable of performing robot surgery according to an embodiment of the present invention.
도 1에 따르면, 로봇수술 시스템은 의료영상 촬영장비(10), 서버(100) 및 수술실에 구비된 제어부(30), 디스플레이(32) 및 수술로봇(34)을 포함한다. 실시 예에 따라서, 의료영상 촬영장비(10)는 개시된 실시 예에 따른 로봇수술 시스템에서 생략될 수 있다.According to FIG. 1, the robotic surgical system includes a medical imaging apparatus 10, a server 100, a control unit 30 provided in an operating room, a display 32, and a surgical robot 34. According to an embodiment, the medical imaging apparatus 10 may be omitted in the robot surgery system according to the disclosed embodiment.
일 실시 예에서, 수술로봇(34)은 촬영장치(36) 및 수술도구(38)를 포함한다.In one embodiment, surgical robot 34 includes imaging device 36 and surgical instrument 38.
일 실시 예에서, 로봇수술은 사용자가 제어부(30)를 이용하여 수술용 로봇(34)을 제어함으로써 수행된다. 일 실시 예에서, 로봇수술은 사용자의 제어 없이 제어부(30)에 의하여 자동으로 수행될 수도 있다.In one embodiment, the robot surgery is performed by the user controlling the surgical robot 34 using the control unit 30. In one embodiment, the robot surgery may be automatically performed by the controller 30 without the user's control.
서버(100)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치이다.The server 100 is a computing device including at least one processor and a communication unit.
제어부(30)는 적어도 하나의 프로세서와 통신부를 포함하는 컴퓨팅 장치를 포함한다. 일 실시 예에서, 제어부(30)는 수술용 로봇(34)을 제어하기 위한 하드웨어 및 소프트웨어 인터페이스를 포함한다.The controller 30 includes a computing device including at least one processor and a communication unit. In one embodiment, the control unit 30 includes hardware and software interfaces for controlling the surgical robot 34.
촬영장치(36)는 적어도 하나의 이미지 센서를 포함한다. 즉, 촬영장치(36)는 적어도 하나의 카메라 장치를 포함하여, 대상체, 즉 수술부위를 촬영하는 데 이용된다. 일 실시 예에서, 촬영장치(36)는 수술로봇(34)의 수술 암(arm)과 결합된 적어도 하나의 카메라를 포함한다.The imaging device 36 includes at least one image sensor. That is, the imaging device 36 includes at least one camera device and is used to photograph an object, that is, a surgical site. In one embodiment, the imaging device 36 includes at least one camera coupled with a surgical arm of the surgical robot 34.
일 실시 예에서, 촬영장치(36)에서 촬영된 영상은 디스플레이(340)에 표시된다.In an embodiment, the image photographed by the photographing apparatus 36 is displayed on the display 340.
일 실시 예에서, 수술로봇(34)은 수술부위의 절단, 클리핑, 고정, 잡기 동작 등을 수행할 수 있는 하나 이상의 수술도구(38)를 포함한다. 수술도구(38)는 수술로봇(34)의 수술 암과 결합되어 이용된다.In one embodiment, surgical robot 34 includes one or more surgical tools 38 that can perform cutting, clipping, fixing, grabbing operations, and the like, of the surgical site. Surgical tool 38 is used in conjunction with the surgical arm of the surgical robot 34.
제어부(30)는 서버(100)로부터 수술에 필요한 정보를 수신하거나, 수술에 필요한 정보를 생성하여 사용자에게 제공한다. 예를 들어, 제어부(30)는 생성 또는 수신된, 수술에 필요한 정보를 디스플레이(32)에 표시한다.The controller 30 receives information necessary for surgery from the server 100 or generates information necessary for surgery and provides the information to the user. For example, the controller 30 displays the information necessary for surgery, generated or received, on the display 32.
예를 들어, 사용자는 디스플레이(32)를 보면서 제어부(30)를 조작하여 수술로봇(34)의 움직임을 제어함으로써 로봇수술을 수행한다.For example, the user performs the robot surgery by controlling the movement of the surgical robot 34 by manipulating the control unit 30 while looking at the display 32.
서버(100)는 의료영상 촬영장비(10)로부터 사전에 촬영된 대상체의 의료영상데이터를 이용하여 로봇수술에 필요한 정보를 생성하고, 생성된 정보를 제어부(30)에 제공한다. The server 100 generates information necessary for robotic surgery using medical image data of an object previously photographed from the medical image photographing apparatus 10, and provides the generated information to the controller 30.
제어부(30)는 서버(100)로부터 수신된 정보를 디스플레이(32)에 표시함으로써 사용자에게 제공하거나, 서버(100)로부터 수신된 정보를 이용하여 수술로봇(34)을 제어한다.The controller 30 displays the information received from the server 100 on the display 32 to provide the user, or controls the surgical robot 34 by using the information received from the server 100.
일 실시 예에서, 의료영상 촬영장비(10)에서 사용될 수 있는 수단은 제한되지 않으며, 예를 들어 CT, X-Ray, PET, MRI 등 다른 다양한 의료영상 획득수단이 사용될 수 있다. In one embodiment, the means that can be used in the medical imaging apparatus 10 is not limited, for example, other various medical image acquisition means such as CT, X-Ray, PET, MRI may be used.
상술한 바와 같이, 로봇수술을 수행할 경우 수술 과정에서 촬영된 수술영상 또는 수술로봇의 제어과정에서 다양한 수술정보를 포함하는 데이터를 획득할 수 있다. 이와 같이, 본 발명에서는 수술과정에서 획득할 수 있는 수술영상이나 수술데이터를 활용하여 수술을 진행하고 있는 의료진들에게 보다 의미있는 정보를 제공하고자 한다. As described above, when performing a robot operation, it is possible to obtain data including various surgical information in the surgical image taken during the surgical procedure or the control of the surgical robot. As described above, the present invention is to provide more meaningful information to the medical staff undergoing surgery by using the surgical image or the surgical data that can be obtained in the surgical process.
이하에서는 설명의 편의를 위해 "컴퓨터"가 본 명세서에서 개시되는 실시예에 따른 수술영상을 이용한 수술정보 제공 방법을 수행하는 것으로 설명한다. "컴퓨터"는 도 1의 서버(100) 또는 제어부(30)를 의미할 수 있으나, 이에 한정되는 것은 아니고 컴퓨팅 처리를 수행할 수 있는 장치를 포괄하는 의미로 사용될 수 있다. 예를 들어, 컴퓨터는 도 1에 도시된 장치와는 별도로 구비된 컴퓨팅 장치일 수도 있다. Hereinafter, for convenience of description, a "computer" will be described as performing a surgical information providing method using a surgical image according to an exemplary embodiment disclosed herein. "Computer" may mean the server 100 or the controller 30 of FIG. 1, but is not limited thereto and may be used to encompass a device capable of performing computing processing. For example, the computer may be a computing device provided separately from the device shown in FIG. 1.
또한, 이하에서 개시되는 실시예들은 도 1에 도시된 로봇수술 시스템과 연관되어서만 적용될 수 있는 것은 아니고, 수술과정에서 수술영상을 획득하고 이를 활용할 수 있는 모든 종류의 실시예들에 적용될 수 있다. In addition, the embodiments disclosed below may not be applicable only in connection with the robotic surgery system illustrated in FIG. 1, but may be applied to all kinds of embodiments that may acquire and utilize a surgical image in a surgical procedure.
도 2 및 도 3은 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법을 설명하기 위해 도시한 흐름도이다. 2 and 3 are flowcharts illustrating a method for providing surgical information using a surgical image according to an embodiment of the present invention.
도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법은, 특정 수술에 대한 수술영상을 획득하는 단계(S100), 상기 수술영상에 대응하는 상기 특정 수술에서의 수술단계를 인식하는 단계(S200), 상기 수술단계에서 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정하는 단계(S300), 및 상기 장기 후보 집단 내 장기 간의 위치 관계를 기초로 상기 수술영상 내에서 장기 영역을 특정하는 단계(S400)를 포함할 수 있다. 이하, 각 단계에 대한 상세한 설명을 기재한다.2 and 3, in the surgical information providing method using a surgical image according to an embodiment of the present invention, obtaining a surgical image for a specific operation (S100), the specific surgery corresponding to the surgical image Recognizing a surgical step in (S200), estimating the organ candidate group including at least one organ that can be extracted in the surgical step (S300), and based on the positional relationship between organs in the organ candidate group And specifying an organ region in the surgical image (S400). Hereinafter, a detailed description of each step will be described.
컴퓨터는 특정 수술에 대한 수술영상을 획득할 수 있다(S100).The computer may acquire a surgical image for a specific surgery (S100).
수술 대상자에 대해 특정 수술을 수행할 경우, 의료진들은 수술 대상자에 대해 직접 실제수술을 수행할 수도 있고, 도 1에서 설명한 바와 같은 수술로봇을 비롯하여 복강경이나 내시경 등을 이용한 최소침습수술을 수행할 수도 있다. When performing a specific surgery on the subject, the medical staff may perform the actual surgery on the subject directly, or perform minimally invasive surgery using a laparoscopic or endoscope as well as the surgical robot described in FIG. 1. .
이때, 컴퓨터는 수술과정에서 행해진 수술동작 및 이와 관련된 수술도구, 수술부위 등을 포함하는 장면을 촬영한 수술영상을 획득할 수 있다. 일 실시예로, 컴퓨터는 수술 대상자의 신체내부로 진입한 카메라로부터 현재 수술이 행해지고 있는 수술부위 및 수술도구를 포함하는 장면을 촬영한 수술영상을 획득할 수 있다. In this case, the computer may acquire a surgical image photographing a scene including a surgical operation performed in the surgical procedure, a surgical tool related thereto, a surgical site, and the like. In an embodiment, the computer may acquire a surgical image photographing a scene including a surgical site and a surgical tool that is currently undergoing surgery from a camera that enters the body of the subject.
수술영상은 하나 이상의 영상프레임들을 포함할 수 있다. 각 영상프레임은 수술 대상자의 수술부위, 수술도구 등을 포함하여 수술동작을 행하고 있는 하나의 장면을 나타낼 수 있다. 예를 들어, 수술영상은 수술과정에서 시간에 따른 수술동작을 각 장면(씬; scene)별로 기록한 영상프레임들로 구성될 수 있다. 또는 수술영상은 수술과정에서 수술부위나 카메라의 위치 등과 같은 공간상의 이동에 따라 각 수술장면을 기록한 영상프레임들로 구성될 수도 있다. The surgical image may include one or more image frames. Each image frame may represent a scene in which a surgical operation is performed, including a surgical site, a surgical tool, and the like of a surgical subject. For example, the surgical image may be composed of image frames in which a surgical operation is recorded for each scene (scene) according to time during the surgical procedure. Alternatively, the surgical image may be composed of image frames that record each surgical scene according to the spatial movement such as the surgical site or the position of the camera during the surgery.
컴퓨터는 단계 S100에서 획득된 수술영상에 대응하는 특정 수술과정에서의 수술단계(surgical workflow stage)를 인식할 수 있다(S200).The computer may recognize a surgical workflow stage in a specific surgical process corresponding to the surgical image acquired in step S100 (S200).
일 실시예로, 컴퓨터는 특정 수술과정에서 획득된 수술영상(예컨대, 적어도 하나의 영상프레임)에 대해 딥러닝을 이용하여 학습을 수행할 수 있고, 학습을 통해 수술영상에 대한 콘텍스트(context) 정보를 도출할 수 있다. 또한, 컴퓨터는 수술영상에 대한 콘텍스트 정보를 기초로 적어도 하나의 수술단계으로 이루어진 특정 수술과정 상에서 해당 수술영상에 대응하는 수술단계를 인식할 수 있다. 이에 대한 구체적인 과정은 도 4를 참조하여 설명하도록 한다. In one embodiment, the computer may perform learning using deep learning on a surgical image (eg, at least one image frame) acquired during a specific surgical procedure, and the context information of the surgical image through the learning. Can be derived. In addition, the computer may recognize a surgery stage corresponding to the surgery image on a specific surgery procedure including at least one surgery stage based on the context information of the surgery image. A detailed process thereof will be described with reference to FIG. 4.
도 4는 본 발명의 일 실시예에 따른 수술영상을 기초로 수술단계를 인식하는 과정을 나타낸 일례이다. 4 is an example showing a process of recognizing a surgical step based on a surgical image according to an embodiment of the present invention.
도 4를 참조하면, 컴퓨터는 특정 수술시에 획득한 수술영상(즉, 적어도 하나의 영상프레임)을 학습시킬 수 있다. Referring to FIG. 4, the computer may learn a surgical image (ie, at least one image frame) acquired at a specific surgery.
일 실시예로, 먼저 컴퓨터는 수술영상에 포함된 각 영상프레임에 대해 CNN(Convolutional Neural Network)을 이용하여 학습을 수행할 수 있다(S210). 예를 들어, 컴퓨터는 적어도 하나의 레이어(예: convolution layer)에 각 영상프레임을 입력하여 수술영상의 특징들을 학습시킬 수 있다. 컴퓨터는 이러한 학습 결과로 각 영상프레임이 무엇을 나타내는 것인지 또는 어떤 것을 대표하는지를 유추할 수 있다. In an embodiment, first, the computer may perform learning using a convolutional neural network (CNN) for each image frame included in the surgical image (S210). For example, the computer may learn characteristics of the surgical image by inputting each image frame to at least one layer (eg, a convolution layer). As a result of this learning, the computer can infer what each image frame represents or represents.
다음으로 컴퓨터는 CNN을 이용한 학습 결과로 도출된 수술영상(즉, 적어도 하나의 영상프레임)에 대해 RNN(Recurrent neural network)을 이용하여 학습을 수행할 수 있다(S220). 일 실시예로, 컴퓨터는 수술영상을 프레임단위로 입력받아 RNN(예컨대, LSTM 방식)을 이용하여 해당 프레임에서의 수술영상이 무엇을 의미하는지에 대해서 학습할 수 있다. 예를 들어, 컴퓨터는 현재 시점의 수술영상(예컨대, 제1 영상프레임) 및 이전 시점의 적어도 하나의 수술영상(예컨대, 제2 내지 제n 영상프레임)을 입력받아 RNN(예컨대, LSTM)을 이용한 학습을 수행하고, 학습 결과로서 현재 시점의 수술영상(즉, 현재 시점의 제1 영상프레임)에 대한 콘텍스트 정보를 도출할 수 있다. 여기서, 콘텍스트 정보는 수술영상이 무엇을 의미하는지를 나타내는 정보로서, 수술과정에서 특정 수술동작과 관련된 정보를 포함할 수 있다. Next, the computer may perform learning using a recurrent neural network (RNN) on the surgical image (that is, at least one image frame) derived as a result of learning using the CNN (S220). In an embodiment, the computer may receive the surgical image in units of frames and learn what the surgical image in the frame means by using an RNN (eg, an LSTM method). For example, the computer receives a surgical image (eg, the first image frame) of the current view and at least one surgical image (eg, the second to nth image frames) of the previous view and uses the RNN (eg, LSTM). Learning may be performed and context information of the surgical image (ie, the first image frame of the current view) of the current view may be derived as the learning result. Here, the context information is information indicating what the surgical image means, and may include information related to a specific surgical operation in the surgical procedure.
컴퓨터는 수술영상에 대한 학습 결과를 기초로 수술영상에 대한 의미(즉, 콘텍스트 정보)를 파악하여, 해당 수술영상에 대응하는 수술단계를 인식할 수 있다. 일 실시예로, 컴퓨터는 RNN의 학습 결과로 도출된 각 영상프레임에 대한 콘텍스트 정보를 기초로 각 영상프레임에 대한 수술단계를 인식할 수 있다(S230). The computer may recognize the meaning (ie, context information) of the surgery image based on the learning result of the surgery image, and recognize the surgery stage corresponding to the surgery image. In one embodiment, the computer may recognize the operation step for each image frame based on the context information for each image frame derived as a learning result of the RNN (S230).
이때, 특정 수술과정은 적어도 하나의 수술단계들로 구성될 수 있다. 일 실시예로, 적어도 하나의 수술단계들은 각 특정 수술마다 미리 정의되어 있을 수도 있다. 예를 들어, 특정 수술이 진행되는 시간 경과에 따라 각 수술단계들을 분류한 것일 수도 있고, 수술부위를 기준으로 각 수술부위에 대응하도록 각 수술단계들을 분류한 것일 수도 있다. 또는, 특정 수술이 진행되는 동안 카메라의 위치나 카메라의 이동 범위를 기준으로 각 수술단계들을 분류한 것일 수도 있고, 특정 수술이 진행되는 동안 수술도구의 변화(예컨대, 교체 등)를 기준으로 각 수술단계들을 분류한 것일 수도 있다. At this time, the specific surgical process may be composed of at least one surgical step. In one embodiment, at least one surgical step may be predefined for each particular surgery. For example, each operation step may be classified according to the time course of a specific operation, or each operation step may be classified to correspond to each operation part based on the operation site. Alternatively, each operation stage may be classified based on the position of the camera or the movement range of the camera during a specific operation, or each operation based on a change (eg, replacement) of a surgical tool during a specific operation. The steps may be categorized.
또한, 이와 같이 분류된 수술단계들은 계층적인 구조로 구성될 수 있다. 일 실시예로, 특정 수술과정은 최하위 계층(레벨)부터 최상위 계층(레벨)까지 단계적으로 분류하여 계층 구조를 형성할 수 있다. 여기서, 최하위 계층은 수술과정을 나타내는 가장 작은 단위들로 구성되며, 하나의 최소 동작으로서 의미를 가지는 최소수술동작을 포함할 수 있다. 예를 들어, 컴퓨터는 자르기, 잡기, 이동 등과 같이 하나의 일정한 동작 패턴을 나타내는 수술동작을 최소수술동작으로 인식하고 이를 최하위 계층(즉, 최하위 수술단계)로 구성할 수 있다. 또한, 컴퓨터는 특정한 분류 기준(예컨대, 시간 경과, 수술부위, 카메라의 이동, 수술도구의 변화 등)에 따라 적어도 하나의 최소수술동작을 그룹화하여 상위 계층으로 구성할 수 있다. 예를 들어, 수술도구의 잡기, 이동, 자르기 등을 나타내는 각 최소수술동작이 소정의 순서로 수행되고 이러한 소정의 순서를 연결하면 특정한 동작으로서 의미를 가질 때, 이를 하나의 상위 계층으로 그룹화할 수 있다. 다른 예로, 클리핑, 이동, 자르기 등의 각 최소수술동작이 연속적으로 수행되는 경우, 이는 혈관을 자르는 수술동작이라는 것을 인식하고 이를 하나의 상위 계층으로 그룹화할 수 있다. 또 다른 예로, 잡기, 들어올리기, 자르기, 걷어내기 등의 각 최소수술동작이 연속적으로 수행되는 경우, 이는 지방을 걷어내는 수술동작이라는 것을 인식하고 이를 하나의 상위 계층으로 그룹화할 수 있다. 이와 같이, 하위 계층의 수술동작들(즉, 하위 수술단계들)로부터 특정한 의미를 가지는 상위의 수술동작(즉, 상위 수술단계)으로 인식되는 경우, 이를 상위 계층으로 분류할 수 있고 이러한 과정을 반복적으로 수행할 수 있다. 따라서, 최종적으로 특정 수술과정의 최상위 계층(즉, 최상위 수술단계)까지 계층 구조를 형성할 수 있다. 예컨대, 특정 수술과정은 트리 형태와 같은 계층 구조를 가질 수 있다. In addition, the surgical stages thus classified may be configured in a hierarchical structure. In one embodiment, a specific surgical procedure may be classified step by step from the lowest hierarchy (level) to the highest hierarchy (level) to form a hierarchical structure. Here, the lowest layer is composed of the smallest units representing the surgical procedure, and may include a minimum operation operation having a meaning as one minimum operation. For example, the computer may recognize a surgical operation that represents one constant motion pattern as a minimum operation motion such as cutting, grabbing, moving, etc., and configure it as the lowest hierarchy (ie, the lowest surgical step). In addition, the computer may be configured in a higher layer by grouping at least one minimal surgery operation according to a specific classification criteria (eg, time course, surgical site, camera movement, change of surgical tool, etc.). For example, when each of the minimum surgery operations indicating grabbing, moving, cutting, and the like of a surgical tool is performed in a predetermined order, and the predetermined order is connected, the minimum operation can be grouped into one higher layer when it has meaning as a specific operation. have. As another example, when each minimal surgical operation such as clipping, moving, or cutting is performed continuously, it may be recognized that this is a surgical operation for cutting blood vessels and may be grouped into one higher layer. As another example, when each minimal surgical operation such as grabbing, lifting, cutting, or kicking is performed in succession, it may be recognized that this is a surgical operation to remove fat and grouped into one higher layer. As such, when it is recognized as an upper operation operation (ie, an upper operation step) having a specific meaning from lower operation procedures (that is, lower operation steps), it may be classified into a higher layer and this process may be repeated. It can be done with Thus, a hierarchical structure can be finally formed up to the highest hierarchy (ie, the highest surgical stage) of a specific surgical procedure. For example, certain surgical procedures may have a hierarchical structure, such as a tree.
즉, 컴퓨터는 각 영상프레임에 대한 콘텍스트 정보를 도출함으로써 수술영상이 의미하는 바를 추정할 수 있기 때문에, 특정 수술에 대해 미리 정의된 수술단계들 중에서 해당 영상프레임이 속하는 특정 수술단계를 인식할 수 있다. 이때, 인식된 특정 수술단계는 특정 수술에 대해 계층적으로 구성된 최하위 계층(예: 제1 레벨)부터 최상위 계층(제n 레벨) 중에서 특정 계층(예: 제2 레벨 내지 제(n-1) 레벨 중 어느 하나의 레벨)에 속하는 어느 하나의 수술동작을 의미할 수 있다. 즉, 컴퓨터는 각 영상프레임에 대한 콘텍스트 정보를 통해 수술과정의 계층 구조 상에서 특정 계층에 속하는 수술단계를 인식할 수 있다.That is, since the computer can estimate the meaning of the surgical image by deriving context information for each image frame, the computer can recognize the specific operation stage to which the image frame belongs among the predefined operation stages for the specific operation. . In this case, the recognized specific surgery stage may include a hierarchical layer (eg, first level) hierarchically configured for a specific surgery, and a specific layer (eg, second to nth levels) among the highest hierarchy (n level). It can mean any one of the surgical operation) belonging to any one level. That is, the computer may recognize the operation step belonging to a specific layer on the hierarchical structure of the operation process through the context information for each image frame.
다시 도 2 및 도 3을 참조하면, 컴퓨터는 단계 S200에서 인식된 수술단계로부터 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정할 수 있다(S300). Referring back to FIGS. 2 and 3, the computer may estimate an organ candidate group including at least one organ that may be extracted from the surgery step recognized in step S200 (S300).
상술한 바와 같이, 특정 수술과정은 미리 정해진 수술단계들로 구성될 수 있으므로, 미리 정해진 각 수술단계로부터 여러가지 정보(예컨대, 특정 수술동작, 특정 수술부위, 특정 수술도구, 카메라 위치 등에 대한 정보)를 추출할 수 있다. 일 실시예로, 컴퓨터는 각 수술단계에서 관측 가능한 신체장기 정보를 추출하여 각 수술단계마다 장기 후보 집단을 생성할 수 있다. 또는, 컴퓨터는 미리 생성되어 있는 각 수술단계별 장기 후보 집단을 획득할 수도 있다. As described above, the specific surgery process may be composed of predetermined surgery steps, and thus, various pieces of information (eg, information about a specific surgery operation, a specific surgery part, a specific surgery tool, a camera position, etc.) may be obtained from each predetermined surgery step. Can be extracted. In one embodiment, the computer may extract the organ-organ information observable at each operation stage to generate a long-term candidate group for each operation stage. Alternatively, the computer may obtain a long-term candidate group for each surgery stage that is previously generated.
예를 들어, 도 3에 도시된 것처럼, 컴퓨터는 각 영상프레임에 대해 제1 수술단계 내지 제n 수술단계를 인식할 수 있다. 이때, 컴퓨터는 제1 수술단계 내지 제n 수술단계 각각으로부터 수술시에 관측될 수 있는 장기들을 추출하고, 각 수술단계마다 상기 추출된 장기들을 포함하는 장기 후보 집단을 구성할 수 있다. 예컨대, 컴퓨터는 특정 수술영상(제k 영상프레임)으로부터 제k 수술단계(예컨대, 좌간동맥(LHA) 절개 단계)를 인식하고, 인식된 제k 수술단계에서 관측 가능한 장기로 위, 간, 비장을 추정하여 이를 장기 후보 집단으로 구성할 수 있다. For example, as shown in FIG. 3, the computer may recognize first to nth surgical steps for each image frame. In this case, the computer may extract organs that may be observed at the time of surgery from each of the first to n th surgical steps, and may construct an organ candidate group including the extracted organs for each of the surgical steps. For example, the computer recognizes a k-stage operation (eg, left hepatic artery (LHA) incision stage) from a specific surgical image (k-th image frame), and uses the stomach, liver, and spleen as organs observable in the recognized k-stage operation. It can be estimated and composed of long-term candidate groups.
컴퓨터는 단계 S300에서 추정된 장기 후보 집단 내 적어도 하나의 장기에 대한 정보를 기초로 수술영상(즉, 적어도 하나의 영상프레임) 내에서 장기 영역을 특정할 수 있다(S400).The computer may specify an organ region in a surgical image (that is, at least one image frame) based on information on at least one organ in the organ candidate population estimated in step S300 (S400).
일 실시예로, 컴퓨터는 해당 수술영상에 대한 수술단계로부터 추정된 장기 후보 집단 내 장기들 간의 위치 관계 및 장기들의 텍스처(texture) 정보 중 적어도 하나를 기초로 해당 수술영상 내에서 장기 영역을 특정할 수 있다. 이에 대한 구체적인 과정은 도 5를 참조하여 설명하도록 한다. In one embodiment, the computer may specify an organ region in the surgical image based on at least one of the positional relationship between organs in the organ candidate population estimated from the operation stage for the surgical image and texture information of the organs. Can be. A detailed process thereof will be described with reference to FIG. 5.
도 5는 본 발명의 일 실시예에 따른 장기 후보 집단 내의 장기에 대한 정보를 기초로 수술영상에서의 장기 영역을 특정하는 과정을 나타낸 일례이다. 5 is an example illustrating a process of specifying an organ region in a surgical image based on information about an organ in an organ candidate group according to an embodiment of the present invention.
도 5를 참조하면, 컴퓨터는 장기 후보 집단 내 장기들 간의 위치 관계를 학습하여, 수술영상 내 포함된 적어도 하나의 장기의 위치 정보를 산출할 수 있다(S410).Referring to FIG. 5, the computer may calculate positional information of at least one organ included in a surgical image by learning a positional relationship between organs in an organ candidate group (S410).
일 실시예로, 컴퓨터는 장기 후보 집단 내 장기들 간의 위치 관계를 학습하기 위해 적어도 하나의 레이어(예: convolution layer)를 포함하는 신경망 네트워크(예컨대, 백본(backbone) 네트워크)를 구성할 수 있다. 예를 들어, 컴퓨터는 백본 네트워크에 수술영상(즉, 특정 영상프레임) 및 장기 후보 집단을 입력하고, 이를 제1 컨볼루션 레이어에서 학습을 통해 장기 후보 집단 내 장기들 간의 위치 관계를 파악할 수 있다. 컴퓨터는 장기 후보 집단 내 장기들 간의 위치 관계에 대한 학습 결과를 기초로, 수술영상 내 포함된 적어도 하나의 장기의 위치 정보를 산출할 수 있다. 여기서, 장기의 위치 정보는, 수술영상 내 장기가 분포되어 있는 영역 중 특정 지점(예컨대, 중심점)의 좌표값을 이용할 수 있다.In one embodiment, the computer may construct a neural network (eg, a backbone network) that includes at least one layer (eg, a convolution layer) to learn the positional relationship between organs in the organ candidate population. For example, the computer may input a surgical image (that is, a specific image frame) and an organ candidate group into the backbone network, and determine the positional relationship between organs in the organ candidate group through learning in the first convolutional layer. The computer may calculate location information of at least one organ included in the surgical image, based on a learning result about the positional relationship between organs in the organ candidate group. Here, the position information of the organ may use coordinate values of a specific point (for example, a center point) among regions where organs are distributed in the surgical image.
각 장기는 신체내부에서 각각 그 위치가 고정되어 존재한다. 또한, 장기 후보 집단 내 포함된 장기들의 종류를 알 수 있기 때문에, 장기 후보 집단 내 장기들의 위치 정보 역시 획득할 수 있다. 따라서, 컴퓨터는 장기 후보 집단 내 장기들의 고정된 위치를 기초로 학습을 수행할 수 있다. 즉, 고정된 위치를 갖는 장기들은 카메라의 시야 범위(FOV; Field of view), 카메라의 각도, 카메라의 위치 등에 따라서 서로 상이한 위치에 존재하는 것처럼 촬영될 수는 있으나, 장기들 간의 위치 관계는 유지된다. 다시 말해, 장기들 간의 공간적 위상 관계는 그대로 유지되므로, 컴퓨터는 장기 후보 집단 내 장기들 간의 공간적 위상 관계를 학습할 수 있다. 컴퓨터는 이러한 장기들 간의 공간적 위상 관계를 학습함으로써 수술영상 내 존재하는 장기 배치를 인식할 수 있다. 또한, 컴퓨터는 이러한 장기 배치를 기초로 수술영상 내 장기들의 위치 정보를 산출할 수 있다. Each organ has its own fixed position inside the body. In addition, since the types of organs included in the organ candidate group can be known, location information of organs in the organ candidate group can also be obtained. Thus, the computer can perform the learning based on fixed locations of organs in the organ candidate population. That is, organs having a fixed position may be photographed as if they exist in different positions according to the field of view (FOV) of the camera, the angle of the camera, the position of the camera, etc., but the positional relationship between the organs is maintained. do. In other words, since the spatial topological relationship between organs is maintained, the computer can learn the spatial topological relationship between organs in the organ candidate group. The computer can recognize the organ placement existing in the surgical image by learning the spatial topological relationships between these organs. In addition, the computer may calculate the position information of the organs in the surgical image based on the organ placement.
컴퓨터는 장기 후보 집단 내 장기들에 대한 텍스처 정보를 학습하여, 수술영상 내 포함된 적어도 하나의 장기의 텍스처 정보를 산출할 수 있다(S420). The computer may learn texture information about organs in the organ candidate group to calculate texture information of at least one organ included in the surgical image (S420).
일 실시예로, 컴퓨터는 장기 후보 집단 내 장기들에 대한 텍스처 정보를 학습하기 위해 신경망 네트워크(예컨대, 백본(backbone) 네트워크) 내 적어도 하나의 레이어(예: convolution layer)를 포함할 수 있다. 예를 들어, 컴퓨터는 백본 네트워크에 수술영상(즉, 특정 영상프레임) 및 장기 후보 집단을 입력하고, 이를 제2 컨볼루션 레이어에서 학습을 통해 장기 후보 집단 내 장기들의 텍스처 정보를 도출할 수 있다. 컴퓨터는 장기 후보 집단 내 장기들의 텍스처 정보에 대한 학습 결과를 기초로, 수술영상 내 포함된 적어도 하나의 장기에 대한 텍스처 정보를 산출할 수 있다. In one embodiment, the computer may include at least one layer (eg, a convolution layer) in a neural network (eg, a backbone network) to learn texture information about organs in the organ candidate population. For example, the computer may input a surgical image (ie, a specific image frame) and an organ candidate group into the backbone network, and derive texture information of organs in the organ candidate group through learning in the second convolutional layer. The computer may calculate texture information of at least one organ included in the surgical image based on the learning result of the texture information of the organs in the organ candidate group.
컴퓨터는 단계 S410에서 산출된 수술영상 내 장기들의 위치 정보를 기초로 수술영상 내에서 장기가 존재하는 장기 영역을 특정하되, 단계 S420에서 산출된 장기의 텍스처 정보에 상응하는 영역을 검출할 수 있다(S430).The computer may specify an organ region in which an organ exists in the surgical image based on the location information of the organs in the surgical image calculated in step S410, and detect an area corresponding to the texture information of the organ calculated in step S420. S430).
일 실시예로, 컴퓨터는 수술영상 내 존재하는 장기들의 위치 정보를 기초로 해당 위치에서의 장기를 인식하고, 인식된 장기에 대해 산출된 텍스처 정보를 이용하여 동일하거나 유사한 텍스처 정보를 가지는 수술영상 내 분포 영역을 검출할 수 있다. 예를 들어, 컴퓨터가 학습을 통해 수술영상 내 3개의 장기(예컨대, A, B, C 장기)에 대한 위치 정보를 산출한 경우, 컴퓨터는 수술영상 내 A 장기에 대한 위치에서 A 장기를 인식하고, 학습을 통해 산출된 A 장기의 텍스처 정보를 기초로 수술영상 내에서 A 장기의 텍스처 정보와 매칭되는 A 장기 영역을 검출할 수 있다. 또한, 컴퓨터는 B 장기, C 장기에 대해서도 동일한 과정을 반복하여 B 장기 영역, C 장기 영역을 검출할 수 있다. 따라서, 컴퓨터는 최종적으로 수술영상 내 포함된 각 장기가 존재하고 있는 각 장기 영역을 특정할 수 있다. In one embodiment, the computer recognizes the organ at the location based on the location information of the organs present in the surgical image, and in the surgical image having the same or similar texture information using the texture information calculated for the recognized organs The distribution area can be detected. For example, if the computer calculates position information of three organs (eg, A, B, and C organs) in the surgical image through learning, the computer recognizes the A organ at the position of the A organ in the surgical image. The A organ region matching the texture information of the A organ may be detected in the surgical image based on the texture information of the A organ calculated through learning. In addition, the computer can detect the B organ region and the C organ region by repeating the same process for the B organ and the C organ. Thus, the computer can finally specify each organ region in which each organ included in the surgical image is present.
상술한 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법에 따르면, 컴퓨터는 수술영상 내에서 특정된 장기 영역을 표시하여 실제수술을 수행하고 있는 의료진들에게 실시간으로 제공할 수 있다. 예를 들어, 실제수술과정에서 의료진들에게 제공되는 화면 상에 수술영상이 출력되는 경우, 컴퓨터는 상기 단계 S100 ~ S400을 거쳐 수술영상 내에 존재하는 장기 영역을 특정할 수 있으므로 이때 특정된 장기 영역을 화면 상에 출력되는 해당 수술영상에 표시할 수 있다. 이에 따라, 수술과정에서 수술영상을 통해 의미있는 정보(중요한 장기 정보)를 보다 효과적으로 제공할 수 있다. According to the surgical information providing method using the surgical image according to an embodiment of the present invention described above, the computer may display the specific organ region in the surgical image to provide to the medical staff performing the actual surgery in real time. For example, when the surgical image is output on the screen provided to the medical staff during the actual surgery, the computer can specify the organ region present in the surgical image through the steps S100 ~ S400, so that the specified organ region It can be displayed on the corresponding surgical image output on the screen. Accordingly, it is possible to more effectively provide meaningful information (important long-term information) through the surgical image in the surgical process.
또한, 컴퓨터는 수술영상 내에서 특정된 장기 영역을 가상신체모델 상에 매칭할 수 있다. 그리고, 컴퓨터는 가상신체모델 상에 매칭된 장기 영역을 기초로 시뮬레이션을 수행할 수 있다. In addition, the computer can match the organ region specified in the surgical image on the virtual body model. In addition, the computer may perform the simulation based on the long-term region matched on the virtual body model.
여기서, 가상신체모델이라 함은, 사전에 수술 대상자의 신체내부를 촬영한 의료영상데이터(예: CT, PET, MRI 등을 통해 촬영된 의료영상)를 기반으로 생성된 3차원 모델링 데이터일 수 있다. 예컨대, 수술 대상자의 신체와 부합하게 모델링된 것으로서, 실제수술 상태와 동일한 상태로 보정된 것일 수도 있다. 의료진들은 수술 대상자의 신체 상태와 동일하게 구현된 가상신체모델을 이용하여 리허설 또는 시뮬레이션을 수행할 수 있고, 이를 통해 실제수술 시와 동일한 상태를 경험할 수 있다. 또한 가상신체모델을 이용한 가상수술을 수행할 경우, 가상신체모델에 대한 리허설 또는 시뮬레이션 행위를 포함하는 가상수술데이터를 획득할 수 있다. 예컨대, 가상수술데이터는 가상신체모델 상에 가상수술을 수행한 수술부위를 포함하는 가상수술영상일 수도 있고, 가상신체모델 상에 수행된 수술동작에 대해 기록된 데이터일 수도 있다.Here, the virtual body model may be three-dimensional modeling data generated based on medical image data (eg, medical images taken through CT, PET, MRI, etc.) previously photographed inside the body of the patient. . For example, the model may be modeled in accordance with the body of the surgical subject, and may be corrected to the same state as the actual surgical state. Medical staff can perform rehearsals or simulations using a virtual body model that is implemented in the same way as the physical state of the subject, and can experience the same state as during the actual surgery. In addition, when performing a virtual surgery using a virtual body model, virtual surgery data including rehearsal or simulation behavior for the virtual body model can be obtained. For example, the virtual surgery data may be a virtual surgery image including a surgical site on which a virtual surgery is performed on a virtual body model, or may be data recorded on a surgical operation performed on the virtual body model.
일 실시예로, 컴퓨터는 수술영상 내 존재하는 장기의 종류, 장기의 위치 정보, 장기 간의 위치 관계, 장기의 텍스처 정보 등을 획득할 수 있으므로, 이러한 정보를 기초로 수술영상 내의 해당 장기들을 가상신체모델 상에서 정확하게 매칭시킬 수 있다. 이러한 매칭을 통해 현재 실제수술을 수행하고 있는 것과 동일한 상황을 가상신체모델 내 구현할 수 있다. 따라서, 컴퓨터는 가상신체모델 상에 매칭된 장기 영역을 기초로 의료진들에 의해 실제 행해지고 있는 수술과정에서 사용되는 수술도구 및 수술동작을 적용하여 시뮬레이션을 수행할 수 있다. 즉, 가상신체모델을 통해 현재 실제수술을 수행하고 있는 것과 동일하게 시뮬레이션을 수행할 수 있기 때문에, 의료진들에게 보다 정확하고 효과적으로 수술을 수행할 수 있도록 보조하는 역할을 할 수 있다. 또한, 재수술 시나 학습 시에 실제 수술상황과 동일한 수술과정을 재현할 수 있고, 이를 통해 의료진들의 학습효과를 향상시킬 수 있다. In one embodiment, the computer can obtain the type of organs present in the surgical image, the location information of the organs, the positional relationship between the organs, the texture information of the organs, etc. Match exactly on the model. This matching enables the same situation in the virtual body model that is currently being performed in a real surgery. Accordingly, the computer may perform simulation by applying surgical tools and surgical operations used in the surgical procedure actually performed by the medical staff based on the matched organ region on the virtual body model. In other words, the simulation can be performed in the same way as the current physical surgery is performed through the virtual body model, and it can play a role of assisting medical staff to perform the surgery more accurately and effectively. In addition, during the re-surgery or learning can be reproduced the same surgical process as the actual surgical situation, thereby improving the learning effect of the medical staff.
또한, 컴퓨터는 가상신체모델 상에서의 시뮬레이션을 통해 시뮬레이션 데이터를 획득하고, 획득된 시뮬레이션 데이터를 기초로 해당 수술과정에 대한 큐시트데이터를 생성할 수 있다. In addition, the computer may acquire simulation data through simulation on a virtual body model, and generate cue sheet data on a corresponding surgical procedure based on the obtained simulation data.
일 실시예로, 컴퓨터는 가상신체모델을 이용하여 시뮬레이션을 수행함으로써 시뮬레이션 대상 수술부위, 수술도구, 수술동작 등을 기록한 시뮬레이션 데이터를 획득할 수 있다. 컴퓨터는 이러한 기록을 포함하고 있는 시뮬레이션 데이터를 기초로 의료진들에 의해 행해지고 있는 실제 수술과정에 대한 큐시트데이터를 생성할 수도 있다. In an embodiment, the computer may acquire simulation data that records a target surgical site, a surgical tool, a surgical operation, and the like by performing a simulation using a virtual body model. The computer may generate cuesheet data about the actual surgical procedure being performed by the medical staff based on the simulation data containing this record.
여기서, 큐시트데이터라 함은, 수술시에 행해진 수술동작을 기초로 수술과정을 시간에 따라 순서대로 나열한 정보로 구성된 데이터일 수 있다. 일 실시예로, 큐시트데이터는 의미있는 수술동작 혹은 최소의 단위로서 행해질 수 있는 수술동작에 대한 수술정보를 포함할 수 있다. 이때, 수술정보는 수술도구 정보, 수술부위 정보, 수술동작 정보 등을 포함할 수 있다. Here, the cue sheet data may be data consisting of information in which the surgical procedures are arranged in order according to time based on the surgical operation performed at the time of surgery. In one embodiment, the cue sheet data may include surgical information on a surgical operation that may be performed as a meaningful surgical operation or a minimum unit. In this case, the surgical information may include surgical tool information, surgical site information, surgical operation information, and the like.
이와 같은 큐시트데이터를 통해 실제 수술과정과 동일한 수술동작들을 구현해 낼 수 있고, 이를 통해 해당 수술에 대한 평가를 하거나 차후 학습 모델로 사용될 수 있다. 또한 큐시트데이터를 이용하여 반복적으로 수술과정을 재현할 수 있고, 또한 이를 통해 동일하거나 유사한 실제 수술 시에 효과적으로 활용될 수 있다.Such cuesheet data can be used to implement the same surgical operations as the actual surgical procedure, through which can be used to evaluate the operation or to be used as a learning model later. In addition, it is possible to repeatedly reproduce the surgical process using the cue sheet data, and through this it can be effectively utilized in the same or similar actual surgery.
도 6은 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법을 수행하는 장치(200)의 구성을 개략적으로 나타내는 도면이다. 6 is a view schematically showing the configuration of an apparatus 200 for performing a method for providing surgical information using a surgical image according to an embodiment of the present invention.
도 6을 참조하면, 프로세서(210)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Referring to FIG. 6, the processor 210 may include a connection passage (eg, a bus or the like) that transmits and receives a signal with one or more cores (not shown) and a graphic processor (not shown) and / or other components. ) May be included.
일 실시예에 따른 프로세서(210)는 메모리(220)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 2 내지 도 5와 관련하여 설명된 수술영상을 이용한 수술정보 제공 방법을 수행한다.The processor 210 according to an embodiment executes one or more instructions stored in the memory 220 to perform a method of providing surgery information using the surgery image described with reference to FIGS. 2 to 5.
일례로, 프로세서(210)는 메모리(220)에 저장된 하나 이상의 인스트럭션을 실행함으로써 특정 수술에 대한 수술영상을 획득하는 단계, 상기 수술영상에 대응하는 상기 특정 수술에서의 수술단계를 인식하는 단계, 상기 수술단계에서 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정하는 단계, 및 상기 장기 후보 집단 내 장기 간의 위치 관계를 기초로 상기 수술영상 내에서 장기 영역을 특정하는 단계를 수행할 수 있다. In one example, the processor 210 acquires a surgical image for a specific surgery by executing one or more instructions stored in the memory 220, recognizing a surgery step in the specific surgery corresponding to the surgical image, Estimating an organ candidate group including at least one organ that can be extracted in a surgical step, and specifying an organ region in the surgical image based on a positional relationship between organs in the organ candidate group. have.
한편, 프로세서(210)는 프로세서(210) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(210)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.On the other hand, the processor 210 is a random access memory (RAM) and a ROM (Read-Only Memory) for temporarily and / or permanently storing signals (or data) processed in the processor 210. , Not shown) may be further included. In addition, the processor 210 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.
메모리(220)에는 프로세서(210)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(220)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 220 may store programs (one or more instructions) for processing and controlling the processor 210. Programs stored in the memory 220 may be divided into a plurality of modules according to their functions.
이상에서 전술한 본 발명의 일 실시예에 따른 수술영상을 이용한 수술정보 제공 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The surgical information providing method using the surgical image according to the embodiment of the present invention described above may be implemented as a program (or an application) to be executed by being combined with a computer which is hardware and stored in a medium.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program. Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do. In addition, the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have. Also, if the processor of the computer needs to communicate with any other computer or server remotely in order to execute the functions, the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. Software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may realize the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (10)

  1. 컴퓨터가 수행하는 수술영상을 이용한 수술정보 제공 방법에 있어서,In the surgical information providing method using a surgical image performed by a computer,
    특정 수술에 대한 수술영상을 획득하는 단계;Obtaining a surgical image for a specific surgery;
    상기 수술영상에 대응하는 상기 특정 수술에서의 수술단계를 인식하는 단계;Recognizing a surgery step in the specific surgery corresponding to the surgery image;
    상기 수술단계에서 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정하는 단계; 및Estimating an organ candidate group including at least one organ that can be extracted in the surgery step; And
    상기 장기 후보 집단 내 장기 간의 위치 관계를 기초로 상기 수술영상 내에서 장기 영역을 특정하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. And specifying an organ region in the surgical image based on the positional relationship between the organs in the organ candidate group.
  2. 제1항에 있어서,The method of claim 1,
    상기 수술단계를 인식하는 단계는,Recognizing the operation step,
    이전 시점의 적어도 하나의 수술영상 및 현재 시점의 수술영상을 기초로 학습을 수행하는 단계;Performing learning based on at least one surgical image of a previous time and a surgical image of a current time;
    상기 학습을 통해 상기 수술영상에 대한 콘텍스트(context) 정보를 도출하는 단계; 및Deriving context information on the surgical image through the learning; And
    상기 수술영상에 대한 콘텍스트 정보를 기초로 상기 특정 수술에 대해 정해진 수술단계들 중 상기 수술영상에 대응하는 수술단계를 인식하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. And recognizing a surgery stage corresponding to the surgery image among the surgery stages determined for the specific surgery based on the context information on the surgery image.
  3. 제2항에 있어서,The method of claim 2,
    상기 수술단계를 인식하는 단계는,Recognizing the operation step,
    상기 특정 수술이 최하위 계층부터 최상위 계층까지 포함하는 계층 구조로 이루어진 경우, 상기 계층 구조 상에서 특정 계층에 속하는 어느 하나의 수술동작을 상기 수술영상에 대응하는 수술단계로 인식하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법.When the specific surgery has a hierarchical structure including the lowest hierarchy to the highest hierarchy, a surgical image characterized in that any one operation operation belonging to a specific hierarchy on the hierarchy is recognized as a surgical step corresponding to the surgical image. Surgical information provided method.
  4. 제1항에 있어서,The method of claim 1,
    상기 수술영상 내에서 장기 영역을 특정하는 단계는,The step of specifying the organ region in the surgical image,
    상기 장기 후보 집단 내 장기 간의 위치 관계를 학습하여, 상기 수술영상 내 포함된 장기의 위치 정보를 산출하는 단계; 및Calculating positional information of organs included in the surgical image by learning a positional relationship between organs in the organ candidate group; And
    상기 장기의 위치 정보를 기초로 상기 수술영상 내에서 상기 장기가 존재하는 장기 영역을 특정하는 단계를 포함하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. And specifying an organ region in which the organ exists in the surgical image based on the location information of the organ.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 수술영상 내에서 장기 영역을 특정하는 단계는,The step of specifying the organ region in the surgical image,
    상기 장기 후보 집단 내 장기에 대한 텍스처(texture) 정보를 학습하여, 상기 수술영상 내 포함된 장기의 텍스처 정보를 산출하는 단계; 및Calculating texture information of organs included in the surgical image by learning texture information of organs in the organ candidate population; And
    상기 장기의 위치 정보를 기초로 상기 수술영상 내에서 상기 장기의 텍스처 정보에 상응하는 장기 영역을 검출하는 단계를 더 포함하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. And detecting an organ region corresponding to texture information of the organ in the surgical image based on the location information of the organ.
  6. 제1항에 있어서,The method of claim 1,
    상기 수술영상에 상기 특정된 장기 영역을 표시하여 사용자에게 제공하는 단계를 더 포함하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. Surgical information providing method using a surgical image further comprising the step of providing to the user by displaying the specified organ region on the surgical image.
  7. 제1항에 있어서,The method of claim 1,
    가상신체모델 상에서 상기 특정된 장기 영역을 매칭하는 단계; 및Matching the specified organ region on a virtual body model; And
    상기 가상신체모델 상에서 매칭된 상기 장기 영역을 기초로 시뮬레이션하는 단계를 더 포함하며,Simulating based on the matched organ region on the virtual body model,
    상기 가상신체모델은,The virtual body model,
    상기 특정 수술 대상자의 신체내부를 촬영한 의료영상데이터를 기반으로 생성된 3D 모델링 데이터인 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. Surgical information providing method using the surgical image, characterized in that the 3D modeling data generated based on the medical image data taken inside the body of the specific surgery target.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 시뮬레이션하는 단계는,The simulating step,
    상기 가상신체모델 상에서 매칭된 상기 장기 영역을 기초로 상기 특정 수술시에 사용되는 수술도구 및 수술동작을 적용하여 시뮬레이션하되,Based on the matched organ region on the virtual body model is simulated by applying the surgical instruments and surgical operations used during the specific surgery,
    상기 시뮬레이션을 통해 시뮬레이션 데이터를 획득하여 상기 특정 수술에 대한 큐시트데이터를 생성하는 단계를 더 포함하는 것을 특징으로 하는 수술영상을 이용한 수술정보 제공 방법. Surgical information providing method using the surgical image further comprises the step of obtaining the simulation data through the simulation to generate the cue sheet data for the specific surgery.
  9. 하나 이상의 인스트럭션을 저장하는 메모리; 및Memory for storing one or more instructions; And
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하며,A processor for executing the one or more instructions stored in the memory,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,The processor executes the one or more instructions,
    특정 수술에 대한 수술영상을 획득하는 단계;Obtaining a surgical image for a specific surgery;
    상기 수술영상에 대응하는 상기 특정 수술에서의 수술단계를 인식하는 단계;Recognizing a surgery step in the specific surgery corresponding to the surgery image;
    상기 수술단계에서 추출될 수 있는 적어도 하나의 장기를 포함하는 장기 후보 집단을 추정하는 단계; 및Estimating an organ candidate group including at least one organ that can be extracted in the surgery step; And
    상기 장기 후보 집단 내 장기 간의 위치 관계를 기초로 상기 수술영상 내에서 장기 영역을 특정하는 단계를 수행하는 것을 특징으로 하는 장치.And specifying an organ region in the surgical image based on a positional relationship between organs in the organ candidate population.
  10. 하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program, coupled to a computer, which is hardware, stored on a recording medium readable by a computer so as to perform the method of claim 1.
PCT/KR2019/002096 2018-02-20 2019-02-20 Method and device for providing surgical information using surgical image WO2019164278A1 (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR20180019867 2018-02-20
KR20180019866 2018-02-20
KR20180019868 2018-02-20
KR10-2018-0019866 2018-02-20
KR10-2018-0019867 2018-02-20
KR10-2018-0019868 2018-02-20
KR10-2018-0145177 2018-11-22
KR1020180145177A KR20190100011A (en) 2018-02-20 2018-11-22 Method and apparatus for providing surgical information using surgical video

Publications (1)

Publication Number Publication Date
WO2019164278A1 true WO2019164278A1 (en) 2019-08-29

Family

ID=67687855

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/002096 WO2019164278A1 (en) 2018-02-20 2019-02-20 Method and device for providing surgical information using surgical image

Country Status (1)

Country Link
WO (1) WO2019164278A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106834A (en) * 2009-03-24 2010-10-04 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR20120126679A (en) * 2011-05-12 2012-11-21 주식회사 이턴 Control method of surgical robot system, recording medium thereof, and surgical robot system
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery
US20170039709A1 (en) * 2012-03-08 2017-02-09 Olympus Corporation Image processing device, information storage device, and image processing method
KR20180006622A (en) * 2015-06-09 2018-01-18 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Search for video content in a medical context

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106834A (en) * 2009-03-24 2010-10-04 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR20120126679A (en) * 2011-05-12 2012-11-21 주식회사 이턴 Control method of surgical robot system, recording medium thereof, and surgical robot system
US20170039709A1 (en) * 2012-03-08 2017-02-09 Olympus Corporation Image processing device, information storage device, and image processing method
KR101302595B1 (en) * 2012-07-03 2013-08-30 한국과학기술연구원 System and method for predict to surgery progress step
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery
KR20180006622A (en) * 2015-06-09 2018-01-18 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Search for video content in a medical context

Similar Documents

Publication Publication Date Title
KR20190100011A (en) Method and apparatus for providing surgical information using surgical video
WO2019132168A1 (en) System for learning surgical image data
WO2019132169A1 (en) Method, apparatus, and program for surgical image playback control
KR102146672B1 (en) Program and method for providing feedback about result of surgery
WO2019132244A1 (en) Method for generating surgical simulation information and program
WO2021006472A1 (en) Multiple bone density displaying method for establishing implant procedure plan, and image processing device therefor
WO2021206517A1 (en) Intraoperative vascular navigation method and system
WO2021162355A1 (en) Method and apparatus for providing guide data for intravascular medical tool insertion device
WO2020032562A2 (en) Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same
WO2019164277A1 (en) Method and device for evaluating bleeding by using surgical image
WO2021206518A1 (en) Method and system for analyzing surgical procedure after surgery
WO2019164273A1 (en) Method and device for predicting surgery time on basis of surgery image
WO2021054700A1 (en) Method for providing tooth lesion information, and device using same
WO2018221816A1 (en) Method for determining whether examinee is infected by microorganism and apparatus using the same
WO2020159276A1 (en) Surgical analysis apparatus, and system, method, and program for analyzing and recognizing surgical image
WO2019164278A1 (en) Method and device for providing surgical information using surgical image
WO2020145455A1 (en) Augmented reality-based virtual training simulator system for cardiovascular system surgical procedure, and method therefor
WO2023136695A1 (en) Apparatus and method for generating virtual lung model of patient
WO2022119347A1 (en) Method, apparatus, and recording medium for analyzing coronary plaque tissue through ultrasound image-based deep learning
Hosp et al. States of confusion: Eye and head tracking reveal surgeons’ confusion during arthroscopic surgery
WO2022108387A1 (en) Method and device for generating clinical record data
WO2022181919A1 (en) Device and method for providing virtual reality-based operation environment
WO2021149918A1 (en) Bone age estimation method and apparatus
WO2021015490A2 (en) Method and device for analyzing specific area of image
WO2021162181A1 (en) Method and apparatus for training machine learning model for determining operation of medical tool control device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19757641

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19757641

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1202A DATED 15.02.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19757641

Country of ref document: EP

Kind code of ref document: A1