WO2016192671A1 - Intra operative tracking method - Google Patents

Intra operative tracking method Download PDF

Info

Publication number
WO2016192671A1
WO2016192671A1 PCT/CN2016/084732 CN2016084732W WO2016192671A1 WO 2016192671 A1 WO2016192671 A1 WO 2016192671A1 CN 2016084732 W CN2016084732 W CN 2016084732W WO 2016192671 A1 WO2016192671 A1 WO 2016192671A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional image
patient
dimensional model
coordinate system
surgical pathway
Prior art date
Application number
PCT/CN2016/084732
Other languages
French (fr)
Inventor
Chieh Hsiao CHEN
Kuan Ju WANG
Original Assignee
Chen Chieh Hsiao
Wang Kuan Ju
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chen Chieh Hsiao, Wang Kuan Ju filed Critical Chen Chieh Hsiao
Priority to KR1020177000511A priority Critical patent/KR101933132B1/en
Priority to DK16802594.8T priority patent/DK3145420T3/en
Priority to EP16802594.8A priority patent/EP3145420B8/en
Priority to JP2017504784A priority patent/JP6334052B2/en
Priority to CA2949797A priority patent/CA2949797C/en
Priority to CN201680002970.2A priority patent/CN106794044B/en
Publication of WO2016192671A1 publication Critical patent/WO2016192671A1/en
Priority to HRP20201646TT priority patent/HRP20201646T1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Prostheses (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Electrotherapy Devices (AREA)

Abstract

One example method to determine an actual surgical pathway of a patient based on a planned surgical pathway may include retrieve a first two-dimensional image (301) of the patient associated with information collected at a first point in time (block 210). A first coordinate system (380') describes a spatial relationship between the patient and an apparatus in an operating room. The method further includes modifying a three-dimensional model (302) of the patient including the planned surgical pathway with a first set of modification parameter values. A second coordinate system (380) describes the three-dimensional model (302) constructed by information collected at a second point in time earlier than the first point in time (block 220). The method further includes retrieving a second two-dimensional image (303) from the modified three-dimensional model (302') (block 260), computing a first correlation between the first two-dimensional image (301) and the second two-dimensional image (303) (block 270); and transforming the planned surgical pathway to the first coordinate system (380') based on the first set of modification parameter values to identify the actual surgical pathway (block 290).

Description

INTRAOPERATIVE TRACKING METHOD
CROSS REFERENCE TO RELATED APPLICATION
The present disclosure claims the benefit of priority of the United States Provisional Application No. 62/171,245, filed June 5, 2015, entitled ″A METHOD OF BRAIN NAVIGATION GUIDANCE. ″ The provisional application, including any appendices or attachments therefore, is hereby incorporated by reference in its entirety.
FIELD OF THE DISCLOSURE
The present disclosure relates to intraoperative tracking approaches, and more particularly to approaches to determine a surgical pathway.
BACKGROUND
Common brain diseases, such as brain tumors, Parkinson′s disease, and epilepsy, not only adversely affect the patients′quality of life but sometimes can also directly contribute to the patients′death. Invasive surgical procedures are usually performed after conservative treatments, such as medication or physical therapy that fails to relieve the patients′symptoms.
Generally, a surgeon may plan a surgical pathway to reach a targeted surgical site based on certain pre-operative data. However, the planned pathway may need to be altered due to changed conditions that occur after the collection of the pre-operative data. Some example of the changed conditions include a change of the patient’s position on the operating table, a change in the patient’s physiological condition, or the insertion of the surgical instrument itself. Any deviation from the pre-operative planned pathway often leads to further complications or an increased mortality rate.
SUMMARY
In accordance with one embodiment of the present disclosure, a method to determine an actual surgical pathway of a patient based on a planned surgical pathway is disclosed. The method includes retrieving a first two-dimensional image of the patient associated with information collected at a first point in time, modifying  a three-dimensional model of the patient including the planned surgical pathway with a first set of modification parameter values, retrieving a second two-dimensional image from the modified three-dimensional model, and computing a first correlation between the first two-dimensional image and the second two-dimensional image. A first coordinate system may describe a spatial relationship between the patient and an apparatus in an operating room. A second coordinate system may describe the three-dimensional model, which may be constructed by information collected at a second point in time earlier than the first point in time. In response to the first correlation exceeding a threshold, the method further includes transforming the planned surgical pathway in the second coordinate system to the first coordinate system based on the first set of modification parameter values to identify the actual surgical pathway.
In accordance with another embodiment of the present disclosure, a non-transitory computer-readable storage medium is disclosed. The non-transitory computer-readable storage medium may contain a set of executable instructions. In response to execution by a processor in one of one or more surgical system, the processor is configured to retrieve a first two-dimensional image of the patient associated with information collected at a first point in time, modify a three-dimensional model of the patient including the planned surgical pathway with a first set of modification parameter values, retrieve a second two-dimensional image from the modified three-dimensional model, and compute a first correlation between the first two-dimensional image and the second two-dimensional image. A first coordinate system may describe a spatial relationship between the patient and an apparatus in an operating room. A second coordinate system may describe the three-dimensional model, which may be constructed by information collected at a second point in time earlier than the first point in time. In response to the first correlation exceeding a threshold, the processor is configured to transform the planned surgical pathway in the second coordinate system to the first coordinate system based on the first set of modification parameter values to identify the actual surgical pathway.
In accordance with other embodiments of the present disclosure, a surgical system configured to determine an actual surgical pathway of a patient based on a  planned surgical pathway is disclosed. The surgical system may include a storage system, a robotic arm, an image collection apparatus, and a processor. The processor may be configured to retrieve a first two-dimensional image of the patient associated with information collected by the image collection apparatus at a first point in time from the storage system, modify a three-dimensional model of the patient including the planned surgical pathway with a first set of modification parameter values, retrieve a second two-dimensional image from the modified three-dimensional model from the storage system, and compute a first correlation between the first two-dimensional image and the second two-dimensional image. A first coordinate system may describe a spatial relationship between the patient and the robotic arm. A second coordinate system may describe the three-dimensional model, which is constructed by information collected at a second point in time earlier than the first point in time. In response to the first correlation exceeding a threshold, the processor is configured to transform the planned surgical pathway in the second coordinate system to the first coordinate system based on the first set of modification parameter values to identify the actual surgical pathway, and instruct the robotic arm to perform the surgery based on the actual surgical pathway.
The foregoing summary is illustrative only and is not intended to be in any way limiting. In addition to the illustrative aspects, embodiments, and features described above, further aspects, embodiments, and features will become apparent by reference to the drawings and the following detailed description.
BRIEF DESCRIPTION OF THE DRAWINGS
Fig. 1A is an example figure showing the spatial relationships among several points that may be encountered during an operation;
Fig. 1B is an example block diagram showing the configuration of a surgical guiding and positioning system;
Fig. 2 is flow diagram illustrating an example process to determine a surgical pathway;
Fig. 3A shows an example two-dimensional image associated with information collected at a first point in time;
Fig. 3B shows an example three-dimensional model constructed based on data collected at a second point in time;
Fig. 3C shows an example projection of a modified three-dimensional model modified with a first set of modification parameter values;
Fig. 3D shows an example projection of a modified three-dimensional model modified with a second set of modification parameter values;
Fig. 3E shows one example edge detection processed image;
Fig. 3F shows another example edge detection processed image; and
Fig. 4 is a block diagram illustrating a computer program product to implement a method to determine an actual surgical pathway, all arranged in accordance with some embodiments of the present disclosure.
DETAILED DESCRIPTION
In the following detailed description, reference is made to the accompanying drawings, which form a part hereof. In the drawings, similar symbols typically identify similar components, unless context dictates otherwise. The illustrative embodiments described in the detailed description, drawings, and claims are not meant to be limiting. Other embodiments may be utilized, and other changes may be made, without departing from the spirit or scope of the subject matter presented here. It will be readily understood that the aspects of the present disclosure, as generally described herein, and illustrated in the Figures, can be arranged, substituted, combined, and designed in a wide variety of different configurations, all of which are explicitly contemplated herein.
This disclosure is drawn, inter alia, to methods, apparatuses, and systems related to an intraoperative surgical pathway determination based on two sets of images collected at two different spaces and two different points in time. In the disclosure, the term “projection” generally refers to an approach of mapping three-dimensional points to a two-dimensional plane. The term “surgical pathway” may refer to a pathway comprising a surgical entry point, a targeted surgical site, and a  path between the surgical entry point and the targeted surgical site. Throughout the disclosure, the terms “surgical procedure” and “surgery” are used interchangeably.
Fig. 1A is an example figure showing the spatial relationships among several points that may be encountered during an operation, arranged in accordance with some embodiments of the present disclosure. In a three-dimensional image 120, a surgical pathway 130 includes a surgical entry point 140 and a targeted surgical site 150.
Fig. 1B is an example block diagram showing the configuration of a surgical guiding and positioning system 100, arranged in accordance with some embodiments of the present disclosure. The surgical guiding and positioning system 100 mainly includes a pre-operative information collection device 102, an intraoperative information collection device 104, a computing device 106, and a surgical instrument 108 including a robotic arm 116. The blocks are only provided as examples, and some of the blocks may be optional, combined into fewer blocks, or expanded into additional blocks without detracting from the essence of the disclosed embodiments.
The pre-operative information collection device 102 is configured to collect overall information of a surgical site, such as a specific site of a brain, before a surgical procedure begins. In some embodiments, the overall information can be acquired through computed tomography (CT) , magnetic resonance imaging (MRI) , surface scan, X-ray scan, ultrasound scan, and etc. Given the size of these devices and hospital management perspectives, a pre-operative information collection device is usually placed in a space that differs from the operating room, where the surgical procedure is actually performed. With the overall information (e.g. the intracranial anatomy, the target or lesion location, the surface land markings, or the surface anatomy) of the surgical site, a surgeon may plan a surgical pathway some time before a surgical procedure begins.
The intraoperative information collection device 104 is configured to collect the surface anatomy information of the patient around the surgical site immediately before a surgical incision is made in the operating room. Some examples of the intraoperative information collection device 104 may include, without limitation, a  camera, an infrared camera, an X-ray module, an ultrasonic scanner, and others. The intraoperative information collection device 104 may collect the patient’s surface anatomy information when the patient is on the operating table in the operating room.
The computing device 106 may be configured to (1) process information collected by the pre-operative information collection device 102, (2) process information collected by the intraoperative information collection device 104, and/or (3) determine a surgical pathway based on the processed information. Additional details will be provided in subsequent paragraphs.
The surgical instrument 108 may include a robotic arm 116, which is configured to perform the surgery. The surgical instrument 108 is configured to receive information associated with the determined surgical pathway from the computing device 106. The received information may include some coordinate data and vectors that are recognizable by the robotic arm 116. In other words, the robotic arm 116 may perform the surgery according to the coordinate data and vectors.
Fig. 2 is a flow diagram illustrating an example process 200 to determine a surgical pathway, in accordance with some embodiments of the present disclosure. Process 200 may include one or more operations, functions, or actions as illustrated by  blocks  210, 220, 230, 240, 250, 260, 270, 280, and/or 290 which may be performed by hardware, software and/or firmware. The various blocks are not intended to be limiting to the described embodiments. The outlined steps and operations are only provided as examples, and some of the steps and operations may be optional, combined into fewer steps and operations, or expanded into additional steps and operations without detracting from the essence of the disclosed embodiments. Although the blocks are illustrated in a sequential order, these blocks may also be performed in parallel, and/or in a different order than those described herein.
Process 200 may begin at block 210, “retrieve first two-dimensional image associated with information collected at a first point in time. ” In some embodiments, the collected information may correspond to surface anatomy information of the patient, and the first point in time may correspond to a time immediately prior to a surgical incision is made. Some example first point in time may include, without  limitation, the start of the day of the surgery, the time the patient on the operating table in the operating room, and any points of time therebetween. In addition, the first two-dimensional image may be a photo taken by a camera (e.g., an infrared camera) . For example, in a brain surgery, the camera may be configured to take a picture of the patient’s head immediately prior to a surgical incision is made on the patient’s head in the operating room. The camera may be fixed at a stationary device (e.g., a robotic arm) in the operating room so that the camera and the patient main maintain a constant relationship in the operating room. In some embodiments, the camera may take photos from different positions while the robotic arm is moving. Each position may correspond to a specific photo. In some embodiments, a first coordinate system may be used to define the spatial relationship between the surface anatomical parts of the patient (e.g., nose, eyes, other facial features) , and the robotic arm in the operating room.
Block 210 may be followed by block 220, “construct three-dimensional model based on information collected at a second point in time. ” Before a surgical procedure is performed, some medical imaging techniques may be used to capture a snapshot of the patient’s conditions, so that a surgical plan may be formulated. Suppose the surgical site is the brain of the patient. The surgeon may order a medical image scan (e.g., CT or MRI) of the brain. Such medical image scan may perform 3 to 5 days prior to the surgery. A three-dimensional model may be constructed based on the medical scan data using some known approaches. A second coordinate system may be used to define the spatial relationship between the planned surgical pathway and certain anatomical parts of the patient.
Block 220 may be followed by block 230, “select modification parameter values (n) of three-dimensional model. ” The three-dimensional model constructed in block 220 may be modified with some modification parameter values. Example modification parameters may include, without limitation, a scaled ratio, a rotation degree, and a translation vector. These modification parameters may be used to modify the three-dimensional model to better reflect a patient’s condition immediately prior to the surgery. To find the optimal set of modification parameter values, in some embodiments, N sets of modification parameter values may be obtained. Here, n may be between an integer between 1 and N. However, it should  be apparent to one with ordinary skills in the art to employ any other technically feasible approaches to perform the iterations without exceeding the scope of the present disclosure.
In one example, the constructed three-dimensional model may be represented in a Cartesian coordinate system. The scaled ratio refers to a constant proportional ratio of a linear dimension in every axis of the Cartesian coordinate system. Similarly, the rotation degrees may refer to a rotation around a specific axis in the Cartesian coordinate system. The translation vector may refer to a movement vector in the Cartesian coordinate system.
Block 230 may be followed by block 240, “n = N? ” If n does not equal to N, then block 240 may be followed by block 250, where n is incremented by 1. On the other hand, if n equals to N, then block 240 may be followed by block 280, “select optimal set of modification parameter values resulting in correlation that exceeds threshold, ” because all of the correlation computation using the N sets of modification parameter values have been completed. If none of the correlation computation results using the N sets of modification parameter values exceed threshold, process 200 may reset n and go back to block 230 to select a new set of modification parameter values (n) of three-dimensional model that have not been selected in previous iterations.
In block 260, a second two-dimensional image may be the projection of the three-dimensional model modified with the selected set of modification parameter values (n) . In other words, the second two-dimensional image may correspond to a specific set of modification parameter values. The projection may be done by any technically feasible approach, such as parallel projection, orthographic projection, perspective projection, etc. The second two-dimensional image retrieved in block 260 may be compared to the first two-dimensional image retrieved in block 210, and the process goes to block 270, “compute and store correlation. ”
In block 270, in some embodiments, a correlation between a first region of interest of the first two-dimensional image and a second region of interest of the second two-dimensional image is computed and stored. The first region of interest and the second region of interest may be selected according to the contour features  of the first two-dimensional image and the second two-dimensional image, respectively. The selection may be based on historic data or surgeon’s experience. The correlation may be calculated by some known approaches. For example, the correlation may be calculated with Equation 1 below:
Figure PCTCN2016084732-appb-000001
where:
N is the number of points in the first region of interest;
P1 is an indexed array including data of the second two-dimensional image;
P2 is an indexed array including data of the first two-dimensional image;
k1 is an indexed array including serial i values of successive pixels in a region of P1 where the correlation is to be computed; and
k2 is an indexed array including serial i values of successive pixels in a region of P2 where the correlation is to be computed.
With different sets of modification parameter values, different corresponding correlations are calculated and stored in block 270.
In some embodiments, edge detection is performed on the first two-dimensional image and the second two-dimensional image. The correlation may be calculated between the edge detected version of the first two-dimensional image and the edge detected version of the second two-dimensional image. Some example edge detection may include, without limitation, Canny edge detection approach, first-order edge detection approaches, and second-order edge detection approaches.
After processing  blocks  230, 240, 250, 260, and 270 in N iterations, the three-dimensional model is modified by N sets of modification parameter values. With the N number of modified dimensional models, N number of the second two-dimensional images are then retrieved and used to perform the aforementioned correlation. Process 200 may be followed by block 280, “select optimal set of modification parameter values resulting in correlation that exceeds threshold. ” To determine whether the first two-dimensional image and the second two-dimensional image are sufficiently correlated, a threshold value is set. The threshold value may be  determined based on some historical data (e.g., data collected from animal testing or other patients) . Alternatively, the threshold value may be determined based on the surgeon’s experience. Any of the stored correlations that exceed the threshold value would indicate that the first region of interest and the second region indeed correspond to the same anatomical part of the patient. Out of these stored correlations that exceed the threshold value, in one embodiment, the set of modification parameter values resulting in the maximum correlation is selected as the optimal set of modification parameter values.
Block 280 may be followed by block 290, “transform coordinate, ” where the coordinates of the second coordinate system are transformed to the first coordinate system based on the selected optimal set of modification parameter values. Therefore, the planned surgical pathway in the second coordinate system may be transformed to the first coordinate system, which is used to represent the operating room in which the surgical procedure is actually performed. Based on the transformed coordinates and vectors in the first coordinate system, a robotic arm may be configured to perform the surgical procedure, having taken into account of changing conditions associated with the patient.
Fig. 3A shows an example two-dimensional image 301 associated with information collected at a first point in time (e.g., right before a surgical incision is made on a patient in the operating room, usually collected within 24 hours prior to the surgical incision) , arranged in accordance with some embodiments of the present disclosure. The two-dimensional image 301 may be taken by an infrared camera. The two-dimensional image may include some surface anatomical parts of the patient, for example, right eye 311, cheek curve 312, nose 313, and mouth 314. A first region of interest 315 of the two-dimensional image 301 may be selected to compare with a second region of interest of another two-dimensional image and will be described in details below. The first region of interest 315 may cover some surface anatomical parts, for example, right eye 311, cheek curve 312, nose 313, and mouth 314. A first coordinate system 380’may be used to describe the spatial relationship between devices (e.g., robotic arm) in the operating room and surface anatomical parts of the patient.
Fig. 3B shows an example three-dimensional model 302 constructed based on data collected at a second point of time (e.g., before the date of a surgical procedure, usually collected within 3 days prior to the surgical procedure) , arranged in accordance with some embodiments of the present disclosure. The three-dimensional model 302 includes surface anatomical parts, for example, right eye 321, cheek curve 322, nose 323, and mouth 324. A surgical pathway 360 may be planned on the three-dimensional model 302 according to the medical scan image 302’. The surgical pathway 360 may start with a surgical entry point 361 and end at a target surgical site 362. As discussed earlier in conjunction with Fig. 1A, the surgical entry point 361 may be on the skull of the patient and the target surgical site 362 may be a tumor in patient’s brain.
In some embodiments, a Cartesian second coordinate system 380 may be used to describe the spatial relationship among the surgical pathway 360 and right eye 321, cheek curve 322, nose 323, and mouth 324. For example, in the second coordinate system 380, the surgical entry point 361 may have a coordinate of (1, 2, 3) , the target surgical site 362 may have a coordinate of (2, 3, 4) and a vector between the surgical entry point 361 and the target surgical site 362 is (1, 1, 1) . Similarly, right eye 321 may have a coordinate of (4, 5, 6) , cheek curve 322 may have a coordinate of (2, 9, 11) , nose 323 may have a coordinate of (7, 8, 9) , and mouth 324 may have a coordinate of (3, 7, 5) in the second coordinate system 380.
The three-dimensional model 302 may be modified with a set of modification parameter values to generate a modified three-dimensional model 302’. For example, a first example set of modification parameter values may include, without limitation, a scaled ratio of 100%, α is 45 degrees, β is 0 degree, and γ is 0 degree, in which α represents a rotation around z-axis in the second coordinate system 380, β represents a rotation around y-axis in the second coordinate system 380, and y represents a rotation around x-axis in the second coordinate system 380. A second two-dimensional image may be retrieved from the modified three-dimensional model 302’. In some embodiments, the second two-dimensional image is a projection of the three-dimensional model 302’.
Fig. 3C shows an example projection 303 of a modified three-dimensional model 302’, which is modified with the first example set of modification parameter values, arranged in accordance with some embodiments of the present disclosure. Fig. 3C may include surface anatomical parts of the patient, for example, right eye 331, cheek curve 332, nose 333, and mouth 334. In conjunction with 3A, a second region of interest 335 may be selected to calculate a first correlation between the first region of interest 315 and the second region of interest 335.
After obtaining the first correlation, a second example set of modification parameter values may be used to modify the three-dimensional model to generate another modified three-dimensional model 302’. The second set example set of modification parameter values may include, without limitation, a scaled ratio of 100%, α is 20 degrees, β is 0 degree, and γ is 0 degree. Similarly, an example projection of the modified three-dimensional model 302’may be retrieved. Fig. 3D shows the example projection 304 of the modified three-dimensional model 302’modified with the second example set of modification parameter values, arranged in accordance with some embodiments of the present disclosure. Fig. 3D may include surface anatomical parts of the patient, for example, right eye 341, cheek curve 342, nose 343, and mouth 344. In conjunction with 3A, a second region of interest 345 may be selected to calculate a second correlation between the first region of interest 315 and the second region of interest 345.
In some embodiments, the two- dimensional images  301, 303, and 304 are processed first before calculating the first and second correlations. For example, an edge detection approach may be applied to process the two- dimensional images  301, 303, and 304. Fig. 3E shows one example edge detection processed image 305 of the image 301, arranged in accordance with some embodiments of the present disclosure. Fig. 3F shows another example edge detection processed image 306 associated with a modification parameter value α of -45 degrees, arranged in accordance with some embodiments of the present disclosure.
Assuming only two sets of modification parameter values (i.e., a scaled ratio of 100%, α is 45 degrees, β is 0 degree, and γ is 0 degree; and a scaled ratio of 100%, α is 20 degrees, β is 0 degree, and γ is 0 degree) are obtained to modify the  three-dimensional model 302, the first correlation and the second correlation are compared with a threshold to determine which one may be the optimal set of modification parameter values. The optimal set of modification parameter values are used to transform the coordinates in the second coordinate system 380 to the first coordinate system 380’.
In some embodiments, assuming the modification parameter is associated with a scaling ratio, the transformation from the second coordinate system 380 to the first coordinate system 380’may comprise multiplying the scaled ratio to the coordinates of the second coordinate system 380. Therefore, the vector of the planned surgical pathway keeps the same in the first coordinate system 380 as in the second coordinate system 380’. However, compared to the distance of the planned surgical pathway in the second coordinate system 380, the distance of the actual surgical pathway in the first coordinate system 380’is scaled with the scaled ratio.
In some other embodiments, assuming the modification parameter is associated with a rotation angle. Therefore, the vector of the planned surgical pathway is changed in the first coordinate system 380 which will not be the same as the vector in the second coordinate system 380’. The transformation from the second coordinate system 380 to the first coordinate system 380’may comprise a matrix operation. The matrix may be a transformation matrix between the first coordinate system 380’and the second coordinate system 380. One example transformation matrix may be:
Figure PCTCN2016084732-appb-000002
where α represents a rotation around z-axis in the second coordinate system 380;
β represents a rotation around y-axis in the second coordinate system 380;
γ represents a rotation around x-axis in the second coordinate system 380;
xoffset represents a displacement along the x-axis in the second coordinate system 380;
yoffset represents a displacement along the y-axis in the second coordinate system 380; and
zoffset represents a displacement along the z-axis in the second coordinate system 380;
The coordinate transformation may be achieved with the following operation:
Figure PCTCN2016084732-appb-000003
where x’, y’, and z’are the transformed coordinates in the first coordinate system 380’and x, y, and z are the coordinates in the second coordinate system 380.
Assuming the second set of modification parameter values (i.e., scaled ratio of 100%, α is 20 degrees, β is 0 degree, and γ is 0 degree) exceeds the threshold while the first set of modification parameter values (i.e., scaled ratio of 100%, α is 45 degrees, β is 0 degree, and γ is 0 degree) does not exceed the threshold, the second set of modification parameter values may be selected as the optimal set of modification parameter values and the transformation matrix may be:
Figure PCTCN2016084732-appb-000004
According to equation (3) and the transformation matrix above, in the first coordinate system 380’, the surgical entry point 371 may have a coordinate of (1.62373, 1.53737, 3) , the target surgical site 372 may have a coordinate of (2.90545, 2.13504, 4) and a vector between the surgical entry point 371 and the target surgical site 372 is (1.28172, 0.59767, 1) . The coordinates and vector may be transmitted to the robotic arm in the operating room so that a surgeon may use the robotic arm to perform the surgery.
Fig. 4 is a block diagram illustrating a computer program product 400 to implement a method to determine an actual surgical pathway, in accordance with one embodiment of the present disclosure. The computer program product 400 may include a signal bearing medium 402. Signal bearing medium 402 may include one or more sets of executable instructions 404 stored thereon that, in response to execution by, for example, the computing device 106 of Fig. 1, may provide the features and operations described above.
In some implementations, the signal bearing medium 402 may encompass a non-transitory computer readable medium 408, such as, but not limited to, a hard disk drive, a Compact Disc (CD) , a Digital Versatile Disk (DVD) , a digital tape, memory, etc. In some implementations, the signal bearing medium 402 may encompass a recordable medium 410, such as, but not limited to, memory, read/write (R/W) CDs, R/W DVDs, etc. In some implementations, signal bearing medium 402 may encompass a communications medium 406, such as, but not limited to, a digital and/or an analog communication medium (e.g., a fiber optic cable, a waveguide, a wired communications link, a wireless communication link, etc. ) .
The foregoing detailed description has set forth various embodiments of the devices and/or processes via the use of block diagrams, flowcharts, and/or examples. Insofar as such block diagrams, flowcharts, and/or examples contain one or more functions and/or operations, it will be understood by those within the art that each function and/or operation within such block diagrams, flowcharts, or examples can be implemented, individually and/or collectively, by a wide range of hardware, software, firmware, or virtually any combination thereof. In some embodiments, several portions of the subject matter described herein may be implemented via Application Specific Integrated Circuits (ASICs) , Field Programmable Gate Arrays (FPGAs) , digital signal processors (DSPs) , or other integrated formats. However, those skilled in the art will recognize that some aspects of the embodiments disclosed herein, in whole or in part, can be equivalently implemented in integrated circuits, as one or more computer programs running on one or more computers (e.g., as one or more programs running on one or more computer systems) , as one or more programs running on one or more processors (e.g., as one or more programs running on one or more microprocessors) , as firmware, or as virtually any  combination thereof, and that designing the circuitry and/or writing the code for the software and or firmware would be well within the skill of one of skill in the art in light of this disclosure. In addition, those skilled in the art will appreciate that the mechanisms of the subject matter described herein are capable of being distributed as a program product in a variety of forms, and that an illustrative embodiment of the subject matter described herein applies regardless of the particular type of signal bearing medium used to actually carry out the distribution. Examples of a signal bearing medium include, but are not limited to, the following: a recordable type medium such as a floppy disk, a hard disk drive, a Compact Disc (CD) , a Digital Versatile Disk (DVD) , a digital tape, a computer memory, etc.; and a transmission type medium such as a digital and/or an analog communication medium (e.g., a fiber optic cable, a waveguide, a wired communications link, a wireless communication link, etc. ) .
From the foregoing, it will be appreciated that various embodiments of the present disclosure have been described herein for purposes of illustration, and that various modifications may be made without departing from the scope and spirit of the present disclosure. Accordingly, the various embodiments disclosed herein are not intended to be limiting, with the true scope and spirit being indicated by the following claims.

Claims (20)

  1. A method to determine an actual surgical pathway of a patient based on a planned surgical pathway, comprising:
    retrieving a first two-dimensional image of the patient associated with information collected at a first point in time, wherein a spatial relationship between the patient and an apparatus in an operating room is described by a first coordinate system;
    modifying a three-dimensional model of the patient including the planned surgical pathway with a first set of modification parameter values, wherein the three-dimensional model is described by a second coordinate system and constructed by information collected at a second point in time earlier than the first point in time;
    retrieving a second two-dimensional image from the modified three-dimensional model;
    computing a first correlation between the first two-dimensional image and the second two-dimensional image; and
    in response to the first correlation exceeding a threshold, transforming the planned surgical pathway in the second coordinate system to the first coordinate system based on the first set of modification parameter values to determine the actual surgical pathway.
  2. The method of claim 1, wherein the modifying the three-dimensional model includes scaling the three-dimensional model, rotating the three-dimensional model or moving the three-dimensional model based on the set of modification parameter values.
  3. The method of claim 1, wherein the second two-dimensional image is a projection of the modified three-dimensional model.
  4. The method of claim 1, wherein the patient is on an operating table in the operating room at the first point in time, and the patient is under a medical image scan at the second point in time.
  5. The method of claim 1, in response to the first correlation not exceeding the threshold, further comprising:
    modifying the three-dimensional model of the patient including the planned surgical pathway with a second set of modification parameter values,
    retrieving a third two-dimensional image from the three-dimensional model modified with the second set of modification parameter values;
    computing a second correlation between the first two-dimensional image and the third two-dimensional image; and
    in response to the second correlation exceeding a threshold, transforming the planned surgical pathway in the second coordinate system to the first coordinate system based on the second set of modification parameter values to identify the actual surgical pathway.
  6. The method of claim 1, further comprising performing edge detection on the first two-dimensional image and the second two-dimensional image.
  7. The method of claim 6, wherein the edge detection is performed before the computation of the correlation.
  8. A non-transitory computer-readable storage medium containing a set of executable instructions which, in response to execution by a processor in one of one or more surgical system, cause the processor to perform a method to determine an actual surgical pathway of a patient based on a planned surgical pathway, the method comprising:
    retrieving a first two-dimensional image of the patient associated with information collected at a first point in time, wherein a spatial relationship between the patient and an apparatus in an operating room is described by a first coordinate system;
    modifying a three-dimensional model of the patient including the planned surgical pathway with a first set of modification parameter values, wherein the three-dimensional model is described by a second  coordinate system and constructed by information collected at a second point in time earlier than the first point in time;
    retrieving a second two-dimensional image from the modified three-dimensional model;
    computing a first correlation between the first two-dimensional image and the second two-dimensional image; and
    in response to the first correlation exceeding a threshold, transforming the planned surgical pathway in the second coordinate system to the first coordinate system based on the first set of modification parameter values to identify the actual surgical pathway.
  9. The non-transitory computer-readable storage medium of claim 8, wherein the modifying the three-dimensional model includes scaling the three-dimensional model, rotating the three-dimensional model or moving the three-dimensional model based on the set of modification parameter values.
  10. The non-transitory computer-readable storage medium of claim 8, wherein the second two-dimensional image is a projection of the modified three-dimensional model.
  11. The non-transitory computer-readable storage medium of claim 8, wherein the patient is on an operating table in the operating room at the first point in time, and the patient is under a medical image scan at the second point in time.
  12. The non-transitory computer-readable storage medium of claim 8, in response to the first correlation not exceeding the threshold, the method further comprising:
    modifying the three-dimensional model of the patient including the planned surgical pathway with a second set of modification parameter values,
    retrieving a third two-dimensional image from the three-dimensional model modified with the second set of modification parameter values;
    computing a second correlation between the first two-dimensional image and the third two-dimensional image; and
    in response to the second correlation exceeding a threshold, transforming the planned surgical pathway in the second coordinate system to the first coordinate system based on the second set of modification parameter values to identify the actual surgical pathway.
  13. The non-transitory computer-readable storage medium of claim 8, the method further comprising performing edge detection on the first two-dimensional image and the second two-dimensional image.
  14. The non-transitory computer-readable storage medium of claim 13, wherein the edge detection is performed before the computation of the correlation.
  15. A surgical system configured to determine an actual surgical pathway of a patient based on a planned surgical pathway, comprising:
    a storage system;
    a robotic arm;
    an image collection apparatus; and
    a processor, wherein the processor is configured to
    retrieve a first two-dimensional image of the patient associated with information collected by the image collection apparatus at a first point in time from the storage system, wherein a spatial relationship between the patient and the robotic arm is described by a first coordinate system;
    modify a three-dimensional model of the patient including the planned surgical pathway with a first set of modification parameter values, wherein the three-dimensional model is described by a second coordinate system and constructed by information collected at a second point in time earlier than the first point in time;
    retrieve a second two-dimensional image from the modified three-dimensional model from the storage system;
    compute a first correlation between the first two-dimensional image and the second two-dimensional image;
    in response to the first correlation exceeding a threshold, transform the planned surgical pathway in the second coordinate system to the first coordinate system based on the first set of modification parameter values to identify the actual surgical pathway; and
    instruct the robotic arm to perform the surgery based on the actual surgical pathway.
  16. The system of claim 15, wherein the three-dimensional model is modified with a scaling factor, a rotation degree, and/or a translation vector.
  17. The system of claim 15, wherein the image collection apparatus is fixed with the robotic arm.
  18. The system of claim 15, wherein the image collection apparatus is configured to take a plurality of images while the robotic arm is moving.
  19. The system of claim 15, wherein the patient is on an operating table in the operating room at the first point in time, and the patient is under a medical image scan at the second point in time.
  20. The system of claim 15, wherein the processor is further configured to perform an edge detection operation on the first two-dimensional image and the second two-dimensional image.
PCT/CN2016/084732 2015-06-05 2016-06-03 Intra operative tracking method WO2016192671A1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020177000511A KR101933132B1 (en) 2015-06-05 2016-06-03 Intraoperative tracking method
DK16802594.8T DK3145420T3 (en) 2015-06-05 2016-06-03 Intraoperative approach to tracking
EP16802594.8A EP3145420B8 (en) 2015-06-05 2016-06-03 Intraoperative tracking method
JP2017504784A JP6334052B2 (en) 2015-06-05 2016-06-03 Intraoperative tracking method
CA2949797A CA2949797C (en) 2015-06-05 2016-06-03 Intraoperative tracking method
CN201680002970.2A CN106794044B (en) 2015-06-05 2016-06-03 Method for tracing in art
HRP20201646TT HRP20201646T1 (en) 2015-06-05 2020-10-13 Intra operative tracking method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562171245P 2015-06-05 2015-06-05
US62/171,245 2015-06-05

Publications (1)

Publication Number Publication Date
WO2016192671A1 true WO2016192671A1 (en) 2016-12-08

Family

ID=57440176

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2016/084732 WO2016192671A1 (en) 2015-06-05 2016-06-03 Intra operative tracking method

Country Status (10)

Country Link
US (1) US9827053B2 (en)
EP (1) EP3145420B8 (en)
JP (1) JP6334052B2 (en)
KR (1) KR101933132B1 (en)
CN (1) CN106794044B (en)
CA (1) CA2949797C (en)
DK (1) DK3145420T3 (en)
HR (1) HRP20201646T1 (en)
TW (1) TWI595437B (en)
WO (1) WO2016192671A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200016833A (en) * 2017-06-04 2020-02-17 브레인 나비 바이오테크놀러지 씨오., 엘티디. Methods and systems for determining one or multiple points on the surgical path
WO2020181363A1 (en) * 2019-03-11 2020-09-17 Intellijoint Surgical Inc. Computer assisted surgery system and method to process and communicate planning data
WO2020187289A1 (en) 2019-03-19 2020-09-24 Brain Navi Biotechnology Co., Ltd. Method and system of determining operation pathway based on image matching

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3668582B1 (en) * 2017-08-16 2023-10-04 Intuitive Surgical Operations, Inc. Systems for monitoring patient motion during a medical procedure
WO2019137507A1 (en) * 2018-01-11 2019-07-18 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for surgical route planning
TWI733151B (en) * 2018-08-01 2021-07-11 鈦隼生物科技股份有限公司 Method, system and readable storage media of tracking patient position in operation
US11744655B2 (en) 2018-12-04 2023-09-05 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
US11602402B2 (en) 2018-12-04 2023-03-14 Globus Medical, Inc. Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
CN109925053B (en) * 2019-03-04 2021-06-22 杭州三坛医疗科技有限公司 Method, device and system for determining surgical path and readable storage medium
CN109993792B (en) * 2019-03-04 2021-05-25 杭州三坛医疗科技有限公司 Projection method, device and system and readable storage medium
US20220133409A1 (en) * 2019-03-04 2022-05-05 Hangzhou Santan Medical Technology Co., Ltd Method for Determining Target Spot Path
CN109925052B (en) * 2019-03-04 2020-12-08 杭州三坛医疗科技有限公司 Target point path determination method, device and system and readable storage medium
CN109925054B (en) * 2019-03-04 2020-12-18 杭州三坛医疗科技有限公司 Auxiliary method, device and system for determining target point path and readable storage medium
US11382549B2 (en) 2019-03-22 2022-07-12 Globus Medical, Inc. System for neuronavigation registration and robotic trajectory guidance, and related methods and devices
US11045179B2 (en) 2019-05-20 2021-06-29 Global Medical Inc Robot-mounted retractor system
CN113643226B (en) * 2020-04-27 2024-01-19 成都术通科技有限公司 Labeling method, labeling device, labeling equipment and labeling medium
CN112807083A (en) * 2020-06-01 2021-05-18 上海库欣医疗科技有限公司 Craniocerebral puncture path establishing method and system for neurosurgical navigation
CN112807084B (en) * 2020-06-01 2023-06-02 上海库欣医疗科技有限公司 Craniocerebral puncture path establishment method and navigation method for brain stem hemorrhage operation navigation
CN113797418A (en) * 2020-06-12 2021-12-17 中强光电股份有限公司 Medical imaging apparatus and medical image display method
US11529738B2 (en) * 2020-07-02 2022-12-20 NDR Medical Technology Pte. Ltd. Control system and a method for operating a robot
US11481235B2 (en) * 2021-01-11 2022-10-25 Evicore Healthcare MSI, LLC Database framework model transformation for pathway identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1243690A (en) * 1997-08-27 2000-02-09 北京航空航天大学 Cerebrosurgical operation equipment system with robot and its implement method
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
EP1715788B1 (en) * 2004-02-17 2011-09-07 Philips Electronics LTD Method and apparatus for registration, verification, and referencing of internal organs
CN102999902A (en) * 2012-11-13 2013-03-27 上海交通大学医学院附属瑞金医院 Optical navigation positioning system based on CT (computed tomography) registration results and navigation method thereby
CN103142313A (en) * 2013-03-19 2013-06-12 张巍 Surgical operation tool position-pose real-time detection method and system based on monocular vision
US20150077528A1 (en) * 2013-09-18 2015-03-19 Nanophthalmos, Llc Surgical navigation system and method

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5389101A (en) * 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
US6671538B1 (en) * 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
JP4674948B2 (en) * 2000-09-29 2011-04-20 オリンパス株式会社 Surgical navigation device and method of operating surgical navigation device
US7570791B2 (en) * 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
JP2005305048A (en) * 2004-04-26 2005-11-04 Mitsubishi Electric Corp Apparatus and method for positioning patient
US7831073B2 (en) * 2005-06-29 2010-11-09 Accuray Incorporated Precision registration of X-ray images to cone-beam CT scan for image-guided radiation treatment
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
CA2905989C (en) * 2006-05-25 2017-01-24 Di Yan Real-time, on-line and offline treatment dose tracking and feedback process for volumetric image guided adaptive radiotherapy
EP2193499B1 (en) * 2007-10-01 2016-07-20 Koninklijke Philips N.V. Detection and tracking of interventional tools
US8559596B2 (en) * 2010-06-08 2013-10-15 Accuray Incorporated Target Tracking for image-guided radiation treatment
IT1400684B1 (en) * 2010-07-07 2013-06-28 Esaote Spa IMAGING METHOD AND DEVICE FOR THE MONITORING OF AN EXAMINED BODY.
WO2013055707A1 (en) * 2011-10-09 2013-04-18 Clear Guide Medical, Llc Interventional in-situ image-guidance by fusing ultrasound video
US9375196B2 (en) * 2012-07-12 2016-06-28 Covidien Lp System and method for detecting critical structures using ultrasound
WO2014013393A2 (en) * 2012-07-17 2014-01-23 Koninklijke Philips N.V. Imaging system and method for enabling instrument guidance
JP6157864B2 (en) * 2013-01-31 2017-07-05 東芝メディカルシステムズ株式会社 Medical diagnostic imaging apparatus and puncture support apparatus
EP2967350A4 (en) * 2013-03-15 2017-03-01 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
AU2014231342B2 (en) * 2013-03-15 2018-03-29 Synaptive Medical Inc. Surgical imaging systems
US9754371B2 (en) * 2014-07-31 2017-09-05 California Institute Of Technology Multi modality brain mapping system (MBMS) using artificial intelligence and pattern recognition
TWI605795B (en) * 2014-08-19 2017-11-21 鈦隼生物科技股份有限公司 Method and system of determining probe position in surgical site
EP3212286B1 (en) * 2014-10-27 2019-09-25 Elekta, Inc. Image guidance for radiation therapy

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6122541A (en) * 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
CN1243690A (en) * 1997-08-27 2000-02-09 北京航空航天大学 Cerebrosurgical operation equipment system with robot and its implement method
EP1715788B1 (en) * 2004-02-17 2011-09-07 Philips Electronics LTD Method and apparatus for registration, verification, and referencing of internal organs
CN102999902A (en) * 2012-11-13 2013-03-27 上海交通大学医学院附属瑞金医院 Optical navigation positioning system based on CT (computed tomography) registration results and navigation method thereby
CN103142313A (en) * 2013-03-19 2013-06-12 张巍 Surgical operation tool position-pose real-time detection method and system based on monocular vision
US20150077528A1 (en) * 2013-09-18 2015-03-19 Nanophthalmos, Llc Surgical navigation system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3145420A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200016833A (en) * 2017-06-04 2020-02-17 브레인 나비 바이오테크놀러지 씨오., 엘티디. Methods and systems for determining one or multiple points on the surgical path
JP2020522369A (en) * 2017-06-04 2020-07-30 ブレイン ナビ バイオテクノロジー カンパニー リミテッド Method and system for determining one or more points on a surgical path
JP7095079B2 (en) 2017-06-04 2022-07-04 ブレイン ナビ バイオテクノロジー カンパニー リミテッド A system that determines one or more points on the surgical route
KR102493021B1 (en) * 2017-06-04 2023-01-31 브레인 나비 바이오테크놀러지 씨오., 엘티디. Method and system for determining one or multiple points on a surgical path
WO2020181363A1 (en) * 2019-03-11 2020-09-17 Intellijoint Surgical Inc. Computer assisted surgery system and method to process and communicate planning data
WO2020187289A1 (en) 2019-03-19 2020-09-24 Brain Navi Biotechnology Co., Ltd. Method and system of determining operation pathway based on image matching

Also Published As

Publication number Publication date
CA2949797C (en) 2019-04-02
CA2949797A1 (en) 2016-12-05
US20160354157A1 (en) 2016-12-08
KR20170033858A (en) 2017-03-27
EP3145420A1 (en) 2017-03-29
JP2017526415A (en) 2017-09-14
HRP20201646T1 (en) 2020-12-25
DK3145420T3 (en) 2020-10-26
CN106794044A (en) 2017-05-31
EP3145420B1 (en) 2020-08-05
EP3145420A4 (en) 2018-04-04
US9827053B2 (en) 2017-11-28
KR101933132B1 (en) 2019-03-15
EP3145420B8 (en) 2020-12-30
TW201705078A (en) 2017-02-01
TWI595437B (en) 2017-08-11
CN106794044B (en) 2019-09-27
JP6334052B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
US9827053B2 (en) Intraoperative tracking method
EP3007635B1 (en) Computer-implemented technique for determining a coordinate transformation for surgical navigation
US9757202B2 (en) Method and system of determining probe position in surgical site
JP4732925B2 (en) Medical image display method and program thereof
US10144637B2 (en) Sensor based tracking tool for medical components
TWI670681B (en) Method and system of determining one or more points on operation pathway
US10588702B2 (en) System and methods for updating patient registration during surface trace acquisition
CA2976573C (en) Methods for improving patient registration
WO2018006168A1 (en) Systems and methods for performing intraoperative image registration
JP2023543115A (en) Methods and systems for transducer array placement and avoidance of skin surface conditions
US11026753B2 (en) System and method for automatic muscle movement detection
Zhou et al. Robust single-view cone-beam x-ray pose estimation with neural tuned tomography (nett) and masked neural radiance fields (mnerf)
US20230050636A1 (en) Augmented reality system and methods for stereoscopic projection and cross-referencing of live x-ray fluoroscopic and computed tomographic c-arm imaging during surgery
JP7397092B2 (en) Method and system for determining surgical path based on image matching

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2949797

Country of ref document: CA

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2016802594

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2016802594

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20177000511

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16802594

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017504784

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE