WO2018030015A1 - 切離プロセス推定装置及び切離プロセスナビゲーションシステム - Google Patents

切離プロセス推定装置及び切離プロセスナビゲーションシステム Download PDF

Info

Publication number
WO2018030015A1
WO2018030015A1 PCT/JP2017/023556 JP2017023556W WO2018030015A1 WO 2018030015 A1 WO2018030015 A1 WO 2018030015A1 JP 2017023556 W JP2017023556 W JP 2017023556W WO 2018030015 A1 WO2018030015 A1 WO 2018030015A1
Authority
WO
WIPO (PCT)
Prior art keywords
separation
patient
separation process
specific
standard
Prior art date
Application number
PCT/JP2017/023556
Other languages
English (en)
French (fr)
Inventor
恵 中尾
豊史 陳
Original Assignee
国立大学法人京都大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人京都大学 filed Critical 国立大学法人京都大学
Priority to EP17839089.4A priority Critical patent/EP3498172A4/en
Priority to US16/323,766 priority patent/US20190172577A1/en
Priority to JP2018532865A priority patent/JPWO2018030015A1/ja
Priority to CN201780048957.5A priority patent/CN109561870A/zh
Publication of WO2018030015A1 publication Critical patent/WO2018030015A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Definitions

  • the present invention relates to an apparatus for automatically estimating a separation process specific to a patient's organ structure and a navigation system for presenting the estimated separation process.
  • a scalpel including not only a scalpel but also other cutting devices; hereinafter referred to as a “female” is advanced so that the scalpel reaches a predetermined depth along an important structure such as a blood vessel inside the organ.
  • the advancement of the scalpel is stopped at that point, and then the scalpel is introduced from another part to advance to a predetermined depth.
  • the progress of the second female is entered from the organ surface opposite to the part of the first separation, and there is a method in which the progress is slightly different from the direction of the first female.
  • the resection plan progresses through a combination of many elements.
  • the structure of the blood vessels and tumors inside the organ and their three-dimensional positional relationship are estimated from outside the organ, and the resection is started first.
  • the decision to determine the site to do is very important. If the site to start the excision is not appropriate, the health care professional needs to reinsert the scalpel into a more optimal site, but extra excision due to the reinsertion of the scalpel places a burden on the organ.
  • an anatomical structure inside the organ for example, blood vessels, lymphatic vessels, or other veins
  • an anatomical structure inside the organ for example, blood vessels, lymphatic vessels, or other veins
  • the order of separation is inappropriate (for example, if a scalpel is first placed in an inappropriate area), not only will the margin with the tumor not be removed, but it may cause unnecessary bleeding, resulting in unnecessary extras. Necessitating a clear separation.
  • Patent Document 1 describes a surgery support device that presents a separation method that takes into account not only the position of an abnormal region present in a target organ but also the positional relationship between the target organ and surrounding organs. (See paragraph [0010]). Specifically, Patent Document 1 discloses a separation method for minimizing the volume to be separated, a separation method for minimizing the surface area to be separated, and a separation method for minimizing the distance from the surface of the separation site. Techniques for providing are described.
  • Patent Document 2 describes an image diagnosis support technique capable of image simulation considering the degree of deformation of an organ at the time of surgery (see paragraph [0006]). Specifically, in Patent Document 1, medical treatment is performed by calculating in advance an arbitrary separation pattern for a tetrahedral model composed of tetrahedral blocks (so-called polygons) in which adjacent vertices are connected to each other. A technique for providing an image simulation according to the designation of a separation position by a person is described.
  • Patent Document 1 can present a candidate for a partial curved surface in an abnormal region from a plurality of viewpoints, it is not known which of the partial curved surface candidates is a standard partial curved surface. Moreover, even if the candidate of a partial curved surface is known, the technique does not indicate what order the organs are separated from the selected partial curved surface.
  • the technique described in Patent Document 2 has a problem that it is necessary to calculate in advance all the expected tetrahedral division patterns for all the polygons constituting the target organ, and the calculation load is very large. . Further, in this technique, it is necessary for the medical staff to sequentially specify all vertex positions of the polygons located at the separation site. In other words, in this method, the simulation does not proceed unless the medical staff gives successive points. Further, this technique is created for each patient based on polygons to the last, and application to medical images is not assumed. In addition, the created polygon model is unique to each patient and is not expected to be applied to other patients. For this reason, the technique described in Patent Document 1 remains for training use in the separation process.
  • the present specification includes a plurality of means for solving the above-mentioned problems, and examples thereof include means shown in items 1 to 20.
  • Item 1 A surgical process case database for storing surgical process case data describing the cut surface according to the cut site of the organ to be cut and information on the progress of the cut; Standard cutting process generation that reads out case data corresponding to the cutting site specified by the user from the surgical process case database and generates a standard cutting plane and a standard cutting process based on the read out case data Part, An anatomical reference point extraction unit for extracting anatomical reference points from patient-specific 3D medical image data; A patient-specific separation process estimation unit that matches the standard separation surface and the standard separation process with the patient-specific three-dimensional medical image data and estimates the patient-specific separation surface and the separation process.
  • a separation process estimation device further comprising a separation point reception unit that receives input of one or a plurality of separation points for a patient-specific three-dimensional medical image displayed on the display screen.
  • a separation point reception unit that receives input of one or a plurality of separation points for a patient-specific three-dimensional medical image displayed on the display screen.
  • Item 3 In the separation process estimation apparatus according to item 1, The patient-specific separation process estimation unit, as the pre-processing of the matching, (i) enlargement for correcting a difference in the size of an organ imaged in the patient-specific 3D medical image data due to a difference in imaging conditions Or (ii) distortion correction processing for correcting the difference between the organ size unique to the patient and the standard organ size, and (iii) all of the processing or a combination of the processing, or any one of them.
  • a separation process estimation device characterized by: ⁇ Item 4 In the separation process estimation apparatus according to Item 2, The patient-specific separation process estimator is based on the standard separation process, an anatomical reference point extracted from the patient-specific three-dimensional medical image data, and the separation point received from a user.
  • a separation process estimation device characterized by estimating a patient-specific separation process.
  • ⁇ Item 5 In the separation process estimation apparatus according to Item 4, The patient-specific separation process estimation unit solves a minimization problem in which the separation surface passing near one or more separation points specified by a user is constrained by the position of the separation point.
  • a separation process estimation device characterized by calculating as follows.
  • ⁇ Item 6 In the separation process estimation apparatus according to Item 2, When the standard separation process generation unit generates the standard separation surface and the standard separation process by combining the individual case data stored in the surgical process case database, the patient-specific three-dimensional medical image data A separation process characterized by weighting the case data to be combined so as to obtain a combination that approximates the anatomical reference point extracted from the separation point received from the user. Estimating device. ⁇ Item 7 In the separation process estimation apparatus according to item 1, The separation surface is composed of partial curved surfaces generated according to the progress of individual separation, The separation process estimation device characterized in that the separation process gives an order of separation corresponding to the partial curved surface.
  • ⁇ Item 8 In the separation process estimation apparatus according to Item 4, The patient-specific separation process estimation unit estimates a partial curved surface that passes through any of the separation points based on the standard separation surface and the standard separation process.
  • ⁇ Item 9 In the separation process estimation device according to Item 8, The separation process estimation device, wherein the patient-specific separation process estimation unit estimates the partial curved surface in consideration of an anatomical structure of the anatomical reference point.
  • ⁇ Item 10 In the separation process estimation apparatus according to Item 2, The separation point estimation unit receives the input of one or a plurality of separation points, and simultaneously receives the separation order of the separation points input.
  • the patient-specific separation process estimation unit uses the position and input order of one or more of the separation points input to the patient-specific three-dimensional medical image data as vertexes of a mesh constituting a standard organ.
  • a separation process estimation device characterized by being recorded in the surgical process case database in association with each other.
  • ⁇ Item 12 The separation process estimation device according to item 1, When the user designates one or more patient-specific separation points, it functions as a separation navigation system that presents the user with the optimal separation plane and separation process with the separation points as constraints.
  • a separation process estimation device characterized by the above.
  • the separation process estimation device When the user has specified one or more patient-specific separation points and the separation order, the user is presented with an optimal separation plane and separation process that is constrained by the separation point and the input order. A separation process estimation device that functions as a separate navigation system.
  • the patient-specific separation process estimation unit further includes a processing function for associating the standard separation surface with vertex information of the patient-specific three-dimensional medical image data corresponding to the separation point designated by a user.
  • a separation process estimation device .
  • the patient-specific separation process estimation unit is a processing function for associating vertex information of the patient-specific three-dimensional medical image corresponding to the patient-specific separation process and the separation point specified by the user with vertex information of a standard organ
  • the separation process estimation device further comprising: ⁇ Item 16
  • the patient-specific separation process estimation unit performs a part or all of the anatomical reference points so as to be superimposed on the patient-specific three-dimensional medical image as the estimated patient-specific separation process progresses.
  • a separation process estimation device characterized by being transparently displayed.
  • ⁇ Item 17 A separation process case database that stores surgical process case data that describes the separation surface of the organ to be separated and information on the progress of the separation.
  • ⁇ Item 18 A surgical process case database for storing surgical process case data describing the cut surface according to the cut site of the organ to be cut and information on the progress of the cut; Standard cutting process generation that reads out case data corresponding to the cutting site specified by the user from the surgical process case database and generates a standard cutting plane and a standard cutting process based on the read out case data Part, An anatomical reference point extraction unit for extracting anatomical reference points from patient-specific 3D medical image data; A patient-specific separation process estimator for matching the standard separation process with the patient-specific three-dimensional medical image data and estimating a patient-specific separation process; A separation process navigation system comprising: a display device that displays the patient-specific separation process estimated by the patient-specific separation process estimation unit.
  • ⁇ Item 19 In the separation process navigation system according to Item 18, When the user designates one or more separation points specific to a patient, the display device presents the user with an optimal separation surface and separation process with the separation points as constraints. A separation process navigation system. ⁇ Section 20 In the separation process navigation system according to Item 18, When the user designates one or more patient-specific separation points and the input order of each of the separation points, the display device displays an optimum separation surface with the separation points as a constraint condition and the cutting points. A separation process navigation system characterized by presenting the separation process to the user.
  • a separation process that provides information on which part to insert the knife, in which direction to move the knife, what to do with the depth of the moving knife, the order of inserting the knife, etc. Even if there is no sequential designation input by, it can be automatically estimated.
  • FIG. 9A to 9C are diagrams illustrating an estimation processing procedure executed in a patient-specific separation process estimation unit according to the first embodiment.
  • FIGS. 9A to 9C are diagrams for explaining the progress of separation on the navigation screen.
  • FIGS. 9A to 9C are diagrams illustrating an estimation processing procedure executed in a patient-specific separation process estimation unit according to the second embodiment.
  • FIGS. The figure which shows the example of the separation surface and anatomical reference point which are displayed as a navigation screen concerning Example 2.
  • FIG. The figure which shows schematic structure of the separation process navigation system which concerns on Example 3.
  • FIG. 9A to 9C are diagrams illustrating an estimation processing procedure executed in a patient-specific separation process estimation unit according to the third embodiment.
  • FIG. The figure which shows the example of the case data newly produced
  • Example 1 First, an embodiment having the simplest apparatus configuration will be described. Specifically, we will describe a device that, when given patient-specific 3D medical image data, navigates the standard separation site, the direction of separation, the depth of separation, and the order of separation.
  • FIG. 1 shows a schematic configuration of the separation process navigation system 100 in the present embodiment.
  • the separation process navigation system 100 includes a separation process estimation device 110, a patient-specific three-dimensional medical image data storage device 120, a surgical process case database 130, and a display device 140.
  • the separation process navigation system 100 may be constructed using a terminal in a medical institution, or may be constructed as a cloud server accessed via a network from a terminal in the medical institution. When the navigation system is configured on a cloud server, the terminal in the medical institution is used as an input / output device for the cloud server.
  • the separation process estimation device 110 is configured by a so-called computer. That is, the separation process estimation device 110 includes a main storage device, an arithmetic device, a control device, and an input / output device. The separation process estimation device 110 realizes various functions to be described later by executing a program. Note that some or all of the functions may be realized by hardware. Various functions executed by the separation process estimation device 110 will be described later.
  • the patient-specific three-dimensional medical image data storage device 120 and the surgical process case database 130 are each configured by a storage device that stores data to be described later.
  • a magnetic disk is used as the storage medium of the storage device.
  • other storage media such as an optical disk, a semiconductor memory, a magnetic tape, etc. may be used.
  • the patient-specific 3D medical image data storage device 120 and the surgical process case database 130 may both be realized as independent storage devices, but some or all of them may be realized as different storage areas of one storage device. Also good.
  • These storage devices may be arranged in the same housing as the separation process estimation device 110 or may be connected via a network. For example, a dedicated line or the Internet is used for the network.
  • the connection form may be wired connection or wireless connection.
  • the patient-specific 3D medical image data storage device 120 is a storage device that stores patient-specific 3D medical image data.
  • Patient-specific 3D medical image data includes CT (Computed Tomography) image data, MRI (Magnetic Resonance Imaging) image data, PET (Positron Emission Tomography) image data, SPECT (Single Photon Emission Computed Tomography) image data, for example. It is. Note that the three-dimensional medical image data need not be all of these image data, and may be one or more of them.
  • the 3D medical image data here is a set of 2D tomographic images, and is defined by a set of unit normal lattices called voxels.
  • a voxel corresponds to a pixel in a two-dimensional image.
  • one voxel value is determined when the 3D coordinates are determined.
  • FIG. 2 shows the data structure of 3D medical image data.
  • the left figure is an appearance image of the three-dimensional medical image data
  • the right figure is an internal structure in which a part of the three-dimensional medical image data is broken. As shown in the right figure, voxels are arranged in the 3D medical image data without gaps.
  • the surgical process case database 130 is a storage device for storing surgical process case data collected in accordance with the excision site of the organ to be excised. Case data is recorded for standard organs. Standard organs are, for example, the liver, lungs, urinary organs, respiratory organs, brain and others.
  • the surgical process consists of the separation surface and information on the progress of the separation.
  • the part to be cut off means a part to be cut off from an organ, for example, S1 to S8 for the liver, upper lobe, middle lobe, lower lobe, etc. for the lung.
  • the cut surface refers to a cross section of an organ that appears at the final stage of the cut.
  • the cut surface is reached through a plurality of partial curved surfaces that appear sequentially according to the progress of the cut by the knife. Note that the shape of the partial curved surface changes according to the progress of separation by the knife.
  • the separation process is information related to the separation up to the separation surface. For example, information on which part the knife is put in, in which direction the knife is advanced, what is the depth of the moving knife, the order in which the knife is put, and the like.
  • the surgical process example database 130 stores the cut surface and the cut process in association with the standard organ.
  • the separation plane and the separation process are associated with the three-dimensional coordinates of the three-dimensional medical image data representing the standard organ.
  • the anatomy of the standard organ is known.
  • the values Ix (x, y, z) of the three-dimensional coordinates constituting the case data are obtained by using the voxel value voxel of the medical image and the label value label of the anatomical structure label ⁇ ..., (voxel , Label), ... ⁇ .
  • the label value will be described later.
  • the display device 140 is connected to the separation process estimation device 110 and is used to provide a user interface screen. On the user interface screen, for example, a patient-specific three-dimensional medical image and the separation process estimated by the separation process estimation device 110 are displayed.
  • a flat display device such as a liquid crystal monitor is used.
  • the separation process estimation device 110 provides various functions through the execution of a program.
  • the separation process estimation device 110 provides functions corresponding to the standard separation process generation unit 111, the anatomical reference point extraction unit 112, and the patient-specific separation process estimation unit 113.
  • the standard separation process generation unit 111 reads out case data corresponding to an organ and a separation site designated in advance by a medical worker who is a user of the system from the surgical process case database 130, and the standard separation surface and the standard separation process. Generate Ps (t).
  • the parameter t means a time stamp indicating information on the progress of separation or the order of separation.
  • the standard separation process generation unit 111 generates a standard separation surface and a standard separation process Ps (t) by combining individual case data stored in the surgical process case database 130.
  • the standard separation process generation unit 111 in this embodiment performs a weighting operation on a plurality of case data, and generates a standard separation surface and a standard separation process Ps (t).
  • the standard separation process generation unit 111 makes the anatomical reference point in the standard organ generated by the weighting calculation closest to the anatomical reference point Pa extracted from the patient-specific three-dimensional medical image data.
  • a set of weights is determined, and the separation plane and the separation process calculated using the set of weights are used as “standard separation plane” and “standard separation process”.
  • standard separation process data Matlas having the following data structure is used.
  • the standard separation process data Matlas is expressed as follows using the vertex set V and the element set E.
  • Matlas (V, E)
  • V is a set of vertices of each mesh constituting the three-dimensional medical image data representing the standard organ, and is expressed as follows using the vertex vector vi.
  • V ⁇ v0, v1,. . . , vn-1 ⁇
  • the vertex vector vi is expressed as follows using vertex coordinates (x, y, z), time stamp time, anatomical structure label label, and vertex attribute information (isFreezed, isCutpath, isSurface).
  • x, y, and z are values obtained by storing the three-dimensional positions of the corresponding vertices as floating-point numbers.
  • time is a time stamp indicating how many times the corresponding vertex is separated, and is given as an integer [0, n-1], for example. Note that these integer values are not assigned to vertices that are not separated, or values other than these integer values are assigned.
  • label is an integer label value indicating the anatomical structure, for example, “0” for the upper lobe, “1” for the middle lobe, “2” for the lower lobe, “3” for the artery, "4" etc. are given.
  • isFreezed is attribute information 1, and “1” is given to the fixed vertex and “0” is given to the free vertex.
  • isCutpath is attribute information 2, and “1” is given to the vertex on the separation plane, and “0” is given to the other vertices.
  • isSurface is attribute information 3, and “1” is given to the vertex on the surface of the organ, and “0” is given to the vertex located inside the organ.
  • ⁇ Element set E gives which vertex is composed of the minimum number of mesh type elements as a set of integer vertex numbers.
  • element set E is represented by a set of three vertices.
  • FIG. 3 shows an image diagram of the standard separation surface 11 generated by the standard separation process generation unit 111 and the standard separation process data Matlas.
  • FIG. 3 shows an example in which the right lower lobe of the lung which is the standard organ 10 is excised.
  • the standard cut surface 11 is represented by a plane, but this is for easy understanding, and is actually defined by a free-form surface.
  • the incisions 21 to 23 in the figure represent information such as from which part of the organ surface the scalpel is inserted, in which direction the scalpel is advanced, to what depth the scalpel is inserted, and in what order the scalpel is inserted. ing.
  • the anatomical reference point extraction unit 112 uses an existing region extraction algorithm, and extracts a tubular structure and a lesion part existing at the dissection site as anatomical reference points Pa from patient-specific three-dimensional medical image data. I will provide a.
  • the anatomical reference point extraction unit 112 is based on the luminance distribution of the patient-specific three-dimensional medical image data, such as lung, liver and other anatomical information, tubular structure (for example, blood vessels, lymphatic vessels), and lesioned part (for example, tumor) ) Etc. are extracted.
  • the anatomical reference point extraction unit 112 attaches a label value corresponding to the extracted anatomical reference point Pa, and generates patient-specific 3D medical image data Mpatient.
  • the patient's individual 3D medical image data Mpatient is represented by a vertex set V + and an element set E.
  • the patient-specific separation process estimation unit 113 matches the standard separation surface and the standard separation process data Matlas with the patient-specific three-dimensional medical image data Mpatient, and obtains the patient-specific separation surface and the separation process data M ′. Provides an estimation function. As matching preprocessing, the patient-specific separation process estimation unit 113 performs (i) enlargement or reduction processing for correcting the difference in the size of the patient-specific organ due to the difference in imaging conditions, and (ii) the individual Distortion correction for correcting the difference between the size and shape of the patient-specific organ caused by the difference and the size and shape of the standard organ; and (iii) all of the above processes or a combination of the above processes or any one of them. Run one. This makes it possible to improve the accuracy of subsequent matching processing.
  • the patient-specific separation process estimation unit 113 associates each vertex of the voxel constituting the standard organ with each vertex of the voxel constituting the patient-specific three-dimensional medical image data Mpatient, so that the patient-specific separation plane is obtained. And the separation process data M ′ is estimated.
  • the standard cutting plane and standard cutting process data Matlas here are selected so that the anatomical reference point of the standard organ generated by the weighting operation is closest to the patient-specific anatomical reference point Pa. Therefore, the separation surface and separation process data M ′ that are optimal for the patient's surgery will be given.
  • the patient-specific separation process estimation unit 113 When the estimation of the patient-specific separation surface and separation process data M ′ is completed, the patient-specific separation process estimation unit 113 generates a navigation screen based on the estimated separation surface and separation process data M ′. , Displayed on the screen of the display device 140.
  • the navigation screen the part in which the knife is inserted, the direction in which the knife is advanced, the depth of the moving knife, the order of inserting the knife, etc. are presented in time series. Therefore, the medical staff can confirm the separation surface and the separation process suitable for the individual patient without inputting anything other than the patient's individual three-dimensional medical image data Mpatient.
  • the separation process estimation apparatus 110 uses the standard separation process generation unit 111 to calculate the standard separation surface 11 and the standard separation process data Matlas for the standard organ 10.
  • the standard separation process data Matlas includes a series of information related to the progress of separation reaching the standard separation surface 11. In FIG. 4A, only the standard separation surface 11 is shown.
  • the patient-specific separation process estimation unit 113 acquires the three-dimensional medical image data Mpatient calculated for the patient's organ (lung 20) from the anatomical reference point extraction unit 112, and the standard separation process data Matlas and Are matched (see FIG. 4B).
  • m vertex sets V + [v + 0, v + 1,..., V + m ⁇ 1].
  • FIG. 5 and 6 show conceptual examples of the navigation screen. 5 and 6 show a case where the middle lobe of the lung 20 is separated, unlike the examples of FIGS. 3 and 4.
  • FIG. 5 is an initial screen of the navigation screen.
  • FIG. 5 shows an internal organ including a separation surface 50 estimated for patient-specific three-dimensional medical image data Mpatient and a part of an anatomical reference point Pa to be referred to in the separation process described later.
  • the anatomy is shown transparently.
  • FIG. 5 as an example of the display mode, only the anatomical structure of the site scheduled to be separated from the organ (lung 20 in this example) is transparently shown. It is also possible to display the anatomical structure transparently for the entire organ.
  • the medical staff can grasp the position of an internal anatomical structure that cannot be observed from outside the organ, such as an artery, a vein, and a tumor.
  • an internal anatomical structure such as an artery, a vein, and a tumor.
  • the patient-specific separation process estimation unit 113 displays the navigation images shown in FIGS. 6A to 6C in time order.
  • 6 (A) to 6 (C) correspond to one point on the time axis, and in actuality, the partial curved surfaces 61A and 61B and the shape of the organ according to the progress of the scalpel are displayed continuously. Is done.
  • FIG. 6A is a view of the lung 20 as viewed from the front. This figure shows a state in which a partial curved surface 61A appears by advancing the blade of a female inserted into an organ along a curved line 60A indicated by a bold line. That is, the curve 60A indicates the position of the organ surface where the scalpel is inserted.
  • a specific color is given to the curve 60A for the purpose of facilitating the visual recognition of the separation location.
  • the same time stamp is given to the vertex 3D medical image data corresponding to the curve 60A.
  • the arrow in the figure is the direction in which the knife is advanced. From the display content of FIG. 6 (A), it can be seen that the scalpel is inserted to a depth at which the artery as the anatomical reference point Pa can be seen.
  • the curve 60B in FIG. 6 (B) shows the part where the second knife is inserted. This is because the second knife cuts from the rear side of the lung 20. Also in FIG. 6B, the curve 60B is given a specific color for the purpose of facilitating the position of the organ surface into which the scalpel is inserted.
  • the medical staff who has confirmed the display of FIG. 6B can understand that the second female should advance along the curve 60B from the back of the lung.
  • the scalpel is shown to be inserted to a depth where the vein, which is the anatomical reference point Pa, can be seen.
  • the partial curved surface 61B appears by the progress of the second knife.
  • FIG. 6C shows a state in which a blood vessel cross section on the separation surface 50 newly appears by further separation performed after the progress of the separation by the second knife.
  • the partial curved surface 61A that appears as a result of the separation of the first knife and the partial curved surface 61B that appears as a result of the separation of the second knife are connected in a bowl shape so that they are sandwiched between the two partial curved surfaces 61A and 61B. The part is separated from the organ.
  • FIG. 6C an anatomical structure such as a vein appearing on the surface of the cut surface 50 is shown, and an anatomical structure such as a blood vessel of a part cut off from an organ (the lung 20 in this example) is transmitted.
  • the medical staff can grasp information necessary for the progress of the operation, such as a blood vessel appearing in a site remaining on the organ side and a cross section of a blood vessel included in a site to be separated.
  • the anatomical structure inside the part to be separated which is not observed from the outside in an actual organ, can be transparently confirmed, so that the tumor to be excised can be excised. It is also possible to confirm whether or not 6A to 6C, similarly to the above-described FIG. 5, it is also possible to transparently display the anatomical structure for only the remaining part or the entire organ.
  • the patient-specific separation process estimation unit 113 grasps the positional relationship between the curves 60A and 60B where the scalpel advances and the patient-specific 3D medical image data Mpatient. Therefore, the navigation screen displays the shape of the patient-specific organ (lung 20) according to the depth reached by the knife and the progress of the knife along the curves 60A and 60B. Since the information on the vertex set V + of each mesh given as patient-specific three-dimensional medical image data Mpatient can be used for the deformation of the organ (lung 20) here, compared to Patent Document 2 that uses polygons. The calculation amount is small. For this reason, changes in the internal structure and shape appearing on the partial curved surfaces 61A and 61B can be displayed in real time.
  • a medical staff can input a suitable three-dimensional medical image data specific to a patient and perform the dissection suitable for the patient's organ (lung 20).
  • the plane 50 and the separation process can be presented with a navigation screen. That is, the separation plane 50 and the separation process can be automatically estimated without the sequential designation of separation points by the medical staff who is the user.
  • health-care workers are able to determine the surgical process based on textbook information, in particular in which part the scalpel is placed, in which direction the scalpel is advanced, what is the depth of the progressing scalpel, and how the scalpel is placed. You can automatically check the procedure of what to do.
  • anatomical structures such as blood vessels and organ deformations that are expected to appear as the dissection progresses, as the dissection progresses.
  • anatomical structures such as blood vessels and organ deformations that are expected to appear as the dissection progresses
  • the medical staff can perform the surgery with reference to the time-series visualization results.
  • FIG. 7 shows a schematic configuration of the separation process navigation system 200 in this embodiment.
  • the separation process navigation system 200 includes a separation process estimation device 110A, a patient-specific three-dimensional medical image data storage device 120, a surgical process case database 130, and a display device 140.
  • the separation process estimation device 110A of the present embodiment is different from the separation process estimation device 110 (FIG. 1) of the first embodiment in that it includes a separation point receiving unit 114A.
  • the separation point receiving unit 114A provides a function of receiving input of one or a plurality of separation points Pk by a medical worker with respect to a patient-specific three-dimensional medical image displayed on the screen of the display device 140. This function is provided for the purpose of bringing the finally estimated separation plane and separation process closer to the image of a healthcare professional.
  • the input order of the separation point Pk is meaningless.
  • the input of the separation point Pk is executed through the position input of the pointer positioned on the surface of the three-dimensional medical image.
  • the number of inputs may be one.
  • the standard separation process generation unit 111 combines the individual case data stored in the surgical process case database 130 to generate the standard separation surface 11 and the standard separation process.
  • the case data to be combined is weighted so as to obtain a combination that most closely approximates the anatomical reference point Pa extracted from the image data and the separation point Pk received from the user.
  • the patient-specific separation process estimation unit 113A uses the standard separation process generation unit 111 to calculate the standard separation surface 11 (see FIG. 4A) and the standard separation process data Matlas for the standard organ 10. To do. This operation is the same as in the first embodiment. That is, as shown in FIG. 4C, the standard separation surface 11 and the standard separation process data Matlas are applied to the patient-specific three-dimensional medical image data Mpatient, and the patient-specific separation surface 31 and the separation process. Data M ′ is calculated. FIG. 8B shows this state.
  • the medical staff inputs the separation point Pk that defines the position through which the knife passes by his / her own judgment through the separation point receiving unit 111A (see FIG. 8A).
  • the patient-specific separation process estimation unit 113A gives these separation points Pk as constraints on the patient-specific separation surface 31 and the separation process data M ′ described above, and the patient-specific separation surface 31.
  • the separation process data M ′ is corrected so as to pass near the separation point Pk.
  • three separation points Pk are input.
  • the patient-specific separation process estimation unit 113A executes correction processing using the following calculation formula.
  • the patient-specific separation process estimation unit 113A uses the following equation (1) for a set of mesh vertices (shown with ⁇ at the beginning of V in the equation) located on the modified separation surface 41. To calculate.
  • L (-) is Laplacian.
  • the Laplacian vector at the i-th vertex can be calculated using the weight wij as shown in the following equation (2).
  • FIG. 9 shows a conceptual example of the navigation screen. Unlike FIG. 8, FIG. 9 shows the case where the middle lobe of the lung is separated. In FIG.
  • the edge of the modified separation surface 41 is indicated by a broken line.
  • the anatomical structure directly appearing on the modified cut surface 41 but also the internal anatomical structure inside the organ or the part to be separated is transparently visualized by the selection of the medical staff. May be.
  • FIG. 10 shows a schematic configuration of the separation process navigation system 300 in the present embodiment.
  • the same reference numerals are given to the corresponding parts to FIG.
  • the basic configuration of the separation process navigation system 300 is the same as that of the separation process navigation system 200 of the second embodiment.
  • the features of this embodiment are (1) that the separation point receiving unit 114B gives the input order of the separation points Pk to the patient-specific separation process estimation unit 113B, and (2) the patient-specific separation process estimation unit 113B In consideration of the position of the input separation point Pk and the input sequence, to estimate the modified separation surface and the modified separation process suitable for the patient, (3) The patient-specific separation process estimation unit 113B receives the input
  • the position and input order of the separation points Pk are recorded in the surgical process case database 130 in association with the vertices of the mesh constituting the standard organ.
  • the separation point receiving unit 114B in the present embodiment specifies the input order simultaneously with the input of the separation point Pk by the medical staff, and outputs it to the patient-specific separation process estimation unit 113B as the separation point Pk (t). .
  • FIG. 11 shows an input example of the separation point Pk (t).
  • FIG. 11A three separation points Pk (0) to Pk (2) are input. The position of the separation point where Pk (0) is input first, the position of the separation point where Pk (1) is input second, the position of the separation point where Pk (2) is input third Respectively.
  • the patient-specific separation process estimation unit 113B in the present embodiment has the input order of the separation points Pk (0) to Pk (2) and the development of the separation in the standard separation process (the order in which the organ is separated with a scalpel). It is determined whether they match, and if they match, the corrected cut surface 51 and the corrected cut process data Mfinal generated by the same method as in the second embodiment are calculated (see FIGS. 11B and 11C).
  • the patient-specific separation process estimation unit 113B for example, Information on the input order of Pk (0) to Pk (2) is given to the standard separation process generation unit 111, and case data that matches the input order of the separation points Pk (0) to Pk (2) is selectively used. Then, the standard separation surface and the standard separation process data are recalculated (see FIG. 11B).
  • FIG. 12 shows an example of the navigation screen in the present embodiment.
  • FIG. 12 also shows the case where the middle lobe of the lung is dissected as in the above-described embodiment.
  • the corrected separation surface 51 and the corrected separation process data Mfinal that coincide with the input order of the separation points Pk (0) to Pk (3) by the medical staff are automatically estimated and displayed on the screen.
  • the corrected separation surface 51 and the corrected separation process data Mfinal that coincide with the input order of the separation points Pk (0) to Pk (3) by the medical staff are automatically estimated and displayed on the screen.
  • FIG. 12 not only the anatomical structure directly appearing on the modified cut surface 51, but also the internal anatomical structure inside the organ or the part to be separated is transparently visualized by the selection of the medical staff. May be.
  • This process corresponds to a process of storing the position of the separation point Pk (t) input by the medical staff and information on the input order in association with the vertices of the mesh constituting the standard organ.
  • the patient-specific separation process estimation unit 113B enlarges or reduces the patient-specific three-dimensional medical image data used by the patient-specific separation process estimation unit 113B, and executes a matching process with a standard organ.
  • the position and time stamp of the matching separation point Pk (t) are assigned to the vertices of the mesh constituting the standard organ.
  • 13 and 14 show examples of newly registered case data.
  • FIG. 13 shows case data corresponding to right lower lobe resection
  • FIG. 14 shows case data corresponding to left lower lobe resection.
  • the standard separation process data is aligned with the individual 3D medical image data of the patient based on the objective function.
  • the standard separation method can be reproduced.
  • the standard excision method is customized (personalized) and applied to the 3D medical image data (organ outline, tumor, blood vessel, etc.) prepared for a new patient, and finally Visualize and reproduce the best patient-specific separation methods.
  • patient specific Isolation process estimation unit 114A, 114B ... isolation point reception unit, 120 ... patient-specific 3D medical image data storage device, 130 ... surgical process case database, 140 ... display device Pa ... anatomical reference point, Pk, Pk (t) ... isolation point, Ps (t) ... standard isolation process, Matlas ... standard isolation process data, Mpatient ... patient-specific 3D medical image data, M ' ... Optimal cutting process data for the patient, Mfinal... cutting process data after correcting M '(corrected cutting process data)

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Architecture (AREA)
  • Bioethics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Urology & Nephrology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

切離プロセス推定装置を,切離対象臓器の切離部位に応じた切離面と切離の進展に関する情報とを記述した手術プロセスの事例データを記憶する手術プロセス事例データベースと,ユーザーにより指定された切離部位に応じた事例データを前記手術プロセス事例データベースから読み出し,読み出された複数の事例データに基づいて標準切離面及び標準切離プロセスを生成する標準切離プロセス生成部と,解剖学的参照点を患者固有の三次元医用画像データから抽出する解剖学的参照点抽出部と,前記標準切離面及び前記標準切離プロセスを,患者固有の三次元医用画像データにマッチングし,患者固有の切離面及び切離プロセスを推定する患者固有切離プロセス推定部とで構成する。

Description

切離プロセス推定装置及び切離プロセスナビゲーションシステム
 本発明は,患者の臓器構造に固有の切離プロセスを自動的に推定する装置及び推定された切離プロセスを提示するナビゲーションシステムに関する。
 切離部位の内部構造に応じた切離計画を手術に先立って把握することは,医師その他の医療従事者(以下「医療従事者」という。)にとって極めて重要である。切離計画は,切離する臓器の部位,切離する部位の内部構造,術者の経験等に応じて決まる。例えば臓器内部の血管などの重要構造物に沿うようにメス(メスだけでなく,その他の切離器具も含む。以下「メス」という。)を進展させ,メスが所定の深さに達して臓器内部の構造が確認できると,その時点でメスの進展を停止し,今度は別の部位からメスを入れて所定深さまで進展させるという具合である。この際,2番目のメスの進展は,最初に切離した部位とは反対側の臓器面から入れる手法もあれば,最初のメスの進展方向とは少し異なる方向に入れる手法もある。
 このように,切離計画は,多くの要素の組み合わせを通じて進展するが,中でも,臓器内部の血管や腫瘍の構造,それらの三次元的位置関係を臓器外部から推定し,最初に切離を開始する部位を決定する判断は非常に重要である。もし,切離を開始する部位が適当でない場合,医療従事者は,より最適な部位にメスを入れ直す必要があるが,メスの入れ直しによる余計な切離は臓器に負担をかけてしまう。
 また,切離の進展方向に誤りがあったり,進展の深さに誤りがあったりすると,切離の進展において重要な指標となる臓器内部の解剖学的構造(例えば血管,リンパ管その他の脈管構造)を確認することができず,以降の切離の進展に支障が生じてしまう。また,切離の順序が不適切であると(例えば,最初に適切でない部位にメスを入れた場合),腫瘍とのマージンがとれないだけでなく,不要な出血の原因となり,結果的に余計な切離を要することになる。
 このため,医療従事者による臓器内部の把握を支援する目的で,現在,画像処理技術や可視化技術を利用した各種のソフトウェアが広く活用されている。例えば特許文献1には,対象臓器に存在する異常領域の位置だけでなく,対象臓器とその周辺に位置する臓器との位置関係も考慮した切離方法を提示する手術支援装置等が記載されている(段落[0010]参照)。具体的には,特許文献1には,切離される体積を最小化する切離方法,切離される表面積を最小化する切離方法,切離部位の表面からの距離を最小化する切離方法を提供する技術が記載されている。
 また,特許文献2には,手術時における臓器の変形度合等を考慮した画像シミュレーションが可能な画像診断支援技術が記載されている(段落[0006]参照)。具体的には,特許文献1には,隣接する頂点が互いに連結された四面体ブロック(いわゆるポリゴン)によって構成される四面体モデルに対する任意の切離パターンを予め演算しておくことにより,医療従事者による切離位置の指定に応じた画像シミュレーションを提供する技術が記載されている。
特開2013-154037号公報 特開2014-176425号公報
 特許文献1に記載の技術は,複数の観点から異常領域の部分曲面の候補を提示することができるものの,当該部分曲面の候補のいずれが標準的な部分曲面であるかは分からない。また,当該技術では,部分曲面の候補は分かっても,選択した部分曲面について,どの順番に臓器を切離するかについては何ら示していない。
 一方,特許文献2に記載の技術は,対象臓器を構成する全てのポリゴンについて,想定される全ての四面体分割パターンを予め計算しておく必要があり,計算負荷が非常に大きいという問題がある。また,当該技術では,切離部位に位置するポリゴンの全ての頂点位置を医療従事者が順番に指定する必要がある。つまり,この手法では,医療従事者が逐次ポイントを与えない限り,シミュレーションは進行しない。また,当該技術は,あくまでもポリゴンをベースとして患者毎に作成され,医用画像への応用は想定されていない。また,作製されたポリゴンモデルは個々の患者に固有であり,他の患者への応用は想定されていない。このため,特許文献1に記載の技術は,切離プロセスのトレーニング用途に留まっている。
 すなわち,いずれの文献にも,どの部位にメスを入れるか,メスをどの方向に進展させるか,進展中のメスの深さをどうするか,メスを入れる順序等に関する情報を与える切離プロセスを,利用者による逐次的な指定入力が無くても自動的に提示できる仕組みは考慮されていない。
 本明細書は,前述の課題を解決する手段を複数含んでおり,その一例として,項1~項20に示す手段がある。
・項1
 切離対象臓器の切離部位に応じた切離面と切離の進展に関する情報とを記述した手術プロセスの事例データを記憶する手術プロセス事例データベースと,
 ユーザーにより指定された切離部位に応じた事例データを前記手術プロセス事例データベースから読み出し,読み出された複数の事例データに基づいて標準切離面及び標準切離プロセスを生成する標準切離プロセス生成部と,
 解剖学的参照点を患者固有の三次元医用画像データから抽出する解剖学的参照点抽出部と,
 前記標準切離面及び前記標準切離プロセスを,前記患者固有の三次元医用画像データにマッチングし,患者固有の切離面及び切離プロセスを推定する患者固有切離プロセス推定部と
 を有する切離プロセス推定装置。
・項2
 前記項1に記載の切離プロセス推定装置において,
 表示画面上に表示された患者固有の三次元医用画像に対する1つ又は複数の切離点の入力を受け付ける切離点受付部
 を更に有する切離プロセス推定装置。
・項3
 前記項1に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記マッチングの前処理として,(i)撮像条件の違いによる前記患者固有の三次元医用画像データに撮像された臓器の大きさの違いを補正するための拡大又は縮小処理と,(ii)患者固有の前記臓器の大きさと標準臓器の大きさとの違いを補正するひずみ補正処理と,(iii)前記処理の全て又は前記処理の組み合わせ又はいずれか一つを実行する
 ことを特徴とする切離プロセス推定装置。
・項4
 前記項2に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記標準切離プロセスと,前記患者固有の三次元医用画像データから抽出された解剖学的参照点と,ユーザーから受け付けた前記切離点とに基づいて前記患者固有の切離プロセスを推定する
 ことを特徴とする切離プロセス推定装置。
・項5
 前記項4に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,ユーザーにより指定された1つ又は複数の前記切離点の近くを通る前記切離面を,前記切離点の位置を制約条件とする最小化問題の解として計算する
 ことを特徴とする切離プロセス推定装置。
・項6
 前記項2に記載の切離プロセス推定装置において,
 前記標準切離プロセス生成部は,前記手術プロセス事例データベースに格納された個別の前記事例データを組み合わせて前記標準切離面及び標準切離プロセスを生成する際,前記患者固有の三次元医用画像データから抽出された前記解剖学的参照点とユーザーから受け付けた前記切離点とに最も近似する組み合わせが得られるように組合せ対象である前記事例データの重みづけを行う
 ことを特徴とする切離プロセス推定装置。
・項7
 前記項1に記載の切離プロセス推定装置において,
 前記切離面は,個々の切離の進展に応じて生じる部分曲面から構成され,
 前記切離プロセスは,前記部分曲面に対応する切離の順序を与える
 ことを特徴とする切離プロセス推定装置。
・項8
 前記項4に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記切離点のいずれかを通る部分曲面を,前記標準切離面及び前記標準切離プロセスに基づいて推定する
 ことを特徴とする切離プロセス推定装置。
・項9
 前記項8に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記解剖学的参照点の解剖学的構造を考慮して前記部分曲面を推定する
 ことを特徴とする切離プロセス推定装置。
・項10
 前記項2に記載の切離プロセス推定装置において,
 前記切離点受付部は,1つ又は複数の前記切離点の入力を受け付けると同時に,入力した切離点の切離順序を受け付ける
 ことを特徴とする切離プロセス推定装置。
・項11
 前記項10に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記患者固有の三次元医用画像データに対して入力された1つ又は複数の前記切離点の位置と入力順序を,標準臓器を構成するメッシュの頂点に対応付けて前記手術プロセス事例データベースに記録する
 ことを特徴とする切離プロセス推定装置。
・項12
 前記項1に記載の切離プロセス推定装置は,
 ユーザーが患者固有の1つ又は複数の切離点を指定した場合に,前記切離点を制約条件とする最適な切離面と切離プロセスをユーザーに提示する切離ナビゲーションシステムとして機能する
 ことを特徴とする切離プロセス推定装置。
・項13
 前記項1に記載の切離プロセス推定装置は,
 ユーザーが患者固有の1つ又は複数の切離点と切離順序を指定した場合に,前記切離点と入力順序を制約条件とする最適な切離面と切離プロセスをユーザーに提示する切離ナビゲーションシステムとして機能する
 ことを特徴とする切離プロセス推定装置。
・項14
 前記項2に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記標準切離面を,ユーザーが指定した前記切離点に対応する前記患者固有の三次元医用画像データの頂点情報に対応付ける処理機能を更に有する
 ことを特徴とする切離プロセス推定装置。
・項15
 前記項2に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,前記患者固有の切離プロセスとユーザーが指定した前記切離点に対応する前記患者固有の三次元医用画像の頂点情報を標準臓器の頂点情報に対応付ける処理機能を更に有する
 ことを特徴とする切離プロセス推定装置。
・項16
 前記項1に記載の切離プロセス推定装置において,
 前記患者固有切離プロセス推定部は,推定された前記患者固有の切離プロセスの進展に伴って,前記患者固有の三次元医用画像に重ねるように前記解剖学的参照点の一部又は全部を透過的に表示する
 ことを特徴とする切離プロセス推定装置。
・項17
 切離対象臓器の切離部位に応じた切離面と切離の進展に関する情報とを記述した手術プロセスの事例データを記憶する
 切離プロセス事例データベース。
・項18
 切離対象臓器の切離部位に応じた切離面と切離の進展に関する情報とを記述した手術プロセスの事例データを記憶する手術プロセス事例データベースと,
 ユーザーにより指定された切離部位に応じた事例データを前記手術プロセス事例データベースから読み出し,読み出された複数の事例データに基づいて標準切離面及び標準切離プロセスを生成する標準切離プロセス生成部と,
 解剖学的参照点を患者固有の三次元医用画像データから抽出する解剖学的参照点抽出部と,
 前記標準切離プロセスを,前記患者固有の三次元医用画像データにマッチングし,患者固有の切離プロセスを推定する患者固有切離プロセス推定部と,
 前記患者固有切離プロセス推定部において推定された前記患者固有の切離プロセスを表示する表示装置と
 を有する切離プロセスナビゲーションシステム。
・項19
 前記項18に記載の切離プロセスナビゲーションシステムにおいて,
 前記表示装置は,ユーザーが患者固有の1つ又は複数の切離点を指定した場合に,前記切離点を制約条件とする最適な切離面と切離プロセスをユーザーに提示する
 ことを特徴とする切離プロセスナビゲーションシステム。
・項20
 前記項18に記載の切離プロセスナビゲーションシステムにおいて,
 前記表示装置は,ユーザーが患者固有の1つ又は複数の切離点と前記切離点それぞれの入力順序を指定した場合に,前記切離点を制約条件とする最適な切離面と前記切離プロセスをユーザーに提示する
 ことを特徴とする切離プロセスナビゲーションシステム。
 本発明によれば,どの部位にメスを入れるか,メスをどの方向に進展させるか,進展中のメスの深さをどうするか,メスを入れる順序等に関する情報を与える切離プロセスを,利用者による逐次的な指定入力が無くても自動的に推定することができる。
実施例1に係る切離プロセスナビゲーションシステムの概略構成を示す図。 三次元医用画像データのデータ構造を説明する図。 (A)~(D)は標準切離面と標準切離プロセスのイメージを示す図。 (A)~(C)は実施例1に係る患者固有切離プロセス推定部において実行される推定処理手順を示す図。 実施例1に係るナビゲーション画面として表示される切離面と解剖学的参照点の例を示す図。 (A)~(C)はナビゲーション画面における切離の進展を説明する図。 実施例2に係る切離プロセスナビゲーションシステムの概略構成を示す図。 (A)~(C)は実施例2に係る患者固有切離プロセス推定部において実行される推定処理手順を示す図。 実施例2に係るナビゲーション画面として表示される切離面と解剖学的参照点の例を示す図。 実施例3に係る切離プロセスナビゲーションシステムの概略構成を示す図。 (A)~(C)は実施例3に係る患者固有切離プロセス推定部において実行される推定処理手順を示す図。 実施例3に係るナビゲーション画面として表示される切離面と解剖学的参照点の例を示す図。 新たに生成された事例データの例を示す図。 新たに生成された事例データの例を示す図。
 以下,図面に基づいて,本発明の実施例を説明する。なお,本発明は,後述する実施例に限定されるものではなく,その技術思想の範囲において,種々の変形が可能である。
(1)実施例1
 最初に最も単純な装置構成を有する実施例について説明する。具体的には,患者固有の三次元医用画像データを与えると,標準的な切離部位,切離の進展方向,切離の深さ,切離の順序をナビゲーションしてくれる装置について説明する。
(1-1)装置構成
(1-1-1)全体構成
 図1に,本実施例における切離プロセスナビゲーションシステム100の概略構成を示す。切離プロセスナビゲーションシステム100は,切離プロセス推定装置110,患者固有三次元医用画像データ記憶装置120,手術プロセス事例データベース130,表示装置140を有している。切離プロセスナビゲーションシステム100は,医療機関内の端末を用いて構築しても良いし,医療機関内の端末からネットワーク経由でアクセスされるクラウドサーバとして構築しても良い。なお,ナビゲーションシステムをクラウドサーバ上で構成する場合,医療機関内の端末はクラウドサーバに対する入出力装置として使用される。
 切離プロセス推定装置110は,いわゆるコンピュータによって構成される。すなわち,切離プロセス推定装置110は,主記憶装置,演算装置,制御装置,入出力装置によって構成される。切離プロセス推定装置110は,後述する各種の機能をプログラムの実行を通じて実現する。なお,機能の一部又は全てをハードウェアによって実現しても良い。切離プロセス推定装置110が実行する各種の機能については後述する。
 患者固有三次元医用画像データ記憶装置120と手術プロセス事例データベース130は,それぞれ後述するデータを保存する記憶装置により構成される。本実施例の場合,記憶装置の記憶媒体には磁気ディスクを使用する。もっとも,その他の記憶媒体,例えば光ディスク,半導体メモリ,磁気テープなどを用いても良い。患者固有三次元医用画像データ記憶装置120と手術プロセス事例データベース130は,いずれも独立した記憶装置として実現しても良いが,その一部又は全部を1つの記憶装置の異なる記憶領域として実現しても良い。また,これらの記憶装置を切離プロセス推定装置110と同一の筐体内に配置しても良いし,ネットワーク経由で接続しても良い。ネットワークには,例えば専用線,インターネットなどが使用される。なお,接続形態は,有線接続でも無線接続でも構わない。
 患者固有三次元医用画像データ記憶装置120は,患者固有の三次元医用画像データを記憶する記憶装置である。患者固有の三次元医用画像データには,例えばCT(Computed Tomography)画像データ,MRI(Magnetic Resonance Imaging)画像データ,PET(Positron Emission Tomography)画像データ,SPECT(Single Photon Emission Computed Tomography)画像データが含まれる。なお,三次元医用画像データは,これら全ての画像データである必要は無く,それらのうちの一つ以上であれば良い。
 ここでの三次元医用画像データは,二次元断層画像の集合であり,ボクセルと呼ばれる単位正規格子の集合によって定義される。ボクセルは,二次元画像のピクセルに対応する。三次元医用画像データでは,三次元座標が決まると一つのボクセル値が定まる。ここでは,三次元座標(x, y, z)に対応するボクセル値をI (x, y, z) ={…,(voxel),…}と表記する。図2に,三次元医用画像データのデータ構造を示す。左図は三次元医用画像データの外観イメージであり,右図は三次元医用画像データの一部を破断して示す内部構造である。右図に示すように,三次元医用画像データの内部には,ボクセルが隙間なく配置されている。
 手術プロセス事例データベース130は,切離対象臓器の切離部位に応じて収集された手術プロセスの事例データを記憶する記憶装置である。事例データは,標準臓器について記録されている。標準臓器は,例えば肝臓,肺,泌尿器,呼吸器,脳その他である。手術プロセスは,切離面と切離の進展に関する情報とによって構成される。切離部位は,臓器から切離する部位をいい,例えば肝臓であればS1~S8,肺であれば上葉,中葉,下葉等をいう。本実施例の場合,切離面とは,切離の最終段階で現れる臓器の断面をいう。切離面には,メスによる切離の進展に応じて逐次出現する複数の部分曲面を経て到達する。なお,部分曲面の形状は,メスによる切離の進展に応じて変化する。
 切離プロセスとは,切離面に至るまでの切離に関連する情報である。例えばどの部位にメスを入れるか,メスをどの方向に進展させるか,進展中のメスの深さをどうするか,メスを入れる順序等に関する情報をいう。本実施例の場合,手術プロセス事例データベース130には,標準臓器に対応付けて切離面と切離プロセスが記憶されている。なお,切離面や切離プロセスは,標準臓器を表す三次元医用画像データの三次元座標に対応付けられている。標準臓器の解剖学的構造は既知である。このため,事例データを構成する各三次元座標の値I (x, y, z)は,医用画像が持つボクセル値voxelと,解剖学的構造ラベルのラベル値labelを用いて{…,(voxel, label),…}で表される。ラベル値については後述する。
 表示装置140は,切離プロセス推定装置110に接続されており,ユーザインタフェース画面の提供に用いられる。ユーザインタフェース画面には,例えば患者固有の三次元医用画像や切離プロセス推定装置110で推定された切離プロセスが表示される。表示装置140には,例えば液晶モニタ等のフラットディスプレイ装置が使用される。
(1-1-2)詳細構成
 切離プロセス推定装置110の詳細構成を説明する。切離プロセス推定装置110は,プログラムの実行を通じて各種の機能を提供する。本実施例の場合,切離プロセス推定装置110は,標準切離プロセス生成部111,解剖学的参照点抽出部112,患者固有切離プロセス推定部113に対応する機能を提供する。
 標準切離プロセス生成部111は,システムの利用者である医療従事者が予め指定した臓器及び切離部位に対応する事例データを手術プロセス事例データベース130から読み出し,標準切離面と標準切離プロセスPs(t)を生成する。パラメータtは,切離の進展の具合又は切離順序の情報を意味するタイムスタンプを意味する。
 標準切離プロセス生成部111は,手術プロセス事例データベース130に格納された個別の事例データを組み合わせて標準切離面及び標準切離プロセスPs(t)を生成する。本実施例における標準切離プロセス生成部111は,複数の事例データを重み付け演算し,標準切離面及び標準切離プロセスPs(t)を生成する。この際,標準切離プロセス生成部111は,重み付け演算で生成された標準臓器内の解剖学的参照点が,患者固有の三次元医用画像データから抽出された解剖学的参照点Paに最も近づく重みの組を決定し,当該重みの組を用いて算出された切離面と切離プロセスを「標準切離面」と「標準切離プロセス」として使用する。
 本実施例では,以下に示すデータ構造を有する標準切離プロセスデータMatlasを使用する。標準切離プロセスデータMatlasは,頂点集合Vと要素集合Eを用いて以下のように表される。
 Matlas=(V,E)
 Vは,標準臓器を表す三次元医用画像データを構成する各メッシュの頂点の集合であり,頂点ベクトルviを用いて以下のように表される。
 V={v0,v1,...,vn-1}
 頂点ベクトルviは,頂点座標(x,y,z),タイムスタンプtime,解剖学的構造ラベルlabel,頂点の属性情報(isFreezed, isCutpath, isSurface)を用いて,以下のように表される。
 vi=(x, y, z, time, label, isFreezed, isCutpath, isSurface)
 x, y, zは,対応する頂点の三次元位置を浮動小数で保存した値である。
 timeは,対応する頂点を何番目に切離するかを示すタイムスタンプであり,例えば[0, n-1]の整数で与えられる。なお,切離されない頂点には,これらの整数値が付与されないか,これらの整数値以外の値が付与される。
 labelは,解剖学的構造を示す整数のラベル値であり,例えば上葉には”0”, 中葉には”1”,下葉には”2”,動脈には”3”,静脈には”4”などが与えられる。
 isFreezedは属性情報1であり,固定頂点には”1”が,自由頂点には”0”が与えられる。
 isCutpathは属性情報2であり,切離面上の頂点には”1”が,それ以外の頂点には”0”が与えられる。
 isSurfaceは属性情報3であり,臓器の表面上の頂点には”1”が,臓器の内部に位置する頂点には”0”が与えられる。
 要素集合Eは,どの頂点によってメッシュ形式の最小要素が構成されるかを,整数からなる頂点の番号の組で与える。三角形メッシュの場合,要素集合Eは三つの頂点の組で表される。最小要素が四面体の場合,要素集合Eは,例えばE = [(0, 1, 2, 3), (0, 3, 6, 9), …, (p, q, r, s), …]のように四つの頂点の組で表される。
 図3に,標準切離プロセス生成部111により生成される標準切離面11と標準切離プロセスデータMatlasのイメージ図を示す。図3は,標準臓器10である肺の右下葉を切除する例を表している。タイムスタンプt=0,1,2,3に対応する4つの時点は,標準切離プロセスPs(0),Ps(1),Ps(2),Ps(3)に対応する。タイムスタンプt=0(図3(A)参照)は,切離が開始される前の時点に対応し,これから生成する切離予定面を与える標準切離面11と肺10から切り離される部位(下葉)との関係を表している。図3の場合,標準切離面11は平面で表しているが,これは理解を容易にするためであり,実際には自由曲面で定義される。
 タイムスタンプt=1,2,3(図3(B),図3(C),図3(D)参照)に対応するイメージ図はそれぞれ,頂点集合Vのうち同じタイムスタンプが付与された頂点同士を接続するようにメスで切り開いた場合の臓器の変形を表現している。図中の切り込み21~23は,臓器表面のどの部位からメスを入れ,どの方向にメスを進展させるか,どの程度の深さまでメスを入れるか,メスをどの順番に入れるかといった情報を表現している。
 解剖学的参照点抽出部112は,既存の領域抽出アルゴリズムを使用し,患者固有の三次元医用画像データから切離部位に存在する管状構造及び病変部を解剖学的参照点Paとして抽出する機能を提供する。例えば解剖学的参照点抽出部112は,患者固有の三次元医用画像データの輝度分布に基づいて肺,肝臓その他の解剖学的情報,管状構造(例えば血管,リンパ管),病変部(例えば腫瘍)等を抽出する。解剖学的参照点抽出部112は,抽出された解剖学的参照点Paに応じたラベル値を付し,患者固有の三次元医用画像データMpatientを生成する。
 ここで,患者固有の三次元医用画像データMpatientは,前述のボクセル値I (x, y, z)に解剖学的構造ラベルのラベル値labelを付したI (x, y, z)={…,(voxel, label),…}として表現される。患者個人の三次元医用画像データMpatientは,頂点集合V+と要素集合Eで表される。ただし,ここでの頂点集合V+を与えるベクトルデータはタイムスタンプ等を含まないため,頂点ベクトルv+iは,頂点座標(x,y,z)と解剖学的構造ラベルlabelによって以下のように表される。
 v+i = (x, y, z, label)
 患者固有切離プロセス推定部113は,標準切離面と標準切離プロセスデータMatlasを,患者固有の三次元医用画像データMpatientにマッチングし,患者固有の切離面及び切離プロセスデータM’を推定する機能を提供する。なお,マッチングの前処理として,患者固有切離プロセス推定部113は,(i) 撮像条件の違いによる患者固有の臓器の大きさの違いを補正するための拡大又は縮小処理と,(ii) 個体差に起因する患者固有の臓器の大きさや部分的な形状の差異と標準臓器の大きさや形状との違いを補正するひずみ補正と,(iii)前記処理の全て又は前記処理の組み合わせ又はいずれか一つを実行する。これにより,後続するマッチング処理の精度を高めることが可能になる。
 次に,患者固有切離プロセス推定部113は,標準臓器を構成するボクセルの各頂点を患者固有の三次元医用画像データMpatientを構成するボクセルの各頂点に対応付けることにより,患者固有の切離面及び切離プロセスデータM’を推定する。ここでの標準切離面と標準切離プロセスデータMatlasは,重み付け演算で生成される標準臓器の解剖学的参照点が患者固有の解剖学的参照点Paに最も近づくように選択されているので,患者の手術に最適な切離面と切離プロセスデータM’を与えることになる。
 患者固有切離プロセス推定部113は,患者固有の切離面及び切離プロセスデータM’の推定が終了すると,推定された切離面と切離プロセスデータM’に基づいてナビゲーション画面を生成し,表示装置140の画面上に表示する。ナビゲーション画面には,どの部位にメスを入れるか,メスをどの方向に進展させるか,進展中のメスの深さをどうするか,メスを入れる順序等が時系列に提示される。従って,医療従事者は,患者個人の三次元医用画像データMpatient以外には何も入力しなくても,患者個人に適した切離面と切離プロセスを確認することができる。
(1-2)処理動作
 切離プロセスナビゲーションシステム100の処理動作の概要を,図4を用いて説明する。
 まず,切離プロセス推定装置110は,標準切離プロセス生成部111を使用し,標準臓器10についての標準切離面11と標準切離プロセスデータMatlasを計算する。前述したように,標準切離プロセスデータMatlasには,標準切離面11に至る切離の進展に関する一連の情報が含まれている。図4(A)では,標準切離面11のみを表している。
 次に,患者固有切離プロセス推定部113は,患者の臓器(肺20)について計算された三次元医用画像データMpatientを解剖学的参照点抽出部112から取得し,標準切離プロセスデータMatlasとのマッチングを行う(図4(B)参照)。このマッチング処理の際,切離プロセス推定装置110は,標準切離プロセスデータMatlasのn個の頂点集合V={v0,v1,…,vn-1}を,患者固有の三次元医用画像データMpatientのm個の頂点集合V+=[v+0, v+1,…, v+m-1]に位置合わせする。
 vi = (x, y, z, time, label, isFreezed, isCutpath, isSurface,…)
   ただし,i = [0, n-1]
 v+j = (x’, y’, z’, label’)
   ただし,j = [0, m-1]
 患者固有の頂点集合V+に位置合わせした後の切離プロセスデータM’は,次式で表される。
 M’= (x*, y*, z*, time, label, isFreezed, isCutpath, isSurface, …)
 この結果,切離プロセス推定装置110は,図4(C)に示すように,患者の臓器20についての患者固有の切離面31を計算することができる。
 図5及び図6に,ナビゲーション画面の概念例を示す。図5と図6は,図3及び図4の例とは異なり,肺20の中葉を切離する場合について表している。図5は,ナビゲーション画面の初期画面である。図5には,患者固有の三次元医用画像データMpatientについて推定された切離面50と,後述する切離プロセスにおいて参照される解剖学的参照点Paのうちの一部のPaを含む臓器内部の解剖学的構造を透過的に示している。なお,図5の例では,表示態様の一例として,臓器(この例では肺20)から切り離される予定の部位の解剖学的構造のみを透過的に示しているが,残存予定の部位についてのみ又は臓器全体について解剖学的構造を透過的に表示することも可能である。この表示から,医療従事者は,臓器外部からは観察できない臓器内部の解剖学的構造,例えば動脈,静脈,腫瘍などの位置を把握することができる。ただし,この初期画面だけでは,どの部位からメスを入れればよいか,メスをどの方向に進展させればよいか,進展中のメスの深さをどうすればよいか,メスを入れる順序はどうかについての情報を得ることはできない。
 患者固有切離プロセス推定部113は,図6(A)~(C)に示すナビゲーション画像を時間順に表示する。図6(A)~(C)は,時間軸上の一点に対応するもので,実際には,メスの進展に応じた部分曲面61A,61Bや臓器の形状が連続的に変化するように表示される。図6(A)は,肺20を前方から見た図である。本図は,太線で示す曲線60Aに沿うように臓器に挿入したメスの刃を進展することで部分曲面61Aが出現した状態を表している。すなわち,曲線60Aはメスを入れる臓器表面の位置を示している。なお,ナビゲーション画面上では,切離箇所の視認を容易にする目的で曲線60Aに特定の色が付されている。この曲線60Aに対応する頂点の三次元医用画像データには同じタイムスタンプが付与されている。図中の矢印は,メスを進展する方向である。図6(A)の表示内容より,メスは,解剖学的参照点Paである動脈が見える深さまで入れることが分かる。
 図6(B)の曲線60Bは,2番目のメスを入れる部位を示す。2番目のメスは,肺20の後方側から切り進めるためである。図6(B)においても,メスを入れる臓器表面の位置を容易にする目的で曲線60Bには特定の色が付されている。図6(B)の表示を確認した医療従事者は,2番目のメスは肺の後方から曲線60Bに沿って進展すべきことを理解できる。また,メスは,解剖学的参照点Paである静脈が見える深さまで入れることが示される。2番目のメスの進展により部分曲面61Bが出現する。図6(C)は,2番目のメスによる切離の進展後になされた更なる切離によって,切離面50上の血管断面が新たに出現する様子を示している。なお,1番目のメスによる切離の進展により現れる部分曲面61Aと2番目のメスの切離の進展により現れる部分曲面61Bとをお椀状に繋げることで,2つの部分曲面61A及び61Bで挟まれた部分が臓器から切り離される。
 図6(C)では,切離面50の表面に出現する静脈等の解剖学的構造が示される他,臓器(この例では肺20)から切り離される部位の血管等の解剖学的構造が透過的に示されている。これらの表示により,医療従事者は,臓器側に残存する部位に出現する血管や切り離される側の部位に含まれる血管の断面など,手術の進行に必要な情報を把握することができる。さらに,図6(C)の表示によれば,実際の臓器では外部から観察されないような,切り離される部位の内部の解剖学的構造を透過的に確認できるため,切除すべき腫瘍などが切除できたかどうかを確認することも可能である。なお,図6(A)~(C)においても,前述の図5と同様に,残存予定の部位についてのみ又は臓器全体について解剖学的構造を透過的に表示することも可能である。
 ところで,患者固有切離プロセス推定部113は,メスが進展する曲線60A,60Bと患者固有の三次元医用画像データMpatientの位置関係を把握している。このため,ナビゲーション画面には,メスの到達した深さや曲線60A,60Bに沿ったメスの進展に応じて患者固有の臓器(肺20)の形状を変形させるように表示する。ここでの臓器(肺20)の変形には,患者固有の三次元医用画像データMpatientとして与えられた各メッシュの頂点集合V+の情報を利用できるため,ポリゴンを使用する特許文献2に比して計算量が小さく済む。このため,部分曲面61A,61Bに現れる内部構造や形状の変化をリアルタイムで表示することができる。
(1-3)効果
 前述した切離プロセスナビゲーションシステム100を用いることにより,医療従事者は,患者固有の三次元医用画像データを入力するだけで,患者の臓器(肺20)に適した切離面50及び切離プロセスをナビゲーション画面の提示を受けることができる。すなわち,利用者である医療従事者による切離点の逐次的な指定入力が無くても切離面50及び切離プロセスを自動的に推定することができる。この結果,医療従事者は,教科書的な情報に基づいた手術プロセス,特にどの部位にメスを入れ,メスをどの方向に進展させ,進展中のメスの深さをどうするか,メスを入れる順序をどうするかといった手順を自動的に確認できる。また,本システムを用いることにより,切離の進展に伴って出現すると予想される血管等の解剖学的構造や臓器の変形も,切離の進展に伴いながら可視化することができる。その際,切離面に直接現れる解剖学的構造は勿論,医療従事者の選択等により,臓器内部や切り離される部位の内部の解剖学的構造も透過的に可視化することもできる。その結果,医療従事者は,時系列的な可視化結果を参照して手術を実施することができる。
(2)実施例2
(2-1)装置構成
 図7に,本実施例における切離プロセスナビゲーションシステム200の概略構成を示す。図7には,図1との対応部分に同一符号を付して示している。切離プロセスナビゲーションシステム200は,切離プロセス推定装置110A,患者固有三次元医用画像データ記憶装置120,手術プロセス事例データベース130,表示装置140を有している。
 本実施例の切離プロセス推定装置110Aは,切離点受付部114Aを有する点で実施例1の切離プロセス推定装置110(図1)と相違する。切離点受付部114Aは,表示装置140の画面上に表示された患者固有の三次元医用画像に対する,医療従事者による1つ又は複数の切離点Pkの入力を受け付ける機能を提供する。この機能は,最終的に推定される切離面と切離プロセスを,医療従事者のイメージに近づける目的で用意されている。
 本実施例の場合,切離点Pkの入力順序には意味がない。切離点Pkの入力は,三次元医用画像の表面上に位置決めされたポインタの位置入力を通じて実行される。切離点Pkの入力数には制限がない。従って,入力数は1つでもよい。
 本実施例における標準切離プロセス生成部111は,手術プロセス事例データベース130に格納された個別の事例データを組み合わせて標準切離面11及び標準切離プロセスを生成する際,患者固有の三次元医用画像データから抽出された解剖学的参照点Paとユーザーから受け付けた切離点Pkとに最も近似する組み合わせが得られるように組合せ対象である事例データの重みづけを行う。
 本実施例における患者固有切離プロセス推定部113Aは,医療従事者によって入力された切離点Pkの位置情報も考慮して,患者固有の切離面と切離プロセスを推定する。例えば患者固有切離プロセス推定部113Aは,患者固有の切離面が切離点Pk={p0,p1,…,pn-1}の近傍を通るように,標準切離面をマッチングして求まる患者固有の切離面をリアルタイムで変形する機能を備えている。
(2-2)処理動作
 切離プロセスナビゲーションシステム200の処理動作の概要を,図4と図8を用いて説明する。
 まず,患者固有切離プロセス推定部113Aは,標準切離プロセス生成部111を使用し,標準臓器10についての標準切離面11(図4(A)参照)と標準切離プロセスデータMatlasを計算する。この動作は実施例1と同じである。すなわち,図4(C)に示すように,標準切離面11と標準切離プロセスデータMatlasが,患者固有の三次元医用画像データMpatientに適用され,患者固有の切離面31と切離プロセスデータM’が算出される。図8(B)は,この状態を表している。
 本実施例の場合,医療従事者は,自身の判断でメスが通過する位置を規定する切離点Pkを,切離点受付部111Aを通じて入力している(図8(A)参照)。このため,患者固有切離プロセス推定部113Aは,これらの切離点Pkを,前述の患者固有の切離面31と切離プロセスデータM’に対する制約条件として与え,患者固有の切離面31と切離プロセスデータM’が切離点Pkの近傍を通るように修正を加える。図8(A)の場合,切離点Pkは3つ入力されている。
 患者固有切離プロセス推定部113Aは,以下に示す計算式を使用し,修正処理を実行する。まず,患者固有切離プロセス推定部113Aは,修正切離面41上に位置するメッシュの頂点の集合(式中ではVの頭に^を付けて示す。)を,次式(1)を用いて計算する。
Figure JPOXMLDOC01-appb-M000001
 ここで,Vは,患者固有の切離面31上に位置するメッシュの頂点の集合であり,V={v0, v1, …, vn-1}で与えられる。vi(i=0,1,…,n-1)は位置座標の初期位置であり,vi^(式中では,vの頭に^を付けて示す。)は,最小二乗法の解を与える位置座標である。なお,L(-)は,ラプラシアンである。また,pi(i=0,1,…,n-1)は,i番目の頂点についての位置制約である。N(vi)(i=0,1,…,n-1)は,i番目の頂点の近傍に位置する頂点の集合である。ここで,i番目の頂点におけるラプラシアンベクトルは,次式(2)に示すように,重みwijを用いて計算することができる。
Figure JPOXMLDOC01-appb-M000002
 この計算手法の特徴の1つは,患者固有の切離面31上に位置するメッシュの頂点の情報しか用いない点である。このため,標準モデル内の全てのポリゴンを計算する必要がある特許文献2に比して,必要計算量は非常に小さくなる。その結果,制約条件として与えられた3つの切離点Pkを通る修正切離面41(図8(C)参照)をリアルタイムで計算することができる。なお,本実施例において,修正切離面41を最小化問題として解いているのは,3つの切離点Pkを全て通る切離面が存在しない可能性があるためである。図9に,ナビゲーション画面の概念例を示す。図9は,図8とは異なり,肺の中葉を切離する場合について表している。図9では,修正切離面41の縁部を破線で示している。勿論,図9の場合も,修正切離面41に直接現れる解剖学的構造だけでなく,医療従事者の選択等により,臓器内部や切り離される部位の内部の解剖学的構造を透過的に可視化してもよい。
(2-3)効果
 前述した切離プロセスナビゲーションシステム200を用いることにより,実施例1の効果に加え,標準切離面と標準切離プロセスを適用して得られる初期の切り込み21と切離プロセスを,医療従事者の指定した切離点Pkを通るように修正することができる。なお,修正処理の際に実行される計算では,患者固有の切離面31上に位置するメッシュの頂点の情報しか用いないため計算負荷が小さく,リアルタイムで修正切離面41と修正切離プロセスデータMfinalを計算することができる。
(3)実施例3
(3-1)装置構成
 図10に,本実施例における切離プロセスナビゲーションシステム300の概略構成を示す。図10には,図7との対応部分に同一符号を付して示している。切離プロセスナビゲーションシステム300の基本構成は,実施例2の切離プロセスナビゲーションシステム200と同じである。
 本実施例の特徴部分は,(1)切離点受付部114Bが切離点Pkの入力順序も患者固有切離プロセス推定部113Bに与えること,(2)患者固有切離プロセス推定部113Bが入力された切離点Pkの位置と入力順序を考慮して患者に適した修正切離面と修正切離プロセスを推定すること,(3)患者固有切離プロセス推定部113Bが入力された切離点Pkの位置と入力順序を,標準臓器を構成するメッシュの頂点に対応付けて手術プロセス事例データベース130に記録することの3つである。
(3-2)処理動作
 以下では,前述した特徴部分に関連する処理動作を説明する。
 まず,1つ目の特徴部分を説明する。本実施例における切離点受付部114Bは,医療従事者による切離点Pkの入力と同時にその入力順序を特定し,切離点Pk(t)として患者固有切離プロセス推定部113Bに出力する。図11に,切離点Pk(t)の入力例を示す。図11(A)では,3つの切離点Pk(0)~Pk(2)が入力されている。Pk(0)が1番目に入力された切離点の位置,Pk(1)が2番目に入力された切離点の位置,Pk(2)が3番目に入力された切離点の位置をそれぞれ示している。
 次に,2つ目の特徴部分を説明する。本実施例における患者固有切離プロセス推定部113Bは,切離点Pk(0)~Pk(2)の入力順序と標準切離プロセスにおける切離の展開(メスで臓器を切離する順番)が一致するか判定し,一致する場合には,実施例2と同じ手法で生成された修正切離面51と修正切離プロセスデータMfinalを計算する(図11(B),(C)参照)。これに対して,切離点Pk(0)~Pk(2)の入力順序と標準切離プロセスにおける切離の展開順序が一致しない場合,患者固有切離プロセス推定部113Bは,例えば切離点Pk(0)~Pk(2)の入力順序の情報を標準切離プロセス生成部111に与え,切離点Pk(0)~Pk(2)の入力順序に一致する事例データを選択的に用いて標準切離面と標準切離プロセスデータを再計算する(図11(B)参照)。
 その後,再計算により得られた標準切離面と標準切離プロセスデータMatlasを切離点Pk(0)~Pk(2)の位置に応じて修正し,修正切離面51と修正切離プロセスデータMfinalを生成する(図11(C)参照)。図12に,本実施例におけるナビゲーション画面の例を示す。図12も,前述の実施例と同じく,肺の中葉を切離する場合について表している。本実施例の場合,医療従事者による切離点Pk(0)~Pk(3)の入力順序まで一致する修正切離面51と修正切離プロセスデータMfinalが自動的に推定され,画面上に提示される。勿論,図12の場合も,修正切離面51に直接現れる解剖学的構造だけでなく,医療従事者の選択等により,臓器内部や切り離される部位の内部の解剖学的構造を透過的に可視化してもよい。
 3つ目の特徴部分を説明する。この処理は,医療従事者によって入力された切離点Pk(t)の位置と入力順序の情報を,標準臓器を構成するメッシュの頂点に対応付けて保存する処理に当たる。この処理に際し,患者固有切離プロセス推定部113Bは,患者固有切離プロセス推定部113Bで使用された患者固有の三次元医用画像データを拡大又は縮小して標準臓器とのマッチング処理を実行し,マッチングした切離点Pk(t)の位置とタイムスタンプを,標準臓器を構成するメッシュの頂点に割り当てる。図13及び図14に,新たに登録された事例データの例を示す。図13は,右下葉切除に対応する事例データであり,図14は左下葉切除に対応する事例データである。
(3-3)効果
 前述した切離プロセスナビゲーションシステム300を用いることにより,事例データの蓄積が進行し,標準切離面及び標準切離プロセスの推定精度を高めることができる。また,医療従事者の考える切離順序に近い切離面と切離プロセスを推定結果として提示することができる。また,本システムを用いることにより,それぞれの臓器における代表的な切離パターン,例えば図13に示す右下葉切除や図14に示す左下葉切除などをテンプレートとして標準切離プロセスデータとして保存しておくことで,従来までは紙でしか記述できなかった外科手術書(いわゆる「アトラス」)を電子的外科手術書として構築することができる。勿論,図13や図14の場合も,切離面に直接現れる解剖学的構造だけでなく,医療従事者の選択等により,臓器内部や切り離される部位の内部の解剖学的構造を透過的に可視化してもよい。
 更に,これら標準テンプレートに当たる種々の標準切離プロセスデータが手術プロセス事例データベース130に予め格納されていれば,当該標準切離プロセスデータを目的関数に基づいて患者個人の三次元医用画像データに位置合わせることで標準的な切離方法を再現することができる。すなわち,新たな患者について用意された三次元医用画像データ(臓器の外形,腫瘍,血管などの解剖学的構造)に標準的な切離方法をカスタマイズ(個人化)して適用し,最終的に患者固有の最適な切離方法を可視化して再現できる。
10…標準臓器,11…標準切離面,20…患者の臓器,21,22,23…切り込み,31…患者固有の切離面,41,51…修正切離面,50…患者固有の三次元医療画像データに適用された切離面(標準切離面),60A,60B…曲線(臓器表面の切離する部位),61A,61B…部分曲面(メスによる切離により現れる面),100,200,300…切離プロセスナビゲーションシステム,110,110A,110B…切離プロセス推定装置,111…標準切離プロセス生成部,112…解剖学的参照点抽出部,113,113A,113B…患者固有切離プロセス推定部,114A,114B…切離点受付部,120…患者固有三次元医用画像データ記憶装置,130…手術プロセス事例データベース,140…表示装置,Pa…解剖学的参照点,Pk,Pk(t)…切離点,Ps(t)…標準切離プロセス,Matlas…標準切離プロセスデータ,Mpatient…患者固有の三次元医用画像データ,M’…患者に最適な切離プロセスデータ,Mfinal…M’を修正した後の切離プロセスデータ(修正切離プロセスデータ)

Claims (15)

  1.  切離対象臓器の切離部位に応じた切離面と,切離の進展に関する情報を与える切離プロセスとを記述した手術プロセスの事例データを記憶する手術プロセス事例データベースと,
     ユーザーにより指定された切離部位に応じた事例データを前記手術プロセス事例データベースから読み出し,読み出された複数の事例データに基づいて標準切離面及び標準切離プロセスを生成する標準切離プロセス生成部と,
     解剖学的参照点を患者固有の三次元医用画像データから抽出する解剖学的参照点抽出部と,
     前記標準切離面及び前記標準切離プロセスを,前記患者固有の三次元医用画像データにマッチングし,患者固有の切離面及び切離プロセスを推定する患者固有切離プロセス推定部と
     を有する切離プロセス推定装置。
  2.  請求項1に記載の切離プロセス推定装置において,
     表示画面上に表示された患者固有の三次元医用画像に対する1つ又は複数の切離点の入力を受け付ける切離点受付部
     を更に有する切離プロセス推定装置。
  3.  請求項1に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記マッチングの前処理として,(i) 撮像条件の違いによる前記患者固有の三次元医用画像データに撮像された臓器の大きさの違いを補正するための拡大又は縮小処理と,(ii) 患者固有の前記臓器の大きさと標準臓器の大きさとの違いを補正するひずみ補正処理と,(iii)前記処理の全て又はいずれか一つを実行する
     ことを特徴とする切離プロセス推定装置。
  4.  請求項2に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記標準切離プロセスと,前記患者固有の三次元医用画像データから抽出された解剖学的参照点と,ユーザーから受け付けた前記切離点とに基づいて前記患者固有の切離プロセスを推定する
     ことを特徴とする切離プロセス推定装置。
  5.  請求項4に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,ユーザーにより指定された1つ又は複数の前記切離点の近くを通る前記切離面を,前記切離点の位置を制約条件とする最小化問題の解として計算する
     ことを特徴とする切離プロセス推定装置。
  6.  請求項2に記載の切離プロセス推定装置において,
     前記標準切離プロセス生成部は,前記手術プロセス事例データベースに格納された個別の前記事例データを組み合わせて前記標準切離面及び標準切離プロセスを生成する際,前記患者固有の三次元医用画像データから抽出された前記解剖学的参照点とユーザーから受け付けた前記切離点とに近似する組み合わせが得られるように組合せ対象である前記事例データの重みづけを行う
     ことを特徴とする切離プロセス推定装置。
  7.  請求項1に記載の切離プロセス推定装置において,
     前記切離面は,個々の切離の進展に応じて生じる部分曲面から構成され,
     前記切離プロセスは,前記部分曲面に対応する切離の順序を与える
     ことを特徴とする切離プロセス推定装置。
  8.  請求項4に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記切離点のいずれかを通る部分曲面を,前記標準切離面及び前記標準切離プロセスに基づいて推定する
     ことを特徴とする切離プロセス推定装置。
  9.  請求項8に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記解剖学的参照点の解剖学的構造を用いて前記部分曲面を推定する
     ことを特徴とする切離プロセス推定装置。
  10.  請求項2に記載の切離プロセス推定装置において,
     前記切離点受付部は,1つ又は複数の前記切離点の入力を受け付けると同時に,入力した切離点の切離順序を受け付ける
     ことを特徴とする切離プロセス推定装置。
  11.  請求項10に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記患者固有の三次元医用画像データに対して入力された1つ又は複数の前記切離点の位置と入力順序を,標準臓器を構成するメッシュの頂点に対応付けて前記手術プロセス事例データベースに記録する
     ことを特徴とする切離プロセス推定装置。
  12.  請求項2に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記標準切離面を,ユーザーが指定した前記切離点に対応する前記患者固有の三次元医用画像データの頂点情報に対応付ける
     ことを特徴とする切離プロセス推定装置。
  13.  請求項2に記載の切離プロセス推定装置において,
     前記患者固有切離プロセス推定部は,前記患者固有の切離プロセスとユーザーが指定した前記切離点に対応する前記患者固有の三次元医用画像の頂点情報を標準臓器の頂点情報に対応付ける
     ことを特徴とする切離プロセス推定装置。
  14.  切離対象臓器の切離部位に応じた切離面と,切離の進展に関する情報を与える切離プロセスとを記述した手術プロセスの事例データを記憶する手術プロセス事例データベースと,
     ユーザーにより指定された切離部位に応じた事例データを前記手術プロセス事例データベースから読み出し,読み出された複数の事例データに基づいて標準切離面及び標準切離プロセスを生成する標準切離プロセス生成部と,
     解剖学的参照点を患者固有の三次元医用画像データから抽出する解剖学的参照点抽出部と,
     前記標準切離面及び前記標準切離プロセスを,前記患者固有の三次元医用画像データにマッチングし,患者固有の切離面及び切離プロセスを推定する患者固有切離プロセス推定部と
     を有し,
     前記切離の進展に関する情報は,前記切離対象臓器を表現するメッシュの頂点の集合Vと要素集合Eとを用いて表され,
     前記集合Vは,各頂点に付与された複数の情報で構成される頂点ベクトルviにより,
     V={v0,v1,...,vn-1}
     として表され,
     前記頂点ベクトルviは,各頂点の情報を与える頂点座標(x,y,z),タイムスタンプ(time),解剖学的構造ラベル(label),第1の属性情報(isFreezed),第2の属性情報(isCutpath),第3の属性情報(isSurface)を用いて,
     vi=(x, y, z, time, label, isFreezed, isCutpath, isSurface)
     と表され,
     タイムスタンプ(time)は,対応する頂点が何番目に切離されるかを示し,
     解剖学的構造ラベル(label)は,解剖学上の構造を示す値であり,
     第1の属性情報(isFreezed)は,対応する頂点が固定点か自由点かを示し,
     第2の属性情報(isCutpath)は,対応する頂点が切離面上にあるか否かを示し,
     第3の属性情報(isSurface)は,対応する頂点が前記切離対象臓器の表面上にあるか内部にあるかを示し、
     前記要素集合Eは,前記メッシュを構成する個々の最小要素を与える頂点の組み合わせの集合である
     切離プロセス推定装置。
  15.  切離対象臓器の切離部位に応じた切離面と,切離の進展に関する情報を与える切離プロセスとを記述した手術プロセスの事例データを記憶する手術プロセス事例データベースと,
     ユーザーにより指定された切離部位に応じた事例データを前記手術プロセス事例データベースから読み出し,読み出された複数の事例データに基づいて標準切離面及び標準切離プロセスを生成する標準切離プロセス生成部と,
     解剖学的参照点を患者固有の三次元医用画像データから抽出する解剖学的参照点抽出部と,
     前記標準切離プロセスを,前記患者固有の三次元医用画像データにマッチングし,患者固有の切離プロセスを推定する患者固有切離プロセス推定部と,
     前記患者固有切離プロセス推定部において推定された前記患者固有の切離プロセスを表示する表示装置と
     を有する切離プロセスナビゲーションシステム。
PCT/JP2017/023556 2016-08-08 2017-06-27 切離プロセス推定装置及び切離プロセスナビゲーションシステム WO2018030015A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17839089.4A EP3498172A4 (en) 2016-08-08 2017-06-27 DEVICE FOR ESTIMATING A RESECTION METHOD AND NAVIGATION SYSTEM FOR RESECTION METHOD
US16/323,766 US20190172577A1 (en) 2016-08-08 2017-06-27 Dissection process estimation device and dissection process navigation system
JP2018532865A JPWO2018030015A1 (ja) 2016-08-08 2017-06-27 切離プロセス推定装置及び切離プロセスナビゲーションシステム
CN201780048957.5A CN109561870A (zh) 2016-08-08 2017-06-27 切除过程估计装置和切除过程引导系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016155925 2016-08-08
JP2016-155925 2016-08-08

Publications (1)

Publication Number Publication Date
WO2018030015A1 true WO2018030015A1 (ja) 2018-02-15

Family

ID=61162085

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/023556 WO2018030015A1 (ja) 2016-08-08 2017-06-27 切離プロセス推定装置及び切離プロセスナビゲーションシステム

Country Status (5)

Country Link
US (1) US20190172577A1 (ja)
EP (1) EP3498172A4 (ja)
JP (1) JPWO2018030015A1 (ja)
CN (1) CN109561870A (ja)
WO (1) WO2018030015A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113798A1 (ja) * 2020-11-25 2022-06-02 パナソニック株式会社 医療用画像表示システム、医療用画像表示方法及びプログラム
CN117137450A (zh) * 2023-08-30 2023-12-01 哈尔滨海鸿基业科技发展有限公司 一种基于皮瓣血运评估的皮瓣移植术成像方法和系统
JP7553381B2 (ja) 2021-02-22 2024-09-18 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141566A (ja) * 2001-11-07 2003-05-16 Kansai Tlo Kk 3次元物体の切断シミュレーション方法
WO2010021309A1 (ja) * 2008-08-22 2010-02-25 国立大学法人奈良先端科学技術大学院大学 手術シミュレーション装置、手術シミュレーション方法およびプログラム
WO2010113690A1 (ja) * 2009-03-31 2010-10-07 国立大学法人奈良先端科学技術大学院大学 情報処理装置、情報処理方法、およびプログラム
JP2013154037A (ja) 2012-01-31 2013-08-15 Fujifilm Corp 手術支援装置、手術支援方法および手術支援プログラム
JP2014176425A (ja) 2013-03-13 2014-09-25 Univ Of Tsukuba 画像診断支援プログラム
JP2015517327A (ja) * 2012-05-03 2015-06-22 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. 整形外科手術計画用の特徴ドリブンルールベースのフレームワーク
WO2015135056A1 (en) * 2014-03-14 2015-09-17 Synaptive Medical (Barbados) Inc. System and method for health imaging informatics

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2851892B2 (ja) * 1990-02-01 1999-01-27 株式会社日立メディコ 臓器領域抽出方法
WO2004045666A1 (ja) * 2002-11-15 2004-06-03 Kyushu Tlo Company, Limited. 臓器の再生方法
JP2005287964A (ja) * 2004-04-02 2005-10-20 Olympus Corp 生体・臓器・組織の観察装置
US20070078678A1 (en) * 2005-09-30 2007-04-05 Disilvestro Mark R System and method for performing a computer assisted orthopaedic surgical procedure
WO2008063494A2 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US20090149977A1 (en) * 2007-11-06 2009-06-11 Schendel Stephen A Methods, systems, and computer program products for shaping medical implants directly from virtual reality models
KR101818682B1 (ko) * 2010-07-08 2018-01-16 신세스 게엠바하 개선된 골 마커 및 맞춤형 임플란트
JP6008635B2 (ja) * 2012-07-24 2016-10-19 富士フイルム株式会社 手術支援装置、方法およびプログラム
EP2967813A4 (en) * 2013-03-15 2016-11-09 Conformis Inc KINEMATIC AND PARAMETRIZED MODELING FOR PATIENT-IMPLANTED IMPLANTS, TOOLS AND SURGICAL PROCEDURES
RU2678080C2 (ru) * 2013-09-24 2019-01-22 Конинклейке Филипс Н.В. Способ вычисления плана хирургической операции
CN105992996B (zh) * 2014-04-04 2019-11-26 外科手术室公司 外科手术环境中的动态和交互式导航

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141566A (ja) * 2001-11-07 2003-05-16 Kansai Tlo Kk 3次元物体の切断シミュレーション方法
WO2010021309A1 (ja) * 2008-08-22 2010-02-25 国立大学法人奈良先端科学技術大学院大学 手術シミュレーション装置、手術シミュレーション方法およびプログラム
WO2010113690A1 (ja) * 2009-03-31 2010-10-07 国立大学法人奈良先端科学技術大学院大学 情報処理装置、情報処理方法、およびプログラム
JP2013154037A (ja) 2012-01-31 2013-08-15 Fujifilm Corp 手術支援装置、手術支援方法および手術支援プログラム
JP2015517327A (ja) * 2012-05-03 2015-06-22 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. 整形外科手術計画用の特徴ドリブンルールベースのフレームワーク
JP2014176425A (ja) 2013-03-13 2014-09-25 Univ Of Tsukuba 画像診断支援プログラム
WO2015135056A1 (en) * 2014-03-14 2015-09-17 Synaptive Medical (Barbados) Inc. System and method for health imaging informatics

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3498172A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113798A1 (ja) * 2020-11-25 2022-06-02 パナソニック株式会社 医療用画像表示システム、医療用画像表示方法及びプログラム
JP7553381B2 (ja) 2021-02-22 2024-09-18 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
CN117137450A (zh) * 2023-08-30 2023-12-01 哈尔滨海鸿基业科技发展有限公司 一种基于皮瓣血运评估的皮瓣移植术成像方法和系统
CN117137450B (zh) * 2023-08-30 2024-05-10 哈尔滨海鸿基业科技发展有限公司 一种基于皮瓣血运评估的皮瓣移植术成像方法和系统

Also Published As

Publication number Publication date
CN109561870A (zh) 2019-04-02
EP3498172A4 (en) 2020-04-01
US20190172577A1 (en) 2019-06-06
EP3498172A1 (en) 2019-06-19
JPWO2018030015A1 (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
Wang et al. A practical marker-less image registration method for augmented reality oral and maxillofacial surgery
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
US9652845B2 (en) Surgical assistance planning method using lung motion analysis
EP3164075B1 (en) Unified coordinate system for multiple ct scans of patient lungs
CN107067398B (zh) 用于三维医学模型中缺失血管的补全方法及装置
EP2157905B1 (en) A method for tracking 3d anatomical and pathological changes in tubular-shaped anatomical structures
CN102395320B (zh) 医疗设备以及医疗设备的控制方法
US8503741B2 (en) Workflow of a service provider based CFD business model for the risk assessment of aneurysm and respective clinical interface
US20140193789A1 (en) Cutting simulation device and cutting simulation program
US20180144516A1 (en) Systems and methods for an integrated system for visualizing, simulating, modifying and 3d printing 3d objects
KR20140015964A (ko) 혈관 구조에 기초하여 환자에 특화된 대상 장기의 모델을 생성하는 방법 및 장치
WO2018030015A1 (ja) 切離プロセス推定装置及び切離プロセスナビゲーションシステム
Endo et al. A patient-specific surgical simulator using preoperative imaging data: an interactive simulator using a three-dimensional tactile mouse
Perkins et al. A patient-specific mixed-reality visualization tool for thoracic surgical planning
KR20140008031A (ko) 환자에 특화된 대상 장기의 모델을 생성하는 방법 및 장치
Gholizadeh et al. Minimally invasive and invasive liver surgery based on augmented reality training: A review of the literature
US10864043B2 (en) Interactive placement of a 3D digital representation of a surgical device or anatomic feature into a 3D radiologic image for pre-operative planning
US11090873B1 (en) Optimizing analysis of a 3D printed object through integration of geo-registered virtual objects
JP2019017986A (ja) 外科インターベンション手術前モデリング方法およびシステム
JP7444569B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
KR101401338B1 (ko) 가상 나이프를 이용한 수술 시뮬레이션 방법 및 그 장치
Schenkenfelder et al. Elastic registration of abdominal MRI scans and RGB-D images to improve surgical planning of breast reconstruction
EP4451225A2 (en) Method for visualizing at least a zone of an object in at least one interface
US20110242096A1 (en) Anatomy diagram generation method and apparatus, and medium storing program
Ryan et al. Creation of three-dimensional anatomic models in pediatric surgical patients using cross-sectional imaging: A demonstration of low-cost methods and applications

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17839089

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018532865

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017839089

Country of ref document: EP

Effective date: 20190311