WO2016052157A1 - 手術支援装置、プログラム、記憶媒体、および、手術支援方法 - Google Patents

手術支援装置、プログラム、記憶媒体、および、手術支援方法 Download PDF

Info

Publication number
WO2016052157A1
WO2016052157A1 PCT/JP2015/076014 JP2015076014W WO2016052157A1 WO 2016052157 A1 WO2016052157 A1 WO 2016052157A1 JP 2015076014 W JP2015076014 W JP 2015076014W WO 2016052157 A1 WO2016052157 A1 WO 2016052157A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
patient
processing
projection image
projection
Prior art date
Application number
PCT/JP2015/076014
Other languages
English (en)
French (fr)
Inventor
津坂真矢
橋田昌彦
Original Assignee
京セラメディカル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラメディカル株式会社 filed Critical 京セラメディカル株式会社
Priority to US15/329,763 priority Critical patent/US10376318B2/en
Publication of WO2016052157A1 publication Critical patent/WO2016052157A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • A61B2017/564Methods for bone or joint treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to a surgery support device, a program, a storage medium, and a surgery support method for assisting a surgeon when performing surgery on a patient.
  • Mixed Reality Surgery is known as an operation method for an operator to perform an operation on a patient (for example, see Non-Patent Document 1).
  • an operator performs an operation using an image of an organ and a blood vessel projected onto a patient's body surface using a projector.
  • the surgeon can grasp the position of the organ to be operated before the operation. Therefore, the surgeon can perform the treatment on the patient more accurately and easily.
  • the above prior art merely displays the patient's preoperative state on the surface of the patient, and when the shape of the affected part changes before and after the operation, the state of the patient after the start of the operation is displayed. Not.
  • an object of the present invention is to provide a surgery support device, a program, a storage medium, and a surgery support method that can more accurately confirm the state of an affected area after surgery has started before surgery. To do.
  • a surgery support apparatus for achieving the above object includes an image processing unit, and the image processing unit is predetermined based on measurement data obtained by measuring an affected part of a patient.
  • the projection image data is created to create a projection image as an image specified by the projection image data, and the projection image is an image to be projected onto the patient. And an image showing the state of the affected area after the start of surgery.
  • the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
  • a surgery support device that allows the surgeon to more accurately confirm the state of the affected area after the surgery has started before surgery.
  • the image processing unit includes a region setting unit and a processing unit, and the region setting unit selects a predetermined processing candidate region from among the measurement images specified by the measurement data.
  • the processing unit is configured to create a predetermined post-processing image by performing a predetermined processing on the processing candidate area, and then, in the measurement image, an image other than the processing candidate area
  • the projection image is created by performing a process of combining with the processed image.
  • the projection image shows how the affected part of the patient and the part around the affected part are combined. Therefore, the surgeon can confirm the state of the patient after the start of surgery more accurately in advance by referring to the projection image projected on the patient.
  • the image processing unit is configured to receive the measurement data specifying the measurement image including images of the patient's femur and tibia, and the region setting unit is configured to process the processing candidate.
  • the region is configured to set at least one of a first processing candidate region including the femur image and a second processing candidate region including the tibia image, and the processing unit includes the processing candidate region.
  • the post-processing image is created by performing the processing including rotation processing.
  • the image processing unit is configured to receive the measurement data specifying the measurement image including images of the femur and tibia of the patient, and the processing unit is The projection image is displayed so that the head center, the knee joint center, and the ankle joint center are displayed in a straight line.
  • the operator can more accurately confirm the target placement of the affected area before the operation at the time of knee osteoarthritis surgery or artificial knee joint replacement.
  • the operator can visually confirm the position of the center of the bone head that cannot be directly recognized during the operation.
  • the processing unit creates the projection image so that an image of an index provided at a site serving as a reference of the patient is included in the projection image when the measurement image is captured. It is configured as follows.
  • the position of each part of the projection image is actually measured after the start of the patient's surgery by arranging the index image in the projection image so as to be superimposed on the reference region of the patient (the actual index). Can be adjusted to the position of As a result, the surgeon can more accurately confirm how to treat the affected area after the start of surgery.
  • the image processing unit is configured to create at least one of an intraoperative image and an postoperative image of the affected area as the projection image.
  • the projection image includes an intraoperative image of the affected area
  • the surgeon can more accurately confirm the state of the affected area during the operation.
  • the projection image includes the post-operative image of the affected part
  • the surgeon can more accurately confirm the state of the affected part after the operation.
  • the image processing unit is configured to create an image before the measurement data of the affected part is processed as the projection image.
  • the projection image is projected onto the patient, so that the operator can confirm both the state before the operation and after the start of the operation. Thereby, the surgeon can perform an operation more accurately and easily.
  • the image processing unit is configured to create, as the projection image, an image including at least one of an image of an implant placed on the affected part and an osteotomy line.
  • the surgeon can more accurately confirm the state of the affected area after the start of surgery in the implant placement operation.
  • the surgery support device includes an operation device for outputting operation data for operating the measurement data to the image processing unit, and an image display device for projecting the projection image onto a patient. , Is further provided.
  • a projection image desired by the surgeon can be created by operating the operating device, for example, by the surgeon. Further, the projection image can be projected onto the patient using an image display device.
  • a program according to an aspect of the present invention for achieving the above object is a program that causes a computer to execute an image processing step. Then, the image processing step creates predetermined projection image data based on measurement data obtained by measuring an affected area of a patient, thereby projecting a projection image as an image specified by the projection image data.
  • the projection image is an image for projecting onto the patient and includes an image showing a state of the affected part after the start of surgery.
  • the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
  • the present invention it is possible to realize a program that allows an operator to more accurately check the state of an affected area after the start of surgery before surgery.
  • a storage medium for achieving the above object is a storage medium that stores a program and is readable by a computer.
  • the program is a program that causes the computer to execute an image processing step.
  • the image processing step creates a projection image as an image specified by the projection image data by creating predetermined projection image data based on measurement data obtained by measuring an affected area of a patient
  • the projection image includes an image for projecting onto the patient and an image showing a state of the affected part after the start of surgery.
  • the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
  • a storage medium storing a program that allows an operator to more accurately check the state of an affected area after the start of surgery before surgery.
  • a surgical operation support method for achieving the above-described object includes creating predetermined projection image data based on measurement data obtained by measuring an affected area of a patient. Including an image processing step of creating a projection image as an image specified by the projection image data, wherein the projection image is an image to be projected onto the patient, and the state of the affected area after the start of surgery Contains an image to show.
  • the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
  • a surgery support method that allows the surgeon to more accurately confirm the state of the affected area after the surgery has started before surgery.
  • the surgeon can more accurately confirm the state of the affected area after the start of surgery before surgery.
  • the present invention can be widely applied as a surgery support device, a program, a storage medium, and a surgery support method.
  • FIG. 1 is a schematic diagram showing a surgery support apparatus 1, an operating table 2, and a patient 100 according to an embodiment of the present invention.
  • FIG. 2 is a front view of the patient.
  • the surgery support apparatus 1 is used to visually guide what kind of surgery is performed on the patient 100 when the surgeon performs surgery on the patient 100. More specifically, the surgery support apparatus 1 creates predetermined projection image data based on measurement data obtained by measuring the affected area 101 of the patient 100.
  • the projection image specified by the projection image data is an image projected on the affected area 101 of the patient 100 lying on the operating table 2 and the surface of the patient 100 around the affected area 101.
  • the projection image includes a schematic image showing the state of the affected area 101 after the start of surgery. The surgeon can confirm the affected area 101 after the start of surgery accurately in advance by performing an operation while referring to the projection image.
  • FIG. 3 is a diagram for explaining a procedure for creating the projection image 24, FIG. 3A shows the measurement image 21, and FIG. 3B shows a state in which the processing candidate region 22 is set from the measurement image 21.
  • 3C shows a state in which the processing candidate region 22 is subjected to a rotation process, and the measurement image 21 is combined with the image 29 other than the processing candidate region 22 and the processed image 23, and FIG. A state where the work image 24 is completed is shown.
  • FIG. 1 an example in which an operator performs an operation on a patient 100 whose leg 102 (right leg and left leg) has knee osteoarthritis is taken as an example.
  • the leg 102 of the patient 100 is an excessive O leg, for example.
  • a knee joint operation is performed.
  • the surgery support device 1 includes an operation device 3, a measurement data storage unit 4, an image processing unit 5, and an image display device 6.
  • the operation device 3 outputs predetermined operation data (command signal) to the image processing unit 5 and the image display device 6 based on being operated by an operator such as an operator.
  • the operation data is output to the image processing unit 5 in order to operate the measurement data.
  • the operation data is output to the image display device 6 in order to operate the image display device 6.
  • the operating device 3 has, for example, a mouse and a keyboard, and is connected to the image processing unit 5.
  • the measurement data storage unit 4 is provided as a part for storing measurement data obtained by measuring the affected part 101 of the patient 100 prior to the start of surgery.
  • the measurement data storage unit 4 is a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) or a storage medium such as an optical disk.
  • the measurement data storage unit 4 is disposed outside the surgical field, for example.
  • the measurement data is data measured using an imaging apparatus such as an X-ray imaging apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or a CT (Computed Tomography) apparatus (not shown) such as a three-dimensional CT.
  • the measurement data is image data that identifies the affected area 101 and an image obtained by measuring the periphery of the affected area 101.
  • the measurement data may be image data that identifies an image that simply represents a necessary portion such as the affected part 101. This measurement data is processed by the image processing unit 5.
  • the image processing unit 5 creates predetermined projection image data based on the measurement data obtained by measuring the affected part 101 of the patient 100, and thereby the projection image as an image specified by the projection image data. 24 is created.
  • the projection image 24 is an image for projecting onto the patient 100 and includes an image showing the state of the affected part 101 after the start of surgery.
  • the image processing unit 5 is formed using a computer including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory).
  • the image processing unit 5 reads the measurement data from the measurement data storage unit 4 and performs predetermined image processing on the measurement data to create projection image data.
  • the image processing unit 5 is installed outside the surgical field, for example.
  • the image processing unit 5 includes a measurement data acquisition unit 11, a region setting unit 12, and a processing unit 13.
  • the CPU when the CPU reads and executes the program from the memory or the storage medium 500, the functions of the measurement data acquisition unit 11, the region setting unit 12, and the processing unit 13 are realized.
  • This program can be installed from outside the surgery support apparatus 1.
  • the installed program is distributed in a state of being stored (stored) in the storage medium 500, for example.
  • Examples of the storage medium 500 include a DVD (Digital Versatile Disc) and a CD-ROM.
  • the measurement data acquisition unit 11 is provided as an interface unit connected to the measurement data storage unit 4.
  • the measurement data acquisition unit 11 reads the measurement data stored in the measurement data storage unit 4 via a reading device (not shown).
  • Measured image 21 is a front view of a patient obtained by photographing the lower body of patient 100 with the above-described photographing apparatus.
  • the measurement image 21 includes images of the contour 103 of the lower body of the patient 100, the pelvis 104, the femur 105, the tibia 106, and the second metatarsal bone 107.
  • the patient 100 suffers from knee osteoarthritis and has an O-leg. For this reason, the position of the knee joint of both legs 102 of the patient 100 is located outside the patient's 100 inner / outer direction (left / right direction) with respect to the original position of the knee joint.
  • the measurement image 21 includes an image of the index 15 provided at a site (in this embodiment, the superior anterior iliac spine 108) that is a reference for the patient 100 when the measurement image 21 is captured.
  • the site serving as a reference for the patient 100 refers to, for example, a site that can be viewed from the outside of the patient 100 by the surgeon during surgery of the patient 100 by the surgeon.
  • the upper anterior iliac spine 108 is a portion of the patient 100 that is visible from the outside of the patient 100, and swells toward the outside of the patient 100 immediately below the skin of the patient 100.
  • a surgical covering (not shown) is hung on the lower body of the patient 100, and the superior anterior iliac spine 108 is recognized by the operator through the surgical covering.
  • the index 15 is a member that can be photographed by the above-described photographing apparatus, and is, for example, a metal pin member.
  • the image processing unit 5 is configured to receive measurement data for specifying the measurement image 21 including the image of the femur 105 and the image of the tibia 106 of the patient 100.
  • the measurement data acquired by the measurement data acquisition unit 11 is given to the region setting unit 12.
  • the region setting unit 12 is configured to set a predetermined processing candidate region 22 from the measurement image 21.
  • the processing candidate region 22 is a partial region of the measurement image 21 and is a region to be processed in the processing unit 13.
  • the region setting unit 12 includes a first processing candidate region 221 including an image of the femur 105 as the processing candidate region 22 from the measurement image 21, A second processing candidate region 222 including an image of the tibia 106 is set.
  • the first processing candidate region 221 includes the acetabulum 109, the femoral head center 110 of the femur 105, and the distal portion 111 of the femur 105 in both legs 102 of the patient 100. 2B and 2C, the illustration of the right leg 102 is omitted.
  • the second processing candidate region 222 includes the proximal portion 112 of the tibia 106 in the leg 102 of the patient 100 and the second metatarsal bone 107 (ankle joint center).
  • the region setting unit 12 may be manually set by an operator operating the operating device 3 before the operation, or may be automatically set by a predetermined image processing program.
  • the image data of the measurement image 21 in which the processing candidate region 22 is set by the region setting unit 12 is output to the processing processing unit 13.
  • the processing unit 13 performs a predetermined processing on the processing candidate region 22 to create a predetermined post-processing image 23, and then the measurement image 21.
  • the projection image 24 is created by performing a process of combining the image 29 other than the processing candidate region 22 and the processed image 23.
  • the processing unit 13 is configured to create a processed image 23 by performing a processing process including a rotation process on the processing candidate area 22.
  • the processing unit 13 rotates the first processing candidate regions 221 of the right leg 102 and the left leg 102 about several degrees in plan view around the corresponding head center 110.
  • the processing unit 13 rotates the second processing candidate regions 222 of the right leg 102 and the left leg 102 about several degrees around the ankle joint center 113 related to the second metatarsal bone 107.
  • the processing unit 13 displays the head center 110, the knee joint center 114, and the ankle center 113 in a straight line in each of the right leg 102 and the left leg 102.
  • a projection image 24 is created.
  • the image processing unit 5 creates the projection image 24 with the index 15 in the measurement image 21 remaining.
  • the processing unit 13 displays the projection image 24 so that the projection image 24 includes the image of the index 15 provided on the upper anterior iliac spine 108 that serves as a reference for the patient 100 when the measurement image 21 is captured. create.
  • the image processing unit 5 creates the projection image 24 so that the scale 25 is displayed on the projection image 24.
  • the scale 25 is used as a reference for scale adjustment when the projection image 24 is projected onto the surface of the patient 100.
  • the processing unit 13 outputs projection image data for specifying the projection image 24 to the image display device 6.
  • the image display device 6 is, for example, a projector device, and is configured to display the projection image 24 when given the projection image data.
  • the image display device 6 is disposed in the operative field.
  • the image display device 6 has a lens 26, and this lens 26 faces the operating table 2.
  • the image display device 6 is configured so that the position relative to the operating table 2 can be changed manually or by a driving device (not shown). Thereby, the relative position between the projection image 24 irradiated from the lens 26 and the patient 100 can be adjusted.
  • FIG. 4 is a schematic front view showing a state in which the projection image 24 is projected on the patient 100.
  • the projection image 24 is arranged so that the image of the index 15 in the projection image 24 overlaps the index 15 provided on the upper anterior iliac spine 108 as a reference of the patient 100. Further, when the lens 26 is operated, the length of the scale 25 becomes a predetermined length, so that the size of each part of the projection image 24 matches the size of each part of the patient 100. With the above-described configuration, the surgeon can visually confirm the state of the affected area 101 of the patient 100 after the start of surgery before the surgery on the patient 100 is started.
  • FIG. 5 is a flowchart for explaining an example of a processing flow in the surgery support apparatus 1.
  • the drawings other than the flowchart are also referred to as appropriate.
  • the operation of the surgery support apparatus 1 is started when the operator operates the operation apparatus 3. Then, when the projection image 24 is created in the surgery support apparatus 1, first, the lower body including the affected part 101 of the patient 100 is photographed by the photographing apparatus, whereby measurement data (measurement image 21) is acquired. The And this measurement data is memorize
  • the image processing unit 5 performs image processing (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22. Next, the processing unit 13 performs a rotation process on the processing candidate area 22. As a result, a projection image 24 (projection image data) is created in which images of the bone head center 110, the knee joint center 114, and the ankle joint center 113 are arranged in a straight line.
  • the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection image 24 specified by the projection image data onto the patient 100 on the operating table 2 (step S14).
  • the program according to the present embodiment may be a program that causes a computer to execute the processing of the image processing unit 5.
  • the image processing unit 5 in the present embodiment can be realized.
  • a CPU Central Processing Unit
  • the image processing unit 5 may be realized by the cooperation of software and hardware as described above, or may be realized by hardware.
  • the program according to the present embodiment may be distributed in a state where it is recorded on a storage medium 500 such as a DVD (Digital Versatile Disc), or may be distributed through a wired or wireless communication line.
  • the projection image 24 to be projected onto the patient 100 is an image (guidance image) showing the state of the affected area 101 after the affected area 101 is started. Contains. Therefore, by projecting this projection image 24 onto the patient 100, the surgeon can more accurately confirm the shape of the affected area 101 after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient 100.
  • the surgery support apparatus 1 that allows the surgeon to more accurately confirm the state of the affected part 101 after the start of surgery before surgery.
  • the region setting unit 12 is configured to set the processing candidate region 22 (221, 222) from the measurement image 21. Then, the processing unit 13 creates a processed image 23 by performing processing on the processing candidate area 22, and then combines the image 29 other than the processing candidate area 22 in the measurement image 21 with the processed image 23. By performing the processing, a projection image 24 is created.
  • the projection image 24 shows how the affected part 101 and the part around the affected part 101 in the patient 100 are combined. Therefore, the surgeon can confirm the state of the patient 100 after the start of surgery more accurately in advance by referring to the projection image 24 projected onto the patient 100.
  • the region setting unit 12 includes the first processing candidate region 221 including the image of the femur 105 and the second processing candidate region 222 including the image of the tibia 106 as the processing candidate region 22. Configured to set. Then, the processing unit 13 creates a post-processing image 23 by performing processing including rotation processing on the processing candidate area 22. According to this configuration, it is possible to realize the projection image 24 showing the state of the patient 100 after the start of the operation at the time of the operation of the knee osteoarthritis patient 100. Thereby, the surgeon can perform the operation of the knee osteoarthritis more accurately.
  • the processing unit 13 creates the projection image 24 displayed so that the head center 110, the knee joint center 114, and the ankle center 113 in the measurement image 21 are aligned. To do. According to this configuration, at the time of surgery for knee osteoarthritis, the surgeon can more accurately confirm the arrangement state of the affected area 101 to be targeted before surgery. In particular, the surgeon can visually confirm the position of the head center 110 that cannot be directly recognized during the operation.
  • the processing unit 13 projects the projection image so that the projection image 24 includes the image of the index 15 provided at the site serving as the reference of the patient 100 when the measurement image 21 is captured. 24 is created.
  • the image of the index 15 in the projection image 24 is arranged so as to be superimposed on the actual object of the index 15 provided on the upper anterior iliac spine 108 serving as the reference of the patient 100, thereby The position of each part can be matched with the actual position of the patient 100 after the start of surgery. Thus, the surgeon can more accurately confirm how to treat the affected area 101 after the start of surgery.
  • the image processing unit 5 is configured to create a post-operative image of the affected area 101 as the projection image 24. According to this configuration, since the projection image 24 includes the post-operative image of the affected area 101, the surgeon can more accurately confirm the state of the affected area 101 after the operation.
  • the surgery support apparatus 1 further includes the image processing unit 5, the operation device 3, and the image display device 6.
  • the image processing unit 5 the operation device 3, and the image display device 6.
  • the projection image 24 desired by the operator can be created. Further, the projection image 24 can be projected onto the patient 100 using the image display device 6.
  • the surgery support apparatus 1 since the robot apparatus for assisting an operator's surgery work and the jig
  • PSI Patient Specific Instrument
  • a post-operative image of the affected area 101 is created as the projection image 24
  • the image processing unit 5 creates an image before the measurement data (measurement image 21) of the affected part 101 is processed as the projection image 24A. That is, the projection image 24A is the measurement image 21 itself.
  • the projection image 24 and the projection image 24A are selectively or simultaneously projected onto the affected area 101 of the patient 100 and the periphery of the affected area 101.
  • the projection images 24 and 24A are projected onto the patient, so that the operator can confirm both the state before the operation and after the start of the operation. Thereby, the surgeon can perform an operation more accurately and easily.
  • an intraoperative image of the patient 100 may be created as the projection image 24B.
  • the projection image 24B is created by performing processing similar to the creation processing 24.
  • the projection image 24A, the projection image 24B, and the projection image 24 are selectively or simultaneously projected onto the affected area 101 of the patient 100 and the periphery of the affected area 101.
  • the projection image 24B includes an intraoperative image of the affected area 101, so that the surgeon can more accurately confirm the state of the affected area 101 during the operation. Further, since the projection image 24 includes the post-operative image of the affected area 101, the surgeon can more accurately confirm the state of the affected area 101 after the operation.
  • the projection image 24B indicating the intraoperative state of the patient 100 may not be created.
  • FIG. 8A is a front view of the patient 100
  • FIG. 8B is a side view of the patient 100
  • 9 to 11 are a front view and a side view for explaining the flow of image processing using the surgery support apparatus 1.
  • FIG. 9A shows a measurement image 21C and an insertion image 27
  • FIG. 9B shows a post-operative projection image 24C ′ used for preoperative planning
  • FIG. 10A shows an intraoperative projection image 24C.
  • FIG. 10B shows a state where the projection image 24C is projected onto the patient
  • FIG. 11 shows a state where the projection images 24C and 24C ′ are projected onto the patient.
  • the right portion of the patient 100 is not shown.
  • a knee prosthesis implant 200 includes a femoral component 201 secured to a distal portion 111 of a femur 105, and a tibial 106 A tibial component 202 secured to the proximal portion 112.
  • a configuration is adopted in which the femoral component 201 and the tibial component 202 slide relative to each other as the knee bends.
  • the measurement data storage unit 4 stores measurement data obtained by measuring the affected part 101C of the patient 100 prior to the start of surgery.
  • the measurement data is image data obtained by photographing the left leg 102 including the affected part 101C of the patient 100 with the above photographing apparatus.
  • the measurement image 21C specified by the measurement data includes a measurement image 21C1 obtained by photographing the patient 100 from the front and a measurement image 21C2 obtained by photographing the patient 100 from the left side.
  • the image processing unit 5 creates an intraoperative image of the affected part 101C as the projection image 24C (24C1, 24C2). Further, the image processing unit 5 creates a post-operative image of the affected part 101C as the projection image 24C ′ (24C1 ′, 24C2 ′).
  • the projection image 24 ⁇ / b> C ′ is a diagram illustrating a post-operative state used in the preoperative plan.
  • Each of the projection images 24C and 24C ′ is an image including an image of the artificial knee joint implant 200 installed in the affected part 101C.
  • the image processing unit 5 is configured to receive measurement data that specifies a measurement image 21 ⁇ / b> C including an image of the femur 105 and an image of the tibia 106 of the patient 100.
  • the measurement data acquired by the measurement data acquisition unit 11 is given to the region setting unit 12.
  • the region setting unit 12 is configured to set a predetermined processing candidate region 22C from the measurement image 21C.
  • the region setting unit 12 includes a first processing candidate region 221C1 including a distal portion 111 of the femur 105 and a portion around the distal portion 111 as a processing candidate region 22C from the measurement image 21C.
  • 221C2 and second processing candidate regions 222C1, 222C2 including the proximal portion 112 of the tibia 106 and a portion around the proximal portion 112 are set.
  • the image data of the measurement image 21C in which the processing candidate region 22C is set by the region setting unit 12 is output to the processing processing unit 13.
  • the processing unit 13 performs a predetermined processing on the processing candidate area 22C to create a predetermined processed image 23C ′, and then the image 29C other than the processing candidate area 22C and the processed image 23C in the measurement image 21C.
  • the projection image 24C ′ is created by performing the process of combining “.”
  • the processing unit 13 is configured to create a processed image 23C ′ by performing processing including rotation processing and image addition processing on the processing candidate area 22C.
  • the processing unit 13 performs processing on the first processing candidate regions 221C1, 221C2 (femur 105) and the second processing candidate regions 222C1, 222C2 (tibia 106). ) Are rotated by a predetermined angle in plan view. Further, the processing unit 13 superimposes the corresponding front image and side image of the insertion image 27 of the femoral component 201 on the first processing candidate regions 221C1 and 221C2. Further, the processing unit 13 superimposes the corresponding front image and side image of the insertion image 27 of the tibial component 202 on the second processing candidate areas 222C1 and 222C2.
  • the processing unit 13 attaches the femoral component 201 to the distal portion 111 of the femur 105 of the left leg 102 and the tibial component 202 to the proximal portion 112 of the tibia 106 of the left leg 102.
  • a projection image 24C ′ (24C1 ′, 24C2 ′) indicating a post-operative state in which is attached is created.
  • the processing unit 13 performs a predetermined processing on the processing candidate area 22C to create a predetermined processed image 23C, and then, among the measurement image 21C, an image 29C other than the processing candidate area 22C and a processed image
  • the projection image 24 ⁇ / b> C is created by performing the process of combining with 23 ⁇ / b> C.
  • the processing unit 13 is configured to create a processed image 23C by performing processing including image addition processing on the processing candidate area 22C.
  • the processing unit 13 displays the corresponding front image and side image of the insertion image 27 of the femoral component 201 for the first processing candidate regions 221C1 and 221C2. Overlapping. Further, the processing unit 13 superimposes corresponding front images and side images of the insertion image 27 of the tibial component 202 on the second processing candidate regions 222C1 and 222C2. The respective installation angles of the femoral component 201 and the tibial component 202 in the projection image 24C indicating the state during surgery are determined based on the projection image 24C 'used for preoperative planning.
  • the processing unit 13 attaches the femoral component 201 to the distal portion 111 of the femur 105 of the left leg 102 and the tibial component 202 to the proximal portion 112 of the tibia 106 of the left leg 102.
  • a projection image 24C (24C1, 24C2) showing an intraoperative state in which is attached is created. 10B, the projection image 24C1 is projected onto the front surface of the left leg 102 of the patient 100, and the projection image 24C2 is projected onto the side surface of the left leg 102 of the patient 100.
  • the projection image 24 ⁇ / b> C indicating the state during the operation and the projection image 24 ⁇ / b> C ′ indicating the state after the operation may be alternatively or simultaneously projected onto the patient 100.
  • the image processing unit 5 performs image processing (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22C. Next, the processing unit 13 rotates the processing candidate region 22C and superimposes the image of the femoral component 201 and the image of the tibial component 202 (inserted image 27). Thus, a projection image 24C ′ (projection image data) is created. Further, the processing unit 13 superimposes the image of the femoral component 201 and the image of the tibial component 202 (inserted image 27) on the processing candidate region 22C. Thereby, a projection image 24C (projection image data) is created.
  • the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection images 24C and 24C ′ specified by the projection image data onto the patient 100 on the operating table 2 (Step S14).
  • the image processing unit 5 uses the images of the artificial knee joint implant 200 installed in the affected part 101C (projection images 24C and 24C ′). An image including the insertion image 27) is created. According to this configuration, the surgeon can more accurately confirm the state of the affected part 101C after the start of surgery in the knee replacement.
  • the osteotomy line 28 may be included in the projection image 24C.
  • the osteotomy line 28 is a straight line displayed on the distal portion 111 of the femur 105 and the proximal portion 112 of the tibia 106 in the projection image 24C.
  • the surgeon can perform osteotomy on the femur 105 and the tibia 106 of the patient 100 while referring to the osteotomy line 28 in the osteotomy operation necessary to install the femoral component 201 and the tibial component 202.
  • the projection image 24C includes the intraoperative image (osteotomy line 28) of the affected area 101, so that the operator can more accurately confirm the state of the affected area 101 during the operation.
  • the projection image 24C includes the post-operative image of the affected part 101C, the surgeon can more accurately confirm the state of the affected part 101C after the operation.
  • surgery support device 1 can also be used in the placement of implants other than artificial knee joint implants.
  • the surgery support device 1 may be used when a gastrectomy for excising at least a part of the stomach is performed on the patient 100 placed on the operating table 2.
  • FIG. 13 is a schematic diagram showing the surgery support apparatus 1 and the patient 100.
  • the measurement data storage unit 4 stores measurement data obtained by measuring the affected part 101D of the patient 100 prior to the start of surgery.
  • the measurement data is image data obtained by photographing the periphery of the stomach 115 including the affected part 101D of the patient 100 from the front of the patient 100 with the above photographing apparatus.
  • the image processing unit 5 creates a post-operative image of the affected part 101D as the projection image 24D. Specifically, in the present embodiment, the image processing unit 5 is configured to receive measurement data that specifies the measurement image 21 including the image of the stomach 115 of the patient 100.
  • the region setting unit 12 is configured to set a predetermined processing candidate region 22D from the measurement image 21.
  • the region setting unit 12 sets a region including the image of the affected part 101D as the processing candidate region 22D from the measurement image 21, as well illustrated in FIG. 14B.
  • the processing candidate area 22D is an area that includes an image of the stomach body part of the stomach 115 and excludes the images of the cardia part and the pylorus part.
  • the image data of the measurement image 21D in which the processing candidate region 22D is set by the region setting unit 12 is output to the processing processing unit 13.
  • the processing unit 13 performs processing for deleting the processing candidate area 22D as well shown in FIG. 14C, and then, as shown in FIG. 14D, other than the processing candidate area 22 in the measurement image 21D.
  • the process of combining the images 29D of the stomach 115 is performed. Thereby, the projection image 24D is created.
  • the projection image 24D is projected onto the surface around the stomach of the patient 100, as well shown in FIG. 14E.
  • FIGS. 5, 13, and 14A to 14E an example of processing related to the surgery support apparatus 1 is as shown in FIGS. 5, 13, and 14A to 14E.
  • the measurement data (measurement image 21D) is obtained by imaging the affected area 101D of the patient 100 using the imaging apparatus.
  • the measurement data storage unit 4 stores this measurement data (step S11).
  • the image processing unit 5 performs image processing (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22D. Next, the processing unit 13 creates an image from which the processing candidate area 22D has been deleted as a projection image 24D (projection image data).
  • the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection image 24D specified by the projection image data onto the patient 100 on the operating table 2 (Step S14).
  • the surgeon can more accurately confirm the state of the affected area 101 after the start of surgery in gastrectomy.
  • FIG. 15 is a schematic diagram showing the surgery support apparatus 1 and the patient 100.
  • the measurement data storage unit 4 stores measurement data obtained by measuring the affected part 101E of the patient 100 prior to the start of surgery.
  • the measurement data is image data obtained by photographing the periphery of the heart 116 including the affected area 101E of the patient 100 from the front of the patient 100 using the above photographing apparatus.
  • the image processing unit 5 creates a post-operative image of the affected part as the projection image 24E. Specifically, in the present embodiment, the image processing unit 5 is configured to receive measurement data that specifies a measurement image 21E including an image of the heart 116 of the patient 100.
  • the region setting unit 12 is configured to set a predetermined processing candidate region 22E from the measurement image 21E.
  • the region setting unit 12 sets a region including the image of the affected part 101E as the processing candidate region 22E as shown in FIG. 16B from the measurement image 21E.
  • the processing candidate region 22E includes a peripheral portion of the left ventricle.
  • the image data of the measurement image 21E in which the processing candidate region 22E is set by the region setting unit 12 is output to the processing processing unit 13.
  • the processing unit 13 performs processing for deleting the processing candidate area 22E as well shown in FIG. 16C, and then, as shown in FIG. 16D, other than the processing candidate area 22E in the measurement image 21E.
  • a process of combining the images 29E of the heart 116 is performed. Thereby, a projection image 24E is created.
  • the projection image 24E is projected onto the surface around the heart 116 of the patient 100, as well shown in FIG. 16E.
  • FIGS. 5, 15, and 16A to 16E an example of processing relating to the surgery support apparatus 1 is as shown in FIGS. 5, 15, and 16A to 16E.
  • the measurement data (measurement image 21E) is acquired by imaging the affected area 101E of the patient 100 using the imaging apparatus.
  • the measurement data storage unit 4 stores this measurement data (step S11).
  • the image processing unit 5 performs image processing based on the measurement data (measurement image 21E) (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22E. Next, the processing unit 13 creates an image from which the processing candidate area 22E has been deleted as a projection image 24E (projection image data).
  • the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection image 24E specified by the projection image data onto the patient 100 on the operating table 2 (step S14).
  • the surgeon can more accurately confirm the state of the affected area 101E after the start of surgery in the batista surgery.
  • the image processing unit creates the projection image data based on the measurement data obtained by measuring the affected part of the patient, and thereby the projection image as the image specified by the projection image data is obtained.
  • the projection image is an image for projecting onto the patient, and may include an image after the surgery on the affected part is started.
  • the projection image may be formed using an actual image of a patient, or may be formed using a schematic image.
  • the present invention can be widely applied as a surgery support device, a program, a storage medium, and a surgery support method.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Urology & Nephrology (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Surgical Instruments (AREA)
  • Prostheses (AREA)

Abstract

 手術開始後の患部の状態を術前により正確に確認することのできる手術支援装置などを提供する。 手術支援装置1は、画像処理部5を有している。画像処理部5は、患者100の患部101を測定して得られた測定データに基づいて投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像24を作成する。投影用画像24は、患者100に投影するための画像であって、患部101の手術開始後の状態を示す画像を含んでいる。

Description

手術支援装置、プログラム、記憶媒体、および、手術支援方法
 本発明は、術者が患者に手術を施す際に術者を支援するための手術支援装置、プログラム、記憶媒体、および、手術支援方法に関する。
 術者が患者に手術を施すための手術法として、Mixed Reality Surgery(複合現実感手術)が知られている(たとえば、非特許文献1参照)。この手術法では、プロジェクターを用いて、患者の体表面に臓器および血管の画像を投影した状態で、術者が手術を行う。このように、患者の体表面に投影された画像を用いることで、手術対象となる臓器の位置を術者が術前に把握できる。よって、術者は、患者への施術をより正確且つ容易に行うことができる。
Projection Mapping Using Mixed Augmented Reality Surgery by OsiriX: Image Overlay Surgery、[online]、[平成24年2月1日]、インターネット<URL: https://www.youtube.com/watch?v=iTtg3vhgLVc>
 ところで、変形性膝関節症の患者の変形した膝関節を正常に近い状態に戻す膝関節術、患者の膝関節を人工膝関節に置換する人工膝関節置換術、および、患者の内臓を切除する切除術などでは、手術の前後において、患者の患部の形状が変化する。このため、術者は、手術開始後の患部の形状を術前により正確に確認しておくことが好ましい。
 しかしながら、上記の先行技術では、患者の術前の状態を患者の表面に表示するに過ぎず、患部の形状が手術の前後で変わる場合、手術開始後の患者の状態を表示する構成とはなっていない。
 本発明は、上記実情に鑑みることにより、手術開始後の患部の状態を術前により正確に確認することのできる手術支援装置、プログラム、記憶媒体、および、手術支援方法を提供することを目的とする。
 (1)上記目的を達成するための本発明のある局面に係る手術支援装置は、画像処理部を備え、前記画像処理部は、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するように構成され、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
 この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできる手術支援装置を実現できる。
 (2)好ましくは、前記画像処理部は、領域設定部と、加工処理部と、を含み、前記領域設定部は、前記測定データで特定される測定画像のなかから、所定の加工候補領域を設定するように構成され、前記加工処理部は、前記加工候補領域について所定の加工処理を施すことで所定の加工後画像を作成し、次いで、前記測定画像のうち前記加工候補領域以外の画像と前記加工後画像とを組み合わせる処理を行うことで、前記投影用画像を作成するように構成されている。
 この構成によると、投影用画像は、患者のうち患部と患部の周囲の部分とがどのように結合されるかを示すこととなる。したがって、術者は、患者に投影された投影用画像を参照することで、手術開始後の患者の状態を、事前により正確に確認できる。
 (3)より好ましくは、前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、前記領域設定部は、前記加工候補領域として、前記大腿骨の画像を含む第1加工候補領域、および、前記脛骨の画像を含む第2加工候補領域の少なくとも一方を設定するように構成され、前記加工処理部は、前記加工候補領域に回転処理を含む前記加工処理を施すことで、前記加工後画像を作成するように構成されている。
 この構成によると、変形性膝関節症の患者の手術時において、手術開始後の患者の状態を示す投影用画像を実現できる。これにより、術者は、変形性膝関節症の手術をより正確に行うことができる。
 (4)好ましくは、前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、前記加工処理部は、前記測定画像における骨頭中心と、膝関節中心と、足関節中心とが一直線に並ぶように表示される前記投影用画像を作成するように構成されている。
 この構成によると、変形性膝関節症の手術時、または、人工膝関節置換術時において、目標とすべき患部の配置状態を、術者が術前により正確に確認できる。特に、術者は、術中に直接視認できない骨頭中心の位置を、視覚的に確認できる。
 (5)好ましくは、前記加工処理部は、前記測定画像の撮影時に前記患者の基準となる部位に設けられた指標の画像が前記投影用画像に含まれるように、前記投影用画像を作成するように構成されている。
 この構成によると、投影用画像における指標の画像を、患者の基準となる部位(指標の実物)に重ねるように配置することで、投影用画像の各部の位置を、患者の手術開始後における実際の位置に合わせることができる。これにより、術者は、手術開始後に患部をどのように処置すべきかを、より正確に確認できる。
 (6)好ましくは、前記画像処理部は、前記投影用画像として、前記患部の術中の画像および術後の画像の少なくとも一方を作成するように構成されている。
 この構成によると、投影用画像が患部の術中の画像を含むことで、術者は、術中における患部の状態をより正確に確認できる。また、投影用画像が患部の術後の画像を含むことで、術者は、術後における患部の状態をより正確に確認できる。
 (7)より好ましくは、前記画像処理部は、前記投影用画像として、前記患部の測定データを加工する前の画像を作成するように構成されている。
 この構成によると、投影用画像が患者に投影されることで、術者は、術前と手術開始後の双方の状態を確認できる。これにより、術者は、より正確に且つ容易に手術を行うことができる。
 (8)好ましくは、前記画像処理部は、前記投影用画像として、前記患部に設置されるインプラントの画像および骨切りラインの少なくとも一方を含む画像を作成するように構成されている。
 この構成によると、術者は、インプラント設置術において、手術開始後の患部の状態を、術前により正確に確認できる。
 (9)好ましくは、前記手術支援装置は、前記測定データを操作する操作用データを前記画像処理部に出力するための操作装置と、前記投影用画像を患者に投影するための画像表示装置と、をさらに備えている。
 この構成によると、操作装置をたとえば術者が操作することで、術者の所望する投影用画像を作成することができる。また、この投影用画像を、画像表示装置を用いて患者に投影することができる。
 (10)上記目的を達成するための本発明のある局面に係るプログラムは、コンピュータに、画像処理ステップを実行させるプログラムである。そして、前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
 この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできるプログラムを実現できる。
 (11)上記目的を達成するための本発明のある局面に係る記憶媒体は、プログラムが記憶され、コンピュータによって読み取り可能な記憶媒体である。前記プログラムは、前記コンピュータに画像処理ステップを実行させるプログラムである。前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
 この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできるプログラムを記憶した記憶媒体を実現できる。
 (12)上記目的を達成するための本発明のある局面に係る手術支援方法は、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成する画像処理ステップを含み、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
 この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできる手術支援方法を実現できる。
 本発明によると、術者は、手術開始後の患部の状態を術前により正確に確認することができる。
本発明の一実施形態に係る手術支援装置、手術台、および、患者を示す模式図である。 患者の正面図である。 投影用画像を作成する手順について説明するための図であり、測定画像を示している。 投影用画像を作成する手順について説明するための図であり、測定画像から加工候補領域を設定する状態を示している。 投影用画像を作成する手順について説明するための図であり、加工候補領域に回転処理を施すとともに、測定画像のうち加工候補領域以外の画像と加工後画像とを組み合わせる処理を行う様子を示している。 投影用画像を作成する手順について説明するための図であり、投影用画像が完成した状態を示している。 患者に投影用画像が投影された状態を示す模式的な正面図である。 手術支援装置における処理の流れの一例を説明するためのフローチャートである。 投影用画像として、患者の術前の画像を作成する構成について説明するための図である。 投影用画像が患者の患部に投影された状態を示す図である。 投影用画像として、患者の術中の画像を作成する構成について説明するための図である。 投影用画像が患者の患部に投影された状態を示す図である。 患者の正面図である。 患者の側面図である。 手術支援装置を用いた画像処理の流れを説明するための正面図および側面図であり、測定画像および挿入画像を示している。 手術支援装置を用いた画像処理の流れを説明するための正面図および側面図であり、術前計画に用いられる、術後の投影用画像を示している。 手術支援装置を用いた画像処理の流れを説明するための正面図および側面図であり、術中の投影用画像を示している。 手術支援装置を用いた画像処理の流れを説明するための正面図および側面図であり、術中の投影用画像が患者に投影された状態を示している。 手術支援装置を用いた画像処理の流れを説明するための正面図および側面図であり、2つの投影用画像が患者に投影された状態を示している。 投影用画像に骨切りラインが含まれた状態を示す正面図である。 手術支援装置、および、患者を示す模式図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置、および、患者を示す模式図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。 手術支援装置を用いた画像処理の流れを説明するための図である。
 以下、本発明を実施するための形態について図面を参照しつつ説明する。なお、本発明は、手術支援装置、プログラム、記憶媒体、および、手術支援方法として広く適用することができる。
 図1は、本発明の一実施形態に係る手術支援装置1、手術台2、および、患者100を示す模式図である。図2は、患者の正面図である。図1および図2を参照して、手術支援装置1は、術者が患者100に手術を施す際に、当該患者100にどのような手術を施すかを視覚的に案内するために用いられる。より具体的には、手術支援装置1は、患者100の患部101を測定して得られた測定データに基づいて、所定の投影用画像データを作成する。
 この投影用画像データで特定される投影用画像は、手術台2に横たわっている患者100の患部101および当該患部101の周囲における患者100の表面に投影される画像である。そして、この投影用画像は、患部101の手術開始後の状態を示す模式的な画像を含んでいる。術者は、この投影用画像を参照しつつ、手術を行うことにより、手術開始後の患部101を事前により正確に確認できる。
 図3は、投影用画像24を作成する手順について説明するための図であり、図3Aは、測定画像21を示しており、図3Bは、測定画像21から加工候補領域22を設定する状態を示し、図3Cは、加工候補領域22に回転処理を施すとともに、測定画像21のうち加工候補領域22以外の画像29と加工後画像23とを組み合わせる処理を行う様子を示し、図3Dは、投影用画像24が完成した状態を示している。
 図1、図2および図3A~図3Dを参照して、本実施形態では、脚102(右足および左脚)が変形性膝関節症である患者100に術者が手術を行う場合を例に説明する。この場合、患者100の脚102は、たとえば、過度のO脚となっている。そして、この脚102をより真っ直ぐな状態に戻すために、膝関節術が施される。
 手術支援装置1は、操作装置3と、測定データ記憶部4と、画像処理部5と、画像表示装置6と、を有している。
 操作装置3は、術者などのオペレータによって操作されることに基づいて、所定の操作用データ(指令信号)を、画像処理部5、および、画像表示装置6に出力する。操作用データは、たとえば、測定データを操作するために、画像処理部5に出力される。また、操作用データは、画像表示装置6を動作させるために、画像表示装置6に出力される。操作装置3は、たとえば、マウス、および、キーボードなどを有しており、画像処理部5に接続されている。
 測定データ記憶部4は、手術開始に先立ち、患者100の患部101を測定して得られた測定データを記憶する部分として設けられている。測定データ記憶部4は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置または光ディスクなどの記憶媒体である。測定データ記憶部4は、たとえば、術野外に配置されている。
 測定データは、撮影装置、たとえば、X線撮影装置、MRI(Magnetic Resonance Imaging)装置、または、3次元CTなどのCT(Computed Tomography)装置(図示せず)を用いて測定されたデータである。本実施形態では、測定データは、患部101および患部101の周辺を測定して得られた画像を特定する画像データである。なお、測定データは、患部101などの必要箇所を簡易的に表した画像を特定する画像データであってもよい。この測定データは、画像処理部5で処理される。
 画像処理部5は、患者100の患部101を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像24を作成するように構成されている。この投影用画像24は、患者100に投影するための画像であって、患部101の手術開始後の状態を示す画像を含んでいる。
 画像処理部5は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を含むコンピュータを用いて形成されている。画像処理部5は、測定データ記憶部4から測定データを読み込み、この測定データに所定の画像処理を施すことで、投影用画像データを作成する。画像処理部5は、たとえば、術野外に設置されている。
 画像処理部5は、測定データ取得部11と、領域設定部12と、加工処理部13と、を有している。
 たとえば、CPUが、メモリまたは記憶媒体500からプログラムを読み出して実行することにより、測定データ取得部11と、領域設定部12と、加工処理部13の各機能が実現される。このプログラムは、手術支援装置1の外部からインストールできる。このインストールされるプログラムは、たとえば記憶媒体500に格納(記憶)された状態で流通する。この記憶媒体500として、DVD(Digital Versatile Disc)、CD-ROMなどを例示することができる。
 測定データ取得部11は、測定データ記憶部4に接続されるインターフェース部として設けられている。測定データ取得部11は、測定データ記憶部4に記憶されている測定データを、図示しない読み込み装置などを介して読み込む。
 測定画像21は、患者100の下半身を上記の撮影装置で撮影することで得られる、患者の正面図である。この測定画像21には、一例として、患者100の下半身の輪郭部103と、骨盤104と、大腿骨105と、脛骨106と、第2中足骨107の画像が含まれている。前述したように、患者100は変形性膝関節症を患っており、O脚となっている。このため、患者100の両脚102の膝関節の位置は、膝関節の本来の位置に対して、患者100の内外側方向(左右方向)の外側に位置している。
 また、測定画像21には、当該測定画像21の撮影時に患者100の基準となる部位(本実施形態では、上前腸骨棘108)に設けられた指標15の画像が含まれている。患者100の基準となる部位とは、たとえば、術者による患者100の手術中において、術者が患者100の部位のうち当該患者100の外部から視認可能な部位をいう。
 上前腸骨棘108は、患者100のうち、患者100の外部から視認できる部分であり、患者100の皮膚の直下において患者100の外部に向けて膨らんでいる。なお、膝関節術において、患者100の下半身には、手術用覆布(図示せず)が掛けられるが、上前腸骨棘108は、この手術用覆布を通して、術者によって認識されることが可能である。また、指標15は、上記の撮影装置で撮影可能な部材であり、たとえば、金属製のピン部材である。
 このように、本実施形態では、画像処理部5は、患者100の大腿骨105の画像および脛骨106の画像を含む測定画像21を特定する測定データを受信するように構成されている。測定データ取得部11で取得された測定データは、領域設定部12に与えられる。
 領域設定部12は、測定画像21のなかから、所定の加工候補領域22を設定するように構成されている。加工候補領域22とは、測定画像21の一部の領域であって、加工処理部13において、加工が施される対象となる領域をいう。
 図3Bによく示されているように、本実施形態では、領域設定部12は、測定画像21の中から、加工候補領域22として、大腿骨105の画像を含む第1加工候補領域221と、脛骨106の画像を含む第2加工候補領域222と、を設定する。
 本実施形態では、第1加工候補領域221は、患者100の両脚102における寛骨臼109、大腿骨105の骨頭中心110、および、大腿骨105の遠位部111を含んでいる。なお、図2B、図2Cでは、右脚102についての図示は省略している。また、本実施形態では、第2加工候補領域222は、患者100の脚102における脛骨106の近位部112と、第2中足骨107(足関節中心)と、を含んでいる。
 領域設定部12は、術前に術者が操作装置3を操作することで手動設定されてもよいし、所定の画像処理プログラムによって自動的に設定されてもよい。領域設定部12で加工候補領域22が設定された測定画像21の画像データは、加工処理部13へ出力される。
 図1、図2、図3Cおよび図3Dを参照して、加工処理部13は、加工候補領域22について所定の加工処理を施すことで所定の加工後画像23を作成し、次いで、測定画像21のうち加工候補領域22以外の画像29と加工後画像23とを組み合わせる処理を行うことで、投影用画像24を作成するように構成されている。本実施形態では、加工処理部13は、加工候補領域22に回転処理を含む加工処理を施すことで、加工後画像23を作成するように構成されている。
 本実施形態では、加工処理部13は、右脚102および左脚102のそれぞれの第1加工候補領域221について、対応する骨頭中心110を中心として平面視で数度程度回転させる。また、加工処理部13は、右脚102および左脚102のそれぞれの第2加工候補領域222について、第2中足骨107に関連する足関節中心113を中心として、数度程度回転させる。加工処理部13は、このような加工処理の結果、右脚102および左脚102のそれぞれにおいて、骨頭中心110と、膝関節中心114と、足関節中心113とが一直線に並ぶように表示される投影用画像24を作成する。
 画像処理部5は、測定画像21における指標15を残した状態で、投影用画像24を作成する。すなわち、加工処理部13は、測定画像21の撮影時に患者100の基準となる上前腸骨棘108に設けられた指標15の画像が投影用画像24に含まれるように、投影用画像24を作成する。また、画像処理部5は、投影用画像24に、スケール25が表示されるように、投影用画像24を作成する。このスケール25は、患者100の表面に投影用画像24が投影されるときの縮尺合わせの基準として用いられる。
 たとえば、このスケール25が10cmの長さとなるように投影用画像24が画像表示装置6から投影されることで、投影用画像24における各部の大きさが、患者100の実際の大きさと一致する。スケール25は、患者100に投影されてもよいし、手術台2に投影されてもよい。加工処理部13は、投影用画像24を特定する投影用画像データを、画像表示装置6に出力する。
 画像表示装置6は、たとえば、プロジェクター装置であり、投影用画像データを与えられることで、投影用画像24を表示するように構成されている。画像表示装置6は、術野に配置されている。画像表示装置6は、レンズ26を有しており、このレンズ26が手術台2を向いている。画像表示装置6は、手術台2に対する位置を手動または図示しない駆動装置によって変更可能に構成されている。これにより、レンズ26から照射される投影用画像24と、患者100との相対位置を調整することができる。
 たとえば、手術開始時において、画像表示装置6から患者100に投影用画像24が投影されることにより、図4に示すように、患者100の両脚102の表面に、投影用画像24が投影される。なお、図4は、患者100に投影用画像24が投影された状態を示す模式的な正面図である。
 このとき、投影用画像24における指標15の画像が、患者100の基準となる上前腸骨棘108に設けられた指標15に重なるように、投影用画像24が配置される。また、レンズ26が操作されることにより、スケール25の長さが所定の長さとなることで、投影用画像24の各部の大きさが患者100の各部の大きさと一致する。上記の構成により、術者は、患者100への手術を開始する前において、手術開始後の患者100の患部101の状態を視覚的に確認することができる。
 次に、手術支援装置1における処理の流れの一例を説明する。図5は、手術支援装置1における処理の流れの一例を説明するためのフローチャートである。なお、以下では、フローチャートを参照して説明するときは、フローチャート以外の図も適宜参照する。
 図5を参照して、手術支援装置1の動作は、術者が操作装置3を操作することで開始される。そして、手術支援装置1において投影用画像24が作成される際には、まず、撮影装置によって、患者100の患部101を含む下半身が撮影されることで、測定データ(測定画像21)が取得される。そして、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
 次に、測定データ(測定画像21)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22を設定する。次いで、加工処理部13が、加工候補領域22に回転処理を施す。これにより、骨頭中心110、膝関節中心114、および、足関節中心113の画像が一直線に並ぶように配置された投影用画像24(投影用画像データ)が作成される。
 次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24を、手術台2上の患者100に投影する(ステップS14)。
[プログラム]
 本実施形態に係るプログラムは、コンピュータに、画像処理部5の処理を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における画像処理部5を実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、測定データ取得部11、領域設定部12、および、加工処理部13として機能し、処理を行う。なお、画像処理部5は、このようにソフトウェアとハードウェアとの協働によって実現されてもよいし、ハードウェアによって実現されてもよい。また、本実施形態に係るプログラムは、DVD(Digital Versatile Disc)などの記憶媒体500に記録された状態で流通されてもよいし、有線または無線を用いた通信回線によって流通されてもよい。
 以上説明したように、本実施形態の手術支援装置1によると、患者100に投影するための投影用画像24は、患部101の手術開始後における当該患部101の状態を示す画像(案内画像)を含んでいる。よって、この投影用画像24が患者100に投影されることで、術者は、手術開始後の患部101の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者100に施すことができる。以上の次第で、手術開始後の患部101の状態を術者が術前により正確に確認することのできる手術支援装置1を実現できる。
 また、手術支援装置1によると、領域設定部12は、測定画像21のなかから加工候補領域22(221,222)を設定するように構成されている。そして、加工処理部13は、加工候補領域22について加工処理を施すことで加工後画像23を作成し、次いで、測定画像21のうち加工候補領域22以外の画像29と加工後画像23とを組み合わせる処理を行うことで、投影用画像24を作成する。この構成によると、投影用画像24は、患者100のうち患部101と患部101の周囲の部分とがどのように結合されるかを示すこととなる。したがって、術者は、患者100に投影された投影用画像24を参照することで、手術開始後の患者100の状態を、事前により正確に確認できる。
 また、手術支援装置1によると、領域設定部12は、加工候補領域22として、大腿骨105の画像を含む第1加工候補領域221、および、脛骨106の画像を含む第2加工候補領域222を設定するように構成されている。そして、加工処理部13は、加工候補領域22に回転処理を含む加工処理を施すことで、加工後画像23を作成する。この構成によると、変形性膝関節症の患者100の手術時において、手術開始後の患者100の状態を示す投影用画像24を実現できる。これにより、術者は、変形性膝関節症の手術をより正確に行うことができる。
 また、手術支援装置1によると、加工処理部13は、測定画像21における骨頭中心110と、膝関節中心114と、足関節中心113とが一直線に並ぶように表示される投影用画像24を作成する。この構成によると、変形性膝関節症の手術時において、目標とすべき患部101の配置状態を、術者が術前により正確に確認できる。特に、術者は、術中に直接視認できない骨頭中心110の位置を、視覚的に確認できる。
 また、手術支援装置1によると、加工処理部13は、測定画像21の撮影時に患者100の基準となる部位に設けられた指標15の画像が投影用画像24に含まれるように、投影用画像24を作成する。この構成によると、投影用画像24における指標15の画像を、患者100の基準となる上前腸骨棘108に設けられた指標15の実物に重ねるように配置することで、投影用画像24の各部の位置を、患者100の手術開始後における実際の位置に合わせることができる。これにより、術者は、手術開始後に患部101をどのように処置すべきかを、より正確に確認できる。
 また、手術支援装置1によると、画像処理部5は、投影用画像24として、患部101の術後の画像を作成するように構成されている。この構成によると、投影用画像24が患部101の術後の画像を含むことで、術者は、術後における患部101の状態をより正確に確認できる。
 また、手術支援装置1によると、手術支援装置1は、画像処理部5と、操作装置3と、画像表示装置6と、をさらに有している。この構成によると、操作装置3をたとえば術者が操作することで、術者の所望する投影用画像24を作成することができる。また、この投影用画像24を、画像表示装置6を用いて患者100に投影することができる。
 また、手術支援装置1によると、術者の手術作業を補助するためのロボット装置、および、個々の患者専用の治具(PSI:Patient Specific Instrument)が不要であるので、手術に係るコストをより少なくできる。
 なお、上述の実施形態では、投影用画像24として、患部101の術後の画像を作成する形態を例に説明した。しかしながら、これに限定されない。たとえば、図6Aに示すように、投影用画像24Aとして、患者100の術前の画像が作成されてもよい。この場合、画像処理部5は、投影用画像24Aとして、患部101の測定データ(測定画像21)を加工する前の画像を作成する。すなわち、投影用画像24Aは、測定画像21そのものである。この場合、図6Bに示すように、投影用画像24と投影用画像24Aとが選択的に、または、同時に、患者100の患部101および当該患部101の周辺に投影される。
 この構成によると、投影用画像24,24Aが患者に投影されることで、術者は、術前と手術開始後の双方の状態を確認できる。これにより、術者は、より正確に且つ容易に手術を行うことができる。
 また、図7Aに示すように、投影用画像24Bとして、患者100の術中の画像が作成されてもよい。この場合、第1加工候補領域221および第2加工候補領域222のそれぞれの回転角度を、投影用画像24を作成する際の対応する回転角度よりも小さい値に設定される点以外は投影用画像24の作成処理と同様の処理が行われることで、投影用画像24Bが作成される。この場合、図7Bに示すように、投影用画像24Aと投影用画像24Bと投影用画像24とが選択的に、または、同時に、患者100の患部101および当該患部101の周辺に投影される。
 この構成によると、投影用画像24Bが患部101の術中の画像を含むことで、術者は、術中における患部101の状態をより正確に確認できる。また、投影用画像24が患部101の術後の画像を含むことで、術者は、術後における患部101の状態をより正確に確認できる。
 なお、患者100の術中の状態を示す投影用画像24Bが作成される場合には、患者100の術後の状態を示す投影用画像24は作成されなくてもよい。
 また、手術支援装置1は、患者100の膝関節を人工膝関節インプラント200に置換する人工膝関節置換術に適用されてもよい。図8Aは、患者100の正面図であり、図8Bは、患者100の側面図である。図9~図11は、手術支援装置1を用いた画像処理の流れを説明するための正面図および側面図である。図9Aは、測定画像21Cおよび挿入画像27を示しており、図9Bは、術前計画に用いられる、術後の投影用画像24C’を示しており、図10Aは、術中の投影用画像24Cを示しており、図10Bは、投影用画像24Cが患者に投影された状態を示しており、図11は、投影用画像24C、24C’が患者に投影された状態を示している。なお、図9A~図11においては、患者100の右部分の図示は省略している。
 図1、図8、図9A、図9B、図10Aおよび図10Bを参照して、人工膝関節インプラント200は、大腿骨105の遠位部111に固定される大腿骨コンポーネント201と、脛骨106の近位部112に固定される脛骨コンポーネント202と、を有している。膝の屈曲に伴って、大腿骨コンポーネント201と脛骨コンポーネント202とが相対的にスライドする構成が採用されている。
 なお、以下では、主に、上述の実施形態と異なる点について説明し、同様の構成には図に同様の符号を付して詳細な説明を省略する。
 本実施形態では、測定データ記憶部4は、手術開始に先立ち、患者100の患部101Cを測定して得られた測定データを記憶する。本実施形態では、測定データは、患者100の患部101Cを含む左脚102を上記の撮影装置で撮影することで得られた画像データである。この測定データで特定される測定画像21Cは、患者100を正面から撮影した測定画像21C1と、患者100を左側方から撮影した測定画像21C2と、を含んでいる。
 画像処理部5は、投影用画像24C(24C1,24C2)として、患部101Cの術中の画像を作成する。また、画像処理部5は、投影用画像24C’(24C1’,24C2’)として、患部101Cの術後の画像を作成する。なお、投影用画像24C’は、術前計画において利用される、術後の状態を示す図である。各投影用画像24C,24C’は、患部101Cに設置される人工膝関節インプラント200の画像を含む画像である。
 具体的には、本実施形態では、画像処理部5は、患者100の大腿骨105の画像および脛骨106の画像を含む測定画像21Cを特定する測定データを受信するように構成されている。測定データ取得部11で取得された測定データは、領域設定部12に与えられる。
 領域設定部12は、測定画像21Cのなかから、所定の加工候補領域22Cを設定するように構成されている。
 本実施形態では、領域設定部12は、測定画像21Cの中から、加工候補領域22Cとして、大腿骨105の遠位部111および当該遠位部111の周囲の部分を含む第1加工候補領域221C1,221C2と、脛骨106の近位部112および当該近位部112の周囲の部分を含む第2加工候補領域222C1,222C2と、を設定する。領域設定部12で加工候補領域22Cが設定された測定画像21Cの画像データは、加工処理部13へ出力される。
 加工処理部13は、加工候補領域22Cについて所定の加工処理を施すことで所定の加工後画像23C’を作成し、次いで、測定画像21Cのうち加工候補領域22C以外の画像29Cと加工後画像23C’とを組み合わせる処理を行うことで、投影用画像24C’を作成するように構成されている。本実施形態では、加工処理部13は、加工候補領域22Cに回転処理および画像追加処理を含む加工処理を施すことで、加工後画像23C’を作成するように構成されている。
 より具体的には、図9Bによく示されているように、加工処理部13は、第1加工候補領域221C1,221C2(大腿骨105)、および、第2加工候補領域222C1,222C2(脛骨106)について、それぞれ、平面視で所定角度回転させる。また、加工処理部13は、第1加工候補領域221C1,221C2に、大腿骨コンポーネント201の挿入画像27の対応する正面画像および側面画像を重ねる。また、加工処理部13は、第2加工候補領域222C1,222C2に、脛骨コンポーネント202の挿入画像27の対応する正面画像および側面画像を重ねる。
 加工処理部13は、このような加工処理の結果、左脚102の大腿骨105の遠位部111に大腿骨コンポーネント201が装着され、左脚102の脛骨106の近位部112に脛骨コンポーネント202が装着された術後の状態を示す投影用画像24C’(24C1’,24C2’)を作成する。
 また、加工処理部13は、加工候補領域22Cについて所定の加工処理を施すことで所定の加工後画像23Cを作成し、次いで、測定画像21Cのうち加工候補領域22C以外の画像29Cと加工後画像23Cとを組み合わせる処理を行うことで、投影用画像24Cを作成するように構成されている。本実施形態では、加工処理部13は、加工候補領域22Cに画像追加処理を含む加工処理を施すことで、加工後画像23Cを作成するように構成されている。
 より具体的には、図10Aによく示されているように、加工処理部13は、第1加工候補領域221C1,221C2について、大腿骨コンポーネント201の挿入画像27の対応する正面画像および側面画像を重ねる。また、加工処理部13は、第2加工候補領域222C1,222C2について、脛骨コンポーネント202の挿入画像27の対応する正面画像および側面画像を重ねる。術中の状態を示す投影用画像24Cにおける大腿骨コンポーネント201および脛骨コンポーネント202のそれぞれの設置角度は、術前計画に用いられる投影用画像24C’を基に決定される。
 加工処理部13は、このような加工処理の結果、左脚102の大腿骨105の遠位部111に大腿骨コンポーネント201が装着され、左脚102の脛骨106の近位部112に脛骨コンポーネント202が装着された術中の状態を示す投影用画像24C(24C1,24C2)を作成する。そして、図10Bに示すように、投影用画像24C1は、患者100の左脚102の正面に投影され、投影用画像24C2は、患者100の左脚102の側面に投影される。なお、図11に示すように、術中の状態を示す投影用画像24Cと、術後の状態を示す投影用画像24C’とが、択一的にまたは同時に患者100に投影されてもよい。
 この場合、手術支援装置1に関する処理の一例は、図1、図5、図8、図9A、図9B、図10A、図10B、および、図11に示す通りとなる。具体的には、手術支援装置1において、投影用画像24C,24C’を作成する際には、まず、撮影装置を用いて、患者100の患部101Cを含む下半身を撮影することで、測定データ(測定画像21C)を取得し、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
 次に、測定データ(測定画像21C)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22Cを設定する。次いで、加工処理部13が、加工候補領域22Cを回転させ、且つ、大腿骨コンポーネント201の画像および脛骨コンポーネント202の画像(挿入画像27)を重ね合わせる。これにより、投影用画像24C’(投影用画像データ)が作成される。また、加工処理部13が、加工候補領域22Cに大腿骨コンポーネント201の画像および脛骨コンポーネント202の画像(挿入画像27)を重ね合わせる。これにより、投影用画像24C(投影用画像データ)が作成される。
 次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24C,24C’を、手術台2上の患者100に投影する(ステップS14)。
 以上説明したように、手術支援装置1が人工膝関節置換術に用いられる場合、画像処理部5は、投影用画像24C,24C’として、患部101Cに設置される人工膝関節インプラント200の画像(挿入画像27)を含む画像を作成する。この構成によると、術者は、人工膝関節置換術において、手術開始後の患部101Cの状態を、術前により正確に確認できる。
 なお、図12に示すように、投影用画像24Cに、骨切りライン28が含まれていてもよい。骨切りライン28は、投影用画像24Cにおける大腿骨105の遠位部111、および脛骨106の近位部112に表示された直線である。術者は、大腿骨コンポーネント201および脛骨コンポーネント202を設置するために必要な骨切り作業において骨切りライン28を参照しながら、患者100の大腿骨105および脛骨106に骨切りを行うことができる。
 この構成によると、投影用画像24Cが患部101の術中の画像(骨切りライン28)を含むことで、術者は、術中における患部101の状態をより正確に確認できる。また、投影用画像24Cが患部101Cの術後の画像を含むことで、術者は、術後における患部101Cの状態をより正確に確認できる。
 なお、人工膝関節インプラント以外のインプラントの設置術においても、手術支援装置1を用いることができる。
 また、図13に示すように、手術台2に載せられた患者100に胃の少なくとも一部を切除する胃切除術が施される場合に、手術支援装置1が用いられてもよい。図13は、手術支援装置1、および、患者100を示す模式図である。
 図14A~および図14Eは、手術支援装置1を用いた画像処理の流れを説明するための図である。図13、および、図14A~図14Eを参照して、本実施形態では、測定データ記憶部4は、手術開始に先立ち、患者100の患部101Dを測定して得られた測定データを記憶する。本実施形態では、測定データは、患者100の患部101Dを含む胃115の周辺を上記の撮影装置で患者100の正面から撮影することで得られた画像データである。
 画像処理部5は、投影用画像24Dとして、患部101Dの術後の画像を作成する。具体的には、本実施形態では、画像処理部5は、患者100の胃115の画像を含む測定画像21を特定する測定データを受信するように構成されている。
 領域設定部12は、測定画像21のなかから、所定の加工候補領域22Dを設定するように構成されている。
 本実施形態では、領域設定部12は、測定画像21の中から、図14Bによく示されているように、加工候補領域22Dとして、患部101Dの画像を含む領域を設定する。この場合、加工候補領域22Dは、胃115の胃体部の画像を含み、且つ、噴門部および幽門部の画像を除く領域である。領域設定部12で加工候補領域22Dが設定された測定画像21Dの画像データは、加工処理部13へ出力される。
 加工処理部13は、図14Cによく示されているように、加工候補領域22Dを削除する処理を施し、次いで、図14Dに示されているように、測定画像21Dのうち加工候補領域22以外の胃115の画像29Dを組み合わせる処理を行う。これにより、投影用画像24Dが作成される。投影用画像24Dは、図14Eによく示されているように、投影用画像24Dが患者100の胃の周囲の表面に投影される。
 この場合、手術支援装置1に関する処理の一例は、図5、図13および図14A~図14Eに示す通りとなる。具体的には、手術支援装置1において、投影用画像24Dを作成する際には、まず、撮影装置を用いて、患者100の患部101Dを撮影することで、測定データ(測定画像21D)を取得し、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
 次に、測定データ(測定画像21D)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22Dを設定する。次いで、加工処理部13が、加工候補領域22Dを削除した画像を、投影用画像24D(投影用画像データ)として作成する。
 次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24Dを、手術台2上の患者100に投影する(ステップS14)。
 この構成によると、術者は、胃切除術において、手術開始後の患部101の状態を、術前により正確に確認できる。
 また、図15に示すように、手術台2に載せられた患者100の心臓116の一部を切除するバチスタ手術(左室部分切除術)が施される場合に、手術支援装置1が用いられてもよい。図15は、手術支援装置1、および、患者100を示す模式図である。
 図16A~および図16Eは、手術支援装置1を用いた画像処理の流れを説明するための図である。図15、および、図16A~図16Eを参照して、本実施形態では、測定データ記憶部4は、手術開始に先立ち、患者100の患部101Eを測定して得られた測定データを記憶する。本実施形態では、測定データは、患者100の患部101Eを含む心臓116の周辺を上記の撮影装置で患者100の正面から撮影することで得られた画像データである。
 画像処理部5は、投影用画像24Eとして、患部の術後の画像を作成する。具体的には、本実施形態では、画像処理部5は、患者100の心臓116の画像を含む測定画像21Eを特定する測定データを受信するように構成されている。
 領域設定部12は、測定画像21Eのなかから、所定の加工候補領域22Eを設定するように構成されている。
 本実施形態では、領域設定部12は、測定画像21Eの中から、図16Bによく示されているように、加工候補領域22Eとして、患部101Eの画像を含む領域を設定する。この場合、加工候補領域22Eは、左心室の周辺部分を含んでいる。領域設定部12で加工候補領域22Eが設定された測定画像21Eの画像データは、加工処理部13へ出力される。
 加工処理部13は、図16Cによく示されているように、加工候補領域22Eを削除する処理を施し、次いで、図16Dに示されているように、測定画像21Eのうち加工候補領域22E以外の心臓116の画像29Eを組み合わせる処理を行う。これにより、投影用画像24Eが作成される。投影用画像24Eは、図16Eによく示されているように、投影用画像24Eが患者100の心臓116の周囲の表面に投影される。
 この場合、手術支援装置1に関する処理の一例は、図5、図15および図16A~図16Eに示す通りとなる。具体的には、手術支援装置1において、投影用画像24Eを作成する際には、まず、撮影装置を用いて、患者100の患部101Eを撮影することで、測定データ(測定画像21E)を取得し、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
 次に、測定データ(測定画像21E)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22Eを設定する。次いで、加工処理部13が、加工候補領域22Eを削除した画像を、投影用画像24E(投影用画像データ)として作成する。
 次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24Eを、手術台2上の患者100に投影する(ステップS14)。
 この構成によると、術者は、バチスタ手術において、手術開始後の患部101Eの状態を、術前により正確に確認できる。
 以上、本発明の実施形態について説明したけれども、本発明は上述の実施の形態に限られず、請求の範囲に記載した限りにおいて様々な変更が可能である。本発明においては、画像処理部が、患者の患部を測定して得られた測定データに基づいて投影用画像データを作成することで、投影用画像データで特定される画像としての投影用画像を作成する構成である。そして、投影用画像は、患者に投影するための画像であって、患部の手術開始後の画像を含んでいればよい。投影用画像は、患者の実際の画像を用いて形成されてもよいし、模式的なイメージ画像を用いて形成されてもよい。
 本発明は、手術支援装置、プログラム、記憶媒体、および、手術支援方法として、広く適用することができる。
1                      手術支援装置
3                      操作装置
5                      画像処理部
6                      画像表示装置
12                     領域設定部
13                     加工処理部
15                     指標
22,22C,22D,22E         加工候補領域
23,23C                 加工後画像
24,24A,24B,24C,24D,24E 投影用画像
28                     骨切りライン
100                    患者
101C,101D,101E         患部
105                    大腿骨
106                    脛骨
108                    上前腸骨棘(患者の基準となる部位)
110                    骨頭中心
113                    足関節中心
114                    膝関節中心
200                    膝関節インプラント(インプラント)
221,221C               第1加工候補領域
222,222C               第2加工候補領域
500                    記憶媒体

Claims (12)

  1.  画像処理部を備え、
     前記画像処理部は、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するように構成され、
     前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、手術支援装置。
  2.  請求項1に記載の手術支援装置であって、
     前記画像処理部は、領域設定部と、加工処理部と、を含み、
     前記領域設定部は、前記測定データで特定される測定画像のなかから、所定の加工候補領域を設定するように構成され、
     前記加工処理部は、前記加工候補領域について所定の加工処理を施すことで所定の加工後画像を作成し、次いで、前記測定画像のうち前記加工候補領域以外の画像と前記加工後画像とを組み合わせる処理を行うことで、前記投影用画像を作成するように構成されていることを特徴とする、手術支援装置。
  3.  請求項2に記載の手術支援装置であって、
     前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、
     前記領域設定部は、前記加工候補領域として、前記大腿骨の画像を含む第1加工候補領域、および、前記脛骨の画像を含む第2加工候補領域の少なくとも一方を設定するように構成され、
     前記加工処理部は、前記加工候補領域に回転処理を含む前記加工処理を施すことで、前記加工後画像を作成するように構成されていることを特徴とする、手術支援装置。
  4.  請求項2または請求項3に記載の手術支援装置であって、
     前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、
     前記加工処理部は、前記測定画像における骨頭中心と、膝関節中心と、足関節中心とが一直線に並ぶように表示される前記投影用画像を作成するように構成されていることを特徴とする、手術支援装置。
  5.  請求項2ないし請求項4の何れか1項に記載の手術支援装置であって、
     前記加工処理部は、前記測定画像の撮影時に前記患者の基準となる部位に設けられた指標の画像が前記投影用画像に含まれるように、前記投影用画像を作成するように構成されていることを特徴とする、手術支援装置。
  6.  請求項1ないし請求項5の何れか1項に記載の手術支援装置であって、
     前記画像処理部は、前記投影用画像として、前記患部の術中の画像および術後の画像の少なくとも一方を作成するように構成されていることを特徴とする、手術支援装置。
  7.  請求項6に記載の手術支援装置であって、
     前記画像処理部は、前記投影用画像として、前記患部の測定データを加工する前の画像を作成するように構成されていることを特徴とする、手術支援装置。
  8.  請求項1ないし請求項7の何れか1項に記載の手術支援装置であって、
     前記画像処理部は、前記投影用画像として、前記患部に設置されるインプラントの画像および骨切りラインの少なくとも一方を含む画像を作成するように構成されていることを特徴とする、手術支援装置。
  9.  請求項1ないし請求項8の何れか1項に記載の手術支援装置であって、
     前記測定データを操作する操作用データを前記画像処理部に出力するための操作装置と、
     前記投影用画像を患者に投影するための画像表示装置と、をさらに備えていることを特徴とする、手術支援装置。
  10.  コンピュータに、
     画像処理ステップを実行させ、
     前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、
     前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、プログラム。
  11.  プログラムが記憶され、コンピュータによって読み取り可能な記憶媒体であって、
     前記プログラムは、前記コンピュータに画像処理ステップを実行させるプログラムであって、
     前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、
     前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、記憶媒体。
  12.  患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成する画像処理ステップを含み、
     前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、手術支援方法。
     
     
PCT/JP2015/076014 2014-09-30 2015-09-14 手術支援装置、プログラム、記憶媒体、および、手術支援方法 WO2016052157A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/329,763 US10376318B2 (en) 2014-09-30 2015-09-14 Surgical assistance apparatus, program, storage medium, and surgical assistance method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014202285A JP6480694B2 (ja) 2014-09-30 2014-09-30 手術支援装置およびプログラム
JP2014-202285 2014-09-30

Publications (1)

Publication Number Publication Date
WO2016052157A1 true WO2016052157A1 (ja) 2016-04-07

Family

ID=55630199

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/076014 WO2016052157A1 (ja) 2014-09-30 2015-09-14 手術支援装置、プログラム、記憶媒体、および、手術支援方法

Country Status (3)

Country Link
US (1) US10376318B2 (ja)
JP (1) JP6480694B2 (ja)
WO (1) WO2016052157A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
JP2019097851A (ja) * 2017-12-01 2019-06-24 国立大学法人 鹿児島大学 歯科手術支援システム及びプログラム
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
JP7286380B2 (ja) * 2019-04-01 2023-06-05 国立大学法人 東京大学 医用画像処理装置及び医用画像処理プログラム
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0924053A (ja) * 1995-07-12 1997-01-28 Fuji Photo Film Co Ltd 外科手術支援システム
JP2002253574A (ja) * 2001-03-01 2002-09-10 Hitachi Ltd 手術支援装置
JP2004512136A (ja) * 2000-11-06 2004-04-22 ペルセプスィオン レゾヌマン アクスィオン アン メドスィーヌ 膝義足の位置を決定するシステム
JP2009136426A (ja) * 2007-12-05 2009-06-25 Fujifilm Corp 手術計画作成支援システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
WO2008157813A1 (en) * 2007-06-20 2008-12-24 Surgmatix, Inc. Surgical data monitoring and display system
JP5559642B2 (ja) * 2010-08-30 2014-07-23 富士フイルム株式会社 手術支援装置、手術支援方法および手術支援プログラム
US9498231B2 (en) * 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9668745B2 (en) * 2011-12-19 2017-06-06 Depuy Ireland Unlimited Company Anatomical concentric spheres THA
TWI586327B (zh) * 2012-12-27 2017-06-11 Metal Ind Research&Development Centre Image projection system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0924053A (ja) * 1995-07-12 1997-01-28 Fuji Photo Film Co Ltd 外科手術支援システム
JP2004512136A (ja) * 2000-11-06 2004-04-22 ペルセプスィオン レゾヌマン アクスィオン アン メドスィーヌ 膝義足の位置を決定するシステム
JP2002253574A (ja) * 2001-03-01 2002-09-10 Hitachi Ltd 手術支援装置
JP2009136426A (ja) * 2007-12-05 2009-06-25 Fujifilm Corp 手術計画作成支援システム

Also Published As

Publication number Publication date
US10376318B2 (en) 2019-08-13
JP2016067736A (ja) 2016-05-09
US20170215966A1 (en) 2017-08-03
JP6480694B2 (ja) 2019-03-13

Similar Documents

Publication Publication Date Title
JP6480694B2 (ja) 手術支援装置およびプログラム
JP7123031B2 (ja) ロボット支援再置換手技用のシステム
JP6643508B2 (ja) 関節手術における軟組織平衡化
Kim et al. Clinical experience with three-dimensional printing techniques in orthopedic trauma
US20200390503A1 (en) Systems and methods for surgical navigation and orthopaedic fixation
US8484001B2 (en) Pre-operative medical planning system and method for use thereof
JP7253377B2 (ja) 自動化された関節形成プランニング
JP2022133440A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
JP6362592B2 (ja) 選択可能な術前、術中、または術後ステータスで少なくとも1つの解剖学的構造のグラフィカル3dコンピュータモデルを動作するための方法
WO2023029923A1 (zh) 膝关节置换的三维术前规划方法及系统
Wilde et al. Intraoperative imaging in orbital and midface reconstruction
Kunz et al. Computer-assisted hip resurfacing using individualized drill templates
US20160117817A1 (en) Method of planning, preparing, supporting, monitoring and/or subsequently checking a surgical intervention in the human or animal body, apparatus for carrying out such an intervention and use of the apparatus
JP2011092405A (ja) 人工膝関節置換手術の術前計画用プログラム
JP2009056299A (ja) 外科手術をプランニングするための方法及びシステム
JP6324194B2 (ja) 骨切断補助部材、骨保持部材、骨切断補助キット、骨切断補助部材の製造方法、骨保持部材の製造方法、及び骨切断用部材作成用プログラム
JP2017507689A (ja) 少なくとも1つの解剖学的構造の3d参照コンピュータモデルを生成するための方法
US11576725B2 (en) Patient-specific instrumentation for implant revision surgery
JP2009273521A (ja) 関節鏡手術ナビゲーションシステム
US20140324182A1 (en) Control system, method and computer program for positioning an endoprosthesis
CA3184178A1 (en) Intraoperative imaging and virtual modeling methods, systems, and instrumentalities for fracture reduction
JP2018047240A (ja) 手術支援端末及びプログラム
US11376078B2 (en) Surgery assistance system
JP2020099533A (ja) 骨部手術の支援装置、支援方法、プログラム、および記録媒体
JP5933779B2 (ja) 人工膝関節置換手術用治具

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15845903

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15329763

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15845903

Country of ref document: EP

Kind code of ref document: A1