WO2016052157A1 - 手術支援装置、プログラム、記憶媒体、および、手術支援方法 - Google Patents
手術支援装置、プログラム、記憶媒体、および、手術支援方法 Download PDFInfo
- Publication number
- WO2016052157A1 WO2016052157A1 PCT/JP2015/076014 JP2015076014W WO2016052157A1 WO 2016052157 A1 WO2016052157 A1 WO 2016052157A1 JP 2015076014 W JP2015076014 W JP 2015076014W WO 2016052157 A1 WO2016052157 A1 WO 2016052157A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- patient
- processing
- projection image
- projection
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000012545 processing Methods 0.000 claims abstract description 259
- 238000001356 surgical procedure Methods 0.000 claims abstract description 141
- 238000005259 measurement Methods 0.000 claims abstract description 140
- 210000000689 upper leg Anatomy 0.000 claims description 21
- 210000002303 tibia Anatomy 0.000 claims description 19
- 230000002980 postoperative effect Effects 0.000 claims description 16
- 239000007943 implant Substances 0.000 claims description 11
- 238000012805 post-processing Methods 0.000 claims description 5
- 210000002414 leg Anatomy 0.000 description 24
- 210000000629 knee joint Anatomy 0.000 description 17
- 238000013500 data storage Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 208000003947 Knee Osteoarthritis Diseases 0.000 description 9
- 201000008482 osteoarthritis Diseases 0.000 description 9
- 238000003780 insertion Methods 0.000 description 7
- 230000037431 insertion Effects 0.000 description 7
- 210000002784 stomach Anatomy 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 210000001203 second metatarsal bone Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000013110 gastrectomy Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000002271 resection Methods 0.000 description 2
- 210000000588 acetabulum Anatomy 0.000 description 1
- 238000011882 arthroplasty Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000002318 cardia Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013150 knee replacement Methods 0.000 description 1
- 210000005240 left ventricle Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001187 pylorus Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002861 ventricular Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/56—Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/10—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/56—Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
- A61B2017/564—Methods for bone or joint treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/366—Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Definitions
- the present invention relates to a surgery support device, a program, a storage medium, and a surgery support method for assisting a surgeon when performing surgery on a patient.
- Mixed Reality Surgery is known as an operation method for an operator to perform an operation on a patient (for example, see Non-Patent Document 1).
- an operator performs an operation using an image of an organ and a blood vessel projected onto a patient's body surface using a projector.
- the surgeon can grasp the position of the organ to be operated before the operation. Therefore, the surgeon can perform the treatment on the patient more accurately and easily.
- the above prior art merely displays the patient's preoperative state on the surface of the patient, and when the shape of the affected part changes before and after the operation, the state of the patient after the start of the operation is displayed. Not.
- an object of the present invention is to provide a surgery support device, a program, a storage medium, and a surgery support method that can more accurately confirm the state of an affected area after surgery has started before surgery. To do.
- a surgery support apparatus for achieving the above object includes an image processing unit, and the image processing unit is predetermined based on measurement data obtained by measuring an affected part of a patient.
- the projection image data is created to create a projection image as an image specified by the projection image data, and the projection image is an image to be projected onto the patient. And an image showing the state of the affected area after the start of surgery.
- the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
- a surgery support device that allows the surgeon to more accurately confirm the state of the affected area after the surgery has started before surgery.
- the image processing unit includes a region setting unit and a processing unit, and the region setting unit selects a predetermined processing candidate region from among the measurement images specified by the measurement data.
- the processing unit is configured to create a predetermined post-processing image by performing a predetermined processing on the processing candidate area, and then, in the measurement image, an image other than the processing candidate area
- the projection image is created by performing a process of combining with the processed image.
- the projection image shows how the affected part of the patient and the part around the affected part are combined. Therefore, the surgeon can confirm the state of the patient after the start of surgery more accurately in advance by referring to the projection image projected on the patient.
- the image processing unit is configured to receive the measurement data specifying the measurement image including images of the patient's femur and tibia, and the region setting unit is configured to process the processing candidate.
- the region is configured to set at least one of a first processing candidate region including the femur image and a second processing candidate region including the tibia image, and the processing unit includes the processing candidate region.
- the post-processing image is created by performing the processing including rotation processing.
- the image processing unit is configured to receive the measurement data specifying the measurement image including images of the femur and tibia of the patient, and the processing unit is The projection image is displayed so that the head center, the knee joint center, and the ankle joint center are displayed in a straight line.
- the operator can more accurately confirm the target placement of the affected area before the operation at the time of knee osteoarthritis surgery or artificial knee joint replacement.
- the operator can visually confirm the position of the center of the bone head that cannot be directly recognized during the operation.
- the processing unit creates the projection image so that an image of an index provided at a site serving as a reference of the patient is included in the projection image when the measurement image is captured. It is configured as follows.
- the position of each part of the projection image is actually measured after the start of the patient's surgery by arranging the index image in the projection image so as to be superimposed on the reference region of the patient (the actual index). Can be adjusted to the position of As a result, the surgeon can more accurately confirm how to treat the affected area after the start of surgery.
- the image processing unit is configured to create at least one of an intraoperative image and an postoperative image of the affected area as the projection image.
- the projection image includes an intraoperative image of the affected area
- the surgeon can more accurately confirm the state of the affected area during the operation.
- the projection image includes the post-operative image of the affected part
- the surgeon can more accurately confirm the state of the affected part after the operation.
- the image processing unit is configured to create an image before the measurement data of the affected part is processed as the projection image.
- the projection image is projected onto the patient, so that the operator can confirm both the state before the operation and after the start of the operation. Thereby, the surgeon can perform an operation more accurately and easily.
- the image processing unit is configured to create, as the projection image, an image including at least one of an image of an implant placed on the affected part and an osteotomy line.
- the surgeon can more accurately confirm the state of the affected area after the start of surgery in the implant placement operation.
- the surgery support device includes an operation device for outputting operation data for operating the measurement data to the image processing unit, and an image display device for projecting the projection image onto a patient. , Is further provided.
- a projection image desired by the surgeon can be created by operating the operating device, for example, by the surgeon. Further, the projection image can be projected onto the patient using an image display device.
- a program according to an aspect of the present invention for achieving the above object is a program that causes a computer to execute an image processing step. Then, the image processing step creates predetermined projection image data based on measurement data obtained by measuring an affected area of a patient, thereby projecting a projection image as an image specified by the projection image data.
- the projection image is an image for projecting onto the patient and includes an image showing a state of the affected part after the start of surgery.
- the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
- the present invention it is possible to realize a program that allows an operator to more accurately check the state of an affected area after the start of surgery before surgery.
- a storage medium for achieving the above object is a storage medium that stores a program and is readable by a computer.
- the program is a program that causes the computer to execute an image processing step.
- the image processing step creates a projection image as an image specified by the projection image data by creating predetermined projection image data based on measurement data obtained by measuring an affected area of a patient
- the projection image includes an image for projecting onto the patient and an image showing a state of the affected part after the start of surgery.
- the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
- a storage medium storing a program that allows an operator to more accurately check the state of an affected area after the start of surgery before surgery.
- a surgical operation support method for achieving the above-described object includes creating predetermined projection image data based on measurement data obtained by measuring an affected area of a patient. Including an image processing step of creating a projection image as an image specified by the projection image data, wherein the projection image is an image to be projected onto the patient, and the state of the affected area after the start of surgery Contains an image to show.
- the projection image to be projected onto the patient includes an image (guide image) of the affected part after the start of surgery on the affected part. Therefore, by projecting this projection image onto the patient, the surgeon can more accurately confirm the shape of the affected area after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient.
- a surgery support method that allows the surgeon to more accurately confirm the state of the affected area after the surgery has started before surgery.
- the surgeon can more accurately confirm the state of the affected area after the start of surgery before surgery.
- the present invention can be widely applied as a surgery support device, a program, a storage medium, and a surgery support method.
- FIG. 1 is a schematic diagram showing a surgery support apparatus 1, an operating table 2, and a patient 100 according to an embodiment of the present invention.
- FIG. 2 is a front view of the patient.
- the surgery support apparatus 1 is used to visually guide what kind of surgery is performed on the patient 100 when the surgeon performs surgery on the patient 100. More specifically, the surgery support apparatus 1 creates predetermined projection image data based on measurement data obtained by measuring the affected area 101 of the patient 100.
- the projection image specified by the projection image data is an image projected on the affected area 101 of the patient 100 lying on the operating table 2 and the surface of the patient 100 around the affected area 101.
- the projection image includes a schematic image showing the state of the affected area 101 after the start of surgery. The surgeon can confirm the affected area 101 after the start of surgery accurately in advance by performing an operation while referring to the projection image.
- FIG. 3 is a diagram for explaining a procedure for creating the projection image 24, FIG. 3A shows the measurement image 21, and FIG. 3B shows a state in which the processing candidate region 22 is set from the measurement image 21.
- 3C shows a state in which the processing candidate region 22 is subjected to a rotation process, and the measurement image 21 is combined with the image 29 other than the processing candidate region 22 and the processed image 23, and FIG. A state where the work image 24 is completed is shown.
- FIG. 1 an example in which an operator performs an operation on a patient 100 whose leg 102 (right leg and left leg) has knee osteoarthritis is taken as an example.
- the leg 102 of the patient 100 is an excessive O leg, for example.
- a knee joint operation is performed.
- the surgery support device 1 includes an operation device 3, a measurement data storage unit 4, an image processing unit 5, and an image display device 6.
- the operation device 3 outputs predetermined operation data (command signal) to the image processing unit 5 and the image display device 6 based on being operated by an operator such as an operator.
- the operation data is output to the image processing unit 5 in order to operate the measurement data.
- the operation data is output to the image display device 6 in order to operate the image display device 6.
- the operating device 3 has, for example, a mouse and a keyboard, and is connected to the image processing unit 5.
- the measurement data storage unit 4 is provided as a part for storing measurement data obtained by measuring the affected part 101 of the patient 100 prior to the start of surgery.
- the measurement data storage unit 4 is a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) or a storage medium such as an optical disk.
- the measurement data storage unit 4 is disposed outside the surgical field, for example.
- the measurement data is data measured using an imaging apparatus such as an X-ray imaging apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or a CT (Computed Tomography) apparatus (not shown) such as a three-dimensional CT.
- the measurement data is image data that identifies the affected area 101 and an image obtained by measuring the periphery of the affected area 101.
- the measurement data may be image data that identifies an image that simply represents a necessary portion such as the affected part 101. This measurement data is processed by the image processing unit 5.
- the image processing unit 5 creates predetermined projection image data based on the measurement data obtained by measuring the affected part 101 of the patient 100, and thereby the projection image as an image specified by the projection image data. 24 is created.
- the projection image 24 is an image for projecting onto the patient 100 and includes an image showing the state of the affected part 101 after the start of surgery.
- the image processing unit 5 is formed using a computer including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory).
- the image processing unit 5 reads the measurement data from the measurement data storage unit 4 and performs predetermined image processing on the measurement data to create projection image data.
- the image processing unit 5 is installed outside the surgical field, for example.
- the image processing unit 5 includes a measurement data acquisition unit 11, a region setting unit 12, and a processing unit 13.
- the CPU when the CPU reads and executes the program from the memory or the storage medium 500, the functions of the measurement data acquisition unit 11, the region setting unit 12, and the processing unit 13 are realized.
- This program can be installed from outside the surgery support apparatus 1.
- the installed program is distributed in a state of being stored (stored) in the storage medium 500, for example.
- Examples of the storage medium 500 include a DVD (Digital Versatile Disc) and a CD-ROM.
- the measurement data acquisition unit 11 is provided as an interface unit connected to the measurement data storage unit 4.
- the measurement data acquisition unit 11 reads the measurement data stored in the measurement data storage unit 4 via a reading device (not shown).
- Measured image 21 is a front view of a patient obtained by photographing the lower body of patient 100 with the above-described photographing apparatus.
- the measurement image 21 includes images of the contour 103 of the lower body of the patient 100, the pelvis 104, the femur 105, the tibia 106, and the second metatarsal bone 107.
- the patient 100 suffers from knee osteoarthritis and has an O-leg. For this reason, the position of the knee joint of both legs 102 of the patient 100 is located outside the patient's 100 inner / outer direction (left / right direction) with respect to the original position of the knee joint.
- the measurement image 21 includes an image of the index 15 provided at a site (in this embodiment, the superior anterior iliac spine 108) that is a reference for the patient 100 when the measurement image 21 is captured.
- the site serving as a reference for the patient 100 refers to, for example, a site that can be viewed from the outside of the patient 100 by the surgeon during surgery of the patient 100 by the surgeon.
- the upper anterior iliac spine 108 is a portion of the patient 100 that is visible from the outside of the patient 100, and swells toward the outside of the patient 100 immediately below the skin of the patient 100.
- a surgical covering (not shown) is hung on the lower body of the patient 100, and the superior anterior iliac spine 108 is recognized by the operator through the surgical covering.
- the index 15 is a member that can be photographed by the above-described photographing apparatus, and is, for example, a metal pin member.
- the image processing unit 5 is configured to receive measurement data for specifying the measurement image 21 including the image of the femur 105 and the image of the tibia 106 of the patient 100.
- the measurement data acquired by the measurement data acquisition unit 11 is given to the region setting unit 12.
- the region setting unit 12 is configured to set a predetermined processing candidate region 22 from the measurement image 21.
- the processing candidate region 22 is a partial region of the measurement image 21 and is a region to be processed in the processing unit 13.
- the region setting unit 12 includes a first processing candidate region 221 including an image of the femur 105 as the processing candidate region 22 from the measurement image 21, A second processing candidate region 222 including an image of the tibia 106 is set.
- the first processing candidate region 221 includes the acetabulum 109, the femoral head center 110 of the femur 105, and the distal portion 111 of the femur 105 in both legs 102 of the patient 100. 2B and 2C, the illustration of the right leg 102 is omitted.
- the second processing candidate region 222 includes the proximal portion 112 of the tibia 106 in the leg 102 of the patient 100 and the second metatarsal bone 107 (ankle joint center).
- the region setting unit 12 may be manually set by an operator operating the operating device 3 before the operation, or may be automatically set by a predetermined image processing program.
- the image data of the measurement image 21 in which the processing candidate region 22 is set by the region setting unit 12 is output to the processing processing unit 13.
- the processing unit 13 performs a predetermined processing on the processing candidate region 22 to create a predetermined post-processing image 23, and then the measurement image 21.
- the projection image 24 is created by performing a process of combining the image 29 other than the processing candidate region 22 and the processed image 23.
- the processing unit 13 is configured to create a processed image 23 by performing a processing process including a rotation process on the processing candidate area 22.
- the processing unit 13 rotates the first processing candidate regions 221 of the right leg 102 and the left leg 102 about several degrees in plan view around the corresponding head center 110.
- the processing unit 13 rotates the second processing candidate regions 222 of the right leg 102 and the left leg 102 about several degrees around the ankle joint center 113 related to the second metatarsal bone 107.
- the processing unit 13 displays the head center 110, the knee joint center 114, and the ankle center 113 in a straight line in each of the right leg 102 and the left leg 102.
- a projection image 24 is created.
- the image processing unit 5 creates the projection image 24 with the index 15 in the measurement image 21 remaining.
- the processing unit 13 displays the projection image 24 so that the projection image 24 includes the image of the index 15 provided on the upper anterior iliac spine 108 that serves as a reference for the patient 100 when the measurement image 21 is captured. create.
- the image processing unit 5 creates the projection image 24 so that the scale 25 is displayed on the projection image 24.
- the scale 25 is used as a reference for scale adjustment when the projection image 24 is projected onto the surface of the patient 100.
- the processing unit 13 outputs projection image data for specifying the projection image 24 to the image display device 6.
- the image display device 6 is, for example, a projector device, and is configured to display the projection image 24 when given the projection image data.
- the image display device 6 is disposed in the operative field.
- the image display device 6 has a lens 26, and this lens 26 faces the operating table 2.
- the image display device 6 is configured so that the position relative to the operating table 2 can be changed manually or by a driving device (not shown). Thereby, the relative position between the projection image 24 irradiated from the lens 26 and the patient 100 can be adjusted.
- FIG. 4 is a schematic front view showing a state in which the projection image 24 is projected on the patient 100.
- the projection image 24 is arranged so that the image of the index 15 in the projection image 24 overlaps the index 15 provided on the upper anterior iliac spine 108 as a reference of the patient 100. Further, when the lens 26 is operated, the length of the scale 25 becomes a predetermined length, so that the size of each part of the projection image 24 matches the size of each part of the patient 100. With the above-described configuration, the surgeon can visually confirm the state of the affected area 101 of the patient 100 after the start of surgery before the surgery on the patient 100 is started.
- FIG. 5 is a flowchart for explaining an example of a processing flow in the surgery support apparatus 1.
- the drawings other than the flowchart are also referred to as appropriate.
- the operation of the surgery support apparatus 1 is started when the operator operates the operation apparatus 3. Then, when the projection image 24 is created in the surgery support apparatus 1, first, the lower body including the affected part 101 of the patient 100 is photographed by the photographing apparatus, whereby measurement data (measurement image 21) is acquired. The And this measurement data is memorize
- the image processing unit 5 performs image processing (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22. Next, the processing unit 13 performs a rotation process on the processing candidate area 22. As a result, a projection image 24 (projection image data) is created in which images of the bone head center 110, the knee joint center 114, and the ankle joint center 113 are arranged in a straight line.
- the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection image 24 specified by the projection image data onto the patient 100 on the operating table 2 (step S14).
- the program according to the present embodiment may be a program that causes a computer to execute the processing of the image processing unit 5.
- the image processing unit 5 in the present embodiment can be realized.
- a CPU Central Processing Unit
- the image processing unit 5 may be realized by the cooperation of software and hardware as described above, or may be realized by hardware.
- the program according to the present embodiment may be distributed in a state where it is recorded on a storage medium 500 such as a DVD (Digital Versatile Disc), or may be distributed through a wired or wireless communication line.
- the projection image 24 to be projected onto the patient 100 is an image (guidance image) showing the state of the affected area 101 after the affected area 101 is started. Contains. Therefore, by projecting this projection image 24 onto the patient 100, the surgeon can more accurately confirm the shape of the affected area 101 after the operation has started. Thereby, the surgeon can perform a more accurate operation on the patient 100.
- the surgery support apparatus 1 that allows the surgeon to more accurately confirm the state of the affected part 101 after the start of surgery before surgery.
- the region setting unit 12 is configured to set the processing candidate region 22 (221, 222) from the measurement image 21. Then, the processing unit 13 creates a processed image 23 by performing processing on the processing candidate area 22, and then combines the image 29 other than the processing candidate area 22 in the measurement image 21 with the processed image 23. By performing the processing, a projection image 24 is created.
- the projection image 24 shows how the affected part 101 and the part around the affected part 101 in the patient 100 are combined. Therefore, the surgeon can confirm the state of the patient 100 after the start of surgery more accurately in advance by referring to the projection image 24 projected onto the patient 100.
- the region setting unit 12 includes the first processing candidate region 221 including the image of the femur 105 and the second processing candidate region 222 including the image of the tibia 106 as the processing candidate region 22. Configured to set. Then, the processing unit 13 creates a post-processing image 23 by performing processing including rotation processing on the processing candidate area 22. According to this configuration, it is possible to realize the projection image 24 showing the state of the patient 100 after the start of the operation at the time of the operation of the knee osteoarthritis patient 100. Thereby, the surgeon can perform the operation of the knee osteoarthritis more accurately.
- the processing unit 13 creates the projection image 24 displayed so that the head center 110, the knee joint center 114, and the ankle center 113 in the measurement image 21 are aligned. To do. According to this configuration, at the time of surgery for knee osteoarthritis, the surgeon can more accurately confirm the arrangement state of the affected area 101 to be targeted before surgery. In particular, the surgeon can visually confirm the position of the head center 110 that cannot be directly recognized during the operation.
- the processing unit 13 projects the projection image so that the projection image 24 includes the image of the index 15 provided at the site serving as the reference of the patient 100 when the measurement image 21 is captured. 24 is created.
- the image of the index 15 in the projection image 24 is arranged so as to be superimposed on the actual object of the index 15 provided on the upper anterior iliac spine 108 serving as the reference of the patient 100, thereby The position of each part can be matched with the actual position of the patient 100 after the start of surgery. Thus, the surgeon can more accurately confirm how to treat the affected area 101 after the start of surgery.
- the image processing unit 5 is configured to create a post-operative image of the affected area 101 as the projection image 24. According to this configuration, since the projection image 24 includes the post-operative image of the affected area 101, the surgeon can more accurately confirm the state of the affected area 101 after the operation.
- the surgery support apparatus 1 further includes the image processing unit 5, the operation device 3, and the image display device 6.
- the image processing unit 5 the operation device 3, and the image display device 6.
- the projection image 24 desired by the operator can be created. Further, the projection image 24 can be projected onto the patient 100 using the image display device 6.
- the surgery support apparatus 1 since the robot apparatus for assisting an operator's surgery work and the jig
- PSI Patient Specific Instrument
- a post-operative image of the affected area 101 is created as the projection image 24
- the image processing unit 5 creates an image before the measurement data (measurement image 21) of the affected part 101 is processed as the projection image 24A. That is, the projection image 24A is the measurement image 21 itself.
- the projection image 24 and the projection image 24A are selectively or simultaneously projected onto the affected area 101 of the patient 100 and the periphery of the affected area 101.
- the projection images 24 and 24A are projected onto the patient, so that the operator can confirm both the state before the operation and after the start of the operation. Thereby, the surgeon can perform an operation more accurately and easily.
- an intraoperative image of the patient 100 may be created as the projection image 24B.
- the projection image 24B is created by performing processing similar to the creation processing 24.
- the projection image 24A, the projection image 24B, and the projection image 24 are selectively or simultaneously projected onto the affected area 101 of the patient 100 and the periphery of the affected area 101.
- the projection image 24B includes an intraoperative image of the affected area 101, so that the surgeon can more accurately confirm the state of the affected area 101 during the operation. Further, since the projection image 24 includes the post-operative image of the affected area 101, the surgeon can more accurately confirm the state of the affected area 101 after the operation.
- the projection image 24B indicating the intraoperative state of the patient 100 may not be created.
- FIG. 8A is a front view of the patient 100
- FIG. 8B is a side view of the patient 100
- 9 to 11 are a front view and a side view for explaining the flow of image processing using the surgery support apparatus 1.
- FIG. 9A shows a measurement image 21C and an insertion image 27
- FIG. 9B shows a post-operative projection image 24C ′ used for preoperative planning
- FIG. 10A shows an intraoperative projection image 24C.
- FIG. 10B shows a state where the projection image 24C is projected onto the patient
- FIG. 11 shows a state where the projection images 24C and 24C ′ are projected onto the patient.
- the right portion of the patient 100 is not shown.
- a knee prosthesis implant 200 includes a femoral component 201 secured to a distal portion 111 of a femur 105, and a tibial 106 A tibial component 202 secured to the proximal portion 112.
- a configuration is adopted in which the femoral component 201 and the tibial component 202 slide relative to each other as the knee bends.
- the measurement data storage unit 4 stores measurement data obtained by measuring the affected part 101C of the patient 100 prior to the start of surgery.
- the measurement data is image data obtained by photographing the left leg 102 including the affected part 101C of the patient 100 with the above photographing apparatus.
- the measurement image 21C specified by the measurement data includes a measurement image 21C1 obtained by photographing the patient 100 from the front and a measurement image 21C2 obtained by photographing the patient 100 from the left side.
- the image processing unit 5 creates an intraoperative image of the affected part 101C as the projection image 24C (24C1, 24C2). Further, the image processing unit 5 creates a post-operative image of the affected part 101C as the projection image 24C ′ (24C1 ′, 24C2 ′).
- the projection image 24 ⁇ / b> C ′ is a diagram illustrating a post-operative state used in the preoperative plan.
- Each of the projection images 24C and 24C ′ is an image including an image of the artificial knee joint implant 200 installed in the affected part 101C.
- the image processing unit 5 is configured to receive measurement data that specifies a measurement image 21 ⁇ / b> C including an image of the femur 105 and an image of the tibia 106 of the patient 100.
- the measurement data acquired by the measurement data acquisition unit 11 is given to the region setting unit 12.
- the region setting unit 12 is configured to set a predetermined processing candidate region 22C from the measurement image 21C.
- the region setting unit 12 includes a first processing candidate region 221C1 including a distal portion 111 of the femur 105 and a portion around the distal portion 111 as a processing candidate region 22C from the measurement image 21C.
- 221C2 and second processing candidate regions 222C1, 222C2 including the proximal portion 112 of the tibia 106 and a portion around the proximal portion 112 are set.
- the image data of the measurement image 21C in which the processing candidate region 22C is set by the region setting unit 12 is output to the processing processing unit 13.
- the processing unit 13 performs a predetermined processing on the processing candidate area 22C to create a predetermined processed image 23C ′, and then the image 29C other than the processing candidate area 22C and the processed image 23C in the measurement image 21C.
- the projection image 24C ′ is created by performing the process of combining “.”
- the processing unit 13 is configured to create a processed image 23C ′ by performing processing including rotation processing and image addition processing on the processing candidate area 22C.
- the processing unit 13 performs processing on the first processing candidate regions 221C1, 221C2 (femur 105) and the second processing candidate regions 222C1, 222C2 (tibia 106). ) Are rotated by a predetermined angle in plan view. Further, the processing unit 13 superimposes the corresponding front image and side image of the insertion image 27 of the femoral component 201 on the first processing candidate regions 221C1 and 221C2. Further, the processing unit 13 superimposes the corresponding front image and side image of the insertion image 27 of the tibial component 202 on the second processing candidate areas 222C1 and 222C2.
- the processing unit 13 attaches the femoral component 201 to the distal portion 111 of the femur 105 of the left leg 102 and the tibial component 202 to the proximal portion 112 of the tibia 106 of the left leg 102.
- a projection image 24C ′ (24C1 ′, 24C2 ′) indicating a post-operative state in which is attached is created.
- the processing unit 13 performs a predetermined processing on the processing candidate area 22C to create a predetermined processed image 23C, and then, among the measurement image 21C, an image 29C other than the processing candidate area 22C and a processed image
- the projection image 24 ⁇ / b> C is created by performing the process of combining with 23 ⁇ / b> C.
- the processing unit 13 is configured to create a processed image 23C by performing processing including image addition processing on the processing candidate area 22C.
- the processing unit 13 displays the corresponding front image and side image of the insertion image 27 of the femoral component 201 for the first processing candidate regions 221C1 and 221C2. Overlapping. Further, the processing unit 13 superimposes corresponding front images and side images of the insertion image 27 of the tibial component 202 on the second processing candidate regions 222C1 and 222C2. The respective installation angles of the femoral component 201 and the tibial component 202 in the projection image 24C indicating the state during surgery are determined based on the projection image 24C 'used for preoperative planning.
- the processing unit 13 attaches the femoral component 201 to the distal portion 111 of the femur 105 of the left leg 102 and the tibial component 202 to the proximal portion 112 of the tibia 106 of the left leg 102.
- a projection image 24C (24C1, 24C2) showing an intraoperative state in which is attached is created. 10B, the projection image 24C1 is projected onto the front surface of the left leg 102 of the patient 100, and the projection image 24C2 is projected onto the side surface of the left leg 102 of the patient 100.
- the projection image 24 ⁇ / b> C indicating the state during the operation and the projection image 24 ⁇ / b> C ′ indicating the state after the operation may be alternatively or simultaneously projected onto the patient 100.
- the image processing unit 5 performs image processing (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22C. Next, the processing unit 13 rotates the processing candidate region 22C and superimposes the image of the femoral component 201 and the image of the tibial component 202 (inserted image 27). Thus, a projection image 24C ′ (projection image data) is created. Further, the processing unit 13 superimposes the image of the femoral component 201 and the image of the tibial component 202 (inserted image 27) on the processing candidate region 22C. Thereby, a projection image 24C (projection image data) is created.
- the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection images 24C and 24C ′ specified by the projection image data onto the patient 100 on the operating table 2 (Step S14).
- the image processing unit 5 uses the images of the artificial knee joint implant 200 installed in the affected part 101C (projection images 24C and 24C ′). An image including the insertion image 27) is created. According to this configuration, the surgeon can more accurately confirm the state of the affected part 101C after the start of surgery in the knee replacement.
- the osteotomy line 28 may be included in the projection image 24C.
- the osteotomy line 28 is a straight line displayed on the distal portion 111 of the femur 105 and the proximal portion 112 of the tibia 106 in the projection image 24C.
- the surgeon can perform osteotomy on the femur 105 and the tibia 106 of the patient 100 while referring to the osteotomy line 28 in the osteotomy operation necessary to install the femoral component 201 and the tibial component 202.
- the projection image 24C includes the intraoperative image (osteotomy line 28) of the affected area 101, so that the operator can more accurately confirm the state of the affected area 101 during the operation.
- the projection image 24C includes the post-operative image of the affected part 101C, the surgeon can more accurately confirm the state of the affected part 101C after the operation.
- surgery support device 1 can also be used in the placement of implants other than artificial knee joint implants.
- the surgery support device 1 may be used when a gastrectomy for excising at least a part of the stomach is performed on the patient 100 placed on the operating table 2.
- FIG. 13 is a schematic diagram showing the surgery support apparatus 1 and the patient 100.
- the measurement data storage unit 4 stores measurement data obtained by measuring the affected part 101D of the patient 100 prior to the start of surgery.
- the measurement data is image data obtained by photographing the periphery of the stomach 115 including the affected part 101D of the patient 100 from the front of the patient 100 with the above photographing apparatus.
- the image processing unit 5 creates a post-operative image of the affected part 101D as the projection image 24D. Specifically, in the present embodiment, the image processing unit 5 is configured to receive measurement data that specifies the measurement image 21 including the image of the stomach 115 of the patient 100.
- the region setting unit 12 is configured to set a predetermined processing candidate region 22D from the measurement image 21.
- the region setting unit 12 sets a region including the image of the affected part 101D as the processing candidate region 22D from the measurement image 21, as well illustrated in FIG. 14B.
- the processing candidate area 22D is an area that includes an image of the stomach body part of the stomach 115 and excludes the images of the cardia part and the pylorus part.
- the image data of the measurement image 21D in which the processing candidate region 22D is set by the region setting unit 12 is output to the processing processing unit 13.
- the processing unit 13 performs processing for deleting the processing candidate area 22D as well shown in FIG. 14C, and then, as shown in FIG. 14D, other than the processing candidate area 22 in the measurement image 21D.
- the process of combining the images 29D of the stomach 115 is performed. Thereby, the projection image 24D is created.
- the projection image 24D is projected onto the surface around the stomach of the patient 100, as well shown in FIG. 14E.
- FIGS. 5, 13, and 14A to 14E an example of processing related to the surgery support apparatus 1 is as shown in FIGS. 5, 13, and 14A to 14E.
- the measurement data (measurement image 21D) is obtained by imaging the affected area 101D of the patient 100 using the imaging apparatus.
- the measurement data storage unit 4 stores this measurement data (step S11).
- the image processing unit 5 performs image processing (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22D. Next, the processing unit 13 creates an image from which the processing candidate area 22D has been deleted as a projection image 24D (projection image data).
- the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection image 24D specified by the projection image data onto the patient 100 on the operating table 2 (Step S14).
- the surgeon can more accurately confirm the state of the affected area 101 after the start of surgery in gastrectomy.
- FIG. 15 is a schematic diagram showing the surgery support apparatus 1 and the patient 100.
- the measurement data storage unit 4 stores measurement data obtained by measuring the affected part 101E of the patient 100 prior to the start of surgery.
- the measurement data is image data obtained by photographing the periphery of the heart 116 including the affected area 101E of the patient 100 from the front of the patient 100 using the above photographing apparatus.
- the image processing unit 5 creates a post-operative image of the affected part as the projection image 24E. Specifically, in the present embodiment, the image processing unit 5 is configured to receive measurement data that specifies a measurement image 21E including an image of the heart 116 of the patient 100.
- the region setting unit 12 is configured to set a predetermined processing candidate region 22E from the measurement image 21E.
- the region setting unit 12 sets a region including the image of the affected part 101E as the processing candidate region 22E as shown in FIG. 16B from the measurement image 21E.
- the processing candidate region 22E includes a peripheral portion of the left ventricle.
- the image data of the measurement image 21E in which the processing candidate region 22E is set by the region setting unit 12 is output to the processing processing unit 13.
- the processing unit 13 performs processing for deleting the processing candidate area 22E as well shown in FIG. 16C, and then, as shown in FIG. 16D, other than the processing candidate area 22E in the measurement image 21E.
- a process of combining the images 29E of the heart 116 is performed. Thereby, a projection image 24E is created.
- the projection image 24E is projected onto the surface around the heart 116 of the patient 100, as well shown in FIG. 16E.
- FIGS. 5, 15, and 16A to 16E an example of processing relating to the surgery support apparatus 1 is as shown in FIGS. 5, 15, and 16A to 16E.
- the measurement data (measurement image 21E) is acquired by imaging the affected area 101E of the patient 100 using the imaging apparatus.
- the measurement data storage unit 4 stores this measurement data (step S11).
- the image processing unit 5 performs image processing based on the measurement data (measurement image 21E) (step S12). Specifically, the region setting unit 12 sets the processing candidate region 22E. Next, the processing unit 13 creates an image from which the processing candidate area 22E has been deleted as a projection image 24E (projection image data).
- the image display device 6 takes in the image data for projection from the image processing unit 5 (step S13). Then, the image display device 6 projects the projection image 24E specified by the projection image data onto the patient 100 on the operating table 2 (step S14).
- the surgeon can more accurately confirm the state of the affected area 101E after the start of surgery in the batista surgery.
- the image processing unit creates the projection image data based on the measurement data obtained by measuring the affected part of the patient, and thereby the projection image as the image specified by the projection image data is obtained.
- the projection image is an image for projecting onto the patient, and may include an image after the surgery on the affected part is started.
- the projection image may be formed using an actual image of a patient, or may be formed using a schematic image.
- the present invention can be widely applied as a surgery support device, a program, a storage medium, and a surgery support method.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medicinal Chemistry (AREA)
- Urology & Nephrology (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Surgical Instruments (AREA)
- Prostheses (AREA)
Abstract
手術開始後の患部の状態を術前により正確に確認することのできる手術支援装置などを提供する。 手術支援装置1は、画像処理部5を有している。画像処理部5は、患者100の患部101を測定して得られた測定データに基づいて投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像24を作成する。投影用画像24は、患者100に投影するための画像であって、患部101の手術開始後の状態を示す画像を含んでいる。
Description
本発明は、術者が患者に手術を施す際に術者を支援するための手術支援装置、プログラム、記憶媒体、および、手術支援方法に関する。
術者が患者に手術を施すための手術法として、Mixed Reality Surgery(複合現実感手術)が知られている(たとえば、非特許文献1参照)。この手術法では、プロジェクターを用いて、患者の体表面に臓器および血管の画像を投影した状態で、術者が手術を行う。このように、患者の体表面に投影された画像を用いることで、手術対象となる臓器の位置を術者が術前に把握できる。よって、術者は、患者への施術をより正確且つ容易に行うことができる。
Projection Mapping Using Mixed Augmented Reality Surgery by OsiriX: Image Overlay Surgery、[online]、[平成24年2月1日]、インターネット<URL: https://www.youtube.com/watch?v=iTtg3vhgLVc>
ところで、変形性膝関節症の患者の変形した膝関節を正常に近い状態に戻す膝関節術、患者の膝関節を人工膝関節に置換する人工膝関節置換術、および、患者の内臓を切除する切除術などでは、手術の前後において、患者の患部の形状が変化する。このため、術者は、手術開始後の患部の形状を術前により正確に確認しておくことが好ましい。
しかしながら、上記の先行技術では、患者の術前の状態を患者の表面に表示するに過ぎず、患部の形状が手術の前後で変わる場合、手術開始後の患者の状態を表示する構成とはなっていない。
本発明は、上記実情に鑑みることにより、手術開始後の患部の状態を術前により正確に確認することのできる手術支援装置、プログラム、記憶媒体、および、手術支援方法を提供することを目的とする。
(1)上記目的を達成するための本発明のある局面に係る手術支援装置は、画像処理部を備え、前記画像処理部は、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するように構成され、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできる手術支援装置を実現できる。
(2)好ましくは、前記画像処理部は、領域設定部と、加工処理部と、を含み、前記領域設定部は、前記測定データで特定される測定画像のなかから、所定の加工候補領域を設定するように構成され、前記加工処理部は、前記加工候補領域について所定の加工処理を施すことで所定の加工後画像を作成し、次いで、前記測定画像のうち前記加工候補領域以外の画像と前記加工後画像とを組み合わせる処理を行うことで、前記投影用画像を作成するように構成されている。
この構成によると、投影用画像は、患者のうち患部と患部の周囲の部分とがどのように結合されるかを示すこととなる。したがって、術者は、患者に投影された投影用画像を参照することで、手術開始後の患者の状態を、事前により正確に確認できる。
(3)より好ましくは、前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、前記領域設定部は、前記加工候補領域として、前記大腿骨の画像を含む第1加工候補領域、および、前記脛骨の画像を含む第2加工候補領域の少なくとも一方を設定するように構成され、前記加工処理部は、前記加工候補領域に回転処理を含む前記加工処理を施すことで、前記加工後画像を作成するように構成されている。
この構成によると、変形性膝関節症の患者の手術時において、手術開始後の患者の状態を示す投影用画像を実現できる。これにより、術者は、変形性膝関節症の手術をより正確に行うことができる。
(4)好ましくは、前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、前記加工処理部は、前記測定画像における骨頭中心と、膝関節中心と、足関節中心とが一直線に並ぶように表示される前記投影用画像を作成するように構成されている。
この構成によると、変形性膝関節症の手術時、または、人工膝関節置換術時において、目標とすべき患部の配置状態を、術者が術前により正確に確認できる。特に、術者は、術中に直接視認できない骨頭中心の位置を、視覚的に確認できる。
(5)好ましくは、前記加工処理部は、前記測定画像の撮影時に前記患者の基準となる部位に設けられた指標の画像が前記投影用画像に含まれるように、前記投影用画像を作成するように構成されている。
この構成によると、投影用画像における指標の画像を、患者の基準となる部位(指標の実物)に重ねるように配置することで、投影用画像の各部の位置を、患者の手術開始後における実際の位置に合わせることができる。これにより、術者は、手術開始後に患部をどのように処置すべきかを、より正確に確認できる。
(6)好ましくは、前記画像処理部は、前記投影用画像として、前記患部の術中の画像および術後の画像の少なくとも一方を作成するように構成されている。
この構成によると、投影用画像が患部の術中の画像を含むことで、術者は、術中における患部の状態をより正確に確認できる。また、投影用画像が患部の術後の画像を含むことで、術者は、術後における患部の状態をより正確に確認できる。
(7)より好ましくは、前記画像処理部は、前記投影用画像として、前記患部の測定データを加工する前の画像を作成するように構成されている。
この構成によると、投影用画像が患者に投影されることで、術者は、術前と手術開始後の双方の状態を確認できる。これにより、術者は、より正確に且つ容易に手術を行うことができる。
(8)好ましくは、前記画像処理部は、前記投影用画像として、前記患部に設置されるインプラントの画像および骨切りラインの少なくとも一方を含む画像を作成するように構成されている。
この構成によると、術者は、インプラント設置術において、手術開始後の患部の状態を、術前により正確に確認できる。
(9)好ましくは、前記手術支援装置は、前記測定データを操作する操作用データを前記画像処理部に出力するための操作装置と、前記投影用画像を患者に投影するための画像表示装置と、をさらに備えている。
この構成によると、操作装置をたとえば術者が操作することで、術者の所望する投影用画像を作成することができる。また、この投影用画像を、画像表示装置を用いて患者に投影することができる。
(10)上記目的を達成するための本発明のある局面に係るプログラムは、コンピュータに、画像処理ステップを実行させるプログラムである。そして、前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできるプログラムを実現できる。
(11)上記目的を達成するための本発明のある局面に係る記憶媒体は、プログラムが記憶され、コンピュータによって読み取り可能な記憶媒体である。前記プログラムは、前記コンピュータに画像処理ステップを実行させるプログラムである。前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできるプログラムを記憶した記憶媒体を実現できる。
(12)上記目的を達成するための本発明のある局面に係る手術支援方法は、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成する画像処理ステップを含み、前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいる。
この構成によると、患者に投影するための投影用画像は、患部の手術開始後における当該患部の画像(案内画像)を含んでいる。よって、この投影用画像が患者に投影されることで、術者は、手術開始後の患部の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者に施すことができる。以上の次第で、本発明によると、手術開始後の患部の状態を術者が術前により正確に確認することのできる手術支援方法を実現できる。
本発明によると、術者は、手術開始後の患部の状態を術前により正確に確認することができる。
以下、本発明を実施するための形態について図面を参照しつつ説明する。なお、本発明は、手術支援装置、プログラム、記憶媒体、および、手術支援方法として広く適用することができる。
図1は、本発明の一実施形態に係る手術支援装置1、手術台2、および、患者100を示す模式図である。図2は、患者の正面図である。図1および図2を参照して、手術支援装置1は、術者が患者100に手術を施す際に、当該患者100にどのような手術を施すかを視覚的に案内するために用いられる。より具体的には、手術支援装置1は、患者100の患部101を測定して得られた測定データに基づいて、所定の投影用画像データを作成する。
この投影用画像データで特定される投影用画像は、手術台2に横たわっている患者100の患部101および当該患部101の周囲における患者100の表面に投影される画像である。そして、この投影用画像は、患部101の手術開始後の状態を示す模式的な画像を含んでいる。術者は、この投影用画像を参照しつつ、手術を行うことにより、手術開始後の患部101を事前により正確に確認できる。
図3は、投影用画像24を作成する手順について説明するための図であり、図3Aは、測定画像21を示しており、図3Bは、測定画像21から加工候補領域22を設定する状態を示し、図3Cは、加工候補領域22に回転処理を施すとともに、測定画像21のうち加工候補領域22以外の画像29と加工後画像23とを組み合わせる処理を行う様子を示し、図3Dは、投影用画像24が完成した状態を示している。
図1、図2および図3A~図3Dを参照して、本実施形態では、脚102(右足および左脚)が変形性膝関節症である患者100に術者が手術を行う場合を例に説明する。この場合、患者100の脚102は、たとえば、過度のO脚となっている。そして、この脚102をより真っ直ぐな状態に戻すために、膝関節術が施される。
手術支援装置1は、操作装置3と、測定データ記憶部4と、画像処理部5と、画像表示装置6と、を有している。
操作装置3は、術者などのオペレータによって操作されることに基づいて、所定の操作用データ(指令信号)を、画像処理部5、および、画像表示装置6に出力する。操作用データは、たとえば、測定データを操作するために、画像処理部5に出力される。また、操作用データは、画像表示装置6を動作させるために、画像表示装置6に出力される。操作装置3は、たとえば、マウス、および、キーボードなどを有しており、画像処理部5に接続されている。
測定データ記憶部4は、手術開始に先立ち、患者100の患部101を測定して得られた測定データを記憶する部分として設けられている。測定データ記憶部4は、たとえば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記憶装置または光ディスクなどの記憶媒体である。測定データ記憶部4は、たとえば、術野外に配置されている。
測定データは、撮影装置、たとえば、X線撮影装置、MRI(Magnetic Resonance Imaging)装置、または、3次元CTなどのCT(Computed Tomography)装置(図示せず)を用いて測定されたデータである。本実施形態では、測定データは、患部101および患部101の周辺を測定して得られた画像を特定する画像データである。なお、測定データは、患部101などの必要箇所を簡易的に表した画像を特定する画像データであってもよい。この測定データは、画像処理部5で処理される。
画像処理部5は、患者100の患部101を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像24を作成するように構成されている。この投影用画像24は、患者100に投影するための画像であって、患部101の手術開始後の状態を示す画像を含んでいる。
画像処理部5は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を含むコンピュータを用いて形成されている。画像処理部5は、測定データ記憶部4から測定データを読み込み、この測定データに所定の画像処理を施すことで、投影用画像データを作成する。画像処理部5は、たとえば、術野外に設置されている。
画像処理部5は、測定データ取得部11と、領域設定部12と、加工処理部13と、を有している。
たとえば、CPUが、メモリまたは記憶媒体500からプログラムを読み出して実行することにより、測定データ取得部11と、領域設定部12と、加工処理部13の各機能が実現される。このプログラムは、手術支援装置1の外部からインストールできる。このインストールされるプログラムは、たとえば記憶媒体500に格納(記憶)された状態で流通する。この記憶媒体500として、DVD(Digital Versatile Disc)、CD-ROMなどを例示することができる。
測定データ取得部11は、測定データ記憶部4に接続されるインターフェース部として設けられている。測定データ取得部11は、測定データ記憶部4に記憶されている測定データを、図示しない読み込み装置などを介して読み込む。
測定画像21は、患者100の下半身を上記の撮影装置で撮影することで得られる、患者の正面図である。この測定画像21には、一例として、患者100の下半身の輪郭部103と、骨盤104と、大腿骨105と、脛骨106と、第2中足骨107の画像が含まれている。前述したように、患者100は変形性膝関節症を患っており、O脚となっている。このため、患者100の両脚102の膝関節の位置は、膝関節の本来の位置に対して、患者100の内外側方向(左右方向)の外側に位置している。
また、測定画像21には、当該測定画像21の撮影時に患者100の基準となる部位(本実施形態では、上前腸骨棘108)に設けられた指標15の画像が含まれている。患者100の基準となる部位とは、たとえば、術者による患者100の手術中において、術者が患者100の部位のうち当該患者100の外部から視認可能な部位をいう。
上前腸骨棘108は、患者100のうち、患者100の外部から視認できる部分であり、患者100の皮膚の直下において患者100の外部に向けて膨らんでいる。なお、膝関節術において、患者100の下半身には、手術用覆布(図示せず)が掛けられるが、上前腸骨棘108は、この手術用覆布を通して、術者によって認識されることが可能である。また、指標15は、上記の撮影装置で撮影可能な部材であり、たとえば、金属製のピン部材である。
このように、本実施形態では、画像処理部5は、患者100の大腿骨105の画像および脛骨106の画像を含む測定画像21を特定する測定データを受信するように構成されている。測定データ取得部11で取得された測定データは、領域設定部12に与えられる。
領域設定部12は、測定画像21のなかから、所定の加工候補領域22を設定するように構成されている。加工候補領域22とは、測定画像21の一部の領域であって、加工処理部13において、加工が施される対象となる領域をいう。
図3Bによく示されているように、本実施形態では、領域設定部12は、測定画像21の中から、加工候補領域22として、大腿骨105の画像を含む第1加工候補領域221と、脛骨106の画像を含む第2加工候補領域222と、を設定する。
本実施形態では、第1加工候補領域221は、患者100の両脚102における寛骨臼109、大腿骨105の骨頭中心110、および、大腿骨105の遠位部111を含んでいる。なお、図2B、図2Cでは、右脚102についての図示は省略している。また、本実施形態では、第2加工候補領域222は、患者100の脚102における脛骨106の近位部112と、第2中足骨107(足関節中心)と、を含んでいる。
領域設定部12は、術前に術者が操作装置3を操作することで手動設定されてもよいし、所定の画像処理プログラムによって自動的に設定されてもよい。領域設定部12で加工候補領域22が設定された測定画像21の画像データは、加工処理部13へ出力される。
図1、図2、図3Cおよび図3Dを参照して、加工処理部13は、加工候補領域22について所定の加工処理を施すことで所定の加工後画像23を作成し、次いで、測定画像21のうち加工候補領域22以外の画像29と加工後画像23とを組み合わせる処理を行うことで、投影用画像24を作成するように構成されている。本実施形態では、加工処理部13は、加工候補領域22に回転処理を含む加工処理を施すことで、加工後画像23を作成するように構成されている。
本実施形態では、加工処理部13は、右脚102および左脚102のそれぞれの第1加工候補領域221について、対応する骨頭中心110を中心として平面視で数度程度回転させる。また、加工処理部13は、右脚102および左脚102のそれぞれの第2加工候補領域222について、第2中足骨107に関連する足関節中心113を中心として、数度程度回転させる。加工処理部13は、このような加工処理の結果、右脚102および左脚102のそれぞれにおいて、骨頭中心110と、膝関節中心114と、足関節中心113とが一直線に並ぶように表示される投影用画像24を作成する。
画像処理部5は、測定画像21における指標15を残した状態で、投影用画像24を作成する。すなわち、加工処理部13は、測定画像21の撮影時に患者100の基準となる上前腸骨棘108に設けられた指標15の画像が投影用画像24に含まれるように、投影用画像24を作成する。また、画像処理部5は、投影用画像24に、スケール25が表示されるように、投影用画像24を作成する。このスケール25は、患者100の表面に投影用画像24が投影されるときの縮尺合わせの基準として用いられる。
たとえば、このスケール25が10cmの長さとなるように投影用画像24が画像表示装置6から投影されることで、投影用画像24における各部の大きさが、患者100の実際の大きさと一致する。スケール25は、患者100に投影されてもよいし、手術台2に投影されてもよい。加工処理部13は、投影用画像24を特定する投影用画像データを、画像表示装置6に出力する。
画像表示装置6は、たとえば、プロジェクター装置であり、投影用画像データを与えられることで、投影用画像24を表示するように構成されている。画像表示装置6は、術野に配置されている。画像表示装置6は、レンズ26を有しており、このレンズ26が手術台2を向いている。画像表示装置6は、手術台2に対する位置を手動または図示しない駆動装置によって変更可能に構成されている。これにより、レンズ26から照射される投影用画像24と、患者100との相対位置を調整することができる。
たとえば、手術開始時において、画像表示装置6から患者100に投影用画像24が投影されることにより、図4に示すように、患者100の両脚102の表面に、投影用画像24が投影される。なお、図4は、患者100に投影用画像24が投影された状態を示す模式的な正面図である。
このとき、投影用画像24における指標15の画像が、患者100の基準となる上前腸骨棘108に設けられた指標15に重なるように、投影用画像24が配置される。また、レンズ26が操作されることにより、スケール25の長さが所定の長さとなることで、投影用画像24の各部の大きさが患者100の各部の大きさと一致する。上記の構成により、術者は、患者100への手術を開始する前において、手術開始後の患者100の患部101の状態を視覚的に確認することができる。
次に、手術支援装置1における処理の流れの一例を説明する。図5は、手術支援装置1における処理の流れの一例を説明するためのフローチャートである。なお、以下では、フローチャートを参照して説明するときは、フローチャート以外の図も適宜参照する。
図5を参照して、手術支援装置1の動作は、術者が操作装置3を操作することで開始される。そして、手術支援装置1において投影用画像24が作成される際には、まず、撮影装置によって、患者100の患部101を含む下半身が撮影されることで、測定データ(測定画像21)が取得される。そして、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
次に、測定データ(測定画像21)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22を設定する。次いで、加工処理部13が、加工候補領域22に回転処理を施す。これにより、骨頭中心110、膝関節中心114、および、足関節中心113の画像が一直線に並ぶように配置された投影用画像24(投影用画像データ)が作成される。
次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24を、手術台2上の患者100に投影する(ステップS14)。
[プログラム]
本実施形態に係るプログラムは、コンピュータに、画像処理部5の処理を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における画像処理部5を実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、測定データ取得部11、領域設定部12、および、加工処理部13として機能し、処理を行う。なお、画像処理部5は、このようにソフトウェアとハードウェアとの協働によって実現されてもよいし、ハードウェアによって実現されてもよい。また、本実施形態に係るプログラムは、DVD(Digital Versatile Disc)などの記憶媒体500に記録された状態で流通されてもよいし、有線または無線を用いた通信回線によって流通されてもよい。
本実施形態に係るプログラムは、コンピュータに、画像処理部5の処理を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における画像処理部5を実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、測定データ取得部11、領域設定部12、および、加工処理部13として機能し、処理を行う。なお、画像処理部5は、このようにソフトウェアとハードウェアとの協働によって実現されてもよいし、ハードウェアによって実現されてもよい。また、本実施形態に係るプログラムは、DVD(Digital Versatile Disc)などの記憶媒体500に記録された状態で流通されてもよいし、有線または無線を用いた通信回線によって流通されてもよい。
以上説明したように、本実施形態の手術支援装置1によると、患者100に投影するための投影用画像24は、患部101の手術開始後における当該患部101の状態を示す画像(案内画像)を含んでいる。よって、この投影用画像24が患者100に投影されることで、術者は、手術開始後の患部101の形状を術前により正確に確認することができる。これにより、術者は、より正確な手術を患者100に施すことができる。以上の次第で、手術開始後の患部101の状態を術者が術前により正確に確認することのできる手術支援装置1を実現できる。
また、手術支援装置1によると、領域設定部12は、測定画像21のなかから加工候補領域22(221,222)を設定するように構成されている。そして、加工処理部13は、加工候補領域22について加工処理を施すことで加工後画像23を作成し、次いで、測定画像21のうち加工候補領域22以外の画像29と加工後画像23とを組み合わせる処理を行うことで、投影用画像24を作成する。この構成によると、投影用画像24は、患者100のうち患部101と患部101の周囲の部分とがどのように結合されるかを示すこととなる。したがって、術者は、患者100に投影された投影用画像24を参照することで、手術開始後の患者100の状態を、事前により正確に確認できる。
また、手術支援装置1によると、領域設定部12は、加工候補領域22として、大腿骨105の画像を含む第1加工候補領域221、および、脛骨106の画像を含む第2加工候補領域222を設定するように構成されている。そして、加工処理部13は、加工候補領域22に回転処理を含む加工処理を施すことで、加工後画像23を作成する。この構成によると、変形性膝関節症の患者100の手術時において、手術開始後の患者100の状態を示す投影用画像24を実現できる。これにより、術者は、変形性膝関節症の手術をより正確に行うことができる。
また、手術支援装置1によると、加工処理部13は、測定画像21における骨頭中心110と、膝関節中心114と、足関節中心113とが一直線に並ぶように表示される投影用画像24を作成する。この構成によると、変形性膝関節症の手術時において、目標とすべき患部101の配置状態を、術者が術前により正確に確認できる。特に、術者は、術中に直接視認できない骨頭中心110の位置を、視覚的に確認できる。
また、手術支援装置1によると、加工処理部13は、測定画像21の撮影時に患者100の基準となる部位に設けられた指標15の画像が投影用画像24に含まれるように、投影用画像24を作成する。この構成によると、投影用画像24における指標15の画像を、患者100の基準となる上前腸骨棘108に設けられた指標15の実物に重ねるように配置することで、投影用画像24の各部の位置を、患者100の手術開始後における実際の位置に合わせることができる。これにより、術者は、手術開始後に患部101をどのように処置すべきかを、より正確に確認できる。
また、手術支援装置1によると、画像処理部5は、投影用画像24として、患部101の術後の画像を作成するように構成されている。この構成によると、投影用画像24が患部101の術後の画像を含むことで、術者は、術後における患部101の状態をより正確に確認できる。
また、手術支援装置1によると、手術支援装置1は、画像処理部5と、操作装置3と、画像表示装置6と、をさらに有している。この構成によると、操作装置3をたとえば術者が操作することで、術者の所望する投影用画像24を作成することができる。また、この投影用画像24を、画像表示装置6を用いて患者100に投影することができる。
また、手術支援装置1によると、術者の手術作業を補助するためのロボット装置、および、個々の患者専用の治具(PSI:Patient Specific Instrument)が不要であるので、手術に係るコストをより少なくできる。
なお、上述の実施形態では、投影用画像24として、患部101の術後の画像を作成する形態を例に説明した。しかしながら、これに限定されない。たとえば、図6Aに示すように、投影用画像24Aとして、患者100の術前の画像が作成されてもよい。この場合、画像処理部5は、投影用画像24Aとして、患部101の測定データ(測定画像21)を加工する前の画像を作成する。すなわち、投影用画像24Aは、測定画像21そのものである。この場合、図6Bに示すように、投影用画像24と投影用画像24Aとが選択的に、または、同時に、患者100の患部101および当該患部101の周辺に投影される。
この構成によると、投影用画像24,24Aが患者に投影されることで、術者は、術前と手術開始後の双方の状態を確認できる。これにより、術者は、より正確に且つ容易に手術を行うことができる。
また、図7Aに示すように、投影用画像24Bとして、患者100の術中の画像が作成されてもよい。この場合、第1加工候補領域221および第2加工候補領域222のそれぞれの回転角度を、投影用画像24を作成する際の対応する回転角度よりも小さい値に設定される点以外は投影用画像24の作成処理と同様の処理が行われることで、投影用画像24Bが作成される。この場合、図7Bに示すように、投影用画像24Aと投影用画像24Bと投影用画像24とが選択的に、または、同時に、患者100の患部101および当該患部101の周辺に投影される。
この構成によると、投影用画像24Bが患部101の術中の画像を含むことで、術者は、術中における患部101の状態をより正確に確認できる。また、投影用画像24が患部101の術後の画像を含むことで、術者は、術後における患部101の状態をより正確に確認できる。
なお、患者100の術中の状態を示す投影用画像24Bが作成される場合には、患者100の術後の状態を示す投影用画像24は作成されなくてもよい。
また、手術支援装置1は、患者100の膝関節を人工膝関節インプラント200に置換する人工膝関節置換術に適用されてもよい。図8Aは、患者100の正面図であり、図8Bは、患者100の側面図である。図9~図11は、手術支援装置1を用いた画像処理の流れを説明するための正面図および側面図である。図9Aは、測定画像21Cおよび挿入画像27を示しており、図9Bは、術前計画に用いられる、術後の投影用画像24C’を示しており、図10Aは、術中の投影用画像24Cを示しており、図10Bは、投影用画像24Cが患者に投影された状態を示しており、図11は、投影用画像24C、24C’が患者に投影された状態を示している。なお、図9A~図11においては、患者100の右部分の図示は省略している。
図1、図8、図9A、図9B、図10Aおよび図10Bを参照して、人工膝関節インプラント200は、大腿骨105の遠位部111に固定される大腿骨コンポーネント201と、脛骨106の近位部112に固定される脛骨コンポーネント202と、を有している。膝の屈曲に伴って、大腿骨コンポーネント201と脛骨コンポーネント202とが相対的にスライドする構成が採用されている。
なお、以下では、主に、上述の実施形態と異なる点について説明し、同様の構成には図に同様の符号を付して詳細な説明を省略する。
本実施形態では、測定データ記憶部4は、手術開始に先立ち、患者100の患部101Cを測定して得られた測定データを記憶する。本実施形態では、測定データは、患者100の患部101Cを含む左脚102を上記の撮影装置で撮影することで得られた画像データである。この測定データで特定される測定画像21Cは、患者100を正面から撮影した測定画像21C1と、患者100を左側方から撮影した測定画像21C2と、を含んでいる。
画像処理部5は、投影用画像24C(24C1,24C2)として、患部101Cの術中の画像を作成する。また、画像処理部5は、投影用画像24C’(24C1’,24C2’)として、患部101Cの術後の画像を作成する。なお、投影用画像24C’は、術前計画において利用される、術後の状態を示す図である。各投影用画像24C,24C’は、患部101Cに設置される人工膝関節インプラント200の画像を含む画像である。
具体的には、本実施形態では、画像処理部5は、患者100の大腿骨105の画像および脛骨106の画像を含む測定画像21Cを特定する測定データを受信するように構成されている。測定データ取得部11で取得された測定データは、領域設定部12に与えられる。
領域設定部12は、測定画像21Cのなかから、所定の加工候補領域22Cを設定するように構成されている。
本実施形態では、領域設定部12は、測定画像21Cの中から、加工候補領域22Cとして、大腿骨105の遠位部111および当該遠位部111の周囲の部分を含む第1加工候補領域221C1,221C2と、脛骨106の近位部112および当該近位部112の周囲の部分を含む第2加工候補領域222C1,222C2と、を設定する。領域設定部12で加工候補領域22Cが設定された測定画像21Cの画像データは、加工処理部13へ出力される。
加工処理部13は、加工候補領域22Cについて所定の加工処理を施すことで所定の加工後画像23C’を作成し、次いで、測定画像21Cのうち加工候補領域22C以外の画像29Cと加工後画像23C’とを組み合わせる処理を行うことで、投影用画像24C’を作成するように構成されている。本実施形態では、加工処理部13は、加工候補領域22Cに回転処理および画像追加処理を含む加工処理を施すことで、加工後画像23C’を作成するように構成されている。
より具体的には、図9Bによく示されているように、加工処理部13は、第1加工候補領域221C1,221C2(大腿骨105)、および、第2加工候補領域222C1,222C2(脛骨106)について、それぞれ、平面視で所定角度回転させる。また、加工処理部13は、第1加工候補領域221C1,221C2に、大腿骨コンポーネント201の挿入画像27の対応する正面画像および側面画像を重ねる。また、加工処理部13は、第2加工候補領域222C1,222C2に、脛骨コンポーネント202の挿入画像27の対応する正面画像および側面画像を重ねる。
加工処理部13は、このような加工処理の結果、左脚102の大腿骨105の遠位部111に大腿骨コンポーネント201が装着され、左脚102の脛骨106の近位部112に脛骨コンポーネント202が装着された術後の状態を示す投影用画像24C’(24C1’,24C2’)を作成する。
また、加工処理部13は、加工候補領域22Cについて所定の加工処理を施すことで所定の加工後画像23Cを作成し、次いで、測定画像21Cのうち加工候補領域22C以外の画像29Cと加工後画像23Cとを組み合わせる処理を行うことで、投影用画像24Cを作成するように構成されている。本実施形態では、加工処理部13は、加工候補領域22Cに画像追加処理を含む加工処理を施すことで、加工後画像23Cを作成するように構成されている。
より具体的には、図10Aによく示されているように、加工処理部13は、第1加工候補領域221C1,221C2について、大腿骨コンポーネント201の挿入画像27の対応する正面画像および側面画像を重ねる。また、加工処理部13は、第2加工候補領域222C1,222C2について、脛骨コンポーネント202の挿入画像27の対応する正面画像および側面画像を重ねる。術中の状態を示す投影用画像24Cにおける大腿骨コンポーネント201および脛骨コンポーネント202のそれぞれの設置角度は、術前計画に用いられる投影用画像24C’を基に決定される。
加工処理部13は、このような加工処理の結果、左脚102の大腿骨105の遠位部111に大腿骨コンポーネント201が装着され、左脚102の脛骨106の近位部112に脛骨コンポーネント202が装着された術中の状態を示す投影用画像24C(24C1,24C2)を作成する。そして、図10Bに示すように、投影用画像24C1は、患者100の左脚102の正面に投影され、投影用画像24C2は、患者100の左脚102の側面に投影される。なお、図11に示すように、術中の状態を示す投影用画像24Cと、術後の状態を示す投影用画像24C’とが、択一的にまたは同時に患者100に投影されてもよい。
この場合、手術支援装置1に関する処理の一例は、図1、図5、図8、図9A、図9B、図10A、図10B、および、図11に示す通りとなる。具体的には、手術支援装置1において、投影用画像24C,24C’を作成する際には、まず、撮影装置を用いて、患者100の患部101Cを含む下半身を撮影することで、測定データ(測定画像21C)を取得し、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
次に、測定データ(測定画像21C)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22Cを設定する。次いで、加工処理部13が、加工候補領域22Cを回転させ、且つ、大腿骨コンポーネント201の画像および脛骨コンポーネント202の画像(挿入画像27)を重ね合わせる。これにより、投影用画像24C’(投影用画像データ)が作成される。また、加工処理部13が、加工候補領域22Cに大腿骨コンポーネント201の画像および脛骨コンポーネント202の画像(挿入画像27)を重ね合わせる。これにより、投影用画像24C(投影用画像データ)が作成される。
次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24C,24C’を、手術台2上の患者100に投影する(ステップS14)。
以上説明したように、手術支援装置1が人工膝関節置換術に用いられる場合、画像処理部5は、投影用画像24C,24C’として、患部101Cに設置される人工膝関節インプラント200の画像(挿入画像27)を含む画像を作成する。この構成によると、術者は、人工膝関節置換術において、手術開始後の患部101Cの状態を、術前により正確に確認できる。
なお、図12に示すように、投影用画像24Cに、骨切りライン28が含まれていてもよい。骨切りライン28は、投影用画像24Cにおける大腿骨105の遠位部111、および脛骨106の近位部112に表示された直線である。術者は、大腿骨コンポーネント201および脛骨コンポーネント202を設置するために必要な骨切り作業において骨切りライン28を参照しながら、患者100の大腿骨105および脛骨106に骨切りを行うことができる。
この構成によると、投影用画像24Cが患部101の術中の画像(骨切りライン28)を含むことで、術者は、術中における患部101の状態をより正確に確認できる。また、投影用画像24Cが患部101Cの術後の画像を含むことで、術者は、術後における患部101Cの状態をより正確に確認できる。
なお、人工膝関節インプラント以外のインプラントの設置術においても、手術支援装置1を用いることができる。
また、図13に示すように、手術台2に載せられた患者100に胃の少なくとも一部を切除する胃切除術が施される場合に、手術支援装置1が用いられてもよい。図13は、手術支援装置1、および、患者100を示す模式図である。
図14A~および図14Eは、手術支援装置1を用いた画像処理の流れを説明するための図である。図13、および、図14A~図14Eを参照して、本実施形態では、測定データ記憶部4は、手術開始に先立ち、患者100の患部101Dを測定して得られた測定データを記憶する。本実施形態では、測定データは、患者100の患部101Dを含む胃115の周辺を上記の撮影装置で患者100の正面から撮影することで得られた画像データである。
画像処理部5は、投影用画像24Dとして、患部101Dの術後の画像を作成する。具体的には、本実施形態では、画像処理部5は、患者100の胃115の画像を含む測定画像21を特定する測定データを受信するように構成されている。
領域設定部12は、測定画像21のなかから、所定の加工候補領域22Dを設定するように構成されている。
本実施形態では、領域設定部12は、測定画像21の中から、図14Bによく示されているように、加工候補領域22Dとして、患部101Dの画像を含む領域を設定する。この場合、加工候補領域22Dは、胃115の胃体部の画像を含み、且つ、噴門部および幽門部の画像を除く領域である。領域設定部12で加工候補領域22Dが設定された測定画像21Dの画像データは、加工処理部13へ出力される。
加工処理部13は、図14Cによく示されているように、加工候補領域22Dを削除する処理を施し、次いで、図14Dに示されているように、測定画像21Dのうち加工候補領域22以外の胃115の画像29Dを組み合わせる処理を行う。これにより、投影用画像24Dが作成される。投影用画像24Dは、図14Eによく示されているように、投影用画像24Dが患者100の胃の周囲の表面に投影される。
この場合、手術支援装置1に関する処理の一例は、図5、図13および図14A~図14Eに示す通りとなる。具体的には、手術支援装置1において、投影用画像24Dを作成する際には、まず、撮影装置を用いて、患者100の患部101Dを撮影することで、測定データ(測定画像21D)を取得し、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
次に、測定データ(測定画像21D)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22Dを設定する。次いで、加工処理部13が、加工候補領域22Dを削除した画像を、投影用画像24D(投影用画像データ)として作成する。
次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24Dを、手術台2上の患者100に投影する(ステップS14)。
この構成によると、術者は、胃切除術において、手術開始後の患部101の状態を、術前により正確に確認できる。
また、図15に示すように、手術台2に載せられた患者100の心臓116の一部を切除するバチスタ手術(左室部分切除術)が施される場合に、手術支援装置1が用いられてもよい。図15は、手術支援装置1、および、患者100を示す模式図である。
図16A~および図16Eは、手術支援装置1を用いた画像処理の流れを説明するための図である。図15、および、図16A~図16Eを参照して、本実施形態では、測定データ記憶部4は、手術開始に先立ち、患者100の患部101Eを測定して得られた測定データを記憶する。本実施形態では、測定データは、患者100の患部101Eを含む心臓116の周辺を上記の撮影装置で患者100の正面から撮影することで得られた画像データである。
画像処理部5は、投影用画像24Eとして、患部の術後の画像を作成する。具体的には、本実施形態では、画像処理部5は、患者100の心臓116の画像を含む測定画像21Eを特定する測定データを受信するように構成されている。
領域設定部12は、測定画像21Eのなかから、所定の加工候補領域22Eを設定するように構成されている。
本実施形態では、領域設定部12は、測定画像21Eの中から、図16Bによく示されているように、加工候補領域22Eとして、患部101Eの画像を含む領域を設定する。この場合、加工候補領域22Eは、左心室の周辺部分を含んでいる。領域設定部12で加工候補領域22Eが設定された測定画像21Eの画像データは、加工処理部13へ出力される。
加工処理部13は、図16Cによく示されているように、加工候補領域22Eを削除する処理を施し、次いで、図16Dに示されているように、測定画像21Eのうち加工候補領域22E以外の心臓116の画像29Eを組み合わせる処理を行う。これにより、投影用画像24Eが作成される。投影用画像24Eは、図16Eによく示されているように、投影用画像24Eが患者100の心臓116の周囲の表面に投影される。
この場合、手術支援装置1に関する処理の一例は、図5、図15および図16A~図16Eに示す通りとなる。具体的には、手術支援装置1において、投影用画像24Eを作成する際には、まず、撮影装置を用いて、患者100の患部101Eを撮影することで、測定データ(測定画像21E)を取得し、この測定データを、測定データ記憶部4が記憶する(ステップS11)。
次に、測定データ(測定画像21E)に基づいて、画像処理部5が画像処理を施す(ステップS12)。具体的には、領域設定部12が加工候補領域22Eを設定する。次いで、加工処理部13が、加工候補領域22Eを削除した画像を、投影用画像24E(投影用画像データ)として作成する。
次に、画像表示装置6が、画像処理部5から投影用画像データを取り込む(ステップS13)。そして、画像表示装置6は、投影用画像データで特定される投影用画像24Eを、手術台2上の患者100に投影する(ステップS14)。
この構成によると、術者は、バチスタ手術において、手術開始後の患部101Eの状態を、術前により正確に確認できる。
以上、本発明の実施形態について説明したけれども、本発明は上述の実施の形態に限られず、請求の範囲に記載した限りにおいて様々な変更が可能である。本発明においては、画像処理部が、患者の患部を測定して得られた測定データに基づいて投影用画像データを作成することで、投影用画像データで特定される画像としての投影用画像を作成する構成である。そして、投影用画像は、患者に投影するための画像であって、患部の手術開始後の画像を含んでいればよい。投影用画像は、患者の実際の画像を用いて形成されてもよいし、模式的なイメージ画像を用いて形成されてもよい。
本発明は、手術支援装置、プログラム、記憶媒体、および、手術支援方法として、広く適用することができる。
1 手術支援装置
3 操作装置
5 画像処理部
6 画像表示装置
12 領域設定部
13 加工処理部
15 指標
22,22C,22D,22E 加工候補領域
23,23C 加工後画像
24,24A,24B,24C,24D,24E 投影用画像
28 骨切りライン
100 患者
101C,101D,101E 患部
105 大腿骨
106 脛骨
108 上前腸骨棘(患者の基準となる部位)
110 骨頭中心
113 足関節中心
114 膝関節中心
200 膝関節インプラント(インプラント)
221,221C 第1加工候補領域
222,222C 第2加工候補領域
500 記憶媒体
3 操作装置
5 画像処理部
6 画像表示装置
12 領域設定部
13 加工処理部
15 指標
22,22C,22D,22E 加工候補領域
23,23C 加工後画像
24,24A,24B,24C,24D,24E 投影用画像
28 骨切りライン
100 患者
101C,101D,101E 患部
105 大腿骨
106 脛骨
108 上前腸骨棘(患者の基準となる部位)
110 骨頭中心
113 足関節中心
114 膝関節中心
200 膝関節インプラント(インプラント)
221,221C 第1加工候補領域
222,222C 第2加工候補領域
500 記憶媒体
Claims (12)
- 画像処理部を備え、
前記画像処理部は、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するように構成され、
前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、手術支援装置。 - 請求項1に記載の手術支援装置であって、
前記画像処理部は、領域設定部と、加工処理部と、を含み、
前記領域設定部は、前記測定データで特定される測定画像のなかから、所定の加工候補領域を設定するように構成され、
前記加工処理部は、前記加工候補領域について所定の加工処理を施すことで所定の加工後画像を作成し、次いで、前記測定画像のうち前記加工候補領域以外の画像と前記加工後画像とを組み合わせる処理を行うことで、前記投影用画像を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項2に記載の手術支援装置であって、
前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、
前記領域設定部は、前記加工候補領域として、前記大腿骨の画像を含む第1加工候補領域、および、前記脛骨の画像を含む第2加工候補領域の少なくとも一方を設定するように構成され、
前記加工処理部は、前記加工候補領域に回転処理を含む前記加工処理を施すことで、前記加工後画像を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項2または請求項3に記載の手術支援装置であって、
前記画像処理部は、前記患者の大腿骨および脛骨の画像を含む前記測定画像を特定する前記測定データを受信するように構成され、
前記加工処理部は、前記測定画像における骨頭中心と、膝関節中心と、足関節中心とが一直線に並ぶように表示される前記投影用画像を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項2ないし請求項4の何れか1項に記載の手術支援装置であって、
前記加工処理部は、前記測定画像の撮影時に前記患者の基準となる部位に設けられた指標の画像が前記投影用画像に含まれるように、前記投影用画像を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項1ないし請求項5の何れか1項に記載の手術支援装置であって、
前記画像処理部は、前記投影用画像として、前記患部の術中の画像および術後の画像の少なくとも一方を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項6に記載の手術支援装置であって、
前記画像処理部は、前記投影用画像として、前記患部の測定データを加工する前の画像を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項1ないし請求項7の何れか1項に記載の手術支援装置であって、
前記画像処理部は、前記投影用画像として、前記患部に設置されるインプラントの画像および骨切りラインの少なくとも一方を含む画像を作成するように構成されていることを特徴とする、手術支援装置。 - 請求項1ないし請求項8の何れか1項に記載の手術支援装置であって、
前記測定データを操作する操作用データを前記画像処理部に出力するための操作装置と、
前記投影用画像を患者に投影するための画像表示装置と、をさらに備えていることを特徴とする、手術支援装置。 - コンピュータに、
画像処理ステップを実行させ、
前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、
前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、プログラム。 - プログラムが記憶され、コンピュータによって読み取り可能な記憶媒体であって、
前記プログラムは、前記コンピュータに画像処理ステップを実行させるプログラムであって、
前記画像処理ステップは、患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成するステップであり、
前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、記憶媒体。 - 患者の患部を測定して得られた測定データに基づいて所定の投影用画像データを作成することで、当該投影用画像データで特定される画像としての投影用画像を作成する画像処理ステップを含み、
前記投影用画像は、前記患者に投影するための画像であって、前記患部の手術開始後の状態を示す画像を含んでいることを特徴とする、手術支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/329,763 US10376318B2 (en) | 2014-09-30 | 2015-09-14 | Surgical assistance apparatus, program, storage medium, and surgical assistance method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014202285A JP6480694B2 (ja) | 2014-09-30 | 2014-09-30 | 手術支援装置およびプログラム |
JP2014-202285 | 2014-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016052157A1 true WO2016052157A1 (ja) | 2016-04-07 |
Family
ID=55630199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/076014 WO2016052157A1 (ja) | 2014-09-30 | 2015-09-14 | 手術支援装置、プログラム、記憶媒体、および、手術支援方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10376318B2 (ja) |
JP (1) | JP6480694B2 (ja) |
WO (1) | WO2016052157A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
JP2019097851A (ja) * | 2017-12-01 | 2019-06-24 | 国立大学法人 鹿児島大学 | 歯科手術支援システム及びプログラム |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
JP7286380B2 (ja) * | 2019-04-01 | 2023-06-05 | 国立大学法人 東京大学 | 医用画像処理装置及び医用画像処理プログラム |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0924053A (ja) * | 1995-07-12 | 1997-01-28 | Fuji Photo Film Co Ltd | 外科手術支援システム |
JP2002253574A (ja) * | 2001-03-01 | 2002-09-10 | Hitachi Ltd | 手術支援装置 |
JP2004512136A (ja) * | 2000-11-06 | 2004-04-22 | ペルセプスィオン レゾヌマン アクスィオン アン メドスィーヌ | 膝義足の位置を決定するシステム |
JP2009136426A (ja) * | 2007-12-05 | 2009-06-25 | Fujifilm Corp | 手術計画作成支援システム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10033723C1 (de) | 2000-07-12 | 2002-02-21 | Siemens Ag | Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs |
WO2008157813A1 (en) * | 2007-06-20 | 2008-12-24 | Surgmatix, Inc. | Surgical data monitoring and display system |
JP5559642B2 (ja) * | 2010-08-30 | 2014-07-23 | 富士フイルム株式会社 | 手術支援装置、手術支援方法および手術支援プログラム |
US9498231B2 (en) * | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US9668745B2 (en) * | 2011-12-19 | 2017-06-06 | Depuy Ireland Unlimited Company | Anatomical concentric spheres THA |
TWI586327B (zh) * | 2012-12-27 | 2017-06-11 | Metal Ind Research&Development Centre | Image projection system |
-
2014
- 2014-09-30 JP JP2014202285A patent/JP6480694B2/ja active Active
-
2015
- 2015-09-14 WO PCT/JP2015/076014 patent/WO2016052157A1/ja active Application Filing
- 2015-09-14 US US15/329,763 patent/US10376318B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0924053A (ja) * | 1995-07-12 | 1997-01-28 | Fuji Photo Film Co Ltd | 外科手術支援システム |
JP2004512136A (ja) * | 2000-11-06 | 2004-04-22 | ペルセプスィオン レゾヌマン アクスィオン アン メドスィーヌ | 膝義足の位置を決定するシステム |
JP2002253574A (ja) * | 2001-03-01 | 2002-09-10 | Hitachi Ltd | 手術支援装置 |
JP2009136426A (ja) * | 2007-12-05 | 2009-06-25 | Fujifilm Corp | 手術計画作成支援システム |
Also Published As
Publication number | Publication date |
---|---|
US10376318B2 (en) | 2019-08-13 |
JP2016067736A (ja) | 2016-05-09 |
US20170215966A1 (en) | 2017-08-03 |
JP6480694B2 (ja) | 2019-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6480694B2 (ja) | 手術支援装置およびプログラム | |
JP7123031B2 (ja) | ロボット支援再置換手技用のシステム | |
JP6643508B2 (ja) | 関節手術における軟組織平衡化 | |
Kim et al. | Clinical experience with three-dimensional printing techniques in orthopedic trauma | |
US20200390503A1 (en) | Systems and methods for surgical navigation and orthopaedic fixation | |
US8484001B2 (en) | Pre-operative medical planning system and method for use thereof | |
JP7253377B2 (ja) | 自動化された関節形成プランニング | |
JP2022133440A (ja) | ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法 | |
JP6362592B2 (ja) | 選択可能な術前、術中、または術後ステータスで少なくとも1つの解剖学的構造のグラフィカル3dコンピュータモデルを動作するための方法 | |
WO2023029923A1 (zh) | 膝关节置换的三维术前规划方法及系统 | |
Wilde et al. | Intraoperative imaging in orbital and midface reconstruction | |
Kunz et al. | Computer-assisted hip resurfacing using individualized drill templates | |
US20160117817A1 (en) | Method of planning, preparing, supporting, monitoring and/or subsequently checking a surgical intervention in the human or animal body, apparatus for carrying out such an intervention and use of the apparatus | |
JP2011092405A (ja) | 人工膝関節置換手術の術前計画用プログラム | |
JP2009056299A (ja) | 外科手術をプランニングするための方法及びシステム | |
JP6324194B2 (ja) | 骨切断補助部材、骨保持部材、骨切断補助キット、骨切断補助部材の製造方法、骨保持部材の製造方法、及び骨切断用部材作成用プログラム | |
JP2017507689A (ja) | 少なくとも1つの解剖学的構造の3d参照コンピュータモデルを生成するための方法 | |
US11576725B2 (en) | Patient-specific instrumentation for implant revision surgery | |
JP2009273521A (ja) | 関節鏡手術ナビゲーションシステム | |
US20140324182A1 (en) | Control system, method and computer program for positioning an endoprosthesis | |
CA3184178A1 (en) | Intraoperative imaging and virtual modeling methods, systems, and instrumentalities for fracture reduction | |
JP2018047240A (ja) | 手術支援端末及びプログラム | |
US11376078B2 (en) | Surgery assistance system | |
JP2020099533A (ja) | 骨部手術の支援装置、支援方法、プログラム、および記録媒体 | |
JP5933779B2 (ja) | 人工膝関節置換手術用治具 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15845903 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15329763 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15845903 Country of ref document: EP Kind code of ref document: A1 |