WO2024095310A1 - ナビゲーションシステム、治具及びプログラム - Google Patents

ナビゲーションシステム、治具及びプログラム Download PDF

Info

Publication number
WO2024095310A1
WO2024095310A1 PCT/JP2022/040624 JP2022040624W WO2024095310A1 WO 2024095310 A1 WO2024095310 A1 WO 2024095310A1 JP 2022040624 W JP2022040624 W JP 2022040624W WO 2024095310 A1 WO2024095310 A1 WO 2024095310A1
Authority
WO
WIPO (PCT)
Prior art keywords
bone
orientation
relative
jig
target
Prior art date
Application number
PCT/JP2022/040624
Other languages
English (en)
French (fr)
Inventor
健介 山内
昌論 張山
信裕 依田
Original Assignee
国立大学法人東北大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東北大学 filed Critical 国立大学法人東北大学
Priority to PCT/JP2022/040624 priority Critical patent/WO2024095310A1/ja
Publication of WO2024095310A1 publication Critical patent/WO2024095310A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor

Definitions

  • the present invention relates to a navigation system, a jig, and a program.
  • a model of the patient's skull and maxilla are moved and rotated on the display screen of a planning device (information processing device), and the target position of the maxilla relative to the actual position of the skull is considered by the planner (doctor) with the aim of achieving a good occlusion and an aesthetic facial appearance for the patient.
  • One method for reflecting the results of preoperative planning's target relative positions in actual surgery is navigation surgery.
  • optical navigation surgery the position of the surgical instrument is detected in real time by distance measurement using infrared light reflected from a reflector attached to the surgical instrument.
  • Patent Document 1 discloses a surgical system that performs optical or magnetic navigation in craniomaxillofacial surgery.
  • Patent Document 2 discloses an optical maxillary alignment system that uses a mouthpiece-type target and a camera.
  • Patent Document 1 discloses a position detection reference module having a complex shape as a detection reference module used in a magnetic navigation system. There is a problem in that a position detection reference module having such a complex shape gets in the way during surgery. In addition, a position detection reference module having a shape exposed to the outside detects a position away from the actual position of the bone as the position of the bone. For this reason, even if the bone is accurately moved to the position guided by the navigation system, that position is not the exact target position, and so there is a problem in that the surgeon cannot align the position of the bone to the exact target position.
  • the position detection reference module that detects the position of the bone fragment being moved is attached to a cutting guide for separating the jawbone from the skull.
  • a cutting guide for separating the jawbone from the skull.
  • the maxilla is aligned using a mouthpiece-type dental splint (mouthpiece).
  • a mouthpiece-type dental splint mouthpiece
  • the maxilla and mandible are integrated.
  • the shape of the target having four light sources for alignment is exposed to the outside from the dental splint, similar to the position detection reference module in Patent Document 1, so that distance measurement can be performed using a camera. For this reason, not only does the target get in the way of the surgery, but since the target is far from the position of the teeth, accurate alignment of the bones may not be possible.
  • the position of the target as the alignment origin may shift, making it difficult to accurately align the bones.
  • Non-Patent Document 1 In contrast, in the magnetic navigation surgery described in Non-Patent Document 1, the position of a surgical instrument or bone is detected based on the output of a small magnetic sensor attached to the surgical instrument or bone. Therefore, no optical obstruction occurs in magnetic navigation surgery. For these reasons, the application of magnetic navigation surgery using a small magnetic sensor to the field of oral surgery has been considered.
  • Non-Patent Document 1 Even if the magnetic navigation surgery described in Non-Patent Document 1 is applied to jaw correction surgery, depending on the attachment position of the magnetic sensor attached to the bone, as in Patent Document 1, there is no mark on the bone, so the position of the maxilla and the position of the skull may be misaligned. As such, there is a problem in that it is difficult to assist the surgeon in accurately moving and rotating the bones to achieve the target relative position and target relative posture predetermined by preoperative planning.
  • the present invention aims to provide a navigation system, tool, and program that can assist the surgeon in accurately moving and rotating bones so that the relative positions and orientations of the bones become target relative positions and target relative orientations.
  • One aspect of the present invention is an acquisition unit that acquires information on the position and orientation of a first sensor detected based on a signal from a first sensor inserted into a mounting portion of a first jig in a predetermined first orientation with respect to a first jig having a surface shaped in accordance with the surface of a first bone, and information on a target mounting position and target mounting orientation of the first sensor relative to the position and orientation of the second sensor detected based on a signal from a second sensor inserted into a mounting portion of a second jig in a predetermined second orientation with respect to a second jig having a surface shaped in accordance with the surface of a second bone, and
  • the navigation system includes a derivation unit that derives a first relative position and a first relative orientation of the first sensor with respect to the target mounting position and the target mounting orientation based on the mounting orientation and the position and orientation of the first sensor, an information generation unit that generates an image of a three-dimensional coordinate axis representing the
  • One aspect of the present invention includes an acquisition unit that acquires information on the position and orientation of a first bone detected based on a signal from a first sensor inserted into a mounting portion of a first jig in a predetermined first orientation relative to a first jig having a surface shaped in accordance with the surface of a first bone, and information on the position and orientation of a second bone detected based on a signal from a second sensor inserted into a mounting portion of a second jig in a predetermined second orientation relative to a second jig having a surface shaped in accordance with the surface of a second bone, and an acquisition unit that acquires information on the position and orientation of the second bone detected based on a signal from a second sensor inserted into a mounting portion of a second jig in a predetermined second orientation relative to the surface of the first bone, and and a relative orientation of the second bone relative to the position and orientation of the first bone based on a predetermined amount of movement relative to an initial value of
  • One aspect of the present invention is a jig that has an attachment portion into which a sensor is inserted in a predetermined orientation and a surface shaped to correspond to the surface of the bone to be joined.
  • One aspect of the present invention is a method for obtaining information on a position and orientation of a first sensor detected based on a signal from a first sensor inserted into a mounting portion of a first jig in a predetermined first orientation relative to a first jig having a surface shaped in accordance with a surface of a first bone, and information on a target mounting position and target mounting orientation of the first sensor relative to a position and orientation of a second sensor detected based on a signal from a second sensor inserted into a mounting portion of a second jig in a predetermined second orientation relative to a second jig having a surface shaped in accordance with a surface of a second bone, and It is a program for executing the steps of: deriving a first relative position and a first relative orientation of the first sensor with respect to the target mounting position and the target mounting orientation based on the target mounting position and the target mounting orientation and the position and orientation of the first sensor; generating an image of three-dimensional coordinate axes
  • One aspect of the present invention includes a computer program that acquires information on the position and orientation of a first bone detected based on a signal from a first sensor inserted into a mounting portion of a first jig having a surface shaped in accordance with the surface of a first bone in a predetermined first orientation with respect to the first jig, and information on the position and orientation of a second bone detected based on a signal from a second sensor inserted into a mounting portion of a second jig having a surface shaped in accordance with the surface of a second bone in a predetermined second orientation with respect to a second jig, and calculates information on the position and orientation of the second bone relative to the position of the first bone based on the information on the position and orientation of the first bone and the information on the position and orientation of the second bone.
  • the present invention can assist the surgeon in accurately moving and rotating bones so that the relative positions and orientations of the bones become the target relative positions and orientations.
  • FIG. 1 is a diagram showing an example of the configuration of a navigation system in a first embodiment
  • 3A to 3C are diagrams showing a skull model and a maxilla model in the first embodiment.
  • 10A to 10C are diagrams illustrating examples of the positions and postures of a maxillary model before and after movement in the first embodiment.
  • 5A to 5C are diagrams illustrating an example of how movement parameters and rotation parameters (rotation matrix) are determined in the first embodiment.
  • 5A to 5C are diagrams illustrating examples of designating mounting positions of magnetic sensors in the first embodiment.
  • 3A to 3C are diagrams showing examples of jigs to be joined to the skull in the first embodiment.
  • FIG. 1A to 1C are diagrams showing examples of jigs to be attached to the dentition of the maxilla in the first embodiment.
  • FIG. 4 is a diagram showing an example of a navigation image indicating an attachment position in the first embodiment.
  • FIG. 4 is a diagram showing an example of a navigation image indicating an attachment position in the first embodiment.
  • 5A to 5C are diagrams illustrating an example of how a magnetic sensor is attached in the first embodiment.
  • 4A to 4C are diagrams showing examples of navigation images indicating bone positions and the like in the first embodiment.
  • 4A to 4C are diagrams showing examples of navigation images indicating bone positions and the like in the first embodiment.
  • 4 is a flowchart showing a first operation example of the navigation device in the first embodiment.
  • FIG. 10 is a flowchart showing a second operation example of the navigation device in the first embodiment.
  • FIG. 11 is a diagram showing a first example of designating the mounting positions of each magnetic sensor in the second embodiment.
  • 13A to 13C are diagrams showing an example of cutting a bone in the second embodiment.
  • 13A to 13C are diagrams illustrating examples of attachment positions of magnetic sensors after a bone is cut in the second embodiment.
  • First Embodiment 1 is a diagram showing an example of the configuration of a navigation system 1 (surgery support system) in the first embodiment.
  • the navigation system 1 is a system that navigates the relative position and relative orientation of a sensor with respect to a target attachment position and target attachment orientation that are predetermined on a patient's bone. This allows an operator (doctor) to accurately attach a sensor (jig) to a patient's bone so that the orientation of the sensor at the target attachment position that is predetermined on the patient's bone becomes the target attachment orientation.
  • the target attachment position and target attachment orientation are predetermined by a planner (doctor) in preoperative planning (three-dimensional simulation performed before surgery).
  • the sensor attached to the patient's bone may be a light source or reflector used in optical navigation surgery, or a magnetic sensor used in magnetic navigation surgery. Magnetic sensors are more preferable because they do not cause optical obstruction. In the following, as an example, a magnetic sensor is attached to the patient's bone by the surgeon.
  • the navigation system 1 is a system that navigates the relative position and orientation of the patient's bones with respect to a predetermined target relative position and target relative orientation. This allows the surgeon to set the relative position and relative orientation of the second bone with respect to the position and orientation of the first bone to the predetermined target relative position and target relative orientation.
  • the target relative position and target relative orientation are predetermined by the planner in preoperative planning.
  • the navigation system 1 includes a planning device 2, a storage device 3, a communication line 4, a detection device 5, and a navigation device 6.
  • the jig 210 (first jig) and the magnetic sensor 301-1 (first sensor) are associated with the patient's bone 101 (first bone).
  • the jig 220 (second jig) and the magnetic sensor 301-2 (second sensor) are associated with the patient's bone 102 (first bone).
  • the jig 220 is preferably a mouthpiece (dental splint).
  • the magnetic sensor 301-2 is attached to the bone 102 using the jig 220.
  • the joint surface of the jig 220 is manufactured to fit the shape of the dentition, so the surgeon can accurately install the magnetic sensor 301-2 at the target installation position set on the bone.
  • the position of the jig 220 that can accurately install the sensor at the target installation position set on the bone is set as the origin, and a target relative position and a target relative orientation are set with respect to the origin, so that the surgeon can align the position of the bone to the accurate position.
  • the jig 220 does not have to be a mouthpiece as long as the magnetic sensor 301-2 can be accurately installed at the target installation position set on the bone.
  • the planning device 2 only needs to be included in the navigation system 1 during preoperative planning, but does not need to be included in the navigation system 1 during surgery.
  • the planning device 2 (preoperative planning device) comprises a movement processing unit 21, a rotation processing unit 22, a display unit 23, and a conversion unit 24.
  • the movement processing unit 21 and the rotation processing unit 22 may be integrated (movement and rotation processing unit).
  • the detection device 5 comprises a magnetic field generation unit 51, an acquisition unit 52, a detection unit 53, and a communication unit 54.
  • the navigation device 6 comprises a communication unit 61, a memory unit 62, an acquisition unit 63, a derivation unit 64, an information generation unit 65, and a display unit 66.
  • Some or all of the functional parts of the planning device 2 and the navigation device 6 are realized as software by a processor such as a CPU (Central Processing Unit) executing a program stored in a storage unit having a non-volatile recording medium (non-transient recording medium). Also, some of the functional parts of the detection device 5 are realized as software by a processor executing a program stored in a storage unit having a non-volatile recording medium (non-transient recording medium).
  • a processor such as a CPU (Central Processing Unit) executing a program stored in a storage unit having a non-volatile recording medium (non-transient recording medium).
  • the program may be recorded on a computer-readable recording medium.
  • computer-readable recording media include portable media such as flexible disks, optical magnetic disks, ROMs (Read Only Memory), and CD-ROMs (Compact Disc Read Only Memory), as well as non-transitory recording media such as hard disks built into computer systems and storage devices such as solid state drives.
  • Some or all of the functional parts of the planning device 2 and the navigation device 6 may be realized using hardware including electronic circuits (electronic circuits or circuitry) using, for example, an LSI (Large Scale Integrated circuit), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), or an FPGA (Field Programmable Gate Array).
  • some of the functional parts of the detection device 5 may be realized using hardware including electronic circuits (electronic circuits or circuitry) using, for example, an LSI, an ASIC, a PLD, or an FPGA.
  • Bone 101 and bone 102 are each a patient's bone.
  • bone 101 (first bone) is, as an example, the patient's skull (facial bone).
  • bone 102 (second bone) is, as an example, the maxilla (Le Fort I bone fragment) separated from bone 101.
  • preoperative planning is performed by a planner (not shown) using the planning device 2.
  • a skull model (a three-dimensional model of the bones 101) is created in the memory of the planning device 2 based on data acquired by performing a computed tomography (CT) scan or the like on the patient.
  • CT computed tomography
  • an image of the skull model is displayed on the screen of the display unit 23.
  • the maxilla model three-dimensional model of bone 102
  • images of the separated maxilla model and skull model are displayed on the screen of the display unit 23.
  • the planner e.g., mouse operations
  • the relative position (amount of movement) and relative orientation (amount of rotation) of the maxilla model with respect to the skull model are considered for the purpose of achieving a good occlusion and an aesthetic facial appearance for the patient.
  • the movement processing unit 21 moves the maxilla model on the screen in response to the operation by the planner.
  • the planner determines the amount of movement (X-axis component amount, Y-axis component amount, Z-axis component amount) of the maxilla model relative to the initial value of its position by checking the amount of movement of the maxilla model on the screen. This allows the planner to determine the amount of movement of the actual bone 102 relative to the initial value of its position.
  • the movement processing unit 21 records information on the amount of movement determined by the planner in the storage device 3.
  • the rotation processing unit 22 may rotate the three-dimensional model of the maxilla model on the screen in response to an operation by the planner.
  • the planner determines the amount of rotation relative to the initial value of the position of the maxilla model by checking the amount of rotation (roll axis component amount, pitch axis component amount, yaw axis component amount) of the maxilla model on the screen. This allows the planner to determine the amount of rotation relative to the initial value of the position of the actual bone 102.
  • the rotation processing unit 22 records information on the amount of rotation determined by the planner in the storage device 3.
  • the planner specifies a target attachment position of the magnetic sensor 301-1 (jig 210) on the bone 101 to the conversion unit 24.
  • the target attachment position is, for example, a position determined on the piriform mouth side edge of the skull.
  • the planner specifies the target attachment position of the magnetic sensor 301-1 on the screen of the display unit 23 while the maxilla model is not detached from the skull model on that screen.
  • the planner may specify the target attachment position of the magnetic sensor 301-1 on the screen of the display unit 23 while the maxilla model is detached from the skull model on that screen.
  • the planner joins a model of the jig 220 (mouthpiece) to the dentition of the maxilla model that has been moved and rotated to a target relative position and target relative posture with respect to the skull model on the screen of the display unit 23.
  • the planner specifies the target attachment position of the magnetic sensor 301-1 (jig 210) on the skull model on the screen, for example, by operating a mouse. This allows the planner to input the target attachment position of the magnetic sensor 301-1 on the actual bone 101 to the conversion unit 24.
  • the target attachment position of the magnetic sensor 301-1 is expressed with a predetermined position of the jig 220 joined to the dentition of the maxilla model as the origin.
  • the conversion unit 24 converts the first position (first two-dimensional position information) specified on the surface of the skull model by the planner using the screen (two-dimensional) of the display unit 23 into three-dimensional position information.
  • This three-dimensional position information corresponds to the target attachment position of the magnetic sensor 301-1 (jig 210) on the actual bone 101.
  • the conversion unit 24 records the three-dimensional position information of the target attachment position of the magnetic sensor 301-1 in the storage device 3.
  • the conversion unit 24 may also convert a second position (second two-dimensional position information) specified on the surface of the maxillary bone model by the planner using the screen (two-dimensional) of the display unit 23 into three-dimensional position information.
  • This three-dimensional position information corresponds to the target attachment position of the magnetic sensor 301-2 (jig 220) on the actual bone 102.
  • the conversion unit 24 records the three-dimensional position information of the target attachment position of the magnetic sensor 301-2 in the storage device 3.
  • the jigs 210 and 220 are manufactured, for example, by a three-dimensional printer (3D printer) before surgery.
  • the conversion unit 24 may determine the orientation of the cylindrical attachment part of the jig 210 (target attachment position) according to the orientation of the jig 210 attached to the target attachment position in the skull model.
  • the storage device 3 pre-stores shape information of the three-dimensional model of the skull model and shape information of the three-dimensional model of the maxilla model.
  • the data format of the three-dimensional model of the skull model and the maxilla model is, for example, DICOM (Digital Imaging and Communications in Medicine).
  • the data format of the three-dimensional model of the dentition is, for example, STL (Stereolithography).
  • the storage device 3 stores information on the amount of movement (movement parameters) and information on the amount of rotation (rotation parameters) in response to a control signal transmitted from the planning device 2.
  • the detection device 5 generates a magnetic field region in a predetermined range of real space including the patient's head and each magnetic sensor 301.
  • the detection device 5 detects (tracks) the position and orientation of each magnetic sensor 301 in real time based on the output (signal) of each magnetic sensor 301 in the generated magnetic field region.
  • the surgeon attaches magnetic sensor 301-1 to the mounting portion of jig 210.
  • the surgeon also attaches magnetic sensor 301-2 to the mounting portion of jig 220.
  • the navigation device 6 presents (guides) the surgeon in real time with predetermined first information for navigating the position and orientation of the magnetic sensor 301-1 so that the surgeon moves and rotates the jig 210 and the magnetic sensor 301-1, with the position of the magnetic sensor 301-2 inserted in the jig 220 as the origin, until the position and orientation of the magnetic sensor 301-1 match the target attachment position and target attachment orientation of the magnetic sensor 301 that are predetermined on the patient's bone 101.
  • the position of the attachment portion 221 provided on the jig 220 which can accurately attach the magnetic sensor 301-2 to a predetermined position (origin) on the mandible, is set as the origin. This makes it possible to present (guide) the surgeon to the exact attachment position of the jig 210 on the lateral edge of the piriform mouth.
  • the predetermined first information includes, for example, at least one of an image of a three-dimensional model (skull model) of bone 101 whose shape has been measured in advance, an image of a three-dimensional model (maxilla model) of bone 102 whose shape has been measured in advance, an image of three-dimensional coordinate axes representing the relative positions and relative orientations of each magnetic sensor 301 (each jig), and an image of three-dimensional coordinate axes representing the target mounting positions and target mounting orientations. Details of the first information will be described later with reference to Figures 8 and 9.
  • the navigation system 1 assists the surgeon in accurately attaching the jig 210 (magnetic sensor 301-1) so that the relative attitude of the magnetic sensor 301-1 becomes the target attachment attitude at the predetermined target attachment position on the bone 101.
  • the jig 210 is a jig for fixing the magnetic sensor 301-1 to the bone 101.
  • the jig 210 is temporarily fixed to the bone 101 by the surgeon.
  • the jig 220 is a jig for fixing the magnetic sensor 301-2 to the bone 102.
  • the jig 220 is temporarily fixed to the dentition of the bone 102 by the surgeon.
  • the magnetic sensor 301-1 is placed near the bone 101 using the jig 210. Near the bone means, for example, within a range of about 0.1 mm to about 10 mm from the bone. In an embodiment of the present invention, the magnetic sensor 301-1 is inserted into a hole in the mounting portion 211 provided in the jig 210. Since the magnetic sensor 301-1 is placed near the bone 101, accurate alignment of the bone 101 is possible.
  • the magnetic sensor 301 is a sensor that detects magnetism.
  • the magnetic sensor 301 detects magnetism at the position of the sensor within the magnetic field generated by the magnetic field generating unit 51 at a predetermined period (e.g., 40 Hz) using a magnetic detection device such as a coil.
  • the magnetic sensor 301 outputs an electric signal corresponding to the detected magnetism to the acquiring unit 52.
  • the magnetic sensor 301-1 is temporarily attached to the surface of the bone 101 (skull) at a predetermined target attachment position using the jig 210. That is, the magnetic sensor 301-1 is temporarily attached to the surface of the bone 101 at a predetermined target attachment position by being inserted into the attachment portion of the jig 210 that is temporarily fixed to the bone 101. Therefore, the position and orientation detected based on the output (signal) of the magnetic sensor 301-1 attached to the bone 101 represent the position and orientation of the bone 101.
  • the magnetic sensor 301-2 is temporarily attached to a predetermined target attachment position on the surface of the bone 102 using a jig 220 joined to the dentition of the bone 102.
  • the magnetic sensor 301-2 is inserted into the hole of the attachment portion 221 provided in the jig 220, so that the magnetic sensor 301-2 is attached near the bone 102 using the jig 220.
  • the magnetic sensor 301-2 is temporarily attached to a predetermined target attachment position on the surface of the bone 102 by inserting it into the attachment portion of the jig 220 temporarily fixed to the dentition of the bone 102. Therefore, the position and orientation detected based on the output of the magnetic sensor 301-2 attached to the bone 102 represent the position and orientation of the bone 102.
  • the magnetic field generating unit 51 generates a magnetic field region in a predetermined range of real space including the bones 101 and 102 and each magnetic sensor 301 (for example, a range of real space including the patient's head).
  • the acquiring unit 52 acquires the output of the magnetic sensor 301 (electrical signal corresponding to magnetism).
  • the detecting unit 53 detects the position and attitude of the magnetic sensor 301 at a predetermined cycle (for example, 40 Hz) based on the output of the magnetic sensor 301.
  • the detected position has three degrees of freedom (X-axis, Y-axis, Z-axis).
  • the detected attitude (tilt) has three degrees of freedom (roll axis, pitch axis, yaw axis).
  • the communicating unit 54 transmits information on the position and attitude of the magnetic sensor 301 (six degrees of freedom in total) to the communicating unit 61 at a predetermined cycle (for example, 40 Hz).
  • the communication unit 61 acquires shape information of the 3D model of the bone 101 and shape information of the 3D model of the bone 102 from the storage device 3.
  • the communication unit 61 acquires target mounting position information of the magnetic sensor 301-1 (jig 210) from the storage device 3.
  • the communication unit 61 may acquire target mounting orientation information of the magnetic sensor 301-1 (jig 210) from the storage device 3.
  • the communication unit 61 acquires position and orientation information of each magnetic sensor 301 from the communication unit 54 at a predetermined cycle.
  • the storage unit 62 stores information on the target mounting position of the magnetic sensor 301-1 (jig 210).
  • the storage unit 62 stores information on the target mounting orientation of the magnetic sensor 301-1 (jig 210).
  • the storage unit 62 (buffer memory) temporarily stores time series information on the position and orientation of each magnetic sensor 301.
  • the storage unit 62 temporarily stores time series information on the position and orientation of the bone 101 and time series information on the position and orientation of the bone 102.
  • the storage unit 62 may store in advance computer programs executed by the derivation unit 64 and the information generation unit 65.
  • the acquisition unit 63 acquires shape information of the bone 101 and shape information of the bone 102 from the storage device 3.
  • the acquisition unit 63 acquires information on the target mounting position and target mounting orientation of the magnetic sensor 301-1 from the communication unit 61 or the storage unit 62.
  • Information on the position and orientation of the magnetic sensor 301-1 (jig 210) and information on the position and orientation of the magnetic sensor 301-2 (jig 220) are acquired from the communication unit 61 or the storage unit 62 at a predetermined cycle.
  • the derivation unit 64 derives in real time the target attachment position and target attachment orientation that are predetermined on the surface of the bone 101 (skull) based on the target attachment position and target attachment orientation information specified by the planner, with the position of the magnetic sensor 301-2 attached to the jig 220 joined to the dentition as the origin.
  • the derivation unit 64 derives in real time the relative position and relative orientation of the magnetic sensor 301-1 (jig 210) with respect to the target attachment position and target attachment orientation based on the acquired position and orientation information of the magnetic sensor 301-1.
  • the information generating unit 65 generates navigation images at a predetermined frame rate (e.g., 40 fps) using a predetermined image processing engine (a three-dimensional computer graphics drawing engine).
  • the navigation images include, for example, an image representing the external appearance (shape) of the bone generated in the preoperative planning, predetermined text information, and an image of a three-dimensional coordinate axis.
  • the information generation unit 65 generates an image (image of the skull model) showing the appearance of the bone 101 according to the position and orientation of the bone 101, and an image (image of the maxilla model) showing the appearance of the bone 102 according to the relative position and relative orientation of the bone 102.
  • the information generating unit 65 When each magnetic sensor 301 (each jig) is attached to each bone during surgery, the information generating unit 65 generates an image of a three-dimensional coordinate axis that represents the current position and orientation of each magnetic sensor 301 (each jig). The information generating unit 65 also generates an image of a three-dimensional coordinate axis that represents the target attachment position and target attachment orientation of the magnetic sensor 301-1.
  • the display unit 66 displays the navigation image generated by the information generation unit 65 at a predetermined frame rate (e.g., 40 fps). For example, the display unit 66 displays an image of three-dimensional coordinate axes representing the current position and orientation of the magnetic sensor 301-1 (jig 210) and an image of three-dimensional coordinate axes representing the target mounting position and target mounting orientation of the magnetic sensor 301-1 (jig 210).
  • a predetermined frame rate e.g. 40 fps
  • the surgeon joins the jig 220 with the magnetic sensor 301-2 inserted to the dentition of the patient's bone 102.
  • the surgeon also accurately attaches the jig 210 with the magnetic sensor 301-1 inserted to the patient's bone 101 at a predetermined target attachment position using a screw (metal screw) or the like while checking the navigation image.
  • the surgeon accurately attaches the magnetic sensor 301-1 to the bone 101 while checking the navigation image so that the relative orientation of the magnetic sensor 301-1 to the orientation of the magnetic sensor 301-2 becomes the target attachment orientation.
  • the surgeon separates the bone 102 (maxilla) from the bone 101 (skull).
  • the surgeon may temporarily remove the jig from the bone, and then separate the bone 102 (maxilla) from the bone 101 (skull).
  • the detection device 5 generates a magnetic field region in a predetermined range of real space that includes the patient's head and each magnetic sensor 301.
  • the detection device 5 detects (tracks) the position and orientation of each magnetic sensor 301 in real time based on the output (signal) of each magnetic sensor 301 in the generated magnetic field region.
  • the navigation device 6 presents (guides) the surgeon in real time with predetermined second information for navigating the movement and rotation of the bone 102 so that the surgeon moves and rotates the bone 102 until the relative position and relative orientation of the bone 102 with respect to the position and orientation of the bone 101 coincide with the target relative position and target relative orientation.
  • the predetermined second information includes, for example, at least one of an image of a three-dimensional model (skull model) of bone 101 whose shape has been measured in advance, an image of a three-dimensional model (maxilla model) of bone 102 whose shape has been measured in advance, an image of three-dimensional coordinate axes representing the position and orientation of bone 101, an image of three-dimensional coordinate axes representing the relative position and orientation of bone 102 with respect to the position and orientation of bone 101, and an image of three-dimensional coordinate axes representing the target relative position and target relative orientation of bone 102. Details of the second information will be described later with reference to Figures 11 and 12.
  • the navigation system 1 assists the surgeon in accurately moving and rotating (tilting) the bone 102 so that the position and orientation of the bone 102 become the target relative position and target relative orientation.
  • the communication unit 61 acquires shape information of a three-dimensional model (skull model) of the bone 101 and shape information of a three-dimensional model (maxilla model) of the bone 102 from the storage device 3.
  • the communication unit 61 acquires information on a predetermined amount of movement and information on a predetermined amount of rotation from the storage device 3.
  • the communication unit 61 acquires information on the position and posture of the bone 101 and information on the position and posture of the bone 102 from the communication unit 54 at a predetermined period.
  • the storage unit 62 stores information on a predetermined amount of movement and information on a predetermined amount of rotation.
  • the storage unit 62 (buffer memory) temporarily stores time series information on the position and posture of the bone 101 and time series information on the position and posture of the bone 102.
  • the storage unit 62 may store in advance computer programs executed by the derivation unit 64 and the information generation unit 65.
  • the acquisition unit 63 acquires shape information of the three-dimensional model of bone 101 (skull model) and shape information of the three-dimensional model of bone 102 (maxilla model) from the storage device 3.
  • the acquisition unit 63 acquires information on a predetermined amount of movement and information on a predetermined amount of rotation from the communication unit 61 or the storage unit 62.
  • the acquisition unit 63 acquires information on the position and orientation of magnetic sensor 301-1 (jig 210) and information on the position and orientation of magnetic sensor 301-2 (jig 220) from the communication unit 61 or the storage unit 62 at a predetermined cycle.
  • the acquisition unit 63 acquires position and orientation information of the magnetic sensor 301-1 from the communication unit 61 or the storage unit 62 at a predetermined cycle as position and orientation information of the bone 101.
  • the acquisition unit 63 acquires position and orientation information of the magnetic sensor 301-2 from the communication unit 61 or the storage unit 62 at a predetermined cycle as position and orientation information of the bone 102.
  • the derivation unit 64 derives in real time the relative position and orientation of the magnetic sensor 301-2 with respect to the position and orientation of the magnetic sensor 301-1, based on the position and orientation information of the magnetic sensor 301-1 and the position and orientation information of the magnetic sensor 301-2. In other words, the derivation unit 64 derives in real time the relative position and orientation of the bone 102 with respect to the position and orientation of the bone 101, based on the position and orientation information of the bone 101 and the position and orientation information of the bone 102.
  • the derivation unit 64 derives in real time a target relative position and orientation of the bone 102 with respect to the position and orientation of the bone 101 based on the relative position and orientation of the bone 102 and the amount of movement and rotation that are predetermined for the initial values of the relative position and orientation of the bone 102 in preoperative planning.
  • the position and orientation obtained by moving and rotating the relative position and orientation of the bone 102 by the predetermined amount of movement and rotation are the target relative position and orientation of the bone 102.
  • the information generating unit 65 uses a predetermined image processing engine to generate a navigation image at a predetermined frame rate.
  • the navigation image includes, for example, an image showing the external appearance (shape) of the bone generated in the preoperative planning, predetermined text information, and an image of a three-dimensional coordinate axis.
  • the information generating unit 65 generates an image (image of the skull model) showing the appearance of the bone 101 according to the position and posture of the bone 101, and an image (image of the maxilla model) showing the appearance of the bone 102 according to the relative position and relative posture of the bone 102.
  • an image image of the skull model
  • an image image of the maxilla model
  • the information generating unit 65 generates an image (image of the sideways skull model) showing the appearance of the bone 101.
  • the information generating unit 65 moves the image showing the appearance of the bone 102 on the screen in accordance with the movement of the bone 102.
  • the information generating unit 65 generates, for example, an image of a three-dimensional coordinate axis representing the target relative position and target relative orientation of the bone 102 based on the target relative position and target relative orientation of the bone 102 with respect to the position and orientation of the bone 101. For example, when the bone 101 to which the magnetic sensor 301-1 is attached is oriented sideways, the target relative position and target relative orientation of the bone 102 are also oriented sideways, so the information generating unit 65 generates an image of a three-dimensional coordinate axis representing the target relative position and target relative orientation of the bone 102 in a sideways orientation.
  • the information generating unit 65 generates, for example, an image of a three-dimensional coordinate axis representing the relative position and relative orientation of the bone 102 based on the relative position and relative orientation of the bone 102 with respect to the position and orientation of the bone 101.
  • the information generating unit 65 may also generate an image of a line connecting the relative position of the bone 102 and a target relative position. For example, when the bone 102 to which the magnetic sensor 301-2 is attached moves, the information generating unit 65 moves the image of the three-dimensional coordinate axis representing the relative position and relative orientation of the bone 102 on the screen in accordance with the movement of the bone 102.
  • the display unit 66 displays the navigation image generated by the information generation unit 65 at a predetermined frame rate (e.g., 40 fps).
  • FIG. 2 is a diagram showing a skull model 111 and a maxilla model 112 in the first embodiment.
  • the skull model 111 corresponds to the bone 101 in the real space.
  • the maxilla model 112 corresponds to the bone 102 in the real space.
  • DICOM data Information about the shape of the skull model 111 and the maxilla model 112 is obtained, for example, as a result of a CT scan performed on the patient's head before surgery.
  • data (STL data) obtained as a result of an optical digital scan performed on the patient's dentition before surgery may be used as dentition data for the maxilla model 112.
  • FIG. 3 is a diagram showing an example of the position and posture of the maxilla model 112 before and after movement in the first embodiment.
  • the movement processing unit 21 moves the maxilla model 112 on the screen from the initial position value of the maxilla model 112 in response to mouse operations by the planner (doctor).
  • the rotation processing unit 22 rotates the maxilla model 112 on the screen from the initial posture value of the maxilla model 112 in response to mouse operations by the planner.
  • the diagram on the left side shown in FIG. 3 shows the position (initial value) and posture (initial value) of the skull model 111 before movement and rotation.
  • the diagram on the right side shown in FIG. 3 shows the position and posture of the skull model 111 after movement and rotation.
  • FIG. 4 is a diagram showing an example of determining movement parameters and rotation parameters (rotation matrix) in the first embodiment.
  • the planner determines the relative position and relative orientation of the bone 102 after surgery by moving and rotating the maxilla model 112 on the screen from the initial values of the position and orientation of the maxilla model 112.
  • At least one of the movement processing unit 21 and the rotation processing unit 22 determines at least one of the movement amount and the rotation amount using a predetermined alignment algorithm.
  • the predetermined alignment algorithm is, for example, the ICP (Iterative Closest Point) algorithm.
  • the movement processing unit 21 records information on the determined movement amount (movement parameters) in the storage device 3.
  • the rotation processing unit 22 records information on the determined rotation amount (rotation parameters) in the storage device 3.
  • FIG. 5 is a diagram showing an example of designating the attachment position (target attachment position) of the magnetic sensor 301 in the first embodiment.
  • the left side of Fig. 5 shows the attachment position of the magnetic sensor 301 in a state before the maxilla model 112 is separated from the skull model 111 on the screen.
  • the right side of Fig. 5 shows the attachment position of the magnetic sensor 301 in a state after the maxilla model 112 is separated from the skull model 111 on the screen and rejoined to the skull model 111.
  • the jig 220 illustrated in FIG. 1 is sandwiched between the dentition of the maxilla model 112 and the dentition of the mandible model 113, and is joined to both of them.
  • Mounting position 10 represents the mounting position of the magnetic sensor 301-2 (jig 220) that is attached to the actual bone 102.
  • Mounting position 11 represents the target mounting position of the magnetic sensor 301-1 that is attached to the actual bone 101.
  • Mounting position 11 is expressed with mounting position 10 as the origin.
  • the planner specifies attachment position 10 as the attachment position (origin) of magnetic sensor 301-2 to bone 102, for example by using a mouse to place a mark on the surface of the dentition of maxilla model 112.
  • the attachment position (origin) of magnetic sensor 301-2 is the position of the attachment part of magnetic sensor 301-2 on jig 220.
  • the planner also specifies attachment position 11 as the attachment position (target attachment position) of magnetic sensor 301-1 to bone 101, for example by placing a mark on the surface of skull model 111 (the piriform edge of the skull).
  • the planner specifies attachment positions 10 and 11 on the screen, for example, in a state in which the maxilla model 112 is not separated from the skull model 111.
  • the planner may specify the attachment position 10 and the attachment position 11 on the screen, for example, in a state where the maxilla model 112 is separated from the skull model 111 and reattached to the skull model 111.
  • the conversion unit 24 may correct the attachment position 11 in a state where the maxilla model 112 is reattached to the skull model 111 (right side in FIG. 5) to the attachment position 11 in a state where the maxilla model 112 is not separated from the skull model 111 (left side in FIG. 5).
  • FIG. 6 is a diagram showing an example of a jig to be joined to the skull (bone 101) in the first embodiment.
  • the jig 210 is created using a CAD/CAM (computer-aided design/computer-aided manufacturing) technique. That is, design data for the shape of the jig 210 is designed based on DICOM data of the skull model 111.
  • the jig 210 is manufactured, for example, by a three-dimensional printer (3D printer) based on the design data for the shape of the jig 210 (for example, STL data).
  • 3D printer three-dimensional printer
  • the jig 210 is made of a non-magnetic material, such as resin.
  • the jig 210 has one or more mounting parts 211 for mounting the magnetic sensor 301-1, and a joining surface shaped according to the surface shape of the bone 101 (the pear-shaped edge of the skull) to be joined.
  • the shape of the mounting portion 211 is, for example, cylindrical.
  • the tip of the magnetic sensor 301-1 (magnetic detection device) can be inserted into the mounting portion 211.
  • the magnetic sensor 301-1 By inserting the magnetic sensor 301-1 into the mounting portion 211, the magnetic sensor 301-1 is placed near the bone 101, so that the position of the magnetic sensor 301-1 accurately represents the position of the bone 101. This makes it possible to align the relative position of the bone 102 with a target relative position with high accuracy.
  • each mounting part is designed based on the target mounting posture of the jig 210 so that when the jig 210 with the magnetic sensor 301-1 inserted is attached to the bone 101, the orientation of the magnetic sensor 301-1 inserted into the mounting part 211 (a first orientation predetermined with respect to the jig 210) and the orientation of the magnetic sensor 301-2 inserted into the mounting part 221 of the jig 220 (a second orientation predetermined with respect to the jig 220) are the same.
  • the shape of the joint surface of the jig 210 is designed to match the surface shape of the bone 101 at the target mounting position of the jig 210.
  • FIG. 7 is a diagram showing an example of a jig 220 (mouthpiece) (dental splint) to be attached to the dentition of the maxilla (bone 102) in the first embodiment.
  • the jig 220 is a CAD/CAM splint (computer-aided design/computer-aided manufacturing splint) formed to have a joining surface shaped according to the surface shape of the dentition so that the jig 220 can be accurately attached to the corrected dentition.
  • CAD/CAM splint computer-aided design/computer-aided manufacturing splint
  • the design data for the shape of the jig 220 is designed based on the STL data of the maxilla model 112.
  • the jig 220 is manufactured, for example, by a three-dimensional printer based on the design data for the shape of the jig 220.
  • the jig 220 is attached to the patient's dentition and is therefore accurately fixed to the patient's maxilla (bone 102).
  • the jig 220 is made of a non-magnetic material, such as resin.
  • the jig 220 has one or more attachment parts 221 for attaching the magnetic sensor 301-2, and a joint surface 222 shaped according to the surface shape of the bone 102 (the tooth row in the maxilla).
  • the shape of the attachment part 221 is, for example, cylindrical.
  • the tip of the magnetic sensor 301-2 can be inserted into the attachment part 221. By inserting the magnetic sensor 301-2 into the attachment part 221, the magnetic sensor 301-2 is placed near the bone 102, so that the position of the magnetic sensor 301-2 accurately represents the position of the bone 102.
  • the position of attachment part 221-1 is, as an example, a position that passes through or near the midline of the patient when the joint surface 222 is joined to the dentition of the bone 102.
  • the magnetic sensor 301-2 may be attached to any of the attachment parts 221-1, 221-2, and 221-3.
  • the mouthpiece-type jig 220 is joined to the bone 102 and mandible (not shown), so that the bone 102 and mandible (not shown) become one.
  • the position of the patient's mandible follows the position of the bone 102 (maxilla) moved by the surgeon. Because the maxilla and mandible do not shift during movement, navigation is performed more easily.
  • Fig. 8 is a diagram showing an example of a navigation image showing an attachment position in the first embodiment.
  • the display unit 66 displays a navigation image showing the relative position and relative orientation of the magnetic sensor 301-1 with respect to the target attachment position and target attachment orientation of the magnetic sensor 301-1 (jig 210) in real time at a predetermined frame rate.
  • Fig. 8 shows an example of a navigation image at a first time during surgery.
  • the navigation image illustrated in FIG. 8 includes an image of a skull model 111, an image of a maxilla model 112, a jig image 213, a jig image 223, a coordinate axis image 14 arranged at the mounting position 10, a coordinate axis image 15 arranged at the mounting position 11, a coordinate axis image 16, a line image 17, and a display area 18.
  • Jig image 213 is an image of a three-dimensional model of jig 210.
  • Jig image 223 is an image of a three-dimensional model of jig 220.
  • Mounting position 10 is the mounting position (origin) of magnetic sensor 301-2.
  • Mounting position 11 is the target mounting position of magnetic sensor 301-1 (jig 210).
  • the coordinate axis image 14 is represented by three mutually perpendicular line segments (X-axis, Y-axis, and Z-axis).
  • the origin of the coordinate axis image 14 represents the position (mounting position 10) of the magnetic sensor 301-2 attached to the jig 220.
  • the orientation of the coordinate axis image 14 represents the orientation of the magnetic sensor 301-2 attached to the mounting portion 221 of the jig 220.
  • the coordinate axis image 15 is represented by three mutually orthogonal line segments (X-axis, Y-axis, and Z-axis).
  • the origin of the coordinate axis image 15 represents the target mounting position (mounting position 11) of the magnetic sensor 301-1.
  • the attitude of the coordinate axis image 15 represents the target mounting attitude of the magnetic sensor 301-1.
  • the coordinate axis image 16 is represented by three mutually orthogonal line segments (X-axis, Y-axis, and Z-axis).
  • the origin of the coordinate axis image 16 represents the relative position of the magnetic sensor 301-1 attached to the jig 210 with respect to the mounting position 11 (target mounting position).
  • the attitude of the coordinate axis image 16 represents the attitude of the magnetic sensor 301-1 attached to the mounting portion 211 of the jig 210.
  • Line image 17 is a line that connects the target mounting position and the relative position of magnetic sensor 301-1.
  • the length of line image 17 represents the difference (distance) between the target mounting position and the relative position of magnetic sensor 301-1.
  • the color of the X-axis of coordinate axis image 14, the color of the X-axis of coordinate axis image 15, and the color of the X-axis of coordinate axis image 16 are the same (e.g., red).
  • the color of the Y-axis of coordinate axis image 14, the color of the Y-axis of coordinate axis image 15, and the color of the Y-axis of coordinate axis image 16 are the same (e.g., blue).
  • the color of the Z-axis of coordinate axis image 14, the color of the Z-axis of coordinate axis image 15, and the color of the Z-axis of coordinate axis image 16 are the same (e.g., green).
  • the color of line image 17 connecting the origin of coordinate axis image 15 (target mounting position) and the origin of coordinate axis image 16 (relative position of magnetic sensor 301-1 at the current time) is purple, as an example.
  • Display area 18 is an area where at least one of numerical information and text information is displayed.
  • the numerical information displayed in display area 18 indicates the difference between the target mounting position and the relative position of magnetic sensor 301-1.
  • the text information displayed in display area 18 indicates the direction of movement that reduces the difference between the target mounting position and the relative position of magnetic sensor 301-1.
  • the surgeon attaches magnetic sensor 301-1 to mounting portion 211 of jig 210.
  • the surgeon also attaches magnetic sensor 301-2 to mounting portion 221-1 of jig 220.
  • the surgeon joins jig 220 to bone 102. While checking the navigation image displayed in real time on display unit 66, the surgeon moves and rotates the actual jig 210 so that coordinate axis image 15 and coordinate axis image 16 overlap on the screen of display unit 66.
  • FIG. 9 is a diagram showing an example of a navigation image indicating the mounting position in the first embodiment.
  • FIG. 9 shows an example of a navigation image at a second time, which is later than the first time.
  • the operator moves and rotates the jig 210, resulting in the coordinate axis image 15 and the coordinate axis image 16 nearly overlapping.
  • the relative position of the jig 210 and the target mounting position nearly coincide.
  • the relative attitude of the jig 210 and the target mounting attitude nearly coincide.
  • FIG. 10 is a diagram showing an example of attachment of the magnetic sensor 301 in the first embodiment.
  • the jig 210 is temporarily fixed to the bone 101 (the piriform edge of the skull) using a small screw or the like, with the joint surface 212 of the jig 210 being joined to the bone 101.
  • the jig 220 is temporarily fixed to the bone 102, with the joint surface 222 of the jig 220 being joined to the dentition of the bone 102.
  • the orientation (predetermined orientation) of the attachment portion 211 of the jig 210 when joined to the bone 101 is the same as the orientation (predetermined orientation) of each attachment portion 221 of the jig 220 when joined to the bone 102. This makes it possible to omit calibration of the orientation of each magnetic sensor 301 (initial value of the posture of each bone).
  • FIG. 11 is a diagram showing an example of a navigation image showing the relative positions of bones in the first embodiment.
  • the display unit 66 displays the navigation image generated by the information generating unit 65 at a predetermined frame rate (e.g., 40 fps).
  • a predetermined frame rate e.g. 40 fps.
  • the shape of the bone 101 is represented using an image of a skull model 111.
  • the shape of the bone 102 is represented using an image of a maxilla model 112.
  • the navigation image illustrated in FIG. 11 includes an image of the skull model 111, an image of the maxilla model 112, a display area 401, a coordinate axis image 402, a coordinate axis image 403, and a line image 404.
  • the display area 401 is an area in which at least one of numerical information and text information is displayed.
  • the numerical information displayed in the display area 401 represents the difference between the target relative position of the bone 102 and the relative position of the bone 102.
  • the text information displayed in the display area 401 represents the movement direction that reduces the difference between the target relative position of the bone 102 and the relative position of the bone 102.
  • the coordinate axis image 402 is represented by three mutually perpendicular line segments (X-axis, Y-axis, and Z-axis).
  • the origin of the coordinate axis image 402 represents the target relative position of the bone 102.
  • the orientation of the coordinate axis image 402 represents the target relative orientation of the bone 102.
  • the coordinate axis image 403 is represented by three mutually perpendicular line segments (X-axis, Y-axis, and Z-axis).
  • the origin of the coordinate axis image 403 represents the relative position of the bone 102 with respect to the target relative position of the bone 102.
  • the orientation of the coordinate axis image 403 represents the relative orientation of the bone 102.
  • the numerical information representing the difference is, for example, a numerical value representing the distance in millimeters.
  • the text information representing the movement direction is, for example, a character string such as "Left” and "Down". While checking the navigation image, the surgeon may move the bone 102 in the movement direction represented by the text information so that the value of the numerical information becomes smaller.
  • the distance (proximity) from the target relative position to the relative position and the text information "Proximity" may be displayed.
  • the numerical information representing the difference may be the difference between the attitude of the coordinate axis image 402 and the attitude of the coordinate axis image 403 (the agreement rate for each axis). The agreement between the attitude of the coordinate axis image 402 and the attitude of the coordinate axis image 403 indicates that the target relative attitude of the bone 102 and the relative attitude of the bone 102 are identical.
  • the color of the X-axis of the coordinate axis image 402 and the color of the X-axis of the coordinate axis image 403 are the same color (e.g., red).
  • the color of the Y-axis of the coordinate axis image 402 and the color of the Y-axis of the coordinate axis image 403 are the same color (e.g., blue).
  • the color of the Z-axis of the coordinate axis image 402 and the color of the Z-axis of the coordinate axis image 403 are the same color (e.g., green).
  • the color of the line image 404 connecting the origin of the coordinate axis image 402 (target relative position) and the origin of the coordinate axis image 403 (the relative position of the bone 102 at the current time) is purple, as an example.
  • the length of the line image 404 represents the difference (distance) between the target relative position and the relative position of the bone 102 (maxilla model 112).
  • FIG. 12 is a diagram showing an example of a navigation image showing the positions of bones and the like in the first embodiment.
  • the surgeon moves and rotates the bone 102 so that the coordinate axis image 402 and the coordinate axis image 403 overlap while checking the navigation image displayed in real time on the display unit 66 at a predetermined frame rate.
  • the diagram on the left side of FIG. 12 shows the position and orientation of the bone 101 (skull model 111) and the position and orientation of the bone 102 (maxilla model 112) at a third time during surgery.
  • the diagram on the right side of FIG. 12 shows the position and orientation of the bone 101 (skull model 111) and the position and orientation of the bone 102 (maxilla model 112) at a fourth time after the third time.
  • the bone 102 is moved and rotated by the surgeon, and as a result, the coordinate axis image 402 and the coordinate axis image 403 almost overlap. In such a case, the relative position and relative orientation of the bone 102 with respect to the position and orientation of the bone 101 are close to the target relative position and target relative orientation predetermined in the preoperative planning.
  • the orientation of the attachment portion 211 of the jig 210 attached to the target attachment position of the bone 101 is the same as the orientation of the attachment portion 221 of the jig 220 attached to the bone 102 rejoined to the bone 101.
  • the orientation (inclination) of the magnetic sensor 301-2 inserted into the attachment portion 221 and the orientation of the magnetic sensor 301-1 inserted into the attachment portion 211 are the same. This allows the relative positional relationship between the coordinate axis image 402 and the coordinate axis image 403 to be displayed in an intuitive and easy-to-understand manner, making navigation surgery extremely easy.
  • the surgeon can intuitively determine whether the relative position and relative orientation of the bone 102 accurately match the target relative position and target relative orientation by checking whether the coordinate axis image 402 and the coordinate axis image 403 match in the navigation image.
  • the patient can achieve good occlusion and an aesthetic facial appearance.
  • the relative position of the first sensor (magnetic sensor 301-1) with respect to the target mounting position of the first sensor is referred to as the "first relative position.”
  • the relative orientation of the first sensor (magnetic sensor 301-1) with respect to the target mounting orientation of the first sensor is referred to as the "first relative orientation.”
  • FIG. 13 is a flowchart showing a first operation example (operation example when a magnetic sensor is attached to a bone) of the navigation device 6 in the first embodiment.
  • the acquisition unit 63 acquires information on the target attachment position and target attachment attitude of the magnetic sensor 301-1 relative to the position and attitude of the magnetic sensor 301-2 from the planning device 2 or the storage device 3 (step S101).
  • the acquisition unit 63 acquires information on the position and attitude of the magnetic sensor 301-1 detected based on the signal of the magnetic sensor 301-1 from the detection device 5 (step S102).
  • the derivation unit 64 derives a first relative position and a first relative orientation of the magnetic sensor 301-1 based on the target mounting position and target mounting orientation of the magnetic sensor 301-1 and the position and orientation of the magnetic sensor 301-1 (step S103).
  • the information generating unit 65 generates an image of three-dimensional coordinate axes (coordinate axis image 15) representing the target mounting position and target mounting orientation of the magnetic sensor 301-1.
  • the information generating unit 65 generates an image of three-dimensional coordinate axes (coordinate axis image 16) representing the first relative position and first relative orientation of the magnetic sensor 301-1.
  • the information generating unit 65 may generate a jig image 213, an image of the skull model 111, and an image of the maxilla model 112 (step S104).
  • the display unit 66 displays the coordinate axis image 15 and the coordinate axis image 16.
  • the display unit 66 may display the jig image 213, the image of the skull model 111, and the image of the maxilla model 112 (step S105).
  • the information generating unit 65 determines whether or not to end the navigation operation. For example, when the surgery is finished, the information generating unit 65 determines to end the navigation operation (step S106). When it is determined to continue the navigation operation (step S106: NO), the information generating unit 65 returns the process to step S102. When it is determined to end the navigation operation (step S106: YES), the information generating unit 65 ends the navigation operation.
  • the acquisition unit 63 acquires shape information of the bone 101 (first bone) and shape information of the bone 102 (second bone) from the communication unit 61 or the storage unit 62 (step S201).
  • the acquisition unit 63 acquires information on a predetermined amount of movement and rotation of the bone 102 from the communication unit 61 or the storage unit 62 (step S202).
  • the communication unit 61 and the memory unit 62 acquire information on the position and posture of the bone 101 from the communication unit 54 at a predetermined cycle.
  • the acquisition unit 63 acquires information on the position and posture of the bone 101 from the communication unit 61 or the memory unit 62 at a predetermined cycle (step S203).
  • the communication unit 61 acquires information on the position and posture of the bone 102 from the communication unit 54 at a predetermined cycle.
  • the acquisition unit 63 acquires information on the position and posture of the bone 102 from the communication unit 61 or the memory unit 62 at a predetermined cycle (step S204).
  • the derivation unit 64 derives the relative position and orientation of the bone 102 with respect to the position and orientation of the bone 101 based on the information on the position and orientation of the bone 101 and the information on the position and orientation of the bone 102 (step S205).
  • the derivation unit 64 derives the target relative position and target relative orientation of the bone 102 with respect to the position and orientation of the bone 101 based on the predetermined movement and rotation amounts with respect to the initial values of the relative position and relative orientation of the bone 102 and the relative position and relative orientation of the bone 102 (step S206).
  • the information generating unit 65 generates predetermined information including a coordinate axis image 402 (an image of a three-dimensional coordinate axis) that represents the target relative position and target relative orientation of the bone 102 based on the target relative position and target relative orientation of the bone 102 relative to the position of the bone 101.
  • the display unit 66 displays in real time the predetermined information including the image of the skull model 111 that represents the appearance of the bone 101 according to the position and orientation of the bone 101 and the coordinate axis image 402 (step S207).
  • the information generating unit 65 generates predetermined information including a coordinate axis image 403 (image of a three-dimensional coordinate axis) representing the relative position and relative orientation of the bone 102 based on the relative position and relative orientation of the bone 102 with respect to the position of the bone 101.
  • the display unit 66 displays in real time the predetermined information including the coordinate axis image 403 and an image of the maxilla model 112 representing the appearance of the bone 102 according to the relative position and relative orientation of the bone 102 (step S208).
  • the information generating unit 65 determines whether or not to end the navigation operation. For example, when the surgery is finished, the information generating unit 65 determines to end the navigation operation (step S209). When it is determined to continue the navigation operation (step S209: NO), the information generating unit 65 returns the process to step S203. When it is determined to end the navigation operation (step S209: YES), the information generating unit 65 ends the navigation operation.
  • the detection unit 53 detects the position and orientation of the magnetic sensor 301-1 based on a signal from the magnetic sensor 301-1 (first sensor) inserted into the attachment portion 211 in a predetermined first orientation with respect to the jig 210 having the joint surface 212 with a surface shaped according to the surface of the bone 101 (e.g., the skull).
  • the detection unit 53 also detects the position and orientation of the magnetic sensor 301-2 based on a signal from the magnetic sensor 301-2 (second sensor) inserted into the attachment portion 221 in a predetermined second orientation with respect to the jig 220 having the joint surface 222 with a surface shaped according to the surface of the bone 102 (e.g., the maxilla).
  • the acquisition unit 63 acquires information on the position and orientation of the magnetic sensor 301-1 detected based on the signal from the magnetic sensor 301-1 from the detection device 5.
  • the acquisition unit 63 acquires information on the target mounting position and target mounting orientation of the magnetic sensor 301-1 relative to the position and orientation of the magnetic sensor 301-2 from the planning device 2 or the storage device 3.
  • the derivation unit 64 derives a first relative position and a first relative attitude based on the target mounting position and target mounting attitude and the position and attitude of the magnetic sensor 301-1.
  • the information generation unit 65 generates an image of three-dimensional coordinate axes (coordinate axis image 15) representing the target mounting position and target mounting attitude of the magnetic sensor 301-1.
  • the information generation unit 65 generates an image of three-dimensional coordinate axes (coordinate axis image 16) representing the first relative position and first relative attitude of the magnetic sensor 301-1.
  • the display unit 66 displays the coordinate axis image 15 and the coordinate axis image 16 as exemplified in Figures 8 and 9.
  • the information generating unit 65 may generate numerical information representing the difference between the target attachment position and the first relative position.
  • the display unit 66 may display the numerical information as exemplified in FIG. 8 and FIG. 9.
  • the information generating unit 65 may generate text information representing a moving direction that reduces the difference between the target attachment position and the first relative position.
  • the display unit 66 may display the text information as exemplified in FIG. 8 and FIG.
  • the information generating unit 65 may generate an image of a line connecting the target attachment position and the first relative position.
  • the display unit 66 may display a line image 17 as exemplified in FIG. 8 and FIG. 9.
  • the relative position of the second bone (bone 102) with respect to the position of the first bone (bone 101) is referred to as the "second relative position.”
  • the relative orientation of the second bone with respect to the orientation of the first bone is referred to as the "second relative orientation.”
  • the acquisition unit 63 acquires from the detection device 5 information on the position and orientation of the bone 101 detected based on a signal from a magnetic sensor 301-1 attached to the bone 101 (e.g., the skull).
  • the acquisition unit 63 acquires from the detection device 5 information on the position and orientation of the bone 102 detected based on a signal from a magnetic sensor 301-2 attached to the bone 102 (e.g., the maxilla).
  • the derivation unit 64 derives a second relative position and a second relative orientation of the bone 102 with respect to the position of the bone 101 based on information on the position and orientation of the bone 101 and information on the position and orientation of the bone 102.
  • the derivation unit 64 derives a target relative position and a target relative orientation of the bone 102 with respect to the position and orientation of the bone 101 based on a predetermined amount of movement with respect to the initial value of the second relative position and a predetermined amount of rotation with respect to the initial value of the second relative orientation.
  • the information generating unit 65 generates an image of three-dimensional coordinate axes (coordinate axis image 402) representing the target relative position and the target relative orientation.
  • the information generating unit 65 generates an image of three-dimensional coordinate axes (coordinate axis image 403) representing the second relative position and the second relative orientation.
  • the display unit 66 displays the coordinate axis image 402 and the coordinate axis image 403, as exemplified in Figures 11 and 12.
  • the second embodiment differs from the first embodiment in that a magnetic sensor (jig) is also attached to a proximal mandibular bone fragment separated from the mandible.
  • a magnetic sensor jig
  • the second embodiment will be described focusing on the differences from the first embodiment.
  • ⁇ Before surgery> 15 is a diagram showing a first example of designating the attachment positions of the magnetic sensors 301 in the second embodiment.
  • the attachment positions of the magnetic sensors 301 are shown for a state before the maxilla model 112 is separated from the skull model 111 on the screen of the display unit 23.
  • the mandible model 113 is a three-dimensional model of the mandible of a patient.
  • the jig 220 illustrated in FIG. 1 is sandwiched between the dentition of the maxilla model 112 and the dentition of the mandible model 113, and is joined to both.
  • Mounting position 10 represents the mounting position of the magnetic sensor 301-2 (jig 220) that is attached to the actual bone 102.
  • Mounting position 11 represents the target mounting position of the magnetic sensor 301-1 that is attached to the actual bone 101.
  • Mounting positions 12 and 13 represent the target mounting positions of each magnetic sensor 301 that is attached to the actual mandible. Mounting positions 11, 12, and 13 are expressed with mounting position 10 as the origin.
  • ⁇ During surgery> 16 is a diagram showing an example of cutting the bone 103 (mandible) in the second embodiment.
  • the surgeon temporarily removes each magnetic sensor 301 from each bone.
  • the surgeon separates the bone 102 from the bone 101, and cuts the bone 103.
  • FIG. 17 is a diagram showing an example of the attachment positions of the magnetic sensors 301 after the bone 103 is cut in the second embodiment.
  • the attachment positions of the magnetic sensors 301 are shown for a state in which the bone 102 is separated from the bone 101 and the bone 102 is rejoined to the bone 101.
  • bone 103 (mandible) is cut into bone 103-1, bone 103-2 (proximal mandible fragment), and bone 103-3 (proximal mandible fragment).
  • the planner determines the attachment position 10 of the first magnetic sensor 301 on the maxilla model 112 and mandible model 113-1.
  • the planner determines the attachment position 11 of the second magnetic sensor 301 on the skull model 111.
  • the planner determines the attachment position 12 of the third magnetic sensor 301 on the mandible model 113-2.
  • the planner determines the attachment position 13 of the fourth magnetic sensor 301 on the mandible model 113-3. With attachment position 10 as the origin, attachment positions 11, 12, and 13 are expressed.
  • the second embodiment is suitable for surgery in which multiple bones are aligned (such as surgery to reconstruct an artificial bone in a patient who has lost bone due to osteonecrosis of the jaw caused by cancer, etc.).
  • the number of sensors is not limited to a specific number.
  • navigation can be performed using three or more sensors, allowing the surgeon to more accurately align the relative positions and orientations of the bones.
  • the navigation surgery in each embodiment is not limited to a specific field of surgery, so long as it is a surgery that requires accurate alignment of the relative positions and relative postures of each bone.
  • the navigation surgery may be navigation surgery in orthognathic surgery between the maxilla and mandible.
  • a jig (mouthpiece) for the maxilla and a jig (mouthpiece) for the mandible may be created separately.
  • a sensor may be attached to each jig.
  • the present invention can be applied to a surgical support system.
  • 1...navigation system 2...planning device, 3...storage device, 4...communication line, 5...detection device, 6...navigation device, 10...mounting position, 11...mounting position, 12...mounting position, 13...mounting position, 14...coordinate axis image, 15...coordinate axis image, 16...coordinate axis image, 17...line image, 18...display area, 21...movement processing unit, 22...rotation processing unit, 23...display unit, 51...magnetic field generation unit, 52...acquisition unit, 53...detection unit, 54...communication unit, 61...communication unit , 62...storage unit, 63...acquisition unit, 64...derivation unit, 65...information generation unit, 66...display unit, 101...bone, 102...bone, 103...bone, 111...skull model, 112...maxilla model, 113...mandible model, 210...jig, 211...mounting unit, 212...joint surface, 213...ji

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgical Instruments (AREA)

Abstract

ナビゲーションシステムは、第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された第1のセンサの位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された第2のセンサの位置及び姿勢に対する第1のセンサの目標取付位置及び目標取付姿勢の情報とを取得する取得部と、目標取付位置及び目標取付姿勢と第1のセンサの位置及び姿勢とに基づいて、第1のセンサの第1の相対位置及び第1の相対姿勢を導出する導出部と、目標取付位置及び目標取付姿勢を表す3次元座標軸の画像と、第1の相対位置及び第1の相対姿勢を表す3次元座標軸の画像とを生成する情報生成部と、3次元座標軸の画像とを表示する表示部を備える。

Description

ナビゲーションシステム、治具及びプログラム
 本発明は、ナビゲーションシステム、治具及びプログラムに関する。
 画像処理技術の進歩に伴い、手術に先立って術前プランニング(3次元シミュレーション)を行うことが普及した。また、例えば顎矯正手術では、術者が上顎骨(Le Fort I型骨片)を頭蓋骨から切り離すことがある。術者は、頭蓋骨の位置に対する目標相対位置まで上顎骨を正確に移動させ、目標相対位置で上顎骨を頭蓋骨に再び固定する。
 このような顎矯正手術の術前プランニングでは、計画装置(情報処理装置)の表示部の画面上で、患者の頭蓋骨モデル及び上顎骨モデルが移動及び回転され、実際の頭蓋骨の位置に対する上顎骨の目標相対位置が、患者における良好な咬合の獲得と審美性のある顔貌の獲得とを目的として、計画者(医師)によって検討される。
 術前プランニングの目標相対位置の結果を実際の手術に反映させる方法の一つとして、ナビゲーション手術がある。光学式のナビゲーション手術では、手術器具に取り付けられた反射体に反射された赤外線を利用する測距によって、その手術器具の位置がリアルタイムに検出される。
 また、磁気式(EM : Electromagnetic)のナビゲーション手術を副鼻腔手術及びカテーテル治療等に適用することが検討されている。磁気式のナビゲーション手術では、手術器具(非磁性体)に取り付けられた磁気センサの出力に基づいて、その手術器具の位置が磁気式トラッキングシステムによってリアルタイムに検出される(非特許文献1参照)。
 特許文献1には、頭蓋顎顔面手術において光学式又は磁気式でナビゲーションを実行する外科用システムが開示されている。また、特許文献2には、マウスピース型のターゲットと、カメラとを用いた光学式の上顎骨位置合わせシステムが開示されている。
米国特許出願公開第2017/0000505号明細書 米国特許出願公開第2009/0220122号明細書
"磁気式3次元計測システムAURORA",[online],令和4年8月2日,アドバンストシステムズ株式会社,[令和4年8月2日検索],インターネット<URL:http://www.asco.jp/02aurora.htm>
 しかしながら、特許文献1には、磁気式のナビゲーションシステムにおいて使用される検出参照モジュールとして、複雑な形状を有する位置検出参照モジュールが開示されている。このように複雑な形状を有する位置検出参照モジュールは手術の際に邪魔になるという問題があった。また、外部に露出した形状を有する位置検出参照モジュールは、実際の骨の位置から離れた位置を骨の位置として検出してしまう。このため、ナビゲーションシステムによって案内された位置まで骨を正確に移動させたとしても、その位置は正確な目標位置ではないので、正確な目標位置に術者が骨の位置を合わせることができないという問題があった。
 さらに、特許文献1では、移動される骨片の位置を検出する位置検出参照モジュールは、頭蓋骨から顎骨を切り離すための切断ガイドに取り付けられている。このような切断ガイドが用いられた場合には、上顎と下顎との位置合わせの手間がかかる上に、位置合わせのための目立った印となるものが骨に無いことが多く、術前プランニングにおいて定められた目標取付位置にセンサを目視で設置することが難しいという問題がある。このため、位置検出参照モジュールが切断ガイドに取り付けられることは好ましくない。
 特許文献2では、マウスピース型の歯列スプリント(マウスピース)を用いて上顎骨の位置合わせが行われる。このような位置合わせの手術では、上顎骨と下顎骨とが一体にされることが好ましい。しかしながら、位置合わせのための4個の光源を有するターゲットの形状は、カメラを用いる測距が可能となるように、特許文献1の位置検出参照モジュールと同様に、歯列スプリントから外部に露出した形状となっている。このため、ターゲットが手術の邪魔になるだけでなく、ターゲットが歯列の位置から離れているので、骨同士の正確な位置合わせができない場合がある。また、ターゲットが歯列スプリントから外部に露出しているので、位置合わせの原点としてのターゲットの位置がずれることがあり、骨同士の正確な位置合わせが難しい。
 また、特許文献2では、患者の頭部の周囲に術者及び介助者が密集することがある。このような場合、特許文献2のように歯列スプリントの外部に露出した反射体が用いられる光学式のナビゲーション手術では、術者等によって光学的な遮蔽が生じることがある。すなわち、手術器具に取り付けられた反射体に反射された赤外線が、術者等によって遮蔽されることがある。光学的な遮蔽が生じた場合、赤外線を測距に利用することができないので、手術器具の位置を検出することができない。このような状況は、例えば、手術を受ける患者の骨に反射体が取り付けられた場合でも同様である。
 これに対して、非特許文献1に記載の磁気式のナビゲーション手術では、手術器具又は骨に取り付けられた小型の磁気センサの出力に基づいて、その手術器具又は骨の位置が検出される。したがって、磁気式のナビゲーション手術では、光学的な遮蔽は生じない。このような理由から、小型の磁気センサを用いた磁気式のナビゲーション手術を口腔外科領域に適用することが検討された。
 しかしながら、非特許文献1に記載の磁気式のナビゲーション手術が顎矯正手術に適用されたとしても、骨に取り付けられた磁気センサの取り付け位置によっては、特許文献1と同様で、印になるものが骨に無いので、上顎骨の位置と頭蓋骨の位置とがずれることがある。このように、術前プランニングによって予め定められた目標相対位置及び目標相対姿勢となるように術者が骨を正確に移動及び回転させることを支援することが難しい、という問題がある。
 これらのように、顎矯正手術が行われる患者の骨には、反射体及び磁気センサ等のセンサをネジ等で取り付ける位置の目安となる印は無い。このため、患者の骨にセンサを取り付けるべき正確な位置(目標取付位置)を術者は視覚的に把握することができない、という問題があった。さらに、特許文献1のように目標相対位置を数値で術者に提示するナビゲーションでは、骨の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢となるように骨が正確に移動及び回転されたか否かを、術者は直観的に把握することができない、という問題があった。
 上記事情に鑑み、本発明は、骨の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢となるように術者が骨を正確に移動及び回転させることを支援することが可能であるナビゲーションシステム、治具及びプログラムを提供することを目的としている。
 本発明の一態様は、第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1のセンサの位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2のセンサの位置及び姿勢に対する前記第1のセンサの目標取付位置及び目標取付姿勢の情報とを取得する取得部と、前記目標取付位置及び前記目標取付姿勢と前記第1のセンサの位置及び姿勢とに基づいて、前記目標取付位置及び前記目標取付姿勢に対する前記第1のセンサの第1の相対位置及び第1の相対姿勢を導出する導出部と、前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを生成する情報生成部と、前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを表示する表示部とを備えるナビゲーションシステムである。
 本発明の一態様は、第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1の骨の位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2の骨の位置及び姿勢の情報とを取得する取得部と、前記第1の骨の位置及び姿勢の情報と前記第2の骨の位置及び姿勢の情報とに基づいて、前記第1の骨の位置に対する前記第2の骨の相対位置及び相対姿勢を導出し、前記相対位置の初期値に対して予め定められた移動量と、前記相対姿勢の初期値に対して予め定められた回転量とに基づいて、前記第1の骨の位置及び姿勢に対する前記第2の骨の目標相対位置及び目標相対姿勢を導出する導出部と、前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを生成する情報生成部と、前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを表示する表示部とを備えるナビゲーションシステムである。
 本発明の一態様は、予め定められた向きでセンサが挿入される取付部と、接合される骨の表面に応じた形状の面とを有する治具である。
 本発明の一態様は、コンピュータに、第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1のセンサの位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2のセンサの位置及び姿勢に対する前記第1のセンサの目標取付位置及び目標取付姿勢の情報とを取得する手順と、前記目標取付位置及び前記目標取付姿勢と前記第1のセンサの位置及び姿勢とに基づいて、前記目標取付位置及び前記目標取付姿勢に対する前記第1のセンサの第1の相対位置及び第1の相対姿勢を導出する手順と、前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを生成する手順と、前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを表示する手順とを実行させるためのプログラムである。
 本発明の一態様は、コンピュータに、第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1の骨の位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2の骨の位置及び姿勢の情報とを取得する手順と、前記第1の骨の位置及び姿勢の情報と前記第2の骨の位置及び姿勢の情報とに基づいて、前記第1の骨の位置に対する前記第2の骨の相対位置及び相対姿勢を導出し、前記相対位置の初期値に対して予め定められた移動量と、前記相対姿勢の初期値に対して予め定められた回転量とに基づいて、前記第1の骨の位置及び姿勢に対する前記第2の骨の目標相対位置及び目標相対姿勢を導出する手順と、前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを生成する手順と、前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを表示する手順とを実行させるためのプログラムである。
 本発明により、骨の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢となるように術者が骨を正確に移動及び回転させることを支援することが可能である。
第1実施形態における、ナビゲーションシステムの構成例を示す図である。 第1実施形態における、頭蓋骨モデルと上顎骨モデルとを示す図である。 第1実施形態における、移動前後の上顎骨モデルの位置及び姿勢の例を示す図である。 第1実施形態における、移動パラメータ及び回転パラメータ(回転行列)の決定例を示す図である。 第1実施形態における、磁気センサの取り付け位置の指定例を示す図である。 第1実施形態における、頭蓋骨に接合される治具の例を示す図である。 第1実施形態における、上顎骨の歯列に接合される治具の例を示す図である。 第1実施形態における、取り付け位置を示すナビゲーション画像の例を示す図である。 第1実施形態における、取り付け位置を示すナビゲーション画像の例を示す図である。 第1実施形態における、磁気センサの取り付け例を示す図である。 第1実施形態における、骨の位置等を示すナビゲーション画像の例を示す図である。 第1実施形態における、骨の位置等を示すナビゲーション画像の例を示す図である。 第1実施形態における、ナビゲーション装置の第1動作例を示すフローチャートである。 第1実施形態における、ナビゲーション装置の第2動作例を示すフローチャートである。 第2実施形態における、各磁気センサの取り付け位置の指定の第1例を示す図である。 第2実施形態における、骨の切断例を示す図である。 第2実施形態における、骨の切断後の各磁気センサの取り付け位置の例を示す図である。
 本発明の実施形態について、図面を参照して詳細に説明する。
 (第1実施形態)
 図1は、第1実施形態における、ナビゲーションシステム1(手術支援システム)の構成例を示す図である。ナビゲーションシステム1は、患者の骨に予め定められた目標取付位置及び目標取付姿勢に対するセンサの相対位置及び相対姿勢をナビゲーションするシステムである。これによって、術者(医師)は、患者の骨に予め定められた目標取付位置においてセンサの姿勢が目標取付姿勢となるように、患者の骨にセンサ(治具)を正確に取り付けることができる。目標取付位置及び目標取付姿勢は、術前プランニング(手術前に行われる3次元シミュレーション)において、計画者(医師)によって予め定められる。
 患者の骨に取り付けられるセンサは、光学式のナビゲーション手術に用いられる光源又は反射体でもよいし、磁気式のナビゲーション手術に用いられる磁気センサでもよい。光学的な遮蔽が生じないので、磁気センサの方がより好ましい。以下では、一例として、磁気センサが術者によって患者の骨に取り付けられる。
 また、ナビゲーションシステム1は、予め定められた目標相対位置及び目標相対姿勢に対する患者の骨の相対位置及び相対姿勢をナビゲーションするシステムである。これによって、術者は、第1の骨の位置及び姿勢に対する第2の骨の相対位置及び相対姿勢を、予め定められた目標相対位置及び目標相対姿勢にすることができる。目標相対位置及び目標相対姿勢は、術前プランニングにおいて、計画者によって予め定められる。
 ナビゲーションシステム1は、計画装置2と、記憶装置3と、通信回線4と、検出装置5と、ナビゲーション装置6とを備える。治具210(第1の治具)及び磁気センサ301-1(第1のセンサ)は、患者の骨101(第1の骨)に対応付けられている。また、治具220(第2の治具)及び磁気センサ301-2(第2のセンサ)は、患者の骨102(第1の骨)に対応付けられている。
 本発明の実施形態では、治具220は、好適にはマウスピース(歯列スプリント)である。磁気センサ301-2は、治具220を用いて、骨102に取り付けられる。歯列の形状に適合するように治具220の接合面が製造されるので、術者は、骨に定められた目標取付位置に磁気センサ301-2を正確に設置できる。本発明の実施形態では、骨に定められた目標取付位置にセンサを正確に設置できる治具220の位置が原点とされ、原点に対して目標相対位置及び目標相対姿勢が定められることで、正確な位置に術者が骨の位置を合わせることができる。なお、骨に定められた目標取付位置に磁気センサ301-2を正確に設置可能であれば、治具220は、マウスピースでなくてもよい。
 なお、計画装置2は、術前プランニングにおいてナビゲーションシステム1に備えられていればよく、手術中ではナビゲーションシステム1に備えられていなくてよい。
 計画装置2(術前プランニング装置)は、移動処理部21と、回転処理部22と、表示部23と、変換部24とを備える。移動処理部21と回転処理部22とは、一体(移動回転処理部)でもよい。検出装置5は、磁界生成部51と、取得部52と、検出部53と、通信部54とを備える。ナビゲーション装置6は、通信部61と、記憶部62と、取得部63と、導出部64と、情報生成部65と、表示部66とを備える。
 計画装置2とナビゲーション装置6との各機能部のうちの一部又は全部は、CPU(Central Processing Unit)等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)を有する記憶部に記憶されたプログラムを実行することにより、ソフトウェアとして実現される。また、検出装置5の各機能部のうちの一部は、プロセッサが、不揮発性の記録媒体(非一時的な記録媒体)を有する記憶部に記憶されたプログラムを実行することにより、ソフトウェアとして実現される。
 プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD-ROM(Compact Disc Read Only Memory)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク、及び、ソリッド・ステート・ドライブ(Solid State Drive)等の記憶装置などの非一時的な記録媒体である。
 計画装置2とナビゲーション装置6との各機能部のうちの一部又は全部は、例えば、LSI(Large Scale Integrated circuit)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)又はFPGA(Field Programmable Gate Array)等を用いた電子回路(electronic circuit又はcircuitry)を含むハードウェアを用いて実現されてもよい。また、検出装置5の各機能部のうちの一部は、例えば、LSI、ASIC、PLD又はFPGA等を用いた電子回路を含むハードウェアを用いて実現されてもよい。
 骨101及び骨102のそれぞれは、患者の骨である。以下では、骨101(第1の骨)は、一例として、患者の頭蓋骨(顔面骨)である。また、骨102(第2の骨)は、一例として、骨101から切り離された上顎骨(Le Fort I型骨片)である。
 <手術前における、骨102の目標相対位置及び目標相対姿勢の決定>
 手術に先立って、計画装置2を用いて、術前プランニングが計画者(不図示)によって行われる。例えば、顎矯正手術(Le Fort I型骨切り術)に先立って行われる術前プランニングでは、患者に対するCT(computed tomography)スキャン等の実行によって取得されたデータに基づいて、頭蓋骨モデル(骨101の3次元モデル)が、計画装置2のメモリに作成される。
 頭蓋骨モデルに基づいて、頭蓋骨モデルの画像が、表示部23の画面上に表示される。また、上顎骨モデル(骨102の3次元モデル)が、画面上で頭蓋骨モデルから切り離される。これによって、切り離された上顎骨モデルと頭蓋骨モデルとの各画像が、表示部23の画面上に表示される。計画者による操作(例えば、マウス操作)に応じて、頭蓋骨モデルに対する上顎骨モデルの相対位置(移動量)及び相対姿勢(回転量)が、患者における良好な咬合の獲得と審美性のある顔貌の獲得とを目的として検討される。
 ここで、移動処理部21は、計画者による操作に応じて、上顎骨モデルを画面上で移動させる。計画者は、上顎骨モデルの移動量を画面上で確認することによって、上顎骨モデルの位置の初期値に対する移動量(X軸成分量、Y軸成分量、Z軸成分量)を決定する。これによって、計画者は、実際の骨102の位置の初期値に対する移動量を決定することができる。移動処理部21は、計画者によって決定された移動量の情報を、記憶装置3に記録する。
 回転処理部22は、計画者による操作に応じて、上顎骨モデルの3次元モデルを画面上で回転させてもよい。計画者は、上顎骨モデルの回転量(ロール軸成分量、ピッチ軸成分量、ヨー軸成分量)を画面上で確認することによって、上顎骨モデルの位置の初期値に対する回転量を決定する。これによって、計画者は、実際の骨102の位置の初期値に対する回転量を決定することができる。回転処理部22は、計画者によって決定された回転量の情報を、記憶装置3に記録する。
 <手術前における、治具を用いて骨に取り付けられるセンサの取り付け位置の決定>
 術前プランニングにおいて、計画者は、骨101における磁気センサ301-1(治具210)の目標取付位置を、変換部24に指定する。骨101が頭蓋骨である場合、目標取付位置は、例えば、頭蓋骨の梨状口側縁に定められた位置である。
 計画者は、表示部23の画面上で上顎骨モデルが頭蓋骨モデルから切り離されていない状態で、磁気センサ301-1の目標取付位置を、その画面上で指定する。計画者は、表示部23の画面上で上顎骨モデルが頭蓋骨モデルから切り離された状態で、磁気センサ301-1の目標取付位置を、その画面上で指定してもよい。
 計画者は、表示部23の画面上で、頭蓋骨モデルに対する目標相対位置及び目標相対姿勢まで移動及び回転された上顎骨モデルの歯列に、治具220(マウスピース)のモデルを接合する。計画者は、頭蓋骨モデルにおける磁気センサ301-1(治具210)の目標取付位置を、例えばマウス操作によって画面上で指定する。これによって、計画者は、実際の骨101における磁気センサ301-1の目標取付位置を、変換部24に入力することができる。本発明の実施形態では、磁気センサ301-1の目標取付位置は、上顎骨モデルの歯列に接合された治具220の所定位置を原点として表現される。
 変換部24は、表示部23の画面(2次元)を用いて計画者によって頭蓋骨モデルの表面上に指定された第1位置(第1の2次元位置情報)を、3次元位置情報に変換する。この3次元位置情報は、実際の骨101における磁気センサ301-1(治具210)の目標取付位置に相当する。変換部24は、磁気センサ301-1の目標取付位置の3次元位置情報を、記憶装置3に記録する。
 また、変換部24は、表示部23の画面(2次元)を用いて計画者によって上顎骨モデルの表面に指定された第2位置(第2の2次元位置情報)を、3次元位置情報に変換してもよい。この3次元位置情報は、実際の骨102における磁気センサ301-2(治具220)の目標取付位置に相当する。変換部24は、磁気センサ301-2の目標取付位置の3次元位置情報を、記憶装置3に記録する。
 治具210及び治具220は、手術前に、例えば3次元プリンタ(3Dプリンタ)で製造される。なお、変換部24は、頭蓋骨モデルにおける目標取付位置に取り付けられた治具210の向きに応じて、治具210が備える筒状の取付部の向き(目標取付姿勢)を決定してもよい。
 記憶装置3は、頭蓋骨モデルの3次元モデルの形状の情報と、上顎骨モデルの3次元モデルの形状の情報とを、予め記憶する。頭蓋骨モデル及び上顎骨モデルの3次元モデルのデータフォーマットは、例えば、DICOM(Digital Imaging and Communications in Medicine)である。ここで、歯列の3次元モデルのデータフォーマットは、例えば、STL(Stereolithography)である。記憶装置3は、移動量の情報(移動パラメータ)と回転量の情報(回転パラメータ)とを、計画装置2から送信された制御信号に応じて記憶する。
 <手術中における、センサの取り付け位置のナビゲーションの概要>
 検出装置5は、患者の頭部と各磁気センサ301とを含む所定範囲の実空間に、磁界領域を生成する。検出装置5は、生成された磁界領域における各磁気センサ301の出力(信号)に基づいて、各磁気センサ301の位置及び姿勢をリアルタイムに検出(トラッキング)する。
 術者は、磁気センサ301-1を治具210の取付部に装着する。また、術者は、磁気センサ301-2を治具220の取付部に装着する。
 ナビゲーション装置6は、治具220に挿入された磁気センサ301-2の位置を原点として、患者の骨101に予め定められた磁気センサ301の目標取付位置及び目標取付姿勢に磁気センサ301-1の位置及び姿勢が一致するまで、術者が治具210及び磁気センサ301-1を移動及び回転させるように、磁気センサ301-1の位置及び姿勢をナビゲーションするための所定の第1情報を、リアルタイムに術者に提示(案内)する。
 梨状口側縁及び下顎骨に治具が取り付けられることが多いが、梨状口側縁及び下顎骨には、目立った印となるものが無い。このため、梨状口側縁及び下顎骨に各治具を術前プランニング通りに目視で設置することは、これまでは難しかった。本発明の実施形態では、下顎骨に定められた位置(原点)に磁気センサ301-2を正確な取り付けることが可能な治具220に設けられた取付部221の位置が原点とされる。これによって、梨状口側縁における治具210の正確な取り付け位置を術者に提示(案内)することが可能である。
 所定の第1情報は、例えば、事前に形状が測定された骨101の3次元モデル(頭蓋骨モデル)の画像と、事前に形状が測定された骨102の3次元モデル(上顎骨モデル)の画像と、各磁気センサ301(各治具)の相対位置及び相対姿勢を表す3次元座標軸の画像と、目標取付位置及び目標取付姿勢を表す3次元座標軸の画像とのうちの少なくとも一つを含む。第1情報の詳細については、図8及び図9を用いて後述する。
 このような第1情報がリアルタイムに術者に提示されることによって、ナビゲーションシステム1は、骨101に予め定められた目標取付位置において磁気センサ301-1の相対姿勢が目標取付姿勢となるように術者が治具210(磁気センサ301-1)を正確に取り付けることを支援する。
 <手術中における、センサの取り付け位置のナビゲーションの詳細>
 治具210は、骨101に磁気センサ301-1を固定するための治具である。治具210は、術者によって骨101に一時的に固定される。治具220は、骨102に磁気センサ301-2を固定するための治具である。治具220は、術者によって骨102の歯列に一時的に固定される。
 磁気センサ301-1は、治具210を用いて、骨101の近傍に配置される。骨の近傍とは、骨から、例えば約0.1mmから約10mmまでの範囲である。本発明の実施形態では、治具210に設けられた取付部211の穴に、磁気センサ301-1が挿入される。磁気センサ301-1が骨101の近傍に設置されるので、骨101の正確な位置合わせが可能になる。
 磁気センサ301は、磁気を検出するセンサである。磁気センサ301は、磁界生成部51によって生成された磁界内の自センサの位置における磁気を、例えばコイル等の磁気検出デバイスを用いて、所定周期(例えば、40Hz)で検出する。磁気センサ301は、検出された磁気に応じた電気信号を、取得部52に出力する。
 磁気センサ301-1は、治具210を用いて、骨101(頭蓋骨)の表面に予め定められた目標取付位置に一時的に取り付けられる。すなわち、磁気センサ301-1は、骨101に一時的に固定された治具210の取付部に挿入されることによって、骨101の表面に予め定められた目標取付位置に一時的に取り付けられる。このため、骨101に取り付けられた磁気センサ301-1の出力(信号)に基づいて検出された位置及び姿勢は、骨101の位置及び姿勢を表す。
 磁気センサ301-2は、骨102の歯列に接合された治具220を用いて、骨102の表面に予め定められた目標取付位置に一時的に取り付けられる。治具210に設けられた取付部211の穴に磁気センサ301-1が挿入されることと同様に、治具220に設けられた取付部221の穴に磁気センサ301-2が挿入されることで、磁気センサ301-2は、治具220を用いて、骨102の近傍に取り付けられる。すなわち、磁気センサ301-2は、骨102の歯列に一時的に固定された治具220の取付部に挿入されることによって、骨102の表面に予め定められた目標取付位置に一時的に取り付けられる。このため、骨102に取り付けられた磁気センサ301-2の出力に基づいて検出された位置及び姿勢は、骨102の位置及び姿勢を表す。
 磁界生成部51は、骨101と骨102と各磁気センサ301とを含む所定範囲の実空間(例えば、患者の頭部を含む範囲の実空間)に、磁界領域を生成する。取得部52は、磁気センサ301の出力(磁気に応じた電気信号)を取得する。検出部53は、磁気センサ301の出力に基づいて、磁気センサ301の位置及び姿勢を所定周期(例えば、40Hz)で検出する。検出された位置の自由度は、3自由度(X軸、Y軸、Z軸)である。また、検出された姿勢(傾き)の自由度は、3自由度(ロール軸、ピッチ軸、ヨー軸)である。通信部54は、磁気センサ301の位置及び姿勢(計6自由度)の情報を、所定周期(例えば、40Hz)で通信部61に送信する。
 通信部61は、骨101の3次元モデルの形状の情報と、骨102の3次元モデルの形状の情報とを、記憶装置3から取得する。通信部61は、磁気センサ301-1(治具210)の目標取付位置の情報を、記憶装置3から取得する。通信部61は、磁気センサ301-1(治具210)の目標取付姿勢の情報を、記憶装置3から取得してもよい。通信部61は、各磁気センサ301の位置及び姿勢の情報を、所定周期で通信部54から取得する。
 記憶部62は、磁気センサ301-1(治具210)の目標取付位置の情報を記憶する。記憶部62は、磁気センサ301-1(治具210)の目標取付姿勢の情報を記憶する。記憶部62(バッファメモリ)は、各磁気センサ301の位置及び姿勢の時系列情報を、一時的に記憶する。記憶部62は、骨101の位置及び姿勢の時系列情報と、骨102の位置及び姿勢の時系列情報とを、一時的に記憶する。記憶部62は、導出部64及び情報生成部65によって実行されるコンピュータプログラムを、予め記憶してもよい。
 取得部63は、骨101の形状の情報と骨102の形状の情報とを、記憶装置3から取得する。取得部63は、磁気センサ301-1の目標取付位置及び目標取付姿勢の情報を、通信部61又は記憶部62から取得する。磁気センサ301-1(治具210)の位置及び姿勢の情報と、磁気センサ301-2(治具220)の位置及び姿勢の情報とを、所定周期で通信部61又は記憶部62から取得する。
 導出部64は、歯列に接合された治具220に取り付けられた磁気センサ301-2の位置を原点として、骨101(頭蓋骨)の表面に予め定められた目標取付位置及び目標取付姿勢を、計画者から指定された目標取付位置及び目標取付姿勢の情報に基づいて、リアルタイムに導出する。導出部64は、目標取付位置及び目標取付姿勢に対する、磁気センサ301-1(治具210)の相対位置及び相対姿勢を、取得された磁気センサ301-1の位置及び姿勢の情報に基づいて、リアルタイムに導出する。
 情報生成部65は、所定の画像処理エンジン(3次元のコンピュータグラフィックスの描画エンジン)を用いて、所定のフレームレート(例えば、40fps)でナビゲーション画像を生成する。ナビゲーション画像は、例えば、術前プランニングにおいて生成された骨の外観(形状)を表す画像と、所定の文字情報と、3次元座標軸の画像とを含む。
 情報生成部65は、骨101の位置及び姿勢に応じた骨101の外観を表す画像(頭蓋骨モデルの画像)と、骨102の相対位置及び相対姿勢に応じた骨102の外観を表す画像(上顎骨モデルの画像)とを生成する。
 手術中に各磁気センサ301(各治具)が各骨に取り付けられる際、情報生成部65は、各磁気センサ301(各治具)の現在の位置及び姿勢を表す3次元座標軸の画像を生成する。また、情報生成部65は、磁気センサ301-1の目標取付位置及び目標取付姿勢を表す3次元座標軸の画像を生成する。
 表示部66は、情報生成部65によって生成されたナビゲーション画像を、所定のフレームレート(例えば、40fps)で表示する。例えば、表示部66は、磁気センサ301-1(治具210)の現在の位置及び姿勢を表す3次元座標軸の画像と、磁気センサ301-1(治具210)の目標取付位置及び目標取付姿勢を表す3次元座標軸の画像とを表示する。
 術者は、磁気センサ301-2が挿入された治具220を、患者の骨102の歯列に接合させる。また、術者は、磁気センサ301-1が挿入された治具210を、患者の骨101に予め定められた目標取付位置に、ナビゲーション画像を確認しながら、ネジ(金属スクリュー)等で正確に取り付ける。ここで、術者は、磁気センサ301-2の姿勢に対する磁気センサ301-1の相対姿勢が目標取付姿勢となるように、ナビゲーション画像を確認しながら、磁気センサ301-1を骨101に正確に取り付ける。
 <手術中における、骨の相対移動及び相対回転のナビゲーションの概要>
 術者は、骨102(上顎骨)を骨101(頭蓋骨)から切り離す。ここで、術者は、治具を一時的に骨から外してから、骨102(上顎骨)を骨101(頭蓋骨)から切り離してもよい。
 検出装置5は、患者の頭部と各磁気センサ301とを含む所定範囲の実空間に、磁界領域を生成する。検出装置5は、生成された磁界領域における各磁気センサ301の出力(信号)に基づいて、各磁気センサ301の位置及び姿勢をリアルタイムに検出(トラッキング)する。
 ナビゲーション装置6は、骨101の位置及び姿勢に対する骨102の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢に一致するまで、術者が骨102を移動及び回転させるように、術者による骨102の移動及び回転をナビゲーションするための所定の第2情報を、リアルタイムに術者に提示(案内)する。
 所定の第2情報は、例えば、事前に形状が測定された骨101の3次元モデル(頭蓋骨モデル)の画像と、事前に形状が測定された骨102の3次元モデル(上顎骨モデル)の画像と、骨101の位置及び姿勢を表す3次元座標軸の画像と、骨101の位置及び姿勢に対する骨102の相対位置及び相対姿勢を表す3次元座標軸の画像と、骨102の目標相対位置及び目標相対姿勢を表す3次元座標軸の画像とのうちの少なくとも一つを含む。第2情報の詳細については、図11及び図12を用いて後述する。
 このような第2情報がリアルタイムに術者に提示されることによって、ナビゲーションシステム1は、骨102の位置及び姿勢が目標相対位置及び目標相対姿勢となるように骨102を術者が正確に移動及び回転(傾斜)させることを支援する。
 <手術中における、骨の移動及び回転のナビゲーションの詳細>
 通信部61は、骨101の3次元モデル(頭蓋骨モデル)の形状の情報と、骨102の3次元モデル(上顎骨モデル)の形状の情報とを、記憶装置3から取得する。通信部61は、予め定められた移動量の情報と予め定められた回転量の情報とを、記憶装置3から取得する。通信部61は、骨101の位置及び姿勢の情報と、骨102の位置及び姿勢の情報とを、所定周期で通信部54から取得する。
 記憶部62は、予め定められた移動量の情報と予め定められた回転量の情報とを記憶する。記憶部62(バッファメモリ)は、骨101の位置及び姿勢の時系列情報と、骨102の位置及び姿勢の時系列情報とを、一時的に記憶する。記憶部62は、導出部64及び情報生成部65によって実行されるコンピュータプログラムを、予め記憶してもよい。
 取得部63は、骨101の3次元モデル(頭蓋骨モデル)の形状の情報と、骨102の3次元モデル(上顎骨モデル)の形状の情報とを、記憶装置3から取得する。取得部63は、予め定められた移動量の情報と予め定められた回転量の情報とを、通信部61又は記憶部62から取得する。取得部63は、磁気センサ301-1(治具210)の位置及び姿勢の情報と、磁気センサ301-2(治具220)の位置及び姿勢の情報とを、所定周期で通信部61又は記憶部62から取得する。
 磁気センサ301-1(治具210)が骨101に取り付けられている場合、取得部63は、磁気センサ301-1の位置及び姿勢の情報を、骨101の位置及び姿勢の情報として、所定周期で通信部61又は記憶部62から取得する。同様に、磁気センサ301-2(治具220)が骨102に取り付けられている場合、取得部63は、磁気センサ301-2の位置及び姿勢の情報を、骨102の位置及び姿勢の情報として、所定周期で通信部61又は記憶部62から取得する。
 導出部64は、磁気センサ301-1の位置及び姿勢の情報と、磁気センサ301-2の位置及び姿勢の情報とに基づいて、磁気センサ301-1の位置及び姿勢に対する磁気センサ301-2の相対位置及び相対姿勢を、リアルタイムに導出する。すなわち、導出部64は、骨101の位置及び姿勢の情報と、骨102の位置及び姿勢の情報とに基づいて、骨101の位置及び姿勢に対する骨102の相対位置及び相対姿勢を、リアルタイムに導出する。
 導出部64は、術前プランニングにおいて骨102の相対位置及び相対姿勢の初期値に対して予め定められた移動量及び回転量と、骨102の相対位置及び相対姿勢とに基づいて、骨101の位置及び姿勢に対する骨102の目標相対位置及び目標相対姿勢を、リアルタイムに導出する。ここで、骨102の相対位置及び相対姿勢を、予め定められた移動量及び回転量だけ移動及び回転させた位置及び姿勢が、骨102の目標相対位置及び目標相対姿勢である。
 情報生成部65は、所定の画像処理エンジンを用いて、所定のフレームレートでナビゲーション画像を生成する。ナビゲーション画像は、例えば、術前プランニングにおいて生成された骨の外観(形状)を表す画像と、所定の文字情報と、3次元座標軸の画像とを含む。
 情報生成部65は、骨101の位置及び姿勢に応じた骨101の外観を表す画像(頭蓋骨モデルの画像)と、骨102の相対位置及び相対姿勢に応じた骨102の外観を表す画像(上顎骨モデルの画像)とを生成する。例えば、磁気センサ301-1が取り付けられた骨101が横向きとなった場合、情報生成部65は、骨101の横向きの外観を表す画像(横向きの頭蓋骨モデルの画像)を生成する。例えば、磁気センサ301-2が取り付けられた骨102が移動した場合、情報生成部65は、骨102の外観を表す画像を、骨102の移動に応じて画面上で移動させる。
 情報生成部65は、骨101の位置及び姿勢に対する骨102の目標相対位置及び目標相対姿勢に基づいて、例えば、骨102の目標相対位置及び目標相対姿勢を表す3次元座標軸の画像を生成する。例えば、磁気センサ301-1が取り付けられた骨101が横向きとなった場合、骨102の目標相対位置及び目標相対姿勢も横向きになるので、情報生成部65は、骨102の目標相対位置及び目標相対姿勢を表す3次元座標軸の画像を、横向きに生成する。
 情報生成部65は、骨101の位置及び姿勢に対する骨102の相対位置及び相対姿勢に基づいて、例えば、骨102の相対位置及び相対姿勢を表す3次元座標軸の画像を生成する。また、情報生成部65は、骨102の相対位置と目標相対位置とを結ぶ線の画像を生成してもよい。例えば、磁気センサ301-2が取り付けられた骨102が移動した場合、情報生成部65は、骨102の相対位置及び相対姿勢を表す3次元座標軸の画像を、骨102の移動に応じて画面上で移動させる。
 表示部66は、情報生成部65によって生成されたナビゲーション画像を、所定のフレームレート(例えば、40fps)で表示する。
 次に、手術前における術前プランニングについて、より詳しく説明する。
 図2は、第1実施形態における、頭蓋骨モデル111と上顎骨モデル112とを示す図である。頭蓋骨モデル111は、実空間における骨101に相当する。上顎骨モデル112は、実空間における骨102に相当する。
 頭蓋骨モデル111及び上顎骨モデル112の形状の情報(DICOMデータ)は、例えば、手術前に患者の頭部に対して行われたCTスキャンの結果として得られる。なお、手術前に患者の歯列に対して行われた光学式デジタルスキャンの結果として得られたデータ(STLデータ)が、上顎骨モデル112の歯列データとして用いられてもよい。
 図3は、第1実施形態における、移動前後の上顎骨モデル112の位置及び姿勢の例を示す図である。術前プランニングでは、移動処理部21は、計画者(医師)によるマウス操作等に応じて、上顎骨モデル112の位置の初期値から、上顎骨モデル112を画面上で移動させる。回転処理部22は、計画者によるマウス操作等に応じて、上顎骨モデル112の姿勢の初期値から、上顎骨モデル112を画面上で回転させる。図3に示された左側の図は、移動前及び回転前の頭蓋骨モデル111の位置(初期値)及び姿勢(初期値)を表す。図3に示された右側の図は、移動後及び回転後の頭蓋骨モデル111の位置及び姿勢を表す。
 図4は、第1実施形態における、移動パラメータ及び回転パラメータ(回転行列)の決定例を示す図である。術前プランニングでは、計画者は、画面上で上顎骨モデル112を上顎骨モデル112の位置及び姿勢の初期値から移動及び回転させることによって、術後における骨102の相対位置及び相対姿勢を決定する。移動処理部21及び回転処理部22のうちの少なくとも一つは、位置合わせの所定のアルゴリズムを用いて、移動量及び回転量うちの少なくとも一つを決定する。位置合わせの所定のアルゴリズムは、例えば、ICP(Iterative Closest Point)アルゴリズムである。移動処理部21は、決定された移動量の情報(移動パラメータ)を、記憶装置3に記録する。回転処理部22は、決定された回転量の情報(回転パラメータ)を、記憶装置3に記録する。
 次に、手術前における、磁気センサ(治具)の取り付け位置の指定について説明する。
 図5は、第1実施形態における、磁気センサ301の取り付け位置(目標取付位置)の指定例を示す図である。図5における左側には、画面上で上顎骨モデル112が頭蓋骨モデル111から切り離される前の状態について、磁気センサ301の取り付け位置が示されている。これに対して、図5における右側には、画面上で上顎骨モデル112が頭蓋骨モデル111から切り離されて、上顎骨モデル112が頭蓋骨モデル111に再接合された状態について、磁気センサ301の取り付け位置が示されている。
 図5では、図1に例示された治具220は、上顎骨モデル112の歯列と下顎骨モデル113の歯列とに挟まれて、それらの両方に接合している。取り付け位置10は、実際の骨102に取り付けられる磁気センサ301-2(治具220)の取り付け位置を表す。取り付け位置11は、実際の骨101に取り付けられる磁気センサ301-1の目標取付位置を表す。取り付け位置11は、取り付け位置10を原点として表現される。
 術前プランニングにおいて、計画者は、例えばマウス操作で上顎骨モデル112の歯列の表面に印を付けることよって、骨102への磁気センサ301-2の取り付け位置(原点)として、取り付け位置10を指定する。磁気センサ301-2の取り付け位置(原点)は、治具220における磁気センサ301-2の取付部の位置となる。また、計画者は、例えば頭蓋骨モデル111の表面(頭蓋骨の梨状口縁)の表面に印を付けることよって、骨101への磁気センサ301-1の取り付け位置(目標取付位置)として、取り付け位置11を定める。
 図5における左側に示されているように、計画者は、例えば、上顎骨モデル112が頭蓋骨モデル111から切り離されていない状態について、取り付け位置10及び取り付け位置11を、画面上で指定する。
 図5における右側に示されているように、計画者は、例えば、上顎骨モデル112が頭蓋骨モデル111から切り離されて、上顎骨モデル112が頭蓋骨モデル111に再接合された状態について、取り付け位置10及び取り付け位置11を、画面上で指定してもよい。ここで、変換部24は、上顎骨モデル112が頭蓋骨モデル111に再接合された状態(図5における右側)における取り付け位置11を、上顎骨モデル112が頭蓋骨モデル111から切り離されていない状態(図5における左側)における取り付け位置11に補正してもよい。これによって、術者は、術前プランニングにおいて上顎骨モデル112が頭蓋骨モデル111に再接合された状態で取り付け位置11が指定された場合でも、骨102を骨101から切り離す前に磁気センサ301-1(治具210)を取り付け位置11に正確に取り付けることができる。
 次に、手術前における治具製作(治具造形)について説明する。
 図6は、第1実施形態における、頭蓋骨(骨101)に接合される治具の例を示す図である。治具210は、CAD/CAM(computer-aided design / computer-aided manufacturing)の手法を用いて作成される。すなわち、治具210の形状の設計データは、頭蓋骨モデル111のDICOMデータに基づいて設計される。また、治具210は、治具210の形状の設計データ(例えば、STLデータ)に基づいて、例えば3次元プリンタ(3Dプリンタ)で製造される。
 治具210の材質は、非磁性体であり、例えば樹脂である。治具210は、磁気センサ301-1を取り付けるための1個以上の取付部211と、接合される骨101(頭蓋骨の梨状口縁)の表面形状に応じた形状の接合面とを有する。
 取付部211の形状は、例えば、筒状である。取付部211には、磁気センサ301-1の先端部(磁気検出デバイス)が挿入可能である。磁気センサ301-1が取付部211に挿入されることによって、磁気センサ301-1が骨101の近傍に設置されるので、磁気センサ301-1の位置は、骨101の位置を精度よく表す。これによって、骨102の相対位置を高い精度で目標相対位置に合わせることが可能である。
 磁気センサ301-1が挿入された治具210が骨101に取り付けられた場合に、取付部211に挿入された磁気センサ301-1の向き(治具210に対して予め定められた第1の向き)と治具220の取付部221に挿入された磁気センサ301-2の向き(治具220に対して予め定められた第2の向き)とが同じになるように、各取付部の向きは、治具210の目標取付姿勢に基づいて設計される。また、治具210の接合面の形状は、治具210の目標取付位置における骨101の表面形状に合うように設計される。
 図7は、第1実施形態における、上顎骨(骨102)の歯列に接合される治具220(マウスピース)(歯列スプリント)の例を示す図である。顎矯正手術では、術後に患者の歯並びが最適になるように、術前に患者の歯列の矯正が行われる。矯正された歯列に治具220が正確に接合するように、治具220は、歯列の表面形状に応じた形状の接合面になるように形成されたCAD/CAMスプリント(computer-aided design / computer-aided manufacturing sprint)である。すなわち、治具220の形状の設計データは、上顎骨モデル112のSTLデータに基づいて設計される。また、治具220は、治具220の形状の設計データに基づいて、例えば3次元プリンタで製造される。治具220は、患者の歯列に接合されるので、患者の上顎骨(骨102)に正確に固定される。
 治具220の材質は、非磁性体であり、例えば樹脂である。治具220は、磁気センサ301-2を取り付けるための1個以上の取付部221と、骨102(上顎骨における歯列)の表面形状に応じた形状の接合面222とを有する。取付部221の形状は、例えば、筒状である。取付部221には、磁気センサ301-2の先端部(磁気検出デバイス)が挿入可能である。磁気センサ301-2が取付部221に挿入されることによって、磁気センサ301-2が骨102の近傍に設置されるので、磁気センサ301-2の位置は、骨102の位置を精度よく表す。
 取付部221-1と取付部221-2と取付部221-3とのうち、取付部221-1の位置は、一例として、骨102の歯列に接合面222が接合した際に患者の正中線又はその近くを通る位置である。磁気センサ301-2は、取付部221-1と取付部221-2と取付部221-3とのいずれに取り付けられてもよい。
 マウスピース型の治具220が骨102と下顎骨(不図示)に接合することによって、骨102と下顎骨(不図示)とが一体となる。すなわち、患者の下顎骨の位置は、術者が動かす骨102(上顎骨)の位置に追随する。移動中に上顎骨と下顎骨がずれないので、より簡易にナビゲーションが実行される。
 次に、手術中における磁気センサ301(治具)の取り付け位置のナビゲーションについて、更に詳細に説明する。
 図8は、第1実施形態における、取り付け位置を示すナビゲーション画像の例を示す図である。手術中に、表示部66は、磁気センサ301-1(治具210)の目標取付位置及び目標取付姿勢に対する磁気センサ301-1の相対位置及び相対姿勢を表すナビゲーション画像を、所定のフレームレートでリアルタイムに表示する。図8には、手術中の第1時刻におけるナビゲーション画像の例が示されている。
 図8に例示されたナビゲーション画像は、頭蓋骨モデル111の画像と、上顎骨モデル112の画像と、治具画像213と、治具画像223と、取り付け位置10に配置された座標軸画像14と、取り付け位置11に配置された座標軸画像15と、座標軸画像16と、線画像17と、表示領域18とを含む。
 治具画像213は、治具210の3次元モデルの画像である。治具画像223は、治具220の3次元モデルの画像である。取り付け位置10は、磁気センサ301-2の取り付け位置(原点)である。取り付け位置11は、磁気センサ301-1(治具210)の目標取付位置である。
 座標軸画像14は、互いに直交する3本の線分(X軸、Y軸及びZ軸)で表現される。座標軸画像14の原点は、治具220に取り付けられた磁気センサ301-2の位置(取り付け位置10)を表す。座標軸画像14の姿勢は、治具220の取付部221に取り付けられた磁気センサ301-2の姿勢を表す。
 座標軸画像15は、互いに直交する3本の線分(X軸、Y軸及びZ軸)で表現される。座標軸画像15の原点は、磁気センサ301-1の目標取付位置(取り付け位置11)を表す。座標軸画像15の姿勢は、磁気センサ301-1の目標取付姿勢を表す。
 座標軸画像16は、互いに直交する3本の線分(X軸、Y軸及びZ軸)で表現される。座標軸画像16の原点は、取り付け位置11(目標取付位置)に対する、治具210に取り付けられた磁気センサ301-1の相対位置を表す。座標軸画像16の姿勢は、治具210の取付部211に取り付けられた磁気センサ301-1の姿勢を表す。
 線画像17は、目標取付位置と磁気センサ301-1の相対位置とを結ぶ線である。線画像17の長さは、目標取付位置と磁気センサ301-1の相対位置との間の差(距離)を表す。
 座標軸画像14のX軸の色と座標軸画像15のX軸の色と座標軸画像16のX軸の色とは、同色(例えば、赤)である。座標軸画像14のY軸の色と座標軸画像15のY軸の色と座標軸画像16のY軸の色とは、同色(例えば、青)である。座標軸画像14のZ軸の色と座標軸画像15のZ軸の色と座標軸画像16のZ軸の色とは、同色(例えば、緑)である。また、座標軸画像15の原点(目標取付位置)と座標軸画像16の原点(現時刻の磁気センサ301-1の相対位置)とを結ぶ線画像17の色は、一例として紫である。
 表示領域18は、数値情報と、文字情報とのうちの少なくとも一方が表示される領域である。表示領域18に表示される数値情報は、目標取付位置と磁気センサ301-1の相対位置との差を表す。また、表示領域18に表示される文字情報は、目標取付位置と磁気センサ301-1の相対位置との差を少なくする移動方向を表す。
 術者は、磁気センサ301-1を治具210の取付部211に装着する。また、術者は、磁気センサ301-2を治具220の取付部221-1に装着する。術者は、治具220を骨102に接合させる。術者は、表示部66にリアルタイムに表示されたナビゲーション画像を確認しながら、表示部66の画面上で座標軸画像15と座標軸画像16とが重なるように、実際の治具210を移動及び回転させる。
 図9は、第1実施形態における、取り付け位置を示すナビゲーション画像の例を示す図である。図9には、第1時刻よりも後の第2時刻におけるナビゲーション画像の例が示されている。第2時刻では、術者によって治具210が移動及び回転された結果、座標軸画像15と座標軸画像16とが、ほぼ重なっている。この場合、治具210の相対位置と目標取付位置とは、ほぼ一致する。また、治具210の相対姿勢と目標取付姿勢とは、ほぼ一致する。
 図10は、第1実施形態における、磁気センサ301の取り付け例を示す図である。図10では、治具210は、治具210の接合面212が骨101(頭蓋骨の梨状口縁)に接合した状態で、小型ネジ等を用いて、骨101に一時的に固定される。また、治具220は、治具220の接合面222が骨102の歯列に接合した状態で、骨102に一時的に固定される。
 ここで、骨101に接合された状態の治具210における取付部211の向き(所定の向き)と、骨102に接合された状態の治具220における各取付部221の向き(所定の向き)とは同じである。これによって、各磁気センサ301の方向(各骨の姿勢の初期値)のキャリブレーションを省略することが可能である。
 次に、手術中における骨の位置のナビゲーションについて、更に詳細に説明する。
 図11は、第1実施形態における、骨の相対位置等を示すナビゲーション画像の例を示す図である。表示部66は、情報生成部65によって生成されたナビゲーション画像を、所定のフレームレート(例えば、40fps)で表示する。ナビゲーション画像において、骨101の形状は、頭蓋骨モデル111の画像を用いて表される。また、骨102の形状は、上顎骨モデル112の画像を用いて表される。
 図11に例示されたナビゲーション画像は、頭蓋骨モデル111の画像と、上顎骨モデル112の画像と、表示領域401と、座標軸画像402と、座標軸画像403と、線画像404とを含む。表示領域401は、数値情報と、文字情報とのうちの少なくとも一方が表示される領域である。表示領域401に表示される数値情報は、骨102の目標相対位置と骨102の相対位置との差を表す。また、表示領域401に表示される文字情報は、骨102の目標相対位置と骨102の相対位置との差を少なくする移動方向を表す。
 座標軸画像402は、互いに直交する3本の線分(X軸、Y軸及びZ軸)で表現される。座標軸画像402の原点は、骨102の目標相対位置を表す。座標軸画像402の姿勢は、骨102の目標相対姿勢を表す。
 座標軸画像403は、互いに直交する3本の線分(X軸、Y軸及びZ軸)で表現される。座標軸画像403の原点は、骨102の目標相対位置に対する骨102の相対位置を表す。座標軸画像403の姿勢は、骨102の相対姿勢を表す。
 差を表す数値情報は、例えば、ミリメートル単位で距離を表す数値である。移動方向を表す文字情報は、例えば、「Left」及び「Down」等の文字列である。術者は、ナビゲーション画像を確認しながら、数値情報の値が小さくなるように、文字情報が表す移動方向に、骨102を移動させてもよい。また、目標相対位置から相対位置までの距離(近接度)と文字情報「Proximity」とが表示されてもよい。また、差を表す数値情報は、座標軸画像402の姿勢と座標軸画像403の姿勢との差分(軸ごとの一致率)でもよい。座標軸画像402の姿勢と座標軸画像403の姿勢とが一致することは、骨102の目標相対姿勢と骨102の相対姿勢とが一致することを表す。
 座標軸画像402のX軸の色と座標軸画像403のX軸の色とは、同色(例えば、赤)である。座標軸画像402のY軸の色と座標軸画像403のY軸の色とは、同色(例えば、青)である。座標軸画像402のZ軸の色と座標軸画像403のZ軸の色とは、同色(例えば、緑)である。また、座標軸画像402の原点(目標相対位置)と座標軸画像403の原点(現時刻の骨102の相対位置)とを結ぶ線画像404の色は、一例として紫である。線画像404の長さは、目標相対位置と骨102(上顎骨モデル112)の相対位置との間の差(距離)を表す。
 図12は、第1実施形態における、骨の位置等を示すナビゲーション画像の例を示す図である。手術中において、術者は、所定のフレームレートで表示部66にリアルタイムに表示されたナビゲーション画像を確認しながら、座標軸画像402と座標軸画像403とが重なるように、骨102を移動及び回転させる。
 図12に示された左側の図(ナビゲーション画像の一部)は、手術中の第3時刻における、骨101(頭蓋骨モデル111)の位置及び姿勢と、骨102(上顎骨モデル112)の位置及び姿勢とを表す。図12に示された右側の図(ナビゲーション画像の一部)は、第3時刻よりも後の第4時刻における、骨101(頭蓋骨モデル111)の位置及び姿勢と、骨102(上顎骨モデル112)の位置及び姿勢とを表す。図12に示された右側の図では、術者によって骨102が移動及び回転された結果、座標軸画像402と座標軸画像403とが、ほぼ重なっている。このような場合、骨101の位置及び姿勢に対する骨102の相対位置及び相対姿勢は、術前プランニングにおいて予め定められた目標相対位置及び目標相対姿勢に近い。
 骨101の目標取付位置に取り付けられた治具210の取付部211の向きと、骨101に再接合された骨102に取り付けられた治具220の取付部221の向きとは、同じである。この場合、取付部221に挿入された磁気センサ301-2の姿勢と、取付部211に挿入された磁気センサ301-1の姿勢とは、同じ姿勢(傾斜)となる。これによって、座標軸画像402と座標軸画像403との相対的な位置関係が直観的に分かり易く表示されるので、ナビゲーション手術が極めて容易になる。
 また、座標軸画像402及び座標軸画像403のそれぞれが3次元座標軸で表現されているので、ナビゲーション画像における座標軸画像402及び座標軸画像403の一致を術者が確認することによって、骨102の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢に正確に一致しているか否かを、術者は直観的に判断することができる。また、良好な咬合と審美性のある顔貌とを患者が獲得することができる。
 以下、第1のセンサ(磁気センサ301-1)の目標取付位置に対する第1のセンサの相対位置を「第1の相対位置」という。以下、第1のセンサ(磁気センサ301-1)の目標取付姿勢に対する第1のセンサの相対姿勢を「第1の相対姿勢」という。
 次に、手術中において骨に磁気センサが取り付けられる際のナビゲーション装置6の動作例を説明する。
 図13は、第1実施形態における、ナビゲーション装置6の第1動作例(骨に磁気センサが取り付けられる際の動作例)を示すフローチャートである。取得部63は、磁気センサ301-2の位置及び姿勢に対する磁気センサ301-1の目標取付位置及び目標取付姿勢の情報を、計画装置2又は記憶装置3から取得する(ステップS101)。取得部63は、磁気センサ301-1の信号に基づいて検出された磁気センサ301-1の位置及び姿勢の情報を、検出装置5から取得する(ステップS102)。
 導出部64は、磁気センサ301-1の目標取付位置及び目標取付姿勢と、磁気センサ301-1の位置及び姿勢とに基づいて、磁気センサ301-1の第1の相対位置及び第1の相対姿勢を導出する(ステップS103)。
 情報生成部65は、磁気センサ301-1の目標取付位置及び目標取付姿勢を表す3次元座標軸の画像(座標軸画像15)を生成する。情報生成部65は、磁気センサ301-1の第1の相対位置及び第1の相対姿勢を表す3次元座標軸の画像(座標軸画像16)を生成する。情報生成部65は、治具画像213と、頭蓋骨モデル111の画像と、上顎骨モデル112の画像とを生成してもよい(ステップS104)。表示部66は、座標軸画像15及び座標軸画像16を表示する。表示部66は、治具画像213と、頭蓋骨モデル111の画像と、上顎骨モデル112の画像とを表示してもよい(ステップS105)。
 情報生成部65は、ナビゲーション動作を終了するか否かを判定する。例えば、手術が終了した場合、情報生成部65は、ナビゲーション動作を終了すると判定する(ステップS106)。ナビゲーション動作を継続すると判定された場合(ステップS106:NO)、情報生成部65は、ステップS102に処理を戻す。ナビゲーション動作を終了すると判定された場合(ステップS106:YES)、情報生成部65は、ナビゲーション動作を終了する。
 次に、手術中において骨が相対移動及び相対回転される際のナビゲーション装置6の動作例を説明する。
 図14は、第1実施形態における、ナビゲーション装置6の第2動作例(骨が相対移動及び相対回転される際の動作例)を示すフローチャートである。取得部63は、骨101(第1の骨)の形状の情報と、骨102(第2の骨)の形状の情報とを、通信部61又は記憶部62から取得する(ステップS201)。取得部63は、骨102に対して予め定められた移動量及び回転量の情報を、通信部61又は記憶部62から取得する(ステップS202)。
 手術中において、骨に磁気センサ301が取り付けられた後、通信部61及び記憶部62は、骨101の位置及び姿勢の情報を、所定周期で通信部54から取得する。取得部63は、骨101の位置及び姿勢の情報を、通信部61又は記憶部62から所定周期で取得する(ステップS203)。通信部61は、骨102の位置及び姿勢の情報を、所定周期で通信部54から取得する。取得部63は、骨102の位置及び姿勢の情報を、通信部61又は記憶部62から所定周期で取得する(ステップS204)。
 導出部64は、骨101の位置及び姿勢の情報と骨102の位置及び姿勢の情報とに基づいて、骨101の位置及び姿勢に対する骨102の相対位置及び相対姿勢を導出する(ステップS205)。導出部64は、骨102の相対位置及び相対姿勢の初期値に対して予め定められた移動量及び回転量と、骨102の相対位置及び相対姿勢とに基づいて、骨101の位置及び姿勢に対する骨102の目標相対位置及び目標相対姿勢を導出する(ステップS206)。
 情報生成部65は、骨101の位置に対する骨102の目標相対位置及び目標相対姿勢に基づいて、骨102の目標相対位置及び目標相対姿勢を表す座標軸画像402(3次元座標軸の画像)を含む所定の情報を生成する。表示部66は、骨101の位置及び姿勢に応じた骨101の外観を表す頭蓋骨モデル111の画像と、座標軸画像402とを含む所定の情報を、リアルタイムに表示する(ステップS207)。
 情報生成部65は、骨101の位置に対する骨102の相対位置及び相対姿勢に基づいて、骨102の相対位置及び相対姿勢を表す座標軸画像403(3次元座標軸の画像)を含む所定の情報を生成する。表示部66は、骨102の相対位置及び相対姿勢に応じた骨102の外観を表す上顎骨モデル112の画像と、座標軸画像403とを含む所定の情報を、リアルタイムに表示する(ステップS208)。
 情報生成部65は、ナビゲーション動作を終了するか否かを判定する。例えば、手術が終了した場合、情報生成部65は、ナビゲーション動作を終了すると判定する(ステップS209)。ナビゲーション動作を継続すると判定された場合(ステップS209:NO)、情報生成部65は、ステップS203に処理を戻す。ナビゲーション動作を終了すると判定された場合(ステップS209:YES)、情報生成部65は、ナビゲーション動作を終了する。
 以上のように、検出部53は、骨101(例えば、頭蓋骨)の表面に応じた形状の面を有する接合面212を有する治具210に対して予め定められた第1の向きで取付部211に挿入された磁気センサ301-1(第1のセンサ)の信号に基づいて、磁気センサ301-1の位置及び姿勢を検出する。また、検出部53は、骨102(例えば、上顎骨)の表面に応じた形状の面を有する接合面222を有する治具220に対して予め定められた第2の向きで取付部221に挿入された磁気センサ301-2(第2のセンサ)の信号に基づいて、磁気センサ301-2の位置及び姿勢を検出する。
 取得部63は、磁気センサ301-1の信号に基づいて検出された磁気センサ301-1の位置及び姿勢の情報を、検出装置5から取得する。取得部63は、磁気センサ301-2の位置及び姿勢に対する磁気センサ301-1の目標取付位置及び目標取付姿勢の情報を、計画装置2又は記憶装置3から取得する。
 導出部64は、目標取付位置及び目標取付姿勢と磁気センサ301-1の位置及び姿勢とに基づいて、第1の相対位置及び第1の相対姿勢を導出する。情報生成部65は、磁気センサ301-1の目標取付位置及び目標取付姿勢を表す3次元座標軸の画像(座標軸画像15)を生成する。情報生成部65は、磁気センサ301-1の第1の相対位置及び第1の相対姿勢を表す3次元座標軸の画像(座標軸画像16)を生成する。表示部66は、図8及び図9に例示されているように、座標軸画像15及び座標軸画像16を表示する。
 このように、頭蓋骨モデル111における磁気センサ301-1の目標取付位置及び目標取付姿勢を表す座標軸画像15と、座標軸画像16とを、術者が見ながら、実際の骨101における目標取付位置に目標取付姿勢の磁気センサ301-1を正確に取り付ける。これによって、骨102の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢となるように、術者が骨102を正確に移動及び回転させることを支援することが可能である。
 情報生成部65は、目標取付位置と第1の相対位置との差を表す数値情報を生成してもよい。表示部66は、図8及び図9に例示されているように、数値情報を表示してもよい。情報生成部65は、目標取付位置と第1の相対位置との差を少なくする移動方向を表す文字情報を生成してもよい。表示部66は、図8及び図9に例示されているように、文字情報を表示してもよい。情報生成部65は、目標取付位置と第1の相対位置とを結ぶ線の画像を生成してもよい。表示部66は、図8及び図9に例示されているように、線画像17を表示してもよい。
 以下、第1の骨(骨101)の位置に対する第2の骨(骨102)の相対位置を「第2の相対位置」という。以下、第1の骨の姿勢に対する第2の骨の相対姿勢を「第2の相対姿勢」という。
 取得部63は、骨101(例えば、頭蓋骨)に取り付けられた磁気センサ301-1の信号に基づいて検出された骨101の位置及び姿勢の情報を、検出装置5から取得する。取得部63は、骨102(例えば、上顎骨)に取り付けられた磁気センサ301-2の信号に基づいて検出された骨102の位置及び姿勢の情報を、検出装置5から取得する。
 導出部64は、骨101の位置及び姿勢の情報と骨102の位置及び姿勢の情報とに基づいて、骨101の位置に対する骨102の第2の相対位置及び第2の相対姿勢を導出する。導出部64は、第2の相対位置の初期値に対して予め定められた移動量と第2の相対姿勢の初期値に対して予め定められた回転量とに基づいて、骨101の位置及び姿勢に対する骨102の目標相対位置及び目標相対姿勢を導出する。
 情報生成部65は、目標相対位置及び目標相対姿勢を表す3次元座標軸の画像(座標軸画像402)を生成する。情報生成部65は、第2の相対位置及び第2の相対姿勢を表す3次元座標軸の画像(座標軸画像403)を生成する。表示部66は、図11及び図12に例示されているように、座標軸画像402及び座標軸画像403を表示する。
 これによって、骨102の移動状況及び回転状況が術者に示されるので、予め定められた目標相対位置及び目標相対姿勢となるように術者が骨102を正確に移動及び回転させることを支援することが可能である。
 (第2実施形態)
 第2実施形態では、下顎骨から切り離された下顎骨近位骨片にも磁気センサ(治具)が取り付けられる点が、第1実施形態との差分である。第2実施形態では第1実施形態との差分を中心に説明する。
 <手術前>
 図15は、第2実施形態における、各磁気センサ301の取り付け位置の指定の第1例を示す図である。表示部23の画面上で上顎骨モデル112が頭蓋骨モデル111から切り離される前の状態について、磁気センサ301の取り付け位置が示されている。下顎骨モデル113は、患者の下顎骨の3次元モデルである。
 図15では、術前プランニングにおいて、図1に例示された治具220は、上顎骨モデル112の歯列と下顎骨モデル113の歯列とに挟まれて、それらの両方に接合している。取り付け位置10は、実際の骨102に取り付けられる磁気センサ301-2(治具220)の取り付け位置を表す。取り付け位置11は、実際の骨101に取り付けられる磁気センサ301-1の目標取付位置を表す。取り付け位置12と取り付け位置13とは、実際の下顎骨に取り付けられる各磁気センサ301の目標取付位置を表す。取り付け位置10を原点として、取り付け位置11と、取り付け位置12と、取り付け位置13とが表現される。
 <手術中>
 図16は、第2実施形態における、骨103(下顎骨)の切断例を示す図である。手術中において、術者は、一時的に各磁気センサ301を各骨から外す。術者は、骨102を骨101から切り離し、骨103を切断する。
 図17は、第2実施形態における、骨103の切断後の各磁気センサ301の取り付け位置の例を示す図である。骨102が骨101から切り離されて、骨102が骨101に再接合された状態について、磁気センサ301の取り付け位置が示されている。
 図17では、骨103(下顎骨)が、骨103-1と、骨103-2(下顎骨近位骨片)と、骨103-3(下顎骨近位骨片)とに切断される。上顎骨モデル112及び下顎骨モデル113-1には、第1の磁気センサ301の取り付け位置10が、計画者によって定められる。頭蓋骨モデル111には、第2の磁気センサ301の取り付け位置11が、計画者によって定められる。下顎骨モデル113-2には、第3の磁気センサ301の取り付け位置12が、計画者によって定められる。下顎骨モデル113-3には、第4の磁気センサ301の取り付け位置13が、計画者によって定められる。取り付け位置10を原点として、取り付け位置11と、取り付け位置12と、取り付け位置13とが表現される。
 これによって、例えば骨103の下顎骨近位骨片についても、骨103の相対位置及び相対姿勢が目標相対位置及び目標相対姿勢となるように術者が骨103を正確に移動及び回転させることを支援することが可能である。
 第2実施形態は、複数の骨の位置合わせが行われる手術(例えば癌による顎骨壊死等で骨を失った患者に人工骨を再建する手術等)に好適である。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 例えば、センサの個数は、特定の個数に制限されない。例えば、3個以上のセンサを用いてナビゲーションが実行されることで、術者は骨の相対位置及び相対姿勢をより精度よく合わせることができる。
 また、各実施形態におけるナビゲーション手術は、各骨の相対位置及び相対姿勢の正確な整合が求められる手術であれば、特定の分野の手術に制限されない。例えば、ナビゲーション手術は、上顎骨と下顎骨との間の顎矯正手術におけるナビゲーション手術でもよい。ここで、上顎骨の治具(マウスピース)と下顎骨の治具(マウスピース)とのそれぞれが作成されてもよい。各治具には、センサが取り付けられてもよい。
 本発明は、手術支援システムに適用可能である。
 1…ナビゲーションシステム、2…計画装置、3…記憶装置、4…通信回線、5…検出装置、6…ナビゲーション装置、10…取り付け位置、11…取り付け位置、12…取り付け位置、13…取り付け位置、14…座標軸画像、15…座標軸画像、16…座標軸画像、17…線画像、18…表示領域、21…移動処理部、22…回転処理部、23…表示部、51…磁界生成部、52…取得部、53…検出部、54…通信部、61…通信部、62…記憶部、63…取得部、64…導出部、65…情報生成部、66…表示部、101…骨、102…骨、103…骨、111…頭蓋骨モデル、112…上顎骨モデル、113…下顎骨モデル、210…治具、211…取付部、212…接合面、213…治具画像、220…治具、221…取付部、222…接合面、223…治具画像、301…磁気センサ、401…表示領域、402…座標軸画像、403…座標軸画像、404…線画像

Claims (13)

  1.  第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1のセンサの位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2のセンサの位置及び姿勢に対する前記第1のセンサの目標取付位置及び目標取付姿勢の情報とを取得する取得部と、
     前記目標取付位置及び前記目標取付姿勢と前記第1のセンサの位置及び姿勢とに基づいて、前記目標取付位置及び前記目標取付姿勢に対する前記第1のセンサの第1の相対位置及び第1の相対姿勢を導出する導出部と、
     前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを生成する情報生成部と、
     前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを表示する表示部と
     を備えるナビゲーションシステム。
  2.  前記第2の治具は、歯列スプリントである、
     請求項1に記載のナビゲーションシステム。
  3.  前記情報生成部は、前記目標取付位置と前記第1の相対位置との差を表す数値情報を生成し、
     前記表示部は、更に、前記数値情報を表示する、
     請求項1に記載のナビゲーションシステム。
  4.  前記情報生成部は、前記目標取付位置と前記第1の相対位置との差を少なくする移動方向を表す文字情報を生成し、
     前記表示部は、更に、前記文字情報を表示する、
     請求項1に記載のナビゲーションシステム。
  5.  前記情報生成部は、前記目標取付位置と前記第1の相対位置とを結ぶ線の画像を生成し、
     前記表示部は、更に、前記線の画像を表示する、
     請求項1に記載のナビゲーションシステム。
  6.  前記センサは、磁気センサである、
     請求項1に記載のナビゲーションシステム。
  7.  前記第1の骨は、頭蓋骨であり、
     前記第2の骨は、上顎骨である、
     請求項1に記載のナビゲーションシステム。
  8.  前記取得部は、前記第1の骨に取り付けられた前記第1のセンサの信号に基づいて検出された前記第1の骨の位置及び姿勢の情報と、前記第2の骨に取り付けられた前記第2のセンサの信号に基づいて検出された前記第2の骨の位置及び姿勢の情報とを取得し、
     前記導出部は、前記第1の骨の位置及び姿勢の情報と前記第2の骨の位置及び姿勢の情報とに基づいて、前記第1の骨の位置に対する前記第2の骨の第2の相対位置及び第2の相対姿勢を導出し、前記第2の相対位置の初期値に対して予め定められた移動量と前記第2の相対姿勢の初期値に対して予め定められた回転量とに基づいて、前記第1の骨の位置及び姿勢に対する前記第2の骨の目標相対位置及び目標相対姿勢を導出し、
     前記情報生成部は、前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記第2の相対位置及び前記第2の相対姿勢を表す3次元座標軸の画像とを生成し、
     前記表示部は、前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記第2の相対位置及び前記第2の相対姿勢を表す3次元座標軸の画像とを表示する、
     請求項1に記載のナビゲーションシステム。
  9.  第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1の骨の位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2の骨の位置及び姿勢の情報とを取得する取得部と、
     前記第1の骨の位置及び姿勢の情報と前記第2の骨の位置及び姿勢の情報とに基づいて、前記第1の骨の位置に対する前記第2の骨の相対位置及び相対姿勢を導出し、前記相対位置の初期値に対して予め定められた移動量と、前記相対姿勢の初期値に対して予め定められた回転量とに基づいて、前記第1の骨の位置及び姿勢に対する前記第2の骨の目標相対位置及び目標相対姿勢を導出する導出部と、
     前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを生成する情報生成部と、
     前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを表示する表示部と
     を備えるナビゲーションシステム。
  10.  予め定められた向きでセンサが挿入される取付部と、
     接合される骨の表面に応じた形状の面と
     を有する治具。
  11.  第1の前記治具は、第1の前記治具に対して予め定められた第1の向きで第1の前記センサが挿入される第1の前記取付部と、第1の前記骨の表面に応じた形状の第1の前記面とを有し、
     第2の前記治具は、第2の前記治具に対して予め定められた第2の向きで第2の前記センサが挿入される第2の前記取付部と、第2の前記骨の表面に応じた形状の第2の前記面とを有し、
     第1の前記骨に接合された状態の第1の前記治具における第1の前記取付部に挿入された第1の前記センサの向きと、第2の前記骨に接合された状態の第2の前記治具における第2の前記取付部に挿入された第2の前記センサの向きとは同じ向きである、
     請求項10に記載の治具。
  12.  コンピュータに、
     第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1のセンサの位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2のセンサの位置及び姿勢に対する前記第1のセンサの目標取付位置及び目標取付姿勢の情報とを取得する手順と、
     前記目標取付位置及び前記目標取付姿勢と前記第1のセンサの位置及び姿勢とに基づいて、前記目標取付位置及び前記目標取付姿勢に対する前記第1のセンサの第1の相対位置及び第1の相対姿勢を導出する手順と、
     前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを生成する手順と、
     前記目標取付位置及び前記目標取付姿勢を表す3次元座標軸の画像と、前記第1の相対位置及び前記第1の相対姿勢を表す3次元座標軸の画像とを表示する手順と
     を実行させるためのプログラム。
  13.  コンピュータに、
     第1の骨の表面に応じた形状の面を有する第1の治具に対して予め定められた第1の向きで前記第1の治具の取付部に挿入された第1のセンサの信号に基づいて検出された前記第1の骨の位置及び姿勢の情報と、第2の骨の表面に応じた形状の面を有する第2の治具に対して予め定められた第2の向きで前記第2の治具の取付部に挿入された第2のセンサの信号に基づいて検出された前記第2の骨の位置及び姿勢の情報とを取得する手順と、
     前記第1の骨の位置及び姿勢の情報と前記第2の骨の位置及び姿勢の情報とに基づいて、前記第1の骨の位置に対する前記第2の骨の相対位置及び相対姿勢を導出し、前記相対位置の初期値に対して予め定められた移動量と、前記相対姿勢の初期値に対して予め定められた回転量とに基づいて、前記第1の骨の位置及び姿勢に対する前記第2の骨の目標相対位置及び目標相対姿勢を導出する手順と、
     前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを生成する手順と、
     前記目標相対位置及び前記目標相対姿勢を表す3次元座標軸の画像と、前記相対位置及び前記相対姿勢を表す3次元座標軸の画像とを表示する手順と
     を実行させるためのプログラム。
PCT/JP2022/040624 2022-10-31 2022-10-31 ナビゲーションシステム、治具及びプログラム WO2024095310A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/040624 WO2024095310A1 (ja) 2022-10-31 2022-10-31 ナビゲーションシステム、治具及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/040624 WO2024095310A1 (ja) 2022-10-31 2022-10-31 ナビゲーションシステム、治具及びプログラム

Publications (1)

Publication Number Publication Date
WO2024095310A1 true WO2024095310A1 (ja) 2024-05-10

Family

ID=90929959

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040624 WO2024095310A1 (ja) 2022-10-31 2022-10-31 ナビゲーションシステム、治具及びプログラム

Country Status (1)

Country Link
WO (1) WO2024095310A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526065A (ja) * 2004-03-05 2007-09-13 デピュー インターナショナル リミテッド 植え込み可能なマーカ、器具、および、方法
US20090220122A1 (en) * 2005-11-11 2009-09-03 Ortho-Pro-Teknica Limited Tracking system for orthognathic surgery
US20140186793A1 (en) * 2012-06-26 2014-07-03 Loma Linda University Device, system and methods for determining and measuring temporomandibular joint positions and movements
JP2015517327A (ja) * 2012-05-03 2015-06-22 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. 整形外科手術計画用の特徴ドリブンルールベースのフレームワーク
JP2019528144A (ja) * 2016-08-19 2019-10-10 ザ・メソジスト・ホスピタル・システムThe Methodist Hospital System コンピュータ支援の下顎矯正手術計画のためのシステム及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526065A (ja) * 2004-03-05 2007-09-13 デピュー インターナショナル リミテッド 植え込み可能なマーカ、器具、および、方法
US20090220122A1 (en) * 2005-11-11 2009-09-03 Ortho-Pro-Teknica Limited Tracking system for orthognathic surgery
JP2015517327A (ja) * 2012-05-03 2015-06-22 シーメンス プロダクト ライフサイクル マネージメント ソフトウェアー インコーポレイテッドSiemens Product Lifecycle Management Software Inc. 整形外科手術計画用の特徴ドリブンルールベースのフレームワーク
US20140186793A1 (en) * 2012-06-26 2014-07-03 Loma Linda University Device, system and methods for determining and measuring temporomandibular joint positions and movements
JP2019528144A (ja) * 2016-08-19 2019-10-10 ザ・メソジスト・ホスピタル・システムThe Methodist Hospital System コンピュータ支援の下顎矯正手術計画のためのシステム及び方法

Similar Documents

Publication Publication Date Title
TWI731408B (zh) 植牙系統及其導航方法
EP3125759B1 (en) Computer aided surgical navigation and planning in implantology
CN1194324C (zh) 三维图像显示装置及显示方法
US20140199650A1 (en) Dental implantation system and method using magnetic sensors
DK3062726T3 (en) NAVIGATION SYSTEM AND PROCEDURE FOR DENTAL SURGERY AND CRANIO-MAXILLO-FACIAL SURGERY
BR112020026114B1 (pt) Método e sistema que utilizam visualização aumentada
CN107613896A (zh) 用于使用物理对象来操控虚拟环境中的相应虚拟对象的方法以及相关联装置和计算机程序产品
KR102162927B1 (ko) 프로브 트레이스 무기점 트래킹을 제공하는 시스템
JP2019528144A (ja) コンピュータ支援の下顎矯正手術計画のためのシステム及び方法
KR102568558B1 (ko) 턱의 경조직의 움직임들을 추적하는 추적 피스들
ES2891857T3 (es) Sistema robótico quirúrgico para una planificación quirúrgica y una preparación de implantes integradas
EP3524139B1 (en) Mobile apparatus-linked implant evaluation system
JP2010259497A (ja) 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
US11633264B2 (en) Determining and tracking movement
US20190343598A1 (en) Controlling an orientation of a tool in relation to a work part
US20230355367A1 (en) Method for dynamically guiding a dental oral and maxillofacial prosthesis using a 3d dataset
JP2018516708A (ja) 顎顔面矯正手術画像校正デザインシステム及びその方法
KR20100092753A (ko) 악교정시 수술용 웨이퍼 제작방법
US20230320823A1 (en) Determining and tracking movement
Kalra et al. Evolution of surgical guidance in implant dentistry
Gao et al. An electromagnetic tracking implantation navigation system in dentistry with virtual calibration
Tsuji et al. A new navigation system based on cephalograms and dental casts for oral and maxillofacial surgery
Yeshwante et al. Mastering dental implant placement: A review
US8753119B2 (en) Mounting method of dental cast
WO2024095310A1 (ja) ナビゲーションシステム、治具及びプログラム