WO2017056775A1 - プロジェクションマッピング装置 - Google Patents

プロジェクションマッピング装置 Download PDF

Info

Publication number
WO2017056775A1
WO2017056775A1 PCT/JP2016/074250 JP2016074250W WO2017056775A1 WO 2017056775 A1 WO2017056775 A1 WO 2017056775A1 JP 2016074250 W JP2016074250 W JP 2016074250W WO 2017056775 A1 WO2017056775 A1 WO 2017056775A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
image
tip position
patient
subject
Prior art date
Application number
PCT/JP2016/074250
Other languages
English (en)
French (fr)
Inventor
善工 古田
智行 河合
智紀 増田
潤也 北川
新貝 安浩
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to CN201680054781.XA priority Critical patent/CN108024832A/zh
Priority to JP2017543008A priority patent/JP6413026B2/ja
Publication of WO2017056775A1 publication Critical patent/WO2017056775A1/ja
Priority to US15/928,651 priority patent/US11026763B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00137Details of operation mode
    • A61B2017/00154Details of operation mode pulsed
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/309Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/42Arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4283Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by a detector unit being housed in a cassette

Definitions

  • the present invention relates to a projection mapping apparatus that projects an image onto a subject into which a medical device is inserted.
  • Patent Document 1 a technique for projecting images of organs, muscles, bones, joints, blood vessels, and the like onto a patient using a projector device is known.
  • a patient wearing a thermal marker is imaged with an infrared camera, the infrared image obtained by the imaging is analyzed to estimate the position and posture of the patient (subject), and the patient is based on the estimation result.
  • a projection system for projecting in-vivo information (such as an organ) according to the position and posture of a patient is disclosed.
  • Patent Document 2 spatial coordinates of a medical instrument (surgical instrument) inserted into a patient's body are detected, and a geometric pattern relating to the position and orientation of the medical instrument is determined based on the detection result of the spatial coordinates.
  • An apparatus for projecting onto a patient is disclosed.
  • the position of the geometric pattern projected onto the patient indicates the position (two-dimensional position) of the medical device in the patient's body, and the color of the geometric pattern indicates the medical treatment in the patient's body. Indicates the depth position of the device.
  • the present invention has been made in view of such circumstances, and is a projection mapping capable of projecting a projection image showing the tip position of a medical device inserted into the subject in accordance with a change in the position and posture of the subject. Relates to the device.
  • a projection mapping apparatus for achieving the object of the present invention includes a light source that irradiates a subject with measurement light, a distance image sensor in which a plurality of light receiving elements are two-dimensionally arranged, a light source emitted from the light source, A distance image generation unit that obtains a light reception signal of measurement light reflected from the sample and incident on the distance image sensor from the distance image sensor, and generates a distance image based on the acquired light reception signal, and is inserted into the subject
  • a position information acquisition unit that acquires the tip position of a medical device, a tip position image acquisition unit that acquires a tip position image representing the tip position of the medical device in the subject, and a distance image generated by the distance image generation unit Based on the detected shape of the subject and the tip position acquired by the position information acquisition unit, the surface shape of the corresponding part of the subject corresponding to the tip position from the tip position image acquired by the tip position image acquisition unit
  • a projection image generation unit that generates a corresponding projection image, a display optical element that
  • a projection image corresponding to the surface shape of the corresponding part of the subject and representing the tip position of the medical device in the subject is generated, and the projection image is projected onto the corresponding part of the subject. can do.
  • the tip position image acquisition unit acquires a transmission image as a tip position image from a transmission image pickup device that picks up a transmission image of a corresponding part of the subject.
  • the projection image generated based on the transmitted light image can be projected onto the corresponding part of the subject, so that the doctor can confirm the transmitted light image on a separate monitor without diverting the line of sight from the subject. Without) medical devices can be inserted.
  • the projection mapping apparatus includes a tip position image generation unit that generates a tip position image based on the tip position acquired by the position information acquisition unit and a known internal structure in the subject.
  • the tip position image acquisition unit acquires the tip position image from the tip position image generation unit.
  • the position information acquisition unit acquires the tip position based on the transmission image and the known internal structure in the subject. Thereby, the accurate tip position of the medical device in the subject can be acquired from the actually captured transmitted light image.
  • the medical device is inserted along a known path in the subject, and the position information acquisition unit is the amount of insertion of the medical device into the subject. And the tip position is acquired based on the result of comparing the insertion amount with the known path. Thereby, the tip position of the medical device in the subject can be easily acquired.
  • an acceleration sensor and a gyro sensor are provided at the tip of the medical device, and the position information acquisition unit is based on outputs of the acceleration sensor and the gyro sensor. Detects the movement direction and movement amount of the tip of the medical device from the insertion position inserted into the subject, and acquires the tip position based on the detection result of the movement direction and movement amount. Thereby, even when the tip position of the medical device is freely moved within the subject, the tip position of the medical device can be reliably acquired within the subject.
  • an imaging unit is provided at the distal end of the medical device, and the insertion path of the distal end of the medical device in the subject based on the captured image captured by the imaging unit.
  • the position information acquisition unit includes an insertion position where the medical device is inserted into the subject and the insertion path information acquired by the insertion path information acquisition unit. Based on this, the tip position is obtained. Thereby, even when the tip position of the medical device is freely moved within the subject, the tip position of the medical device can be reliably acquired within the subject.
  • the switching control unit that switches the wavelength of the measurement light emitted from the light source to the subject before the generation of the distance image, and the switching of the wavelength of the measurement light by the switching control unit
  • a light source control unit that irradiates from the light source the measurement light having the highest intensity among the measurement light received by the distance image sensor for each wavelength, and the distance image generation unit has the highest intensity from the light source to the subject.
  • a distance image is generated when measurement light having a wavelength that increases is emitted.
  • the light source includes a plurality of light source units that irradiate the subject with measurement light having different wavelengths
  • the switching control unit includes the light source unit that irradiates the measurement light.
  • the switching and light source control unit irradiates the subject with the measurement light from the light source unit that emits the measurement light having the wavelength with the highest intensity.
  • the projection mapping device based on the focal length of the projection lens, the distance to the subject indicated by the distance image generated by the distance image generation unit, and the projection image generated by the projection image generation unit.
  • a projection range acquisition unit that acquires the projection range of the projection image projected on the object, and a generation range in which the distance image generation unit generates the distance image corresponding to the projection range acquired by the projection range acquisition unit
  • a distance image generation control unit This eliminates the need to generate a distance image of the entire range of the subject, thereby reducing the amount of calculation required for the distance image generation process.
  • the distance image generation unit receives light indicating distance information corresponding to the flight time of the measurement light irradiated from the light source, reflected by the subject, and incident on the distance image sensor. A signal is acquired from the distance image sensor, and a distance image is generated based on the distance information.
  • the projection image generation unit identifies the surface shape of the corresponding part based on the shape of the subject detected from the distance image and the tip position acquired by the position information acquisition unit. Then, based on the surface shape identification result, the tip position image is transformed into a shape that matches the corresponding part to generate a projection image. Thereby, a projection image corresponding to the surface shape of the corresponding part of the subject is generated.
  • the projection image generation unit is configured to display based on the distance from the projector device determined from the distance image and the tip position to the corresponding part and the focal length information of the projection lens.
  • the display position and size of the projection image displayed on the optical element are determined to be the display position and size on which the projection image is projected on the corresponding portion, and the display optical element is determined by the projection image generation unit.
  • the projected image is displayed at the position and size. Thereby, a projection image can be projected on a corresponding part.
  • the projection mapping apparatus enables a projection image indicating the tip position of a medical device inserted into a subject to be projected according to changes in the position and posture of the subject.
  • FIG. 1 is a schematic view of a surgical operation support system 10 including a projection mapping apparatus of the present invention.
  • the surgery support system 10 An image indicating the tip position is projected onto a corresponding part of the patient 9 corresponding to the tip position.
  • the corresponding part is a part where the distal end position of the catheter 12 (medical device) exists in the body of the patient 9.
  • the surgery support system 10 includes a mounting table 15 on which a patient 9 is mounted, an X-ray tube 16 disposed on the lower side of the mounting table 15, and an X-ray flat panel detector (FPD) disposed on the upper side of the mounting table 15.
  • Flat Panel Detector a transmission image generation unit 18, a feed amount sensor 19, and a projection mapping device 20 of the present invention.
  • PM apparatus the projection mapping apparatus is abbreviated as “PM apparatus” as appropriate.
  • the X-ray tube 16, the X-ray plane detector 17, and the transmission image generation unit 18 correspond to a transmission image capturing apparatus that captures a transmission image of the present invention.
  • the X-ray tube 16 emits X-rays toward the patient 9 through the mounting table 15.
  • symbol AX in a figure shows the irradiation range of X-ray
  • the X-ray flat panel detector 17 detects X-rays transmitted through the mounting table 15 and the patient 9 and outputs a detection signal to the transmission image generation unit 18.
  • the transmission image generation unit 18 generates transmission image data 22 (see FIG. 5) that is an X-ray image as a transmission image of the present invention based on the detection signal input from the X-ray flat panel detector 17, and transmits the transmission image data. 22 is output to the PM device 20. Since the X-ray tube 16, the X-ray flat panel detector 17, and the transmission image generation unit 18 are known techniques, detailed description thereof is omitted.
  • the X-ray tube 16 and the X-ray flat panel detector 17 and the mounting table 15 can be relatively moved by a relative movement mechanism (not shown). For this reason, X-ray irradiation by the X-ray tube 16 and X-rays by the X-ray flat detector 17 are performed while relatively moving the X-ray tube 16 and the X-ray flat detector 17 and the mounting table 15 (patient 9).
  • the transmission image data 22 of each part of the patient 9 is obtained by repeating the detection of the above and the generation of the transmission image data 22 (see FIG. 5) by the transmission image generation unit 18.
  • the X-ray tube 16 and the X-ray plane detection are performed according to the distal end position of the catheter 12 in the body of the patient 9 so that the transmission image data 22 of the corresponding part is always obtained during insertion of the catheter 12.
  • the device 17 and the mounting table 15 (patient 9) are moved relative to each other.
  • the relative movement by the relative movement mechanism may be performed manually by medical staff or the like, or based on the result of acquiring the distal end position of the catheter 12 in the body of the patient 9 as described later, The relative movement may be automatically performed by the relative movement mechanism.
  • the feed amount sensor 19 is a sensor that detects the feed amount of the catheter 12. Based on the detection result of the feed amount sensor 19, the insertion amount of the catheter 12 into the body of the patient 9 can be acquired. The feed amount sensor 19 outputs the detection result of the feed amount of the catheter 12 to the PM device 20.
  • the PM device 20 shows the function of generating the distance image data 23 (see FIG. 6) of the patient 9 on the mounting table 15, the tip position of the catheter 12 in the body of the patient 9, and the surface shape of the corresponding portion described above.
  • Corresponding projection image data 24 (see FIG. 6) is generated, and a projection image based on the projection image data 24 is projected onto a corresponding part of the patient 9.
  • Reference sign AT in the figure indicates a generation range in which the distance image data 23 is generated, and reference sign AP in the figure indicates a projection range (irradiation range) of the projection image.
  • FIG. 2 is a block diagram illustrating a configuration of the PM device 20 according to the first embodiment.
  • the PM device 20 includes a distance image acquisition device 20A related to the generation of the above-described distance image data 23, a projector device 20B that projects a projection image based on the projection image data 24, a control unit 26, a memory 27, and a projection.
  • An image generation unit 28 and an input I / F (interface) 29 are provided.
  • the distance image acquisition device 20A acquires a distance image of a pulsed light detection method, and includes a timing generator 31, an LED (Light Emitting Diode) light source 32, a light source driver 33, a projection lens 35, and an imaging lens. 36, a lens driver 37, a distance image sensor 38, an AD (Analog-to-Digital) converter 39 labeled "A / D" in the figure, and "I / F" in the figure. Interface circuit 40.
  • the timing generator 31 outputs timing signals to the LED light source 32 and the distance image sensor 38 under the control of the control unit 26, respectively.
  • the LED light source 32 corresponds to the light source of the present invention, and emits pulsed light having a constant pulse width in synchronization with the timing signal input from the timing generator 31.
  • This pulsed light corresponds to the measuring light of the present invention.
  • the pulsed light is near infrared light.
  • the light source driver 33 controls the driving of the LED light source 32 under the control of the control unit 26. Note that a light source other than an LED can be used as the light source of the present invention, and the measurement light of the present invention is not limited to near-infrared pulsed light.
  • the projection lens 35 irradiates the patient 9 on the mounting table 15 with the pulsed light emitted from the LED light source 32.
  • the imaging lens 36 forms an image of the pulsed light reflected by the patient 9 on the distance image sensor 38.
  • the lens driver 37 performs focus control and the like of the imaging lens 36 via a lens driving unit (not shown). In this example, since the positions of the PM device 20 and the mounting table 15 are substantially fixed, focus adjustment or the like is performed in advance according to the patient 9 on the mounting table 15.
  • the distance image sensor 38 includes a CMOS (Complementary Metal-Oxide Semiconductor) driver having a vertical driver and a horizontal driver, and a CMOS image sensor driven by the timing generator 31.
  • CMOS Complementary Metal-Oxide Semiconductor
  • the distance image sensor 38 is not limited to the CMOS type, but may be an XY address type or a CCD (Charge-Coupled Device) type image sensor.
  • the distance image sensor 38 has a plurality of light receiving elements (photodiodes) arranged in a two-dimensional manner, and a wavelength band of pulse light of near infrared light emitted from the LED light source 32 on the incident surface side of the plurality of light receiving elements.
  • a band-pass filter that passes only light or a visible light cut filter that removes visible light is provided.
  • the plurality of light receiving elements of the distance image sensor 38 function as pixels having sensitivity to pulsed light that is near infrared light.
  • the distance image sensor 38 controls the exposure period (exposure time and exposure timing) in synchronization with the emission of pulsed light from the LED light source 32 by the timing signal input from the timing generator 31. Electric charges corresponding to the amount of pulsed light incident during the exposure period are accumulated in each light receiving element of the distance image sensor 38.
  • the exposure amount increases as the distance (flight time) to the patient 9 decreases, and conversely, the exposure amount decreases as the distance (flight time) to the patient 9 increases.
  • the distance to the patient 9 can be measured according to the size of. In this example, the subject is a patient 9 and the operation support system 10 is installed in a hospital. Therefore, the difference in reflectance of the subject and the influence of external light are not considered.
  • a light reception signal (analog signal corresponding to the charge accumulated for each pixel and also referred to as a pixel signal) corresponding to the incident light amount of the pulsed light reflected by the patient 9 is read out.
  • This light reception signal indicates distance information corresponding to the flight time of the pulsed light reflected by the patient 9 and incident on the distance image sensor 38.
  • the AD converter 39 converts the received light signal read from the distance image sensor 38 into a digital signal and outputs it to the interface circuit 40.
  • CMOS image sensors include an AD converter.
  • the AD converter 39 can be omitted.
  • the interface circuit 40 functions as an image input controller, and outputs the digital signal input from the AD converter 39 to the control unit 26.
  • the distance image data 23 (see FIG. 3) is generated by the control unit 26, as will be described in detail later.
  • the projector device 20B is a so-called single-plate liquid crystal projector, and includes a display optical element (also referred to as a light modulation element) 42, an element driver 43, an LED light source 44, a light source driver 45, a projection lens 46, and a lens driver. 47.
  • a display optical element also referred to as a light modulation element
  • a transmissive liquid crystal panel having a plurality of color filters, or a color fillless element in which a dichroic mirror, a microlens array, and a monochrome transmissive liquid crystal panel are combined is used.
  • the element of the color fillless structure separates white light into RGB three-color light by three types of dichroic mirrors that reflect R (Red) light, G (Green) light, and B (Blue) light, respectively.
  • the three colors of light are incident on the microlens array on the liquid crystal panel at different angles.
  • a color image can be displayed by causing light of three colors to enter the R pixel, G pixel, and B pixel of the liquid crystal panel by the microlens array.
  • the projector device 20B is not limited to a single-plate liquid crystal projector, and may be a known three-plate liquid crystal projector including a color separation optical system and a plurality of liquid crystal panels.
  • the projector device 20B is not limited to the transmissive liquid crystal method, but may adopt other various methods such as a reflective liquid crystal display method and a reflective display method using DMD (Digital Mirror Device). Good.
  • the element driver 43 controls the display optical element 42 under the control of the control unit 26 to display the projection image data 24 generated by the projection image generation unit 28 described later.
  • the LED light source 44 corresponds to the projection light source of the present invention, and white light is emitted from the back side of the display optical element 42 (the side opposite to the side facing the projection lens 46) to the display optical element 42. (Projection light of the present invention) is incident. Thereby, the image light of the projection image based on the projection image data 24 is emitted from the display optical element 42.
  • the light source driver 45 controls the driving of the LED light source 44 under the control of the control unit 26.
  • a light source other than an LED can be used as the projection light source of the present invention.
  • the R light, B light, and G light are applied to the display optical element in a time division manner as a projection light source.
  • a light source that irradiates sequentially. That is, as the projection light of the present invention, light other than white light such as R light, B light, and G light can be used.
  • the projection lens 46 projects the image light of the projection image emitted from the display optical element 42 onto the patient 9.
  • the lens driver 47 performs focus control and the like of the projection lens 46 via a lens driving unit (not shown).
  • focus adjustment or the like is performed in advance according to the patient 9 on the mounting table 15.
  • the control unit 26 is connected to the timing generator 31, the light source driver 33, the lens driver 37, the distance image sensor 38, the interface circuit 40, the element driver 43, the light source driver 45, the lens driver 47, and the like via the data bus 49. Yes.
  • the control unit 26 includes various arithmetic units, processing units, and storage units including, for example, a CPU (Central Processing Unit), and by executing control programs and data read from the memory 27, The overall operation and processing of the PM device 20 are comprehensively controlled.
  • the control unit 26 generates and acquires data and information used for generating the projection image data 24 by the projection image generation unit 28 (see FIG. 3).
  • the memory 27 will be described later in detail, but the internal structure information 50 used for acquiring information related to the distal end position of the catheter 12 in the body of the patient 9. (Corresponding to the internal structure of the present invention) and insertion path information 51 (corresponding to a known path of the present invention) are stored (see FIG. 3).
  • the projection image generation unit 28 generates projection image data 24 that is a projection image of the present invention based on data and information input from the control unit 26 under the control of the control unit 26, as will be described in detail later.
  • the input I / F 29 is a communication interface that is wired or wirelessly connected to the transmission image generation unit 18 and the feed amount sensor 19 described above.
  • the input I / F 29 acquires the transmission image data 22 from the transmission image generation unit 18, acquires the detection result of the feed amount from the feed amount sensor 19, and transmits the transmission image data 22 and the detection result of the feed amount to the control unit. 26.
  • FIG. 3 is a functional block diagram of the control unit 26 of the first embodiment.
  • the data bus 49 is not shown.
  • the control unit 26 functions as a distance image generation unit 53, a position information acquisition unit 54, and a tip position image acquisition unit 55 by executing programs and data read from the memory 27.
  • the distance image generation unit 53 generates the distance image data 23 based on the digital signal input from the interface circuit 40 described above. As described above, since the amount of light received by each light receiving element of the distance image sensor 38 varies depending on the distance to the patient 9, the distance image data 23 is obtained for each pixel instead of the color and shading of normal two-dimensional image data. It is data having distance information from the distance image sensor 38 to the patient 9, that is, data having distance information to each point on the surface of the patient 9, and represents the distance to the patient 9 and the surface shape of the patient 9. Yes. The distance image generation unit 53 outputs the generated distance image data 23 to the projection image generation unit 28.
  • the position information acquisition unit 54 acquires the tip position of the catheter 12 inserted in the body of the patient 9.
  • the “tip position” here also includes information on the direction (orientation) of the tip.
  • the position information acquisition unit 54 of this example acquires the tip position of the catheter 12 using the transmission image data 22 acquired via the input I / F 29 and the feed amount sensor 19 acquired via the input I / F 29. It is possible to select a method for acquiring the distal end position of the catheter 12 using the detection result of the feed amount from. Note that which method to select is determined by the user operating an operation unit (not shown) or the like.
  • the position information acquisition unit 54 converts the transmission image data 22 and the internal structure information 50 stored in the memory 27 in advance. Based on this, the tip position of the catheter 12 is acquired.
  • FIG. 4 is an explanatory diagram showing an example of the internal structure information 50.
  • FIG. 5 is an explanatory diagram showing an example of the transparent image data 22.
  • the internal structure information 50 used when the catheter 12 is inserted into a blood vessel in the body of the patient 9 is information indicating the structure of the blood vessel in the body of the patient 9.
  • the internal structure information 50 can be obtained by performing an MRI (Magnetic Resonance Imaging) examination or a CT (Computed Tomography) examination on the patient 9 in advance.
  • MRI Magnetic Resonance Imaging
  • CT Computerputed Tomography
  • the transmission image data 22 of the corresponding part of the patient 9 includes an image of the distal end of the catheter 12 and an image of a blood vessel around the distal end position of the catheter 12.
  • the transmission image data 22 is an X-ray image as described above, a blood vessel image is displayed on the transmission image data 22 by administering a contrast agent that does not pass X-rays to the patient 9 in advance. be able to.
  • the position information acquisition unit 54 extracts a blood vessel image from the transmission image data 22 by a known method (for example, see Japanese Patent Application Laid-Open No. 2001-161091), and extracts the blood vessel image of the transmission image data 22.
  • the blood vessel structure of the patient 9 indicated by the internal structure information 50 is compared by a pattern matching method. Thereby, the position information acquisition unit 54 can identify the position of the blood vessel in the transmission image data 22 in the body of the patient 9.
  • the position information acquisition unit 54 can acquire the tip position of the catheter 12 inserted into the body of the patient 9 based on the blood vessel identification result and the position of the catheter 12 in the transmission image data 22.
  • the position information acquisition unit 54 stores the detection result and the memory 27 in advance. The distal end position of the catheter 12 is acquired based on the insertion path information 51 that is present.
  • the insertion path information 51 used when inserting the catheter 12 into the blood vessel in the body of the patient 9 includes the insertion position of the catheter 12 into the blood vessel and the path of the blood vessel that passes through the catheter 12 until reaching the target position. It is information which shows.
  • the insertion path information 51 is determined in advance by a doctor based on the internal structure information 50 described above and stored in the memory 27.
  • the position information acquisition unit 54 compares the detection result of the feed amount from the feed amount sensor 19 with the insertion path information 51 to determine which position of the distal end position of the catheter 12 is on the blood vessel path in the insertion path information 51. Can be identified. Since it is known where the blood vessel in the insertion path information 51 is located in the body of the patient 9, the position information acquisition unit 54 starts from the position of the distal end of the catheter 12 on the path of the blood vessel in the body of the patient 9. The tip position of the inserted catheter 12 can be acquired.
  • the position information acquisition unit 54 acquires the tip position of the catheter 12 in the body of the patient 9 by any of the methods described above, and then outputs tip position information indicating the tip position to the projection image generation unit 28.
  • the tip position image acquisition unit 55 acquires the transmission image data 22 from the transmission image generation unit 18 via the input I / F 29, and outputs the transmission image data 22 to the projection image generation unit 28. Since the transmission image data 22 is an image including an image of the distal end of the catheter 12 and an image of a blood vessel around the distal end position of the catheter 12, as shown in FIG. It is a front-end
  • the tip position image of the present invention is preferably an image that includes at least the in-vivo information of the patient 9 at the tip position [organ, muscle, bone, joint, blood vessel, etc.] or that shows in-vivo information. .
  • FIG. 6 is an explanatory diagram for explaining the generation processing of the projection image data 24 by the projection image generation unit 28 of the first embodiment.
  • the projection image generation unit 28 is the projection image data 24 projected onto the patient 9 from the transmission image data 22 input by the tip position image acquisition unit 55, and the display optical element 42 described above. Projection image data 24 to be displayed is generated.
  • the projection image generation unit 28 is a patient having the distal end position of the catheter 12 based on the distance image data 23 input from the distance image generation unit 53 and the distal end position information input from the position information acquisition unit 54.
  • the surface shape of 9 corresponding parts (parts of the patient 9 included in the dotted frame in the figure) is identified.
  • the surface shape of the corresponding part here is the surface shape of the corresponding part of the patient 9 viewed from the PM device 20 side.
  • the surface shape of the corresponding part identified by the projection image generation unit 28 changes. Thereby, the surface shape of the corresponding site according to the real-time position and posture of the patient is identified.
  • the projection image generation unit 28 generates the projection image data 24 by transforming the transmission image data 22 into a shape that matches the corresponding part of the patient 9 based on the identification result of the surface shape of the corresponding part.
  • the projection image generation unit 28 in this example extracts a region corresponding to the corresponding part of the patient 9 from the transmission image data 22 by detecting a blank region having a substantially uniform density from the transmission image data 22, and extracts the extracted region.
  • the projection image data 24 is generated by transforming the image data into a shape matching the corresponding part of the patient 9.
  • the X-ray imaging direction by the X-ray flat panel detector 17 and the imaging direction of the distance image data 23 by the PM device 20 are substantially the same, so the transmission image data 22 is converted into the projection image data 24.
  • the deformation process to be deformed is mainly an enlargement / reduction process.
  • a projective transformation process is performed in addition to the enlargement / reduction process.
  • the projection image generation unit 28 is based on the distance from the PM device 20 (projector device 20B) determined from the distance image data 23 and the tip position information to the corresponding part of the patient 9, and the focal length information of the projection lens 46.
  • the display position and size of the projection image data 24 on the display optical element 42 are determined so that the projection image based on the projection image data 24 is projected on the corresponding part of the patient 9.
  • the projection image generation unit 28 outputs the projection image data 24 to the element driver 43 described above.
  • the projection image data 24 input from the projection image generation unit 28 is displayed on the display optical element 42 by the element driver 43 at the position and size determined by the projection image generation unit 28.
  • FIG. 7 is an explanatory diagram for explaining the projection of the projection image based on the projection image data 24 onto the patient 9.
  • FIG. 8 is an explanatory diagram for explaining a state in which a projection image based on the projection image data 24 is projected onto the patient 9.
  • the projection image data 24 is displayed by the display optical element 42
  • the white light emitted from the LED light source 44 is modulated by the display optical element 42
  • the projection image based on the projection image data 24 is displayed. Is projected onto the corresponding part of the patient 9.
  • a projection image based on the projection image data 24, that is, an image indicating the tip position of the catheter 12 in the body of the patient 9 is projected onto the corresponding part of the patient 9.
  • generation of the projection image data 24 by the projection image generation unit 28 and display are performed so that the tip position of the catheter 12 in the projection image matches the tip position of the catheter 12 in the body of the actual patient 9.
  • the display position and size of the projection image data 24 on the optical element 42 may be determined.
  • FIG. 9 is an explanatory diagram for describing a modified example of the generation processing of the projection image data 24 by the projection image generation unit 28.
  • the projection image generation unit 28 compares the tip position information acquired by the position information acquisition unit 54 described above with the distance image data 23, so that the projection image generation unit 28 enters the body of the patient 9 on the distance image data 23.
  • the tip position of the inserted catheter 12 (indicated by a cross in the figure) is acquired.
  • the projection image generation unit 28 can acquire the tip position of the catheter 12 in the transmission image data 22 by extracting the image of the catheter 12 from the transmission image data 22.
  • the projection image generation unit 28 generates the projection image data 24 and the projection image so that the tip position of the catheter 12 in the transmission image data 22 matches the tip position of the catheter 12 in the body of the patient 9.
  • the display position and size of the data 24 can be determined.
  • the generation of the distance image data 23 by the distance image generation unit 53, the acquisition of the tip position information by the position information acquisition unit 54, and the acquisition of the transmission image data 22 by the tip position image acquisition unit 55 are repeatedly performed.
  • the generation of new projection image data 24 by the projection image generation unit 28 is also repeatedly performed. As a result, the projection image projected on the corresponding part of the patient 9 is updated.
  • FIG. 10 is a flowchart illustrating a flow of projection processing of a projection image by the PM device 20 of the surgery support system 10 according to the first embodiment. It is assumed that the internal structure information 50 and the insertion path information 51 of the patient 9 are acquired in advance and stored in the memory 27.
  • Each part of the operation support system 10 is activated before the insertion of the catheter 12 into the blood vessel in the body of the patient 9 by the doctor, and then the catheter 12 is inserted into the blood vessel of the patient 9 by the doctor.
  • the transmission image data 22 is generated by the unit 18.
  • the transmission image data 22 generated by the transmission image generation unit 18 is input to the control unit 26 of the PM device 20 via the input I / F 29.
  • the distal end position image acquisition unit 55 of the control unit 26 acquires the transmission image data 22 indicating the distal end position of the catheter 12 in the body of the patient 9 and outputs the transmission image data 22 to the projection image generation unit 28. (Step S1).
  • the control unit 26 of the PM device 20 controls the light source driver 33 to start driving the LED light source 32.
  • the LED light source 32 emits pulsed light in synchronization with the timing signal input from the timing generator 31.
  • the pulsed light emitted from the LED light source 32 is irradiated toward the patient 9 by the projection lens 35 (step S2).
  • the pulsed light emitted toward the patient 9 is reflected by the body surface of the patient 9 and enters the imaging lens 36, and is imaged on the distance image sensor 38 by the imaging lens 36. Thereby, the pulsed light reflected by the patient 9 is received by the distance image sensor 38 (step S3). Then, a light reception signal corresponding to the incident light amount of the pulsed light reflected by the patient 9 is read from the distance image sensor 38, and this light reception signal is converted into a digital signal by the AD converter 39, and then the interface circuit 40. And input to the control unit 26.
  • the distance image generation unit 53 of the control unit 26 generates the distance image data 23 based on the digital signal input from the interface circuit 40, and outputs the distance image data 23 to the projection image generation unit 28 (step S4). Note that the processing from step S2 to step S4 may be performed before the processing of step S1 or in parallel with the processing of step S1.
  • the position information acquisition unit 54 uses any one of the above-described method using the transmission image data 22 and the above-described method using the detection result of the feed amount from the feed amount sensor 19.
  • the distal end position of the catheter 12 inserted in is acquired, and the distal end position information is output to the projection image generation unit 28 (step S5).
  • the former method is used, the accurate tip position of the catheter 12 can be acquired from the actually captured transmission image data 22. Further, when the latter method is used, the position of the distal end of the catheter 12 can be easily obtained.
  • the projection image generation unit 28 is based on the distance image data 23 input from the distance image generation unit 53 and the tip position information input from the position information acquisition unit 54, as shown in FIG.
  • the surface shape of the corresponding part of the patient 9 where the distal end position of the catheter 12 is located is identified.
  • the projection image generation unit 28 generates the projection image data 24 by transforming the transmission image data 22 into a shape that matches the corresponding part of the patient 9 based on the identification result of the surface shape of the corresponding part (step S6).
  • the projection image generation unit 28 determines the corresponding portion of the patient 9 determined from the distance image data 23 and the tip position information so that the projection image based on the projection image data 24 is projected on the corresponding portion of the patient 9. And the display position and size of the projection image data 24 on the display optical element 42 are determined based on the focal length information and the focal length information of the projection lens 46. Then, the projection image generation unit 28 outputs the projection image data 24 to the element driver 43.
  • the projection image generation unit so that the distal end position of the catheter 12 in the transmission image data 22 and the distal end position of the catheter 12 in the body of the patient 9 coincide with each other. 28 may generate the projection image data 24 and determine the display position and size. Thereby, on the projection image projected on the patient 9, the position of the catheter 12 inserted in the body of the patient 9 can be faithfully reproduced.
  • the element driver 43 causes the display optical element 42 to display the projection image data 24 input from the projection image generation unit 28 at the position and size determined by the projection image generation unit 28.
  • the white light emitted from the LED light source 44 is modulated by the display optical element 42, and the image light of the projection image based on the projection image data 24 is projected onto the corresponding part of the patient 9.
  • a projection image based on the projection image data 24 is projected onto the corresponding part of the patient 9, and this projection image shows the tip position of the catheter 12 in the body of the patient 9. (Step S7).
  • step S8 when the projection of the projection image is continued, the above-described processing from step S1 to step S7 is repeatedly executed (step S8).
  • the projection image data 24 is updated, and the corresponding part of the patient 9 to which the projection image based on the projection image data 24 is projected also changes. .
  • the transmission image data 22 is used. Since the projection image data 24 corresponding to the surface shape of the corresponding part of the patient 9 is generated and the image light of the projection image data 24 is projected onto the corresponding part of the patient 9, even when the patient 9 is moved, the real time of the patient A projection image representing the position of the distal end of the catheter 12 in the body of the patient 9 can be projected onto a corresponding part of the patient 9 in accordance with changes in position and posture. Further, the position of the catheter 12 inserted in the body of the patient 9 can be reproduced on the body surface of the patient 9.
  • the catheter 12 can be inserted.
  • the surgery support system (PM device) of the second embodiment will be described.
  • the projection image data 24 is generated using the transmission image data 22, but in the surgery support system (PM device) of the second embodiment, the above-described FIG. Projection image data 24 is generated using the indicated internal structure information 50.
  • the surgery support system of the second embodiment has basically the same configuration as the surgery support system 10 of the first embodiment, except that a PM device 60 (see FIG. 11) different from the first embodiment is provided. .
  • a PM device 60 see FIG. 11
  • the same functions or configurations as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • the configuration related to the acquisition of the transmission image data 22 is not essential.
  • FIG. 11 is a block diagram showing the configuration of the PM device 60 of the second embodiment.
  • the control unit 26 generates the tip position image in addition to the distance image generation unit 53, the position information acquisition unit 54, and the tip position image acquisition unit 55 described above. Except for the point of functioning as the unit 62, the configuration is basically the same as that of the PM device 20 of the first embodiment.
  • the position information acquisition part 54 of 2nd Embodiment acquires the front-end
  • the tip position image generation unit 62 is a book that represents the tip position of the catheter 12 in the body of the patient 9 based on the tip position information acquired from the position information acquisition unit 54 and the internal structure information 50 stored in the memory 27.
  • the tip position image data 64 (see FIG. 12) which is the tip position image of the invention is generated.
  • FIG. 12 is an explanatory diagram for explaining an example of generation processing of the tip position image data 64 by the tip position image generation unit 62.
  • the tip position image generation unit 62 refers to the internal structure information 50 stored in the memory 27 based on the tip position information (indicated by a cross in the figure) acquired from the position information acquisition unit 54. Then, the blood vessel structure in the corresponding part of the patient 9 (indicated by a dotted frame in the figure) is extracted from the internal structure information 50. And the tip position image generation part 62 builds the model image (virtual image) which modeled the blood vessel structure of the corresponding site
  • the tip position image data 64 includes a model image of the tip of the catheter 12 and a model image of a blood vessel around the tip of the catheter 12, the tip position image data 64 is an image showing the tip position of the catheter 12 in the body of the patient 9.
  • the tip position image acquisition unit 55 of the second embodiment acquires the tip position image data 64 from the tip position image generation unit 62 and outputs the tip position image data 64 to the projection image generation unit 28. To do.
  • the projection image generation unit 28 of the second embodiment generates the projection image data 24 from the tip position image data 64 input from the tip position image acquisition unit 55 based on the distance image data 23 and the tip position information.
  • a specific method for generating the projection image data 24 is basically the same as that of the first embodiment shown in FIG.
  • description is abbreviate
  • FIG. 10 is a flowchart illustrating a flow of projection processing of a projection image by the PM device 60 of the surgery support system according to the second embodiment.
  • the transmission image data 22 (see FIG. 5) for the purpose of generating the projection image data 24 as in the first embodiment shown in FIG. Since the processing from S2 to step S5 is the same as in the first embodiment, the description thereof is omitted here.
  • the tip position image generation unit 62 refers to the internal structure information 50 stored in the memory 27 based on the tip position information acquired from the position information acquisition unit 54, so that the corresponding position of the patient 9 is determined.
  • the blood vessel structure is extracted from the internal structure information 50 (step S5A).
  • the tip position image generation unit 62 models the blood vessel structure of the corresponding part of the extracted patient 9 and the catheter 12 in the blood vessel indicated by the tip position information.
  • the tip position image data 64 is generated (step S5B).
  • the distal end position image data 64 indicating the distal end position of the catheter 12 can be acquired without the configuration for acquiring the transmission image data 22 as in the first embodiment.
  • the tip position image acquisition unit 55 acquires the tip position image data 64 from the tip position image generation unit 62, and the tip position image data 64. Is output to the projection image generation unit 28.
  • the projection image generation unit 28 projects the projection image from the tip position image data 64 input from the tip position image acquisition unit 55 based on the distance image data 23 and the tip position information in the same manner as in the first embodiment.
  • Data 24 is generated (step S6A).
  • the tip position image data 64 is based on the distance image data 23 of the patient 9 and the tip position information indicating the tip position of the catheter 12 in the body of the patient 9. Since the projection image data 24 corresponding to the surface shape of the corresponding part of the patient 9 is generated from the image and the image light of the projection image data 24 is projected onto the corresponding part of the patient 9, the same effect as in the first embodiment is obtained. It is done.
  • the surgery support system according to the third embodiment Next, the surgery support system according to the third embodiment will be described.
  • the catheter 12 that passes through a known route (blood vessel or the like) in the body is described as an example of a medical device that is inserted into the body of the patient 9, but in the surgery support system of the third embodiment, a laparoscope A case of using 65 (corresponding to the medical device of the present invention, see FIG. 14) will be described.
  • FIG. 14 is an explanatory diagram for explaining an example of laparoscopic surgery using the laparoscope 65.
  • a doctor inserts and secures a trocar 67 in a treatment hole formed in the body wall of the patient 9, and a doctor passes through the insertion hole of the trocar 67 and inserts the body (third In the embodiment, a laparoscope 65 is inserted into the body cavity), and an internal organ is imaged by the laparoscope 65. Then, the doctor inserts a treatment tool 68 such as forceps into the body of the patient 9 through the insertion hole of the trocar 67 while confirming the captured image of the organ obtained by the laparoscope 65, and the treatment tool 68 is applied to the organ.
  • a treatment tool 68 such as forceps into the body of the patient 9 through the insertion hole of the trocar 67 while confirming the captured image of the organ obtained by the laparoscope 65, and the treatment tool 68 is applied to the organ.
  • a treatment tool 68 such as forceps into
  • a projection image representing the tip position of the laparoscope 65 in the body of the patient 9 is projected onto the corresponding part of the patient in accordance with the real-time position and posture of the patient 9.
  • a projection image representing the distal end position of the treatment tool 68 may be projected on the corresponding part of the patient 9 instead of the laparoscope 65 or simultaneously with the laparoscope 65, but in this example, in order to prevent the explanation and drawings from being complicated.
  • a projection image representing only the tip position of the laparoscope 65 is projected onto the corresponding part of the patient 9.
  • the surgical operation support system of the third embodiment is the second of the above embodiments except that it includes a PM device 70 (see FIG. 15) different from the above embodiments and does not include the feed amount sensor 19.
  • the configuration is basically the same as that of the surgical operation system. For this reason, the same functions or configurations as those of the second embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • FIG. 15 is a block diagram showing the configuration of the PM device 70 of the third embodiment.
  • the control unit 26 has a position information acquisition unit 72 and a tip position image generation in addition to the distance image generation unit 53 and the tip position image acquisition unit 55 described above. Except for the point that functions as the unit 73, the configuration is basically the same as the PM device 60 of the second embodiment.
  • the position information acquisition unit 72 acquires the position of the distal end of the laparoscope 65 inserted into the body of the patient 9.
  • An imaging unit 75 including an imaging lens and various image sensors, a gyro sensor 76, and an acceleration sensor 77 are built in the distal end portion of the laparoscope 65.
  • the gyro sensor 76 measures an angular velocity generated when rotation occurs at the distal end of the laparoscope 65 and outputs the measurement signal to the input I / F 29.
  • the acceleration sensor 77 measures acceleration at the tip of the laparoscope 65 (for example, XYZ triaxial acceleration) and outputs the measurement signal to the input I / F 29.
  • the position information acquisition unit 72 acquires measurement signals of the gyro sensor 76 and the acceleration sensor 77 at regular time intervals via the input I / F 29. Further, the position information acquisition unit 72 acquires the insertion position PS of the laparoscope 65 into the body of the patient 9 (see FIG. 16). Since a part of the laparoscope 65 is outside the patient 9 at the insertion position PS, the position information acquisition unit 72 analyzes the distance image data 23, for example, and selects the laparoscope 65 (tracar 67) outside the patient 9 body. Based on the identified identification result, the insertion position PS of the laparoscope 65 can be acquired. Further, when the insertion position PS of the laparoscope 65 is determined in advance, a spatial coordinate or the like indicating the insertion position PS on internal structure information 79 (see FIG. 17) described later may be input to the PM device 70. Good.
  • FIG. 16 is an explanatory diagram for explaining processing for acquiring the distal end position of the laparoscope 65 in the body of the patient 9 by the position information acquiring unit 72 of the third embodiment.
  • the position information acquisition unit 72 is a laparoscope into the body of the patient 9 based on measurement signals input from the gyro sensor 76 and the acceleration sensor 77 at regular time intervals via the input I / F 29. From the insertion position PS of 65, the moving direction and moving amount of the tip of the laparoscope 65 (how much it has moved in which direction) are detected.
  • the position information acquisition unit 72 can acquire the tip position of the laparoscope 65 inserted into the body of the patient 9, and the tip position information indicating the tip position is obtained from the tip position image generation unit 73 and the projection image.
  • the data is output to the generation unit 28.
  • the tip position image generation unit 73 performs laparoscope in the body of the patient 9 based on the tip position information acquired from the position information acquisition unit 72 and the internal structure information 79 stored in the memory 27.
  • the tip position image data 81 (see FIG. 18), which is the tip position image of the present invention representing the 65 tip positions, is generated.
  • FIG. 17 is an explanatory diagram showing an example of the internal structure information 79 of the third embodiment.
  • internal structure information 79 when the laparoscope 65 is inserted into the body of the patient 9 is information indicating an arrangement structure of organs (lung, heart, liver, pancreas, kidney, etc.) in the body of the patient 9. It is.
  • This internal structure information 79 can be acquired by performing an MRI examination or CT examination on the patient 9 in advance, similarly to the internal structure information 50 (see FIG. 4) described in the first embodiment.
  • the arrangement structure of the internal organs of the patient 9 can be obtained.
  • FIG. 18 is an explanatory diagram for explaining generation processing of the tip position image data 81 by the tip position image generation unit 73 of the third embodiment.
  • the tip position image generation unit 73 refers to the internal structure information 79 stored in the memory 27 based on the tip position information (indicated by a cross in the figure) acquired from the position information acquisition unit 72. Then, the type of organ in the corresponding part of the patient 9 (indicated by a dotted frame in the figure) is identified.
  • the “corresponding portion” of the patient 9 in the third embodiment is a portion where the distal end position of the laparoscope 65 exists in the body of the patient 9, and the distal end positions are “liver” and “intestine” in FIG. Each case is illustrated.
  • the tip position image generation unit 73 constructs a model image (virtual image) obtained by modeling the organ of the corresponding part based on the identification result of the organ type in the corresponding part of the patient 9, thereby generating tip position image data.
  • 81 is generated. Since the tip position image data 81 is a model image of an organ in the body of the patient 9 where the tip position of the laparoscope 65 is located, the tip position image data 81 is an image showing the tip position of the laparoscope 65 in the body of the patient 9. Note that a model image of the laparoscope 65 in the body of the patient 9 may be generated based on the tip position information acquired from the position information acquisition unit 72, and this model image may be synthesized and displayed on the tip position image data 81.
  • the tip position image acquisition unit 55 of the third embodiment is basically the same as that of the second embodiment.
  • the tip position image data 81 is acquired from the tip position image generation unit 73 and the tip position image data 81 is obtained.
  • the position image data 81 is output to the projection image generation unit 28.
  • the projection image generation unit 28 is based on the distance image data 23 and the tip position information, and the distal end input from the tip position image acquisition unit 55. From the position image data 81, projection image data 24 (see FIGS. 19 and 20) corresponding to the surface shape of the corresponding part of the patient 9 is generated.
  • the projection image generation unit 28 of the third embodiment displays the optical element for display so that the projection image based on the projection image data 24 is projected on the corresponding part of the patient 9 in the same manner as in the first embodiment.
  • the display position and size of the projection image data 24 on 42 are determined.
  • the projection image generation unit 28 outputs the projection image data 24 to the element driver 43 described above.
  • the tip position of the laparoscope 65 in the projection image as described with reference to FIG. 9 of the first embodiment described above.
  • the projection image data 24 by the projection image generation unit 28 and the display position and size of the projection image data 24 on the display optical element 42 so that the actual position of the tip of the patient 9 matches the actual position of the patient 9. Decisions may be made.
  • FIG. 19 is an explanatory diagram for explaining projection of a projection image on the patient 9 based on the projection image data 24 of the third embodiment.
  • 20A and 20B are explanatory diagrams for explaining a state in which a projection image based on the projection image data 24 of the third embodiment is projected on the patient 9.
  • FIG. 20A shows a case where the tip position of the laparoscope 65 is in the “intestine”
  • FIG. 20B shows a case where the tip position of the laparoscope 65 is in the “liver”.
  • the projection image data 24 is displayed by the display optical element 42
  • the white light emitted from the LED light source 44 is modulated by the display optical element 42
  • the projection image based on the projection image data 24 is displayed. Is projected onto a corresponding part of the patient 9 (indicated by a dotted frame in the figure).
  • FIGS. 20A and 20B a projection image based on the projection image data 24 is projected onto a corresponding part of the patient 9, and the projection image of the laparoscope 65 in the body of the patient 9 is projected.
  • the tip position is indicated.
  • the operation of the surgery support system of the third embodiment that is, the flow of the projection processing of the projection image is basically the same as the flow shown in FIG. 13 of the second embodiment described above.
  • the position information acquisition unit 72 of the laparoscope 65 inserted into the body of the patient 9 based on the measurement signals of the gyro sensor 76 and the acceleration sensor 77 of the laparoscope 65. Get the tip position.
  • the tip position image generation unit 73 refers to the internal structure information 79 in the memory 27 based on the tip position information acquired from the position information acquisition unit 72.
  • the tip position image data 81 is generated.
  • the tip position image data based on the distance image data 23 of the patient 9 and the tip position information indicating the tip position of the laparoscope 65 in the body of the patient 9. Since the projection image data 24 corresponding to the surface shape of the corresponding part of the patient 9 is generated from 81 and the image light of the projection image data 24 is projected to the corresponding part of the patient 9, the same effects as those in the above embodiments can be obtained. It is done.
  • the tip position of the laparoscope 65 inserted into the body of the patient 9 is acquired based on the measurement signals of the gyro sensor 76 and the acceleration sensor 77 of the laparoscope 65, the laparoscope is inside the body of the patient 9 (inside the body cavity). Even when the tip position of 65 is freely moved, the tip position of the laparoscope 65 inserted in the body of the patient 9 can be acquired.
  • the position information acquisition unit 72 of the PM device 70 of the surgery support system of the third embodiment is based on the measurement signals of the gyro sensor 76 and the acceleration sensor 77 of the laparoscope 65, and the laparoscope 65 inserted into the body of the patient 9.
  • the tip position is acquired.
  • FIG. 21 is a block diagram illustrating a configuration of the PM device 85 of the surgery support system according to the fourth embodiment.
  • the PM device 85 of the fourth embodiment is the same as the third device except that the control unit 26 functions as a position information acquisition unit 86 instead of the position information acquisition unit 72 of the third embodiment.
  • the configuration is basically the same as that of the PM device 70 of the embodiment. For this reason, the same functions or configurations as those of the third embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the position information acquisition unit 86 acquires the distal end position of the laparoscope 65 inserted in the body (inside the body cavity) of the patient 9 by a method different from the position information acquisition unit 72 of the third embodiment.
  • the position information acquisition unit 86 acquires the captured image data 83 in the body of the patient 9 captured by the imaging unit 75 of the laparoscope 65 at regular time intervals via the input I / F 29. Further, the position information acquisition unit 86 acquires the insertion position PS (see FIG. 22) of the laparoscope 65 into the body of the patient 9 by the same method as the position information acquisition unit 72 of the third embodiment.
  • FIG. 22 is an explanatory diagram for explaining processing for acquiring the distal end position of the laparoscope 65 in the body of the patient 9 by the position information acquisition unit 86 according to the fourth embodiment.
  • the position information acquisition unit 86 is based on continuous captured image data 83 input at regular time intervals from the imaging unit 75 via the input I / F 29, and the laparoscope 65 from the insertion position PS.
  • the insertion path information 88 indicating the insertion path (movement path) of the tip of the is acquired. That is, the position information acquisition unit 86 of the fourth embodiment functions as the insertion path information acquisition unit 86a of the present invention.
  • the insertion path information acquisition unit 86a uses a well-known SLAM (Simultaneous Localization and Mapping) technique to laparoscope from the insertion position PS based on continuous captured image data 83 input from the imaging unit 75. 65. Insertion processing at the tip of 65 is mapped. For example, the insertion path information acquisition unit 86a extracts each feature point (such as a corner point that allows easy association between the image data) from the continuous captured image data 83, and extracts each feature point in the continuous captured image data 83. By determining the locus, the insertion path at the tip of the laparoscope 65 is mapped. Thereby, the insertion path information 88 of the tip of the laparoscope 65 from the insertion position PS is acquired.
  • SLAM Simultaneous Localization and Mapping
  • the insertion path information 88 is information indicating the moving direction and moving amount (how much in which direction and how much) the tip of the laparoscope 65 has moved from the insertion position PS. Therefore, the position information acquisition unit 86 can acquire the distal end position of the laparoscope 65 inserted in the body of the patient 9 based on the insertion path information 88 acquired by the insertion path information acquisition unit 86a. Is output to the tip position image generation unit 73 and the projection image generation unit 28.
  • the configuration for performing the processing after the acquisition of the tip position information is basically the same as that of the PM device 70 of the third embodiment, and a detailed description thereof will be omitted.
  • the operation of the operation support system of the fourth embodiment that is, the flow of the projection processing of the projection image is basically the same as the flow shown in FIG. 13 of the second embodiment described above as in the third embodiment. is there.
  • the position information acquisition unit 86 includes the captured image data 83 captured by the imaging unit 75 of the laparoscope 65 and the insertion path information 88 acquired by the insertion path information acquisition unit 86a. Based on the above, the tip position of the laparoscope 65 inserted in the body of the patient 9 is acquired.
  • the tip position image data based on the distance image data 23 of the patient 9 and the tip position information indicating the tip position of the laparoscope 65 in the body of the patient 9. Since the projection image data 24 corresponding to the surface shape of the corresponding part of the patient 9 is generated from 81 and the image light of the projection image data 24 is projected to the corresponding part of the patient 9, the same effects as those in the above embodiments can be obtained. It is done.
  • the distal end position of the laparoscope 65 is obtained by obtaining the insertion path information 88 from the insertion position PS based on the captured image data 83 continuously captured by the laparoscope 65, as in the third embodiment, Even when the tip position of the laparoscope 65 is freely moved in the body of the patient 9 (inside the body cavity), the tip position of the laparoscope 65 inserted in the body of the patient 9 can be acquired.
  • the PM device of the surgery support system of each of the above embodiments includes the LED light source 32 for acquiring the distance image data 23.
  • the intensity (the amount of received light) of the pulsed light received by the distance image sensor 38 from among a plurality of LED light sources that emit pulsed light (measurement light) of different wavelengths is increased.
  • the patient 9 is irradiated with pulsed light using the LED light source.
  • FIG. 23 is a block diagram illustrating a configuration of the PM device 90 of the surgery support system according to the fifth embodiment.
  • the PM device 90 of the fifth embodiment includes LED light sources 32A and 32B (corresponding to the light source unit of the present invention) that emit pulsed light of different wavelengths, and the control unit 26 generates a distance image.
  • the configuration is basically the same as that of the PM device of each of the embodiments described above except that it functions as the light source controller 91 in addition to the unit 53 and the like. For this reason, the same functions or configurations as those of the above embodiments are denoted by the same reference numerals, and the description thereof is omitted.
  • the LED light sources 32 ⁇ / b> A and 32 ⁇ / b> B are controlled by the light source driver 33 in the same manner as the LED light sources 32 of the above-described embodiments, and emit pulse light with a constant pulse width in synchronization with the timing signal input from the timing generator 31. To do.
  • the light source controller 91 controls the light source driver 33 to control the irradiation of pulsed light from the LED light sources 32A and 32B.
  • the light source control unit 91 also functions as a switching control unit 92.
  • the switching control unit 92 irradiates pulse light one by one from the LED light sources 32A and 32B one by one before generating the distance image data 23 by the distance image generating unit 53 (for example, when starting the PM device 90).
  • the LED light source for irradiating the patient 9 with pulsed light is switched. Thereby, the wavelength of the pulsed light irradiated to the patient 9 from the PM apparatus 90 is switched.
  • the distance image sensor 38 of the fifth embodiment receives the pulsed light reflected by the patient 9 for each wavelength via the imaging lens 36.
  • the reflectance at which the body surface (irradiation surface) of the patient 9 reflects the pulsed light depends on the material and color of the clothes worn by the patient 9, the skin color of the patient 9, and the incidence of the pulsed light on the patient 9
  • the wavelength varies depending on the wavelength of the pulsed light. For this reason, the intensity
  • the exposure period is controlled in synchronization with the emission of the individual pulse lights of the LED light sources 32A and 32B by the timing signal input from the timing generator 31.
  • each light receiving element of the distance image sensor 38 accumulates charges corresponding to the amount of pulsed light incident during the exposure period. Therefore, the exposure amount of the distance image sensor 38 increases as the incident light amount of the pulsed light incident during the exposure period, that is, the intensity of the pulsed light reflected by the patient 9 increases.
  • a light reception signal corresponding to the incident light quantity (intensity) of the pulsed light reflected by the patient 9 is read for each wavelength of the pulsed light, and the light reception signal for each wavelength is read by the AD converter 39. After being converted into a digital signal, it is input to the light source controller 91 via the interface circuit 40.
  • the light source controller 91 compares the intensity of the pulsed light received by the distance image sensor 38 for each wavelength based on the digital signal for each wavelength of the pulsed light. Then, the light source control unit 91 determines which of the LED light sources 32A and 32B is the LED light source that emits the pulsed light having the highest intensity among the pulsed light received by the distance image sensor 38 for each wavelength. judge. Next, the light source control unit 91 determines the LED light source that emits the pulsed light having the highest intensity as the LED light source that emits the pulsed light for generating the distance image data 23, and controls the light source driver 33. Then, pulse light is emitted from the determined LED light source.
  • the distance image generating unit 53 of the fifth embodiment The distance image data 23 is generated based on the digital signal input from the image sensor 38 via the AD converter 39 and the interface circuit 40.
  • FIG. 24 is a flowchart showing the flow of determination processing of an LED light source that emits pulsed light for generating the distance image data 23.
  • the switching control unit 92 of the light source control unit 91 of the control unit 26 first selects the LED light source that emits pulsed light from the LED light sources 32A and 32B (step S11).
  • the LED light source 32A is selected.
  • the light source controller 91 controls the light source driver 33 to start driving the LED light source 32A.
  • the LED light source 32 ⁇ / b> A emits pulsed light in synchronization with the timing signal input from the timing generator 31.
  • the pulsed light emitted from the LED light source 32A is irradiated toward the patient 9 by the projection lens 35 (step S12).
  • the pulsed light emitted toward the patient 9 is reflected by the body surface of the patient 9 and enters the imaging lens 36, and is imaged on the distance image sensor 38 by the imaging lens 36. Thereby, the pulsed light reflected by the patient 9 is received by the distance image sensor 38 (step S13). Then, a light reception signal corresponding to the incident light quantity of the pulsed light reflected from the patient 9 is read from the distance image sensor 38, and this light reception signal is converted into a digital signal by the AD converter 39, and then the interface circuit 40. And input to the light source controller 91.
  • the switching control unit 92 of the light source control unit 91 controls the light source driver 33 to stop driving the LED light source 32A and starts driving the LED light source 32B. That is, the switching control unit 92 switches the LED light source that irradiates the patient 9 with pulsed light from the LED light source 32A to the LED light source 32B (YES in step S14, step S15).
  • step S12 and step S13 are repeatedly executed.
  • the pulse light of the LED light source 32 ⁇ / b> B is irradiated toward the patient 9, and a light reception signal corresponding to the incident light amount of the pulse light reflected by the patient 9 is read from the distance image sensor 38.
  • the received light signal is converted into a digital signal by the AD converter 39 and then input to the light source controller 91 via the interface circuit 40.
  • the light source control unit 91 compares the intensity of the pulsed light received by the distance image sensor 38 for each wavelength based on the digital signal for each wavelength of the pulsed light ( NO in step S14, step S16). Then, the light source control unit 91 determines an LED light source that emits pulsed light having the highest intensity among the pulsed light received by the distance image sensor 38 for each wavelength, and uses the LED light source as distance image data. 23 is determined as an LED light source that emits pulse light for generation 23 (step S17). Then, the light source controller 91 controls the light source driver 33 to emit pulsed light from the determined LED light source (step S18).
  • the subsequent processing is basically the same as the processing after step S3 shown in FIG. 10 or FIG. 13 described above, and a detailed description thereof will be omitted here.
  • the intensity (light reception) of the pulsed light received by the distance image sensor 38 from the LED light sources 32A and 32B that emit pulsed light of different wavelengths Since the patient 9 is irradiated with the pulsed light using the higher amount, the accuracy of determining the distance to the patient 9 and the accuracy of determining the shape of the patient 9 based on the distance image data 23 can be improved.
  • the PM device 90 of the fifth embodiment is provided with LED light sources 32A and 32B that irradiate pulsed light of different wavelengths.
  • LED light sources 32A and 32B that irradiate pulsed light of different wavelengths.
  • three or more LED light sources having different wavelengths may be provided.
  • the patient 9 is irradiated with the pulsed light using the LED light source having the highest intensity of the pulsed light received by the distance image sensor 38 among the LED light sources.
  • the LED light source that emits the pulsed light is switched.
  • a plurality of filters that transmit light of different wavelengths are selectively disposed on the optical path of the pulsed light emitted from the LED light source. By doing so, the wavelength of the pulsed light applied to the patient 9 may be switched.
  • the distance image generating unit 53 generates the distance image data 23 of the entire range (including almost the entire range) of the patient 9, but the PM device of the surgery support system of the sixth embodiment.
  • the generation range AT of the distance image data 23 is set according to the projection range AP of the projection image projected onto the patient 9 (see FIG. 26).
  • FIG. 25 is a block diagram illustrating a configuration of the PM device 100 of the surgery support system according to the sixth embodiment.
  • the PM apparatus 100 of the sixth embodiment stores focal length information 102 in a memory 27, and the control unit 26 includes a projection range acquisition unit 104 in addition to the distance image generation unit 53 and the like.
  • the configuration is basically the same as that of the PM device 70 of the third embodiment except that it functions as the distance image generation control unit 105. For this reason, the same functions or configurations as those of the third embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the focal length information 102 is information indicating the focal length of the projection lens 46 (see FIG. 2).
  • the focal length of the projection lens 46 is also the distance between the PM device 100 and the patient 9. It is determined in advance accordingly.
  • the projection range acquisition unit 104 includes the focal length information 102 read from the memory 27, the distance to the patient 9 indicated by the distance image data 23 previously generated by the distance image generation unit 53, and the projection generated by the projection image generation unit 28. Based on the image data 24 (including the display position and size of the projection image data 24 on the display optical element 42), the projection range AP of the projection image projected from the PM device 100 onto the patient 9 (see FIG. 26). ) To get. Then, the projection range acquisition unit 104 outputs the acquired projection range AP to the distance image generation control unit 105.
  • the distance image generation control unit 105 controls the distance image generation unit 53 to set a generation range AT (see FIG. 26) in which the distance image generation unit 53 generates the distance image data 23.
  • 26A and 26B are explanatory diagrams for explaining the setting of the generation range AT of the distance image data 23 by the distance image generation control unit 105.
  • FIG. As shown in FIGS. 26A and 26B, the distance image generation control unit 105 sets the generation range AT of the distance image data 23 corresponding to the projection range AP acquired by the projection range acquisition unit 104. . This generation range AT is set to be larger than the projection range AP by a predetermined size. Then, the distance image generation control unit 105 outputs information on the set generation range AT to the distance image generation unit 53.
  • the distance image generation unit 53 of the sixth embodiment includes a generation range among digital signals read from the distance image sensor 38 and input to the distance image generation unit 53 via the AD converter 39, the interface circuit 40, and the like.
  • the distance image data 23 is generated based on the digital signal corresponding to the AT. Thereby, since it becomes unnecessary to generate the distance image data 23 of the entire range of the patient 9, the amount of calculation required for the generation process of the distance image data 23 can be reduced.
  • the control unit 26 controls the lens driver 37 to generate the field angle. You may perform the zooming operation
  • the distance image generation unit 53 reads out the distance image data 23 based on the digital signal read from the distance image sensor 38 and input to the distance image generation unit 53 via the AD converter 39, the interface circuit 40, and the like. Generate. Thereby, the resolution of the distance image data 23 can be increased, and the detection accuracy of the distance to the patient 9 and the detection accuracy of the unevenness of the surface shape of the patient 9 can be increased.
  • the PM device 100 (imaging lens 36) is moved in the direction of the generation range AT based on the pan / tilt mechanism of the PM device 100 and the setting result of the generation range AT by the distance image generation control unit 105.
  • a pan / tilt control unit that drives the pan / tilt mechanism to be directed may be provided.
  • the distance image generation unit 53 generates the distance image data 23 in accordance with the projection range AP of the projection image projected onto the patient 9. Since the generation range AT is set, it is not necessary to generate the distance image data 23 for the entire range of the patient 9, and the amount of calculation required for the generation process of the distance image data 23 can be reduced.
  • the distance image generation control unit 105 sets the generation range AT and performs a zooming operation that changes the angle of view according to the generation range AT, the resolution of the distance image data 23 can be increased.
  • the detection accuracy of the distance to the patient 9 and the detection accuracy of the unevenness of the surface shape of the patient 9 can be increased.
  • the X-ray image data is described as an example of the transmission image data 22, but various transmission images of the corresponding part of the patient 9 such as MRI image data and CT image data may be used. .
  • the catheter 12 is described as an example of a medical device inserted along a known route in the body of the patient 9, but an upper digestive tract endoscope or a lower digestive tract is described.
  • the present invention can also be applied when a tube endoscope is inserted into the body of the patient 9.
  • the laparoscope 65 is described as an example of the medical device.
  • the medical device is not particularly limited as long as the medical device is inserted into the patient 9.
  • a light reception signal indicating distance information corresponding to the flight time of the pulsed light reflected by the patient 9 and incident on the distance image sensor 38 is read from the distance image sensor 38, and the read light reception signal is displayed.
  • the distance image data 23 in the so-called TOF (Time Of Flight) format for generating the distance image data 23 is acquired based on the distance image data 23
  • the distance image data 23 of the so-called pattern irradiation (Projector-Camera) method may be acquired. .
  • the projection image generation unit 28 is provided separately from the control unit 26, but the control unit 26 may function as the projection image generation unit 28.
  • the PM apparatus in which the distance image generation function and the projection image projection function are integrated has been described as an example. However, the distance image generation function and the projection function are separated. May be.
  • the human subject (patient 9) has been described as an example of the subject.
  • the present invention is also applied when a medical device is inserted into various subjects such as animals other than human subjects. Can do.
  • DESCRIPTION OF SYMBOLS 10 ... Surgery support system, 12 ... Catheter, 18 ... Transmission image generation part, 19 ... Feed amount sensor, 20, 60, 70, 85, 90, 100 ... Projection mapping apparatus, 22 ... Transmission image data, 23 ... Distance image data , 24 ... projection image data, 26 ... control unit, 28 ... projection image generation unit, 32 ... LED light source, 35 ... projection lens, 36 ... imaging lens, 38 ... distance image sensor, 42 ... display optical element, 44 ... LED light source, 46 ... projection lens, 50, 79 ... internal structure information, 51 ... insertion path information, 53 ... distance image generation unit, 54, 72, 86 ... position information acquisition unit, 55 ...
  • tip position image acquisition unit 62, 73: tip position image generation unit
  • 64, 81 tip position image data
  • 65 laparoscope
  • 75 ... imaging unit
  • 76 ... gyro sensor 77
  • acceleration sensor 83
  • captured image Data 91 ... light source control unit, 92 ... switching control unit, 104 ... projection range acquisition unit, 105 ... distance image generation control unit

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明は被検体内に挿入されている医療機器の先端位置を示す投影画像を被検体の位置や姿勢に合わせて投影可能なプロジェクションマッピング装置を提供する。本発明の好ましい態様において、測定光を被検体に対して照射する。複被検体にて反射して距離画像センサに入射する測定光の受光信号を距離画像センサから取得し、取得した受光信号に基づいて距離画像を生成する。被検体内に挿入されている医療機器の先端位置を取得する。被検体内での医療機器の先端位置を表す先端位置画像を取得する。先端位置画像から被検体に投影する投影画像であって、距離画像から検出した被検体の形状と、先端位置とに基づき、先端位置画像から、先端位置に対応する被検体の対応部位の表面形状に対応した投影画像を生成する。投影画像を対応部位に投影する。

Description

プロジェクションマッピング装置
 本発明は、医療機器が挿入されている被検体に画像を投影するプロジェクションマッピング装置に関する。
 医療分野において、プロジェクタ装置を用いて患者に、臓器、筋肉、骨、関節、及び血管などの画像を投影(投射)する技術が知られている。特許文献1には、サーマルマーカを装着した患者を赤外線カメラで撮像し、この撮像により得られた赤外線画像を解析して患者(被検体)の位置及び姿勢を推定し、この推定結果に基づき患者の体内情報(臓器等)を患者の位置及び姿勢に合わせて投影する投影システムが開示されている。
 特許文献2には、患者の体内に挿入された医療器具(外科用器具)の空間座標を検出し、この空間座標の検出結果に基づき、医療機器の位置及び方位等に関する幾何学的なパターンを患者に投影する装置が開示されている。この特許文献2に記載の装置では、患者に投影される幾何学パターンの位置が患者の体内での医療機器の位置(二次元位置)を示し、幾何学パターンの色が患者の体内での医療機器の深さ位置を示す。
特開2007-151686号公報 特開2002-102251号公報
 しかしながら、特許文献1に記載の技術では、患者の位置や姿勢は推定可能であるが、体内情報(臓器等)が投影される患者の投影面(照射面)の形状までは判別できないので、患者の投影面に投影される投影画像(照射像)が歪むおそれがある。その結果、患者に投影される投影画像上で体内情報(臓器等)の形状や大きさを再現することができない。
 特許文献2に記載の技術では、投影画像として前述の幾何学的パターンを患者に投影しているものの患者の位置を動かさないことが前提であり、幾何学的パターンが投影される患者の投影面(照射面)の形状を判別していない。このため、特許文献2に記載の技術では、患者を動かした場合に幾何学パターンの投影画像の位置がずれたり、上記特許文献1と同様に投影画像に歪みが発生したりするおそれがある。その結果、特許文献2に記載の投影画像では、少なくとも患者の体内に挿入されている医療器具の位置を再現できない場合がある。
 本発明はこのような事情に鑑みてなされたものであり、被検体内に挿入されている医療機器の先端位置を示す投影画像を被検体の位置や姿勢の変化に合わせて投影可能なプロジェクションマッピング装置に関する。
 本発明の目的を達成するためのプロジェクションマッピング装置は、測定光を被検体に対して照射する光源と、複数の受光素子が2次元状に配列された距離画像センサと、光源から出射され、被検体にて反射して距離画像センサに入射する測定光の受光信号を距離画像センサから取得し、取得した受光信号に基づいて距離画像を生成する距離画像生成部と、被検体内に挿入されている医療機器の先端位置を取得する位置情報取得部と、被検体内での医療機器の先端位置を表す先端位置画像を取得する先端位置画像取得部と、距離画像生成部が生成した距離画像から検出した被検体の形状と、位置情報取得部が取得した先端位置とに基づき、先端位置画像取得部が取得した先端位置画像から、先端位置に対応する被検体の対応部位の表面形状に対応した投影画像を生成する投影画像生成部と、投影画像生成部が生成した投影画像を表示する表示用光学素子と、表示用光学素子に投影光を入射させる投影光源と、表示用光学素子から出射される投影画像を対応部位に投影する投影レンズと、を含むプロジェクタ装置と、を備える。
 このプロジェクションマッピング装置によれば、被検体の対応部位の表面形状に対応し且つ被検体内での医療機器の先端位置を表す投影画像を生成して、この投影画像を被検体の対応部位に投影することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、先端位置画像取得部は、先端位置画像として、被検体の対応部位の透過画像を撮像する透過画像撮像装置から透過画像を取得する。これにより、この透過光画像を基に生成された投影画像を被検体の対応部位に投影することができるので、医師は被検体から視線を逸らすことなく(別途のモニタで透過光画像を確認することなく)医療機器の挿入を行うことができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、位置情報取得部が取得した先端位置と、被検体内の既知の内部構造とに基づき、先端位置画像を生成する先端位置画像生成部を備え、先端位置画像取得部は、先端位置画像生成部から先端位置画像を取得する。これにより、透過光画像の取得を行わなくとも被検体内での医療機器の先端位置を表す先端位置画像を取得することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、位置情報取得部は、透過画像と、被検体内の既知の内部構造とに基づき、先端位置を取得する。これにより、現実に撮影された透過光画像から、被検体内での医療機器の正確な先端位置を取得することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、医療機器は、被検体内の既知の経路に沿って挿入されるものであり、位置情報取得部は、被検体内への医療機器の挿入量を取得し、挿入量と既知の経路とを比較した結果に基づいて、先端位置を取得する。これにより、被検体内での医療機器の先端位置を簡単に取得することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、医療機器の先端には、加速度センサ及びジャイロセンサが設けられており、位置情報取得部は、加速度センサ及びジャイロセンサの出力に基づいて、医療機器が被検体に挿入された挿入位置からの医療機器の先端の移動方向及び移動量を検出し、移動方向及び移動量の検出結果に基づいて先端位置を取得する。これにより、被検体内で医療機器の先端位置を自由に移動させた場合でも、被検体内で医療機器の先端位置を確実に取得することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、医療機器の先端には、撮像部が設けられており、撮像部が撮像した撮像画像に基づいて被検体内での医療機器の先端の挿入経路を示す挿入経路情報を取得する挿入経路情報取得部を有し、位置情報取得部は、医療機器が被検体に挿入された挿入位置と、挿入経路情報取得部により取得された挿入経路情報とに基づいて、先端位置を取得する。これにより、被検体内で医療機器の先端位置を自由に移動させた場合でも、被検体内で医療機器の先端位置を確実に取得することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、距離画像の生成前に、光源から被検体に照射される測定光の波長を切り替える切替制御部と、切替制御部による測定光の波長の切り替えによって距離画像センサが波長毎に受光した測定光の中で、最も強度が高くなる波長の測定光を光源から照射させる光源制御部と、を備え、距離画像生成部は、光源から被検体に最も強度が高くなる波長の測定光が照射された場合に、距離画像を生成する。これにより、距離画像に基づいた被検体までの距離の判定精度や被検体の形状判定精度を向上させることができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、光源は、異なる波長の測定光を被検体に照射する複数の光源ユニットを有しており、切替制御部は、測定光を照射する光源ユニットを切り替え、光源制御部は、最も強度が高くなる波長の測定光を照射する光源ユニットから被検体に測定光を照射させる。これにより、距離画像に基づいた被検体までの距離の判定精度や被検体の形状判定精度を向上させることができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、投影レンズの焦点距離と、距離画像生成部が生成した距離画像が示す被検体までの距離と、投影画像生成部が生成した投影画像とに基づき、被検体に投影される投影画像の投影範囲を取得する投影範囲取得部と、投影範囲取得部が取得した投影範囲に対応して、距離画像生成部が距離画像の生成を行う生成範囲を設定する距離画像生成制御部と、を備える。これにより、被検体の全範囲の距離画像を生成する必要がなくなるので、距離画像の生成処理に要する演算量を低減することができる。
 本発明の他の態様に係るプロジェクションマッピング装置において、距離画像生成部は、光源から照射され、被検体にて反射して距離画像センサに入射する測定光の飛翔時間に対応する距離情報を示す受光信号を距離画像センサから取得し、距離情報に基づいて距離画像を生成する。
 本発明の他の態様に係るプロジェクションマッピング装置において、投影画像生成部は、距離画像から検出した被検体の形状と、位置情報取得部が取得した先端位置とに基づき対応部位の表面形状を識別して、表面形状の識別結果に基づき、先端位置画像を対応部位に合わせた形状に変形して投影画像を生成する。これにより、被検体の対応部位の表面形状に対応した投影画像が生成される。
 本発明の他の態様に係るプロジェクションマッピング装置において、投影画像生成部は、距離画像及び先端位置より判別されるプロジェクタ装置から対応部位までの距離と、投影レンズの焦点距離情報とに基づき、表示用光学素子に表示される投影画像の表示位置及び大きさを、投影画像が対応部位に重ねて投影される表示位置及び大きさに決定し、表示用光学素子は、投影画像生成部が決定した表示位置及び大きさで投影画像を表示する。これにより、投影画像を対応部位に重ねて投影することができる。
 本発明のプロジェクションマッピング装置は、被検体内に挿入されている医療機器の先端位置を示す投影画像を被検体の位置や姿勢の変化に合わせて投影可能にする。
本発明のプロジェクションマッピング装置を含む手術支援システムの概略図である。 第1実施形態のプロジェクションマッピング装置の構成を示すブロック図である。 第1実施形態の制御部の機能ブロック図である。 第1実施形態の内部構造情報の一例を示した説明図である。 透過画像データの一例を示した説明図である。 第1実施形態の投影画像生成部による投影画像データの生成処理について説明するための説明図である。 投影画像データに基づく投影画像の患者への投影を説明するための説明図である。 投影画像データに基づく投影画像が患者に投影されている状態を説明するための説明図である。 投影画像生成部による投影画像データの生成処理の変形例について説明するための説明図である。 第1実施形態の手術支援システムのプロジェクションマッピング装置による投影画像の投影処理の流れを示すフローチャートである。 第2実施形態のプロジェクションマッピング装置の構成を示すブロック図である。 先端位置画像生成部による先端位置画像データの生成処理の一例を説明するための説明図である。 第2実施形態の手術支援システムのプロジェクションマッピング装置による投影画像の投影処理の流れを示すフローチャートである。 腹腔鏡を用いた腹腔鏡手術の一例を説明するための説明図である。 第3実施形態のプロジェクションマッピング装置の構成を示すブロック図である。 第3実施形態の位置情報取得部による患者の体内での腹腔鏡の先端位置の取得処理について説明するための説明図である。 第3実施形態の内部構造情報の一例を示した説明図である。 第3実施形態の先端位置画像生成部による先端位置画像データの生成処理を説明するための説明図である。 第3実施形態の投影画像データに基づく投影画像の患者への投影を説明するための説明図である。 第3実施形態の投影画像データに基づく投影画像が患者に投影されている状態を説明するための説明図である。 第4実施形態の手術支援システムのプロジェクションマッピング装置の構成を示すブロック図である。 第4実施形態の位置情報取得部による患者の体内での腹腔鏡の先端位置の取得処理について説明するための説明図である。 第5実施形態の手術支援システムのプロジェクションマッピング装置の構成を示すブロック図である。 距離画像データの生成用のパルス光を出射するLED光源の決定処理の流れを示すフローチャートである。 第6実施形態の手術支援システムのプロジェクションマッピング装置の構成を示すブロック図である。 距離画像生成制御部による距離画像データの生成範囲の設定について説明するための説明図である。
 [第1実施形態の手術支援システム(プロジェクションマッピング装置)]
 図1は、本発明のプロジェクションマッピング装置を含む手術支援システム10の概略図である。図1に示すように、手術支援システム10は、本発明の被検体である患者9の体内に本発明の医療器具に相当するカテーテル12を挿入した場合に、患者9の体内でのカテーテル12の先端位置を示す画像を、この先端位置に対応する患者9の対応部位に投影する。ここでいう対応部位とは、患者9の体内においてカテーテル12(医療機器)の先端位置が存在する部位である。
 手術支援システム10は、患者9を載置する載置台15と、載置台15の下側に配置されたX線管16と、載置台15の上側に配置されたX線平面検出器(FPD:Flat Panel Detector)17と、透過画像生成部18と、送り量センサ19と、本発明のプロジェクションマッピング(Projection Mapping)装置20と、を備える。以下、プロジェクションマッピング装置を、適宜「PM装置」と略す。
 X線管16及びX線平面検出器17及び透過画像生成部18は、本発明の透過画像を撮像する透過画像撮像装置に相当するものである。X線管16は、載置台15を通して患者9に向けてX線を照射する。なお、図中の符号AXは、X線の照射範囲を示す。X線平面検出器17は、載置台15及び患者9を透過したX線を検出して、検出信号を透過画像生成部18へ出力する。
 透過画像生成部18は、X線平面検出器17から入力された検出信号に基づき、本発明の透過画像として、X線画像である透過画像データ22(図5参照)を生成し、透過画像データ22をPM装置20へ出力する。なお、X線管16及びX線平面検出器17及び透過画像生成部18については公知技術であるので、詳細な説明は省略する。
 また、X線管16及びX線平面検出器17と、載置台15とは、図示しない相対移動機構により相対移動可能である。このため、X線管16及びX線平面検出器17と、載置台15(患者9)とを相対移動させながら、X線管16によるX線の照射と、X線平面検出器17によるX線の検出と、透過画像生成部18による透過画像データ22(図5参照)の生成とを繰り返すことで、患者9の各部の透過画像データ22が得られる。
 本例では、カテーテル12を挿入中に常に前述の対応部位の透過画像データ22が得られるように、患者9の体内でのカテーテル12の先端位置に応じて、X線管16及びX線平面検出器17と、載置台15(患者9)とを相対移動させる。なお、相対移動機構による相対移動は医療スタッフ等が手動で行ってもよいし、或いは後述するように患者9の体内でのカテーテル12の先端位置を取得した結果に基づき、この先端位置に応じた相対移動を相対移動機構に自動で行わせてもよい。
 送り量センサ19は、カテーテル12の送り量を検出するセンサである。この送り量センサ19の検出結果に基づき、患者9の体内へのカテーテル12の挿入量を取得することができる。この送り量センサ19は、カテーテル12の送り量の検出結果をPM装置20へ出力する。
 PM装置20は、載置台15上の患者9の距離画像データ23(図6参照)を生成する機能と、患者9の体内でのカテーテル12の先端位置を示し且つ前述の対応部位の表面形状に対応した投影画像データ24(図6参照)を生成し、この投影画像データ24に基づく投影画像を患者9の対応部位へ投影する機能と、を有している。図中の符号ATは、距離画像データ23の生成を行う生成範囲を示し、図中の符号APは、投影画像の投影範囲(照射範囲)を示す。
 [第1実施形態のPM装置の構成]
 図2は、第1実施形態のPM装置20の構成を示すブロック図である。このPM装置20は、前述の距離画像データ23の生成に係る距離画像取得装置20Aと、投影画像データ24に基づく投影画像の投影を行うプロジェクタ装置20Bと、制御部26と、メモリ27と、投影画像生成部28と、入力I/F(interface)29と、を備えている。
 距離画像取得装置20Aは、パルス光検出方式の距離画像の取得を行うものであり、タイミングジェネレータ31と、LED(Light Emitting Diode)光源32と、光源ドライバ33と、投影レンズ35と、結像レンズ36と、レンズドライバ37と、距離画像センサ38と、図中「A/D」と表示しているAD(Analog-to-Digital)変換器39と、図中「I/F」と表示しているインターフェース(interface)回路40と、を含む。
 タイミングジェネレータ31は、制御部26の制御の下、LED光源32と距離画像センサ38とにそれぞれタイミング信号を出力する。
 LED光源32は、本発明の光源に相当するものであり、タイミングジェネレータ31から入力されるタイミング信号に同期して一定のパルス幅のパルス光を発光する。このパルス光は、本発明の測定光に相当するものである。また、本例ではパルス光は近赤外光である。光源ドライバ33は、制御部26の制御の下、LED光源32の駆動を制御する。なお、本発明の光源としてLED以外の光源を使用可能であり、さらに本発明の測定光は近赤外光のパルス光に限定されるものではない。
 投影レンズ35は、LED光源32から出射したパルス光を、載置台15上の患者9に向けて照射する。結像レンズ36は、患者9にパルス光が照射された場合、この患者9にて反射されたパルス光を距離画像センサ38に結像させる。レンズドライバ37は、図示しないレンズ駆動部を介して、結像レンズ36のフォーカス制御等を行う。なお、本例ではPM装置20及び載置台15の位置がほぼ固定であるので、載置台15上の患者9に合わせて予めフォーカス調整等が行われている。
 距離画像センサ38は、垂直ドライバ及び水平ドライバ等を有するCMOS(Complementary Metal-Oxide Semiconductor)ドライバ、及びタイミングジェネレータ31により駆動されるCMOS型のイメージセンサにより構成されている。なお、距離画像センサ38は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のイメージセンサでもよい。
 距離画像センサ38は、2次元状に複数の受光素子(フォトダイオード)が配列され、複数の受光素子の入射面側には、LED光源32から発光される近赤外光のパルス光の波長帯域のみを通過させるバンドパスフィルタ、又は可視光を除去する可視光カットフィルタが設けられている。これにより、距離画像センサ38の複数の受光素子は、近赤外光であるパルス光に対して感度をもった画素として機能する。
 距離画像センサ38は、タイミングジェネレータ31から入力されるタイミング信号により、LED光源32のパルス光の発光と同期して露光期間(露光時間及び露光タイミング)が制御される。距離画像センサ38の各受光素子には、露光期間に入射するパルス光の光量に対応する電荷が蓄積される。このようにパルス光検出方式では、患者9までの距離(飛翔時間)が短いほど露光量が多くなり、逆に患者9までの距離(飛翔時間)が遠いほど露光量が少なくなるので、露光量の大きさに応じて患者9までの距離を測定することができる。なお、本例では被検体は患者9であり、手術支援システム10の設置場所は病院内であるので、被検体の反射率の違いや外光の影響は考慮しないものとする。
 距離画像センサ38からは、患者9にて反射されたパルス光の入射光量に応じた受光信号(画素毎に蓄積された電荷に対応するアナログ信号であり画素信号ともいう)が読み出される。この受光信号は、患者9にて反射して距離画像センサ38に入射するパルス光の飛翔時間に対応する距離情報を示す。
 AD変換器39は、距離画像センサ38から読み出された受光信号をデジタル信号に変換してインターフェース回路40へ出力する。なお、CMOS型のイメージセンサには、AD変換器を含むものがあり、この場合にはAD変換器39は省略することができる。インターフェース回路40は、画像入力コントローラとして機能するものであり、AD変換器39から入力されたデジタル信号を制御部26へ出力する。これにより、詳しくは後述するが、制御部26にて距離画像データ23(図3参照)が生成される。
 プロジェクタ装置20Bは、所謂単板式の液晶プロジェクタであり、表示用光学素子(光変調素子ともいう)42と、素子ドライバ43と、LED光源44と、光源ドライバ45と、投影レンズ46と、レンズドライバ47と、を含む。
 表示用光学素子42は、複数色のカラーフィルタを備えた透過型の液晶パネル、或いはダイクロイックミラーとマイクロレンズアレイとモノクロの透過型の液晶パネルとを組み合わせたカラーフィルレス構造の素子等が用いられる。カラーフィルレス構造の素子は、例えば、R(Red)光、G(Green)光、B(Blue)光をそれぞれ反射する3種類のダイクロイックミラーにより白色光をRGBの3色の光に分光し、3色の光を互いに異なった角度で液晶パネル上のマイクロレンズアレイに入射させる。そして、3色の光をマイクロレンズアレイにより液晶パネルのR用画素、G用画素、B用画素にそれぞれ入射させることによりカラー画像の表示が可能となる。
 なお、プロジェクタ装置20Bは、単板式の液晶プロジェクタに限定されるものでなく、色分離光学系及び複数の液晶パネルを備える公知の3板式の液晶プロジェクタであってもよい。また、プロジェクタ装置20Bは、透過型液晶方式に限定されるものではなく、反射型液晶表示方式やDMD(Digital Mirror Device)等を用いた反射型表示方式等の他の各種方式を採用してもよい。
 素子ドライバ43は、制御部26の制御の下、表示用光学素子42を制御して、後述の投影画像生成部28が生成した投影画像データ24を表示させる。
 LED光源44は、本発明の投影光源に相当するものであり、表示用光学素子42の背面側(投影レンズ46に対向する面とは反対面側)から表示用光学素子42に対して白色光(本発明の投影光)を入射させる。これにより、表示用光学素子42から投影画像データ24に基づく投影画像の像光が出射される。光源ドライバ45は、制御部26の制御の下、LED光源44の駆動を制御する。なお、本発明の投影光源としてLED以外の光源を使用可能である。また、DMD等、R光、B光、G光を時分割で順次投影する表示用光学素子を用いる場合は、投影光源として、R光、B光、G光を時分割で表示用光学素子に順次照射させる光源を使用する。すなわち、本発明の投影光としては、R光、B光、G光などの白色光以外の光を用いることができる。
 投影レンズ46は、表示用光学素子42から出射される投影画像の像光を患者9に投影する。レンズドライバ47は、図示しないレンズ駆動部を介して、投影レンズ46のフォーカス制御等を行う。なお、本例ではPM装置20及び載置台15の位置がほぼ固定であるので、載置台15上の患者9に合わせて予めフォーカス調整等が行われている。
 制御部26は、データバス49を介して、タイミングジェネレータ31、光源ドライバ33、レンズドライバ37、距離画像センサ38、インターフェース回路40、素子ドライバ43、光源ドライバ45、及びレンズドライバ47等に接続している。この制御部26は、例えばCPU(Central Processing Unit)を含む各種の演算部及び処理部及び記憶部により構成されたものであり、メモリ27から読み出した制御用のプログラムやデータを実行することで、PM装置20の全体の動作や処理を統括制御する。また、この制御部26は、詳しくは後述するが、投影画像生成部28による投影画像データ24の生成に用いられるデータや情報の生成及び取得を行う(図3参照)。
 メモリ27は、制御部26が処理を実行するための制御用のプログラムの他に、詳しくは後述するが、患者9の体内でのカテーテル12の先端位置に関する情報の取得に用いられる内部構造情報50(本発明の内部構造に相当)及び挿入経路情報51(本発明の既知の経路に相当)を格納している(図3参照)。
 投影画像生成部28は、制御部26の制御の下、詳しくは後述するが、制御部26から入力されたデータや情報に基づいて本発明の投影画像である投影画像データ24の生成を行う。
 入力I/F29は、前述の透過画像生成部18や送り量センサ19に有線接続又は無線接続する通信インターフェースである。この入力I/F29は、透過画像生成部18から透過画像データ22を取得すると共に、送り量センサ19から送り量の検出結果を取得して、透過画像データ22及び送り量の検出結果を制御部26へ出力する。
 図3は、第1実施形態の制御部26の機能ブロック図である。なお、図3中ではデータバス49の図示は省略している。図3に示すように、制御部26は、メモリ27から読み出したプログラムやデータを実行することで、距離画像生成部53、位置情報取得部54、及び先端位置画像取得部55として機能する。
 距離画像生成部53は、前述のインターフェース回路40から入力されるデジタル信号に基づき、距離画像データ23を生成する。前述の通り、距離画像センサ38の各受光素子の受光量は患者9までの距離に応じて異なるため、距離画像データ23は、通常の2次元画像データの色や濃淡の代わりに、画素毎に距離画像センサ38から患者9までの距離情報をもったデータ、すなわち、患者9の表面の各点までの距離情報をもったデータであり、患者9までの距離及び患者9の表面形状を表している。距離画像生成部53は、生成した距離画像データ23を投影画像生成部28へ出力する。
 位置情報取得部54は、患者9の体内に挿入されているカテーテル12の先端位置を取得する。なお、ここでいう「先端位置」には、先端の向き(方位)に関する情報も含まれる。
 本例の位置情報取得部54は、入力I/F29を介して取得した透過画像データ22を用いてカテーテル12の先端位置を取得する方法と、入力I/F29を介して取得した送り量センサ19からの送り量の検出結果を用いてカテーテル12の先端位置を取得する方法とを選択可能である。なお、いずれの方法を選択するのかについては、ユーザが図示しない操作部等を操作して決定する。
 位置情報取得部54は、透過画像データ22を用いてカテーテル12の先端位置を取得する方法が選択された場合、この透過画像データ22と、メモリ27に予め格納されている内部構造情報50とに基づいて、カテーテル12の先端位置を取得する。
 図4は内部構造情報50の一例を示した説明図である。また、図5は透過画像データ22の一例を示した説明図である。図4に示すように、患者9の体内の血管内にカテーテル12を挿入する場合に用いられる内部構造情報50は、患者9の体内の血管の構造を示す情報である。この内部構造情報50は、患者9に対して事前にMRI(Magnetic Resonance Imaging)検査やCT(Computed Tomography)検査を行うことで取得可能である。内部構造情報50を参照することで、患者9の体内の血管の構造が得られる。
 図5に示すように、患者9の対応部位の透過画像データ22には、カテーテル12の先端の像と、カテーテル12の先端位置の周辺の血管の像とが含まれる。ここで、透過画像データ22は、既述の通りX線画像であるため、患者9に対して事前にX線を通さない造影剤を投与することにより透過画像データ22上で血管の像を映し出すことができる。
 図3に戻って、位置情報取得部54は、公知の手法(例えば特開2001-161091号公報参照)により透過画像データ22から血管の像を抽出して、透過画像データ22の血管の像と内部構造情報50が示す患者9の血管構造とをパターンマッチング法により比較する。これにより、位置情報取得部54は、透過画像データ22内の血管が、患者9の体内のどの位置にある血管であるかを識別することができる。
 また、透過画像データ22からカテーテル12の像を抽出する方法も公知である(例えば特開2007-229473号公報の段落0005参照)。従って、位置情報取得部54は、血管の識別結果と透過画像データ22内でのカテーテル12の位置とに基づき、患者9の体内に挿入されているカテーテル12の先端位置を取得することができる。
 一方、位置情報取得部54は、送り量センサ19からの送り量の検出結果を用いてカテーテル12の先端位置を取得する方法が選択された場合、この検出結果と、メモリ27に予め格納されている挿入経路情報51とに基づいて、カテーテル12の先端位置を取得する。
 患者9の体内の血管内にカテーテル12を挿入する場合に用いられる挿入経路情報51は、血管内へのカテーテル12の挿入位置と、このカテーテル12が目的位置に到達するまでに通る血管の経路とを示す情報である。この挿入経路情報51は、前述の内部構造情報50等に基づき医師が事前に決定してメモリ27に格納させておく。
 位置情報取得部54は、送り量センサ19からの送り量の検出結果と挿入経路情報51とを比較することで、カテーテル12の先端位置が挿入経路情報51における血管の経路上のいずれにあるのかを識別できる。挿入経路情報51における血管が患者9の体内のいずれに位置するのかは既知であるため、位置情報取得部54は、前述の血管の経路上でのカテーテル12の先端位置から、患者9の体内に挿入されているカテーテル12の先端位置を取得することができる。
 位置情報取得部54は、前述のいずれかの方法により患者9の体内でのカテーテル12の先端位置を取得した後、この先端位置を示す先端位置情報を投影画像生成部28へ出力する。
 先端位置画像取得部55は、透過画像生成部18から入力I/F29を介して透過画像データ22を取得し、この透過画像データ22を投影画像生成部28へ出力する。この透過画像データ22は、既述の図5に示したように、カテーテル12の先端の像とカテーテル12の先端位置の周辺の血管の像とを含む画像であるので、患者9の体内でのカテーテル12の先端位置を示す本発明の先端位置画像である。なお、本発明の先端位置画像としては、少なくとも先端位置における患者9の体内情報[臓器、筋肉、骨、関節、及び血管など]を含む、又は体内情報が表されている画像であることが好ましい。
 図6は、第1実施形態の投影画像生成部28による投影画像データ24の生成処理について説明するための説明図である。図6に示すように、投影画像生成部28は、先端位置画像取得部55により入力された透過画像データ22から、患者9に投影する投影画像データ24であって既述の表示用光学素子42に表示する投影画像データ24を生成する。
 具体的に、投影画像生成部28は、距離画像生成部53から入力された距離画像データ23と、位置情報取得部54から入力された先端位置情報とに基づき、カテーテル12の先端位置がある患者9の対応部位(図中の点線枠内に含まれる患者9の部位)の表面形状を識別する。ここでいう対応部位の表面形状とは、PM装置20側から見た患者9の対応部位の表面形状であり、例えばカテーテル12の先端位置が移動していない場合であっても患者の位置や姿勢が変化すれば投影画像生成部28により識別される対応部位の表面形状は変わる。これにより、患者のリアルタイムの位置や姿勢に応じた対応部位の表面形状が識別される。
 次いで、投影画像生成部28は、対応部位の表面形状の識別結果に基づき、透過画像データ22を患者9の対応部位に合わせた形状に変形して投影画像データ24を生成する。本例の投影画像生成部28は、透過画像データ22から濃度がほぼ一様な余白領域を検出することで、透過画像データ22から患者9の対応部位に相当する領域を抽出し、抽出し領域の画像データを患者9の対応部位に合わせた形状に変形して投影画像データ24を生成する。
 この際に、本例ではX線平面検出器17によるX線の撮像方向と、PM装置20による距離画像データ23の撮像方向とがほぼ同一であるため、透過画像データ22を投影画像データ24に変形する変形処理は拡大縮小処理が主になる。一方、X線平面検出器17によるX線の撮像方向と、PM装置20による距離画像データ23の撮像方向とが異なる場合には、拡大縮小処理に加えて射影変換処理などを行う。
 また、投影画像生成部28は、距離画像データ23及び先端位置情報から判別されるPM装置20(プロジェクタ装置20B)から患者9の対応部位までの距離と、投影レンズ46の焦点距離情報とに基づき、投影画像データ24に基づく投影画像が患者9の対応部位に重ねて投影されるように、表示用光学素子42上での投影画像データ24の表示位置及び大きさを決定する。そして、投影画像生成部28は、投影画像データ24を前述の素子ドライバ43へ出力する。これにより、素子ドライバ43によって、投影画像生成部28から入力された投影画像データ24が、投影画像生成部28が決定した位置及び大きさで表示用光学素子42に表示される。
 図7は、投影画像データ24に基づく投影画像の患者9への投影を説明するための説明図である。図8は、投影画像データ24に基づく投影画像が患者9に投影されている状態を説明するための説明図である。
 図7に示すように、表示用光学素子42により投影画像データ24が表示されると、LED光源44から出射された白色光が表示用光学素子42により変調され、投影画像データ24に基づく投影画像の像光が患者9の対応部位に投影される。これにより、図8に示すように、患者9の対応部位上に投影画像データ24に基づく投影画像、すなわち、患者9の体内でのカテーテル12の先端位置を示す画像が投影される。
 この際に、投影画像内でのカテーテル12の先端位置が実際の患者9の体内でのカテーテル12の先端位置と一致するように、投影画像生成部28による投影画像データ24の生成と、表示用光学素子42上での投影画像データ24の表示位置及び大きさの決定とを行ってもよい。
 図9は、投影画像生成部28による投影画像データ24の生成処理の変形例について説明するための説明図である。
 図9に示すように、投影画像生成部28は、前述の位置情報取得部54が取得した先端位置情報と、距離画像データ23と対比することで、距離画像データ23上において患者9の体内に挿入されているカテーテル12の先端位置(図中、十字で表示)を取得する。また、投影画像生成部28は、透過画像データ22からカテーテル12の像を抽出することで、透過画像データ22内でのカテーテル12の先端位置を取得することができる。これにより、投影画像生成部28は、透過画像データ22内でのカテーテル12の先端位置と患者9の体内でのカテーテル12の先端位置とが一致するように、投影画像データ24の生成と投影画像データ24の表示位置及び大きさの決定とを行うことができる。
 なお、距離画像生成部53による距離画像データ23の生成、位置情報取得部54による先端位置情報の取得、及び先端位置画像取得部55による透過画像データ22の取得は繰り返し行われ、これに応じて投影画像生成部28による新たな投影画像データ24の生成も繰り返し行われる。その結果、患者9の対応部位に投影される投影画像が更新される。
 [第1実施形態の手術支援システムの作用]
 次に、図10を用いて上記構成の手術支援システム10の作用について説明を行う。図10は、第1実施形態の手術支援システム10のPM装置20による投影画像の投影処理の流れを示すフローチャートである。なお、患者9の内部構造情報50や挿入経路情報51は予め取得され、メモリ27内に格納されているものとする。
 医師による患者9の体内の血管内へのカテーテル12の挿入開始前に手術支援システム10の各部が起動され、その後、医師により患者9の血管内にカテーテル12が挿入される。
 手術支援システム10の起動がなされると、X線管16からの患者9の対応部位に対するX線の照射と、X線平面検出器17による患者9を透過したX線の検出と、透過画像生成部18による透過画像データ22の生成とが行われる。透過画像生成部18により生成された透過画像データ22は、入力I/F29を介してPM装置20の制御部26に入力される。これにより、制御部26の先端位置画像取得部55は、患者9の体内でのカテーテル12の先端位置を示す透過画像データ22を取得し、この透過画像データ22を投影画像生成部28へ出力する(ステップS1)。
 また、手術支援システム10の起動がなされると、PM装置20の制御部26が光源ドライバ33を制御してLED光源32の駆動を開始する。これにより、LED光源32が、タイミングジェネレータ31から入力されるタイミング信号に同期してパルス光を出射する。そして、LED光源32から出射したパルス光は、投影レンズ35により患者9に向けて照射される(ステップS2)。
 患者9に向けて照射されたパルス光は、患者9の体表面にて反射されて結像レンズ36に入射し、この結像レンズ36により距離画像センサ38に結像される。これにより、患者9にて反射されたパルス光が距離画像センサ38で受光される(ステップS3)。そして、患者9にて反射されたパルス光の入射光量に応じた受光信号が距離画像センサ38から読み出され、この受光信号はAD変換器39にてデジタル信号に変換された後、インターフェース回路40を経て制御部26に入力される。
 制御部26の距離画像生成部53は、インターフェース回路40から入力されたデジタル信号に基づき距離画像データ23を生成し、この距離画像データ23を投影画像生成部28へ出力する(ステップS4)。なお、ステップS2からステップS4までの処理は、ステップS1の処理の前、或いはステップS1の処理と並行して行ってもよい。
 また、位置情報取得部54は、既述の透過画像データ22を用いる方法と、既述の送り量センサ19からの送り量の検出結果を用いる方法とのいずれかを用いて、患者9の体内に挿入されているカテーテル12の先端位置を取得して、先端位置情報を投影画像生成部28へ出力する(ステップS5)。前者の方法を用いた場合には、現実に撮影された透過画像データ22からカテーテル12の正確な先端位置を取得することができる。また、後者の方法を用いた場合にはカテーテル12の先端位置を簡単に取得することができる。
 次いで、投影画像生成部28は、既述の図6に示したように、距離画像生成部53から入力された距離画像データ23と、位置情報取得部54から入力される先端位置情報とに基づき、カテーテル12の先端位置がある患者9の対応部位の表面形状を識別する。そして、投影画像生成部28は、対応部位の表面形状の識別結果に基づき、透過画像データ22を患者9の対応部位に合わせた形状に変形して投影画像データ24を生成する(ステップS6)。
 また、投影画像生成部28は、投影画像データ24に基づく投影画像が患者9の対応部位に重ねて投影されるように、距離画像データ23及び先端位置情報から判別される患者9の対応部位までの距離と、投影レンズ46の焦点距離情報とに基づき、表示用光学素子42上での投影画像データ24の表示位置及び大きさを決定する。そして、投影画像生成部28は、投影画像データ24を素子ドライバ43へ出力する。
 この際に、既述の図9で説明したように、透過画像データ22内でのカテーテル12の先端位置と患者9の体内でのカテーテル12の先端位置とが一致するように、投影画像生成部28による投影画像データ24の生成、表示位置及び大きさの決定を行ってもよい。これにより、患者9に投影される投影画像上で、患者9の体内に挿入されているカテーテル12の位置を忠実に再現することができる。
 素子ドライバ43は、投影画像生成部28から入力された投影画像データ24を、投影画像生成部28が決定した位置及び大きさで表示用光学素子42に表示させる。これにより、LED光源44から出射された白色光が表示用光学素子42により変調され、投影画像データ24に基づく投影画像の像光が患者9の対応部位に投影される。その結果、既述の図8に示したように、患者9の対応部位上に投影画像データ24に基づく投影画像が投影され、この投影画像により患者9の体内でのカテーテル12の先端位置が示される(ステップS7)。
 以下、投影画像の投影を継続する場合には、前述のステップS1からステップS7までの処理が繰り返し実行される(ステップS8)。その結果、患者9の血管内でのカテーテル12の先端の移動に伴い、投影画像データ24が更新されるともに、この投影画像データ24に基づく投影画像が投影される患者9の対応部位も変化する。
 [第1実施形態の効果]
 以上のように、第1実施形態の手術支援システム10では、患者9の距離画像データ23と、患者9の体内でのカテーテル12の先端位置を示す先端位置情報とに基づき、透過画像データ22から患者9の対応部位の表面形状に対応した投影画像データ24を生成して、この投影画像データ24の像光を患者9の対応部位に投影するので、患者9を動かした場合でも患者のリアルタイムの位置や姿勢の変化に合わせて、患者9の体内でのカテーテル12の先端位置を表す投影画像を患者9の対応部位に投影することができる。また、患者9の体内に挿入されているカテーテル12の位置を、患者9の体表面上に再現することができる。
 また、患者9の対応部位の透過画像データ22から投影画像データ24を生成して、この投影画像データ24に基づく投影画像を患者9に投影しているので、医師は患者9から視線を反らすことなく(別途のモニタを確認することなく)、カテーテル12の挿入を行うことができる。
 [第2実施形態の手術支援システム]
 次に、第2実施形態の手術支援システム(PM装置)について説明を行う。上記第1実施形態の手術支援システム10では、透過画像データ22を用いて投影画像データ24を生成しているが、第2実施形態の手術支援システム(PM装置)では、既述の図4に示した内部構造情報50を用いて投影画像データ24の生成を行う。
 第2実施形態の手術支援システムは、第1実施形態とは異なるPM装置60(図11参照)を備える点を除けば、上記第1実施形態の手術支援システム10と基本的に同じ構成である。このため、上記第1実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。なお、第2実施形態の手術支援システムでは、透過画像データ22の取得に係る構成は必須ではない。
 図11は、第2実施形態のPM装置60の構成を示すブロック図である。図11に示すように、第2実施形態のPM装置60は、制御部26が既述の距離画像生成部53及び位置情報取得部54及び先端位置画像取得部55の他に、先端位置画像生成部62として機能する点を除けば、上記第1実施形態のPM装置20と基本的に同じ構成である。
 なお、第2実施形態の位置情報取得部54が、既述の透過画像データ22を用いる方法により患者9の体内に挿入されているカテーテル12の先端位置を取得する場合、位置情報取得部54は、第1実施形態と同様に透過画像データ22の入力を受ける。
 先端位置画像生成部62は、位置情報取得部54から取得した先端位置情報と、メモリ27に格納されている内部構造情報50とに基づき、患者9の体内でのカテーテル12の先端位置を表す本発明の先端位置画像である先端位置画像データ64(図12参照)を生成する。
 図12は、先端位置画像生成部62による先端位置画像データ64の生成処理の一例を説明するための説明図である。図12に示すように、先端位置画像生成部62は、位置情報取得部54から取得した先端位置情報(図中の十字で表示)に基づき、メモリ27に格納されている内部構造情報50を参照して、患者9の対応部位(図中、点線枠で表示)における血管構造を内部構造情報50から抽出する。そして、先端位置画像生成部62は、抽出した患者9の対応部位の血管構造と、先端位置情報が示す血管内でのカテーテル12とをモデル化したモデル画像(仮想画像)を構築することにより、先端位置画像データ64を生成する。
 先端位置画像データ64は、カテーテル12の先端のモデル画像とカテーテル12の先端位置の周辺の血管のモデル画像とを含むので、患者9の体内でのカテーテル12の先端位置を示す画像である。
 図11に戻って、第2実施形態の先端位置画像取得部55は、先端位置画像生成部62から先端位置画像データ64を取得して、この先端位置画像データ64を投影画像生成部28へ出力する。
 第2実施形態の投影画像生成部28は、距離画像データ23及び先端位置情報に基づき、先端位置画像取得部55から入力された先端位置画像データ64から投影画像データ24を生成する。具体的な投影画像データ24の生成方法は、既述の図6に示した第1実施形態と基本的に同じである。なお、これ以降の処理を行う構成は、第1実施形態と同じであるので説明は省略する。
 [第2実施形態の手術支援システムの作用]
 次に、図13を用いて第2実施形態の手術支援システムの作用について説明を行う。図10は、第2実施形態の手術支援システムのPM装置60による投影画像の投影処理の流れを示すフローチャートである。なお、第2実施形態では、既述の図10に示した第1実施形態のような投影画像データ24の生成を目的とした透過画像データ22(図5参照)の取得は行わないものの、ステップS2からステップS5までの処理は第1実施形態と同じであるので、ここでは説明を省略する。
 ステップS5の処理後、先端位置画像生成部62は、位置情報取得部54から取得した先端位置情報に基づき、メモリ27に格納されている内部構造情報50を参照して、患者9の対応部位における血管構造を内部構造情報50から抽出する(ステップS5A)。そして、先端位置画像生成部62は、既述の図12に示したように、抽出した患者9の対応部位の血管構造と、先端位置情報が示す血管内でのカテーテル12とをモデル化したモデル画像を構築することにより、先端位置画像データ64を生成する(ステップS5B)。これにより、第1実施形態のような透過画像データ22を取得する構成を備えていなくとも、カテーテル12の先端位置を示す先端位置画像データ64を取得することができる。
 先端位置画像生成部62による先端位置画像データ64の生成が行われると、先端位置画像取得部55は、先端位置画像生成部62から先端位置画像データ64を取得して、この先端位置画像データ64を投影画像生成部28へ出力する。
 投影画像生成部28は、第1実施形態と基本的に同じ方法にて、距離画像データ23及び先端位置情報とに基づき、先端位置画像取得部55から入力された先端位置画像データ64から投影画像データ24を生成する(ステップS6A)。
 これ以降の処理は、既述の図10に示した第1実施形態と同じであるので、具体的な説明は省略する。
 [第2実施形態の効果]
 以上のように、第2実施形態の手術支援システムにおいても、患者9の距離画像データ23と、患者9の体内でのカテーテル12の先端位置を示す先端位置情報とに基づき、先端位置画像データ64から患者9の対応部位の表面形状に対応した投影画像データ24を生成して、患者9の対応部位に投影画像データ24の像光を投影するため、上記第1実施形態と同様の効果が得られる。
 [第3実施形態の手術支援システム]
 次に、第3実施形態の手術支援システムについて説明を行う。上記各実施形態では、患者9の体内に挿入される医療機器として体内の既知の経路(血管等)を通るカテーテル12を例に挙げて説明したが、第3実施形態の手術支援システムでは腹腔鏡65(本発明の医療機器に相当、図14参照)を用いる場合について説明する。
 図14は、腹腔鏡65を用いた腹腔鏡手術の一例を説明するための説明図である。図14に示すように、腹腔鏡手術では、患者9の体壁に形成された処置孔にトラカール67を挿置及び固定した状態で、医師がトラカール67の挿入孔を通して患者9の体内(第3実施形態では体腔内)に腹腔鏡65を挿入して腹腔鏡65により体内の臓器の撮像を行う。そして、医師は、腹腔鏡65により得られた臓器の撮像画像を確認しつつ、トラカール67の挿入孔を通して患者9の体内に鉗子などの処置具68を挿入して、処置具68により臓器に対して各種の処置を行う。
 第3実施形態の手術支援システムでは、患者9のリアルタイムの位置や姿勢に合わせて、患者9の体内での腹腔鏡65の先端位置を表す投影画像を患者の対応部位に投影する。なお、腹腔鏡65の代わり或いは腹腔鏡65と同時に処置具68の先端位置を表す投影画像を患者9の対応部位に投影してもよいが、本例では説明及び図面の煩雑化を防止するため、腹腔鏡65の先端位置のみを表す投影画像を患者9の対応部位に投影する。
 第3実施形態の手術支援システムは、上記各実施形態とは異なるPM装置70(図15参照)を備え且つ送り量センサ19を備えない点を除けば、上記各実施形態のうちの第2実施形態の手術支援システムと基本的に同じ構成である。このため、上記第2実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。
 図15は、第3実施形態のPM装置70の構成を示すブロック図である。図15に示すように、第3実施形態のPM装置70は、制御部26が既述の距離画像生成部53及び先端位置画像取得部55の他に、位置情報取得部72及び先端位置画像生成部73として機能する点を除けば、上記第2実施形態のPM装置60と基本的に同じ構成である。
 位置情報取得部72は、患者9の体内に挿入されている腹腔鏡65の先端位置を取得する。この腹腔鏡65の先端部には、撮像レンズ及び各種のイメージセンサを含む撮像部75と、ジャイロセンサ76と、加速度センサ77とが内蔵されている。ジャイロセンサ76は、腹腔鏡65の先端に回転が生じた時に発生する角速度を測定し、その測定信号を入力I/F29へ出力する。加速度センサ77は、腹腔鏡65の先端の加速度(例えばXYZの3軸の加速度)を測定し、その測定信号を入力I/F29へ出力する。
 位置情報取得部72は、入力I/F29を介してジャイロセンサ76及び加速度センサ77の測定信号を一定時間間隔ごとに取得する。また、位置情報取得部72は、患者9の体内への腹腔鏡65の挿入位置PS(図16参照)を取得する。この挿入位置PSにおいて腹腔鏡65の一部は患者9の体外にあるので、位置情報取得部72は、例えば距離画像データ23を解析して患者9の体外にある腹腔鏡65(トラカール67)を識別した識別結果に基づき、腹腔鏡65の挿入位置PSを取得することができる。また、腹腔鏡65の挿入位置PSが予め定められている場合には、後述の内部構造情報79(図17参照)上での挿入位置PSを示す空間座標等をPM装置70に入力してもよい。
 図16は、第3実施形態の位置情報取得部72による患者9の体内での腹腔鏡65の先端位置の取得処理について説明するための説明図である。図16に示すように、位置情報取得部72は、入力I/F29を介してジャイロセンサ76及び加速度センサ77から一定時間間隔ごとに入力される測定信号に基づき、患者9の体内への腹腔鏡65の挿入位置PSから、腹腔鏡65の先端の移動方向及び移動量(どの方向にどれだけ移動したのか)を検出する。これにより、位置情報取得部72は、患者9の体内に挿入されている腹腔鏡65の先端位置を取得することができ、この先端位置を示す先端位置情報を先端位置画像生成部73及び投影画像生成部28へ出力する。
 図15に戻って、先端位置画像生成部73は、位置情報取得部72から取得した先端位置情報と、メモリ27に格納されている内部構造情報79とに基づき、患者9の体内での腹腔鏡65の先端位置を表す本発明の先端位置画像である先端位置画像データ81(図18参照)を生成する。
 図17は、第3実施形態の内部構造情報79の一例を示した説明図である。図17に示すように、患者9の体内に腹腔鏡65を挿入する場合の内部構造情報79は、患者9の体内の臓器(肺、心臓、肝臓、膵臓、腎臓等)の配置構造を示す情報である。この内部構造情報79は、上記第1実施形態で説明した内部構造情報50(図4参照)と同様に、患者9に対して事前にMRI検査やCT検査を行うことで取得可能である。内部構造情報79を参照することで、患者9の体内の臓器の配置構造が得られる。
 図18は、第3実施形態の先端位置画像生成部73による先端位置画像データ81の生成処理を説明するための説明図である。図18に示すように、先端位置画像生成部73は、位置情報取得部72から取得した先端位置情報(図中の十字で表示)に基づき、メモリ27に格納されている内部構造情報79を参照して、患者9の対応部位(図中、点線枠で表示)における臓器の種類を識別する。なお、第3実施形態における患者9の「対応部位」とは、患者9の体内において腹腔鏡65の先端位置が存在する部位であり、図18では先端位置が「肝臓」と「腸」とにそれぞれある場合を例示している。
 そして、先端位置画像生成部73は、患者9の対応部位における臓器の種類の識別結果に基づき、この対応部位の臓器をモデル化したモデル画像(仮想画像)を構築することにより、先端位置画像データ81を生成する。この先端位置画像データ81は、腹腔鏡65の先端位置がある患者9の体内の臓器のモデル画像であるので、患者9の体内での腹腔鏡65の先端位置を示す画像である。なお、位置情報取得部72から取得した先端位置情報に基づき、患者9の体内にある腹腔鏡65のモデル画像を生成し、このモデル画像を先端位置画像データ81に合成表示させてもよい。
 図15に戻って、第3実施形態の先端位置画像取得部55は、第2実施形態と基本的に同じであり、先端位置画像生成部73から先端位置画像データ81を取得して、この先端位置画像データ81を投影画像生成部28へ出力する。
 第3実施形態の投影画像生成部28は、既述の第1実施形態の図6で説明したように、距離画像データ23及び先端位置情報に基づき、先端位置画像取得部55から入力された先端位置画像データ81から、患者9の対応部位の表面形状に対応する投影画像データ24(図19、図20参照)を生成する。
 また、第3実施形態の投影画像生成部28は、上記第1実施形態と同様にして投影画像データ24に基づく投影画像が患者9の対応部位に重ねて投影されるように、表示用光学素子42上での投影画像データ24の表示位置及び大きさを決定する。そして、投影画像生成部28は、投影画像データ24を前述の素子ドライバ43へ出力する。
 なお、先端位置画像データ81に腹腔鏡65のモデル画像を合成している場合には、既述の第1実施形態の図9で説明したように、投影画像内での腹腔鏡65の先端位置が実際の患者9の体内での先端位置と一致するように、投影画像生成部28による投影画像データ24の生成と、表示用光学素子42上での投影画像データ24の表示位置及び大きさの決定とを行ってもよい。
 図19は、第3実施形態の投影画像データ24に基づく投影画像の患者9への投影を説明するための説明図である。図20(A),(B)は、第3実施形態の投影画像データ24に基づく投影画像が患者9に投影されている状態を説明するための説明図である。ここで、図20(A)は腹腔鏡65の先端位置が「腸」にある場合を示し、図20(B)は腹腔鏡65の先端位置が「肝臓」にある場合を示す。
 図19に示すように、表示用光学素子42により投影画像データ24が表示されると、LED光源44から出射された白色光が表示用光学素子42により変調され、投影画像データ24に基づく投影画像の像光が患者9の対応部位(図中、点線枠で表示)に投影される。これにより、図20(A),(B)に示すように、患者9の対応部位上に投影画像データ24に基づく投影画像が投影され、この投影画像により患者9の体内での腹腔鏡65の先端位置が示される。
 距離画像生成部53による距離画像データ23の生成、位置情報取得部72による先端位置情報の取得、先端位置画像生成部73による先端位置画像データ81の生成、及び先端位置画像取得部55による先端位置画像データ81の取得は繰り返し行われ、これらに応じて投影画像生成部28による新たな投影画像データ24の生成も繰り返し行われる。その結果、患者9の対応部位に投影される投影画像が更新される。これにより、例えば、腹腔鏡65の先端位置が「腸」から「肝臓」に移動した場合、図20(A),(B)に示したように、患者9に投影される投影画像の位置が「腸」に対応する対応部位から「肝臓」に対応する対応部位に移動すると共に、投影画像も「腸」の画像から「肝臓」の画像に切り替わる。
 [第3実施形態の手術支援システムの作用]
 第3実施形態の手術支援システムの作用、すなわち、投影画像の投影処理の流れについては、既述の第2実施形態の図13に示したフローと基本的に同じである。ただし、第3実施形態のステップS5の処理では、位置情報取得部72は、腹腔鏡65のジャイロセンサ76及び加速度センサ77の測定信号に基づき、患者9の体内に挿入されている腹腔鏡65の先端位置を取得する。また、第3実施形態のステップS5A,S5Bの処理では、先端位置画像生成部73は、位置情報取得部72から取得した先端位置情報に基づき、メモリ27内の内部構造情報79を参照して、先端位置画像データ81を生成する。
 [第3実施形態の効果]
 以上のように、第3実施形態の手術支援システムにおいても、患者9の距離画像データ23と、患者9の体内での腹腔鏡65の先端位置を示す先端位置情報とに基づき、先端位置画像データ81から患者9の対応部位の表面形状に対応した投影画像データ24を生成して、患者9の対応部位に投影画像データ24の像光を投影するので、上記各実施形態と同様の効果が得られる。
 また、腹腔鏡65のジャイロセンサ76及び加速度センサ77の測定信号に基づき、患者9の体内に挿入されている腹腔鏡65の先端位置を取得するので、患者9の体内(体腔内)で腹腔鏡65の先端位置を自由に移動させた場合でも、患者9の体内に挿入されている腹腔鏡65の先端位置を取得することができる。
 [第4実施形態の手術支援システム]
 次に、第4実施形態の手術支援システムについて説明を行う。上記第3実施形態の手術支援システムのPM装置70の位置情報取得部72は、腹腔鏡65のジャイロセンサ76及び加速度センサ77の測定信号に基づき、患者9の体内に挿入されている腹腔鏡65の先端位置を取得している。これに対して、第4実施形態では腹腔鏡65により撮像された患者9の体内の撮像画像データ83(図21参照)を用いて、患者9の体内に挿入されている腹腔鏡65の先端位置を取得する。
 図21は、第4実施形態の手術支援システムのPM装置85の構成を示すブロック図である。図21に示すように、第4実施形態のPM装置85は、制御部26が第3実施形態の位置情報取得部72の代わりに位置情報取得部86として機能する点を除けば、上記第3実施形態のPM装置70と基本的に同じ構成である。このため、上記第3実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。
 位置情報取得部86は、第3実施形態の位置情報取得部72とは異なる方法で、患者9の体内(体腔内)に挿入されている腹腔鏡65の先端位置を取得する。この位置情報取得部86は、腹腔鏡65の撮像部75にて撮像された患者9の体内の撮像画像データ83を、入力I/F29を介して一定時間間隔ごとに取得する。また、位置情報取得部86は、第3実施形態の位置情報取得部72と同様の手法にて、患者9の体内への腹腔鏡65の挿入位置PS(図22参照)を取得する。
 図22は、第4実施形態の位置情報取得部86による患者9の体内での腹腔鏡65の先端位置の取得処理について説明するための説明図である。図22に示すように、位置情報取得部86は、入力I/F29を介して撮像部75から一定時間間隔ごとに入力される連続する撮像画像データ83に基づき、挿入位置PSからの腹腔鏡65の先端の挿入経路(移動経路)を示す挿入経路情報88を取得する。すなわち、第4実施形態の位置情報取得部86は、本発明の挿入経路情報取得部86aとして機能する。
 具体的に、挿入経路情報取得部86aは、公知のSLAM(Simultaneous Localization and Mapping)技術を用いて、撮像部75から入力される連続する撮像画像データ83に基づいて、挿入位置PSからの腹腔鏡65の先端の挿入経路をマッピング処理する。例えば、挿入経路情報取得部86aは、連続する撮像画像データ83から各々の特徴点(画像データ間の対応付けが取り易いコーナ点など)を抽出し、連続する撮像画像データ83における各特徴点の軌跡を求めることで、腹腔鏡65の先端の挿入経路をマッピング処理する。これにより、挿入位置PSからの腹腔鏡65の先端の挿入経路情報88が取得される。
 挿入経路情報88は、腹腔鏡65の先端が挿入位置PSからの移動方向及び移動量(どの方向にどれだけ移動したのか)を示す情報となる。従って、位置情報取得部86は、挿入経路情報取得部86aが取得した挿入経路情報88に基づき、患者9の体内に挿入されている腹腔鏡65の先端位置を取得することができ、この先端位置を示す先端位置情報を先端位置画像生成部73及び投影画像生成部28へ出力する。
 なお、先端位置情報の取得以降の処理を行う構成は、上記第3実施形態のPM装置70と基本的に同じであるので、具体的な説明は省略する。
 [第4実施形態の手術支援システムの作用]
 第4実施形態の手術支援システムの作用、すなわち、投影画像の投影処理の流れについても、第3実施形態と同様に既述の第2実施形態の図13に示したフローと基本的に同じである。ただし、第4実施形態のステップS5の処理では、位置情報取得部86は、腹腔鏡65の撮像部75に撮像された撮像画像データ83と、挿入経路情報取得部86aが取得した挿入経路情報88とに基づいて、患者9の体内に挿入されている腹腔鏡65の先端位置を取得する。
 [第4実施形態の効果]
 以上のように、第4実施形態の手術支援システムにおいても、患者9の距離画像データ23と、患者9の体内での腹腔鏡65の先端位置を示す先端位置情報とに基づき、先端位置画像データ81から患者9の対応部位の表面形状に対応した投影画像データ24を生成して、患者9の対応部位に投影画像データ24の像光を投影するので、上記各実施形態と同様の効果が得られる。
 また、腹腔鏡65により連続撮像された撮像画像データ83に基づき、挿入位置PSからの挿入経路情報88を求めることにより腹腔鏡65の先端位置を取得するので、上記第3実施形態と同様に、患者9の体内(体腔内)で腹腔鏡65の先端位置を自由に移動させた場合でも、患者9の体内に挿入されている腹腔鏡65の先端位置を取得することができる。
 [第5実施形態の手術支援システム(PM装置)]
 次に、本発明の第5実施形態の手術支援システムについて説明を行う。上記各実施形態の手術支援システムのPM装置は距離画像データ23の取得用にLED光源32を備えている。これに対して、第5実施形態では異なる波長のパルス光(測定光)を照射する複数のLED光源の中から、距離画像センサ38で受光されるパルス光の強度(受光量)が高くなる方のLED光源を用いて患者9にパルス光の照射を行う。
 図23は、第5実施形態の手術支援システムのPM装置90の構成を示すブロック図である。図23に示すように、第5実施形態のPM装置90は、異なる波長のパルス光を照射するLED光源32A,32B(本発明の光源ユニットに相当)を備え、且つ制御部26が距離画像生成部53等の他に、光源制御部91として機能する点を除けば上記各実施形態のPM装置と基本的に同じ構成である。このため、上記各実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。
 LED光源32A,32Bは、上記各実施形態のLED光源32と同様に、光源ドライバ33により駆動が制御され、タイミングジェネレータ31から入力されるタイミング信号に同期して一定のパルス幅のパルス光を発光する。
 光源制御部91は、光源ドライバ33を制御して、LED光源32A,32Bからのパルス光の照射を制御する。この光源制御部91は、切替制御部92としても機能する。
 切替制御部92は、距離画像生成部53による距離画像データ23の生成前(例えば、PM装置90の起動時など)に、LED光源32A,32Bから1つずつ順番にパルス光を照射させることにより、患者9にパルス光を照射するLED光源を切り替える。これにより、PM装置90から患者9に照射されるパルス光の波長が切り替えられる。
 このような患者9に照射されるパルス光の波長の切り替えにより、第5実施形態の距離画像センサ38は、結像レンズ36を介して、患者9にて反射されたパルス光を波長毎に受光する。ここで、患者9の体表面(照射面)がパルス光を反射する反射率は、患者9の着用している着衣の材質や色彩、患者9の肌の色、及び患者9に対するパルス光の入射角度などに応じて、パルス光の波長毎に異なる。このため、患者9にて反射されるパルス光の強度はその波長毎に異なる。
 第5実施形態の距離画像センサ38は、タイミングジェネレータ31から入力されるタイミング信号により、LED光源32A,32Bの個々のパルス光の発光と同期して、露光期間が制御される。既述の通り、距離画像センサ38の各受光素子には、露光期間に入射するパルス光の光量に対応する電荷が蓄積される。従って、露光期間に入射するパルス光の入射光量、すわなち、患者9にて反射されるパルス光の強度が高いほど距離画像センサ38の露光量が多くなる。この距離画像センサ38から、患者9にて反射されたパルス光の入射光量(強度)に応じた受光信号がパルス光の波長毎に読み出され、波長毎の受光信号はAD変換器39にてデジタル信号に変換された後、インターフェース回路40を介して光源制御部91に入力される。
 光源制御部91は、パルス光の波長毎のデジタル信号に基づき、距離画像センサ38が波長毎に受光したパルス光の強度を比較する。そして、光源制御部91は、距離画像センサ38が波長毎に受光したパルス光の中で、最も強度が高くなる波長のパルス光を出射するLED光源がLED光源32A,32Bのいずれであるかを判定する。次いで、光源制御部91は、最も強度が高くなる波長のパルス光を出射するLED光源を、距離画像データ23の生成用のパルス光を出射するLED光源として決定し、光源ドライバ33を制御して、決定したLED光源からパルス光を出射させる。
 第5実施形態の距離画像生成部53は、光源制御部91の制御の下、最も強度が高くなる波長のパルス光を出射するLED光源から患者9に対してパルス光が照射された場合、距離画像センサ38からAD変換器39及びインターフェース回路40を介して入力されたデジタル信号に基づき、距離画像データ23の生成を行う。
 なお、距離画像データ23の生成以降の処理を行う構成は、上記各実施形態のPM装置と基本的に同じであるので、具体的な説明は省略する。
 [第5実施形態の手術支援システムの作用]
 次に、図24を用いて第5実施形態の手術支援システムの作用、すなわち、LED光源の決定処理の流れについて説明する。図24は、距離画像データ23の生成用のパルス光を出射するLED光源の決定処理の流れを示すフローチャートである。
 PM装置90の起動がなされると、制御部26の光源制御部91の切替制御部92は、LED光源32A,32Bの中から最初にパルス光を出射するLED光源を選択する(ステップS11)。ここではLED光源32Aが選択されたものとする。次いで、光源制御部91は、光源ドライバ33を制御してLED光源32Aの駆動を開始する。これにより、LED光源32Aが、タイミングジェネレータ31から入力されるタイミング信号に同期してパルス光を出射する。そして、LED光源32Aから出射したパルス光は、投影レンズ35により患者9に向けて照射される(ステップS12)。
 患者9に向けて照射されたパルス光は、患者9の体表面にて反射されて結像レンズ36に入射し、この結像レンズ36により距離画像センサ38に結像される。これにより、患者9にて反射されたパルス光が距離画像センサ38で受光される(ステップS13)。そして、距離画像センサ38から患者9にて反射されたパルス光の入射光量に応じた受光信号が読み出され、この受光信号はAD変換器39にてデジタル信号に変換された後、インターフェース回路40を経て光源制御部91に入力される。
 次いで、光源制御部91の切替制御部92は、光源ドライバ33を制御してLED光源32Aの駆動を停止すると共に、LED光源32Bの駆動を開始する。すなわち、切替制御部92は、患者9にパルス光を照射するLED光源をLED光源32AからLED光源32Bに切り替える(ステップS14でYES、ステップS15)。
 LED光源32Bへの切替後、既述のステップS12及びステップS13の処理が繰り返し実行される。これにより、患者9に向けてLED光源32Bのパルス光が照射されると共に、患者9にて反射されたパルス光の入射光量に応じた受光信号が距離画像センサ38から読み出される。そして、この受光信号はAD変換器39にてデジタル信号に変換された後、インターフェース回路40を経て光源制御部91に入力される。
 本例では異なる波長のLED光源32A,32Bを用いるので、光源制御部91は、パルス光の波長毎のデジタル信号に基づき、距離画像センサ38が波長毎に受光したパルス光の強度を比較する(ステップS14でNO、ステップS16)。そして、光源制御部91は、距離画像センサ38が波長毎に受光したパルス光の中で、最も強度が高くなる波長のパルス光を出射するLED光源を判定し、このLED光源を、距離画像データ23の生成用のパルス光を出射するLED光源として決定する(ステップS17)。そして、光源制御部91は、光源ドライバ33を制御して、決定したLED光源からパルス光を出射させる(ステップS18)。
 これ以降の処理は、既述の図10又は図13に示したステップS3以降の処理と基本的に同じであるので、ここでは具体的な説明は省略する。
 [第5実施形態の効果]
 以上のように、第5実施形態の手術支援システムのPM装置90では、異なる波長のパルス光を照射するLED光源32A,32Bの中から、距離画像センサ38で受光されるパルス光の強度(受光量)が高くなる方を用いて患者9にパルス光の照射を行うので、距離画像データ23に基づいた患者9までの距離の判定精度や患者9の形状判定精度を向上させることができる。
 <第5実施形態の変形例>
 上記第5実施形態のPM装置90には、異なる波長のパルス光を照射するLED光源32A,32Bが設けられているが、波長の異なる3以上のLED光源が設けられていてもよい。この場合には、各LED光源の中から、距離画像センサ38で受光されるパルス光の強度が最も高くなる方のLED光源を用いて患者9にパルス光の照射を行う。
 上記第5実施形態では、パルス光を照射するLED光源を切り替えているが、例えば、LED光源から出射されるパルス光の光路上に、異なる波長の光を透過させる複数のフィルタを選択的に配置することにより、患者9に対して照射されるパルス光の波長を切り替えてもよい。
 [第6実施形態の手術支援システム(PM装置)]
 次に、本発明の第6実施形態の手術支援システムについて説明を行う。上記各実施形態のPM装置では、距離画像生成部53により患者9の全範囲(ほぼ全範囲を含む)の距離画像データ23を生成しているが、第6実施形態の手術支援システムのPM装置100(図25参照)では、患者9に投影される投影画像の投影範囲APに応じて、距離画像データ23の生成範囲ATの設定を行う(図26参照)。
 図25は、第6実施形態の手術支援システムのPM装置100の構成を示すブロック図である。図25に示すように、第6実施形態のPM装置100は、メモリ27内に焦点距離情報102を格納すると共に、制御部26が距離画像生成部53等の他に、投影範囲取得部104と距離画像生成制御部105として機能する点を除けば上記第3実施形態のPM装置70と基本的に同じ構成である。このため、上記第3実施形態と機能又は構成上同一のものについては、同一符号を付してその説明は省略する。
 焦点距離情報102は、投影レンズ46(図2参照)の焦点距離を示す情報である。本例では、PM装置100と患者9との間の距離は基本的に一定(ほぼ一定を含む)であるので、投影レンズ46の焦点距離についてもPM装置100と患者9との間の距離に応じて予め定められている。
 投影範囲取得部104は、メモリ27から読み出した焦点距離情報102と、距離画像生成部53が先に生成した距離画像データ23が示す患者9までの距離と、投影画像生成部28が生成した投影画像データ24(表示用光学素子42上での投影画像データ24の表示位置及び大きさを含む)と、に基づき、PM装置100から患者9に投影される投影画像の投影範囲AP(図26参照)を取得する。そして、投影範囲取得部104は、取得した投影範囲APを距離画像生成制御部105へ出力する。
 距離画像生成制御部105は、距離画像生成部53を制御して、距離画像生成部53が距離画像データ23の生成を行う生成範囲AT(図26参照)を設定する。
 図26(A),(B)は、距離画像生成制御部105による距離画像データ23の生成範囲ATの設定について説明するための説明図である。図26(A),(B)に示すように、距離画像生成制御部105は、投影範囲取得部104が取得した投影範囲APに対応して、距離画像データ23の生成範囲ATの設定を行う。この生成範囲ATは、投影範囲APよりも予め定めた大きさだけ大きくなるように設定される。そして、距離画像生成制御部105は、設定した生成範囲ATに関する情報を距離画像生成部53へ出力する。
 第6実施形態の距離画像生成部53は、距離画像センサ38から読み出され且つAD変換器39及びインターフェース回路40等を介して距離画像生成部53に入力されるデジタル信号の中で、生成範囲ATに対応するデジタル信号に基づき距離画像データ23の生成を行う。これにより、患者9の全範囲の距離画像データ23を生成する必要がなくなるので、距離画像データ23の生成処理に要する演算量を低減することができる。
 なお、結像レンズ36(図2参照)がズーム機能を有している場合に、距離画像データ23の生成を行う際に、制御部26によりレンズドライバ37を制御して、画角を生成範囲ATに合わせて変更するズーミング動作を行ってもよい。この場合、距離画像生成部53は、距離画像センサ38から読み出され且つAD変換器39及びインターフェース回路40等を介して距離画像生成部53に入力されるデジタル信号に基づき、距離画像データ23の生成を行う。これにより、距離画像データ23の解像度を上げることができ、患者9までの距離の検出精度や患者9の表面形状の凹凸の検出精度を上げることができる。
 また、ズーミング動作を行う場合には、PM装置100にパンチルト機構と、距離画像生成制御部105による生成範囲ATの設定結果に基づき、PM装置100(結像レンズ36)を生成範囲ATの方向に指向させるようにパンチルト機構を駆動するパンチルト制御部とを設けてもよい。
 なお、距離画像データ23の生成処理に係る構成以外は、上記第3実施形態のPM装置70と基本的に同じであるので、具体的な説明は省略する。
 [第6実施形態の効果]
 以上のように、第6実施形態の手術支援システムのPM装置100では、患者9に投影される投影画像の投影範囲APに対応して、距離画像生成部53が距離画像データ23の生成を行う生成範囲ATを設定するので、患者9の全範囲の距離画像データ23を生成する必要がなくなり、距離画像データ23の生成処理に要する演算量を低減することができる。
 なお、距離画像生成制御部105が生成範囲ATを設定した際に、画角を生成範囲ATに合わせて変更するズーミング動作を行った場合には、距離画像データ23の解像度を上げることができるので、患者9までの距離の検出精度や患者9の表面形状の凹凸の検出精度を上げることができる。
 <第6実施形態の変形例>
 上記第6実施形態では、上記第3実施形態の構成に、患者9に投影される投影画像の投影範囲APに応じて距離画像データ23の生成範囲ATの設定を行う構成を組み合わせた例について説明したが、この生成範囲ATの設定を行う構成を他の上記各実施形態の構成に組み合わせてもよい。
 [その他]
 上記第1実施形態では、透過画像データ22としてX線画像データを例に挙げて説明を行ったが、MRI画像データやCT画像データ等の患者9の対応部位の各種透過画像を用いてもよい。
 上記第1実施形態及び第2実施形態では、患者9の体内の既知の経路に沿って挿入される医療機器としてカテーテル12を例に挙げて説明を行ったが、上部消化管内視鏡や下部消化管内視鏡を患者9の体内に挿入する場合にも本発明を適用することができる。また、上記第3実施形態以降では、医療機器として腹腔鏡65を例に挙げて説明したが、患者9の体内に挿入される医療機器であれば特に限定はされない。
 上記各実施形態のPM装置では、患者9にて反射して距離画像センサ38に入射するパルス光の飛翔時間に対応する距離情報を示す受光信号を距離画像センサ38から読み出し、読み出した受光信号に基づき距離画像データ23を生成する所謂TOF(Time Of Flight)形式の距離画像データ23の取得を行っているが、所謂パターン照射(Projector-Camera)方式の距離画像データ23の取得を行ってもよい。
 上記各実施形態では、投影画像生成部28が制御部26と別体に設けられているが、制御部26を投影画像生成部28として機能させてもよい。また、上記各実施形態では、距離画像生成機能と投影画像の投影機能とが一体化しているPM装置を例に挙げて説明を行ったが、距離画像生成機能と投影機能とが別体化していてもよい。
 上記各実施形態では、被検体として人間(患者9)を例に挙げて説明を行ったが、人間以外の動物などの各種被検体内に医療機器を挿入する場合にも本発明を適用することができる。
 10…手術支援システム,12…カテーテル,18…透過画像生成部,19…送り量センサ,20,60,70,85,90,100…プロジェクションマッピング装置,22…透過画像データ,23…距離画像データ,24…投影画像データ,26…制御部,28…投影画像生成部,32…LED光源,35…投影レンズ,36…結像レンズ,38…距離画像センサ,42…表示用光学素子,44…LED光源,46…投影レンズ,50,79…内部構造情報,51…挿入経路情報,53…距離画像生成部,54,72,86…位置情報取得部,55…先端位置画像取得部,62,73…先端位置画像生成部,64,81…先端位置画像データ,65…腹腔鏡,75…撮像部,76…ジャイロセンサ,77…加速度センサ,83…撮像画像データ,91…光源制御部,92…切替制御部,104…投影範囲取得部,105…距離画像生成制御部

Claims (13)

  1.  測定光を被検体に対して照射する光源と、
     複数の受光素子が2次元状に配列された距離画像センサと、
     前記光源から出射され、前記被検体にて反射して前記距離画像センサに入射する前記測定光の受光信号を前記距離画像センサから取得し、前記取得した受光信号に基づいて距離画像を生成する距離画像生成部と、
     前記被検体内に挿入されている医療機器の先端位置を取得する位置情報取得部と、
     前記被検体内での前記医療機器の先端位置を表す先端位置画像を取得する先端位置画像取得部と、
     前記距離画像生成部が生成した前記距離画像から検出した前記被検体の形状と、前記位置情報取得部が取得した前記先端位置とに基づき、前記先端位置画像取得部が取得した前記先端位置画像から、当該先端位置に対応する前記被検体の対応部位の表面形状に対応した投影画像を生成する投影画像生成部と、
     前記投影画像生成部が生成した前記投影画像を表示する表示用光学素子と、前記表示用光学素子に投影光を入射させる投影光源と、前記表示用光学素子から出射される前記投影画像を前記対応部位に投影する投影レンズと、を含むプロジェクタ装置と、
     を備えるプロジェクションマッピング装置。
  2.  前記先端位置画像取得部は、前記先端位置画像として、前記被検体の前記対応部位の透過画像を撮像する透過画像撮像装置から前記透過画像を取得する請求項1に記載のプロジェクションマッピング装置。
  3.  前記位置情報取得部が取得した前記先端位置と、前記被検体内の既知の内部構造とに基づき、前記先端位置画像を生成する先端位置画像生成部を備え、
     前記先端位置画像取得部は、前記先端位置画像生成部から前記先端位置画像を取得する請求項1に記載のプロジェクションマッピング装置。
  4.  前記位置情報取得部は、前記透過画像と、前記被検体内の既知の内部構造とに基づき、前記先端位置を取得する請求項2に記載のプロジェクションマッピング装置。
  5.  前記医療機器は、前記被検体内の既知の経路に沿って挿入されるものであり、
     前記位置情報取得部は、前記被検体内への前記医療機器の挿入量を取得し、前記挿入量と前記既知の経路とを比較した結果に基づいて、前記先端位置を取得する請求項1から3のいずれか1項に記載のプロジェクションマッピング装置。
  6.  前記医療機器の先端には、加速度センサ及びジャイロセンサが設けられており、
     前記位置情報取得部は、前記加速度センサ及び前記ジャイロセンサの出力に基づいて、前記医療機器が前記被検体に挿入された挿入位置からの前記医療機器の先端の移動方向及び移動量を検出し、前記移動方向及び前記移動量の検出結果に基づいて前記先端位置を取得する請求項1から3のいずれか1項に記載のプロジェクションマッピング装置。
  7.  前記医療機器の先端には、撮像部が設けられており、
     前記撮像部が撮像した撮像画像に基づいて前記被検体内での前記医療機器の先端の挿入経路を示す挿入経路情報を取得する挿入経路情報取得部を有し、
     前記位置情報取得部は、前記医療機器が前記被検体に挿入された挿入位置と、前記挿入経路情報取得部により取得された前記挿入経路情報とに基づいて、前記先端位置を取得する請求項1から3のいずれか1項に記載のプロジェクションマッピング装置。
  8.  前記距離画像の生成前に、前記光源から前記被検体に照射される前記測定光の波長を切り替える切替制御部と、
     前記切替制御部による前記測定光の波長の切り替えによって前記距離画像センサが波長毎に受光した前記測定光の中で、最も強度が高くなる波長の前記測定光を前記光源から照射させる光源制御部と、を備え、
     前記距離画像生成部は、前記光源から前記被検体に前記最も強度が高くなる波長の前記測定光が照射された場合に、前記距離画像を生成する請求項1から7のいずれか1項に記載のプロジェクションマッピング装置。
  9.  前記光源は、異なる波長の前記測定光を前記被検体に照射する複数の光源ユニットを有しており、
     前記切替制御部は、前記測定光を照射する前記光源ユニットを切り替え、
     前記光源制御部は、前記最も強度が高くなる波長の前記測定光を照射する前記光源ユニットから前記被検体に前記測定光を照射させる請求項8に記載のプロジェクションマッピング装置。
  10.  前記投影レンズの焦点距離と、前記距離画像生成部が生成した前記距離画像が示す前記被検体までの距離と、前記投影画像生成部が生成した前記投影画像とに基づき、前記被検体に投影される前記投影画像の投影範囲を取得する投影範囲取得部と、
     前記投影範囲取得部が取得した前記投影範囲に対応して、前記距離画像生成部が前記距離画像の生成を行う生成範囲を設定する距離画像生成制御部と、を備える請求項1から9のいずれか1項に記載のプロジェクションマッピング装置。
  11.  前記距離画像生成部は、前記光源から照射され、前記被検体にて反射して前記距離画像センサに入射する前記測定光の飛翔時間に対応する距離情報を示す前記受光信号を前記距離画像センサから取得し、前記距離情報に基づいて前記距離画像を生成する請求項1から10のいずれか1項に記載のプロジェクションマッピング装置。
  12.  前記投影画像生成部は、前記距離画像から検出した前記被検体の形状と、前記位置情報取得部が取得した前記先端位置とに基づき前記対応部位の表面形状を識別して、前記表面形状の識別結果に基づき、前記先端位置画像を前記対応部位に合わせた形状に変形して前記投影画像を生成する請求項1から11のいずれか1項に記載のプロジェクションマッピング装置。
  13.  前記投影画像生成部は、前記距離画像及び前記先端位置より判別される前記プロジェクタ装置から前記対応部位までの距離と、前記投影レンズの焦点距離情報とに基づき、前記表示用光学素子に表示される前記投影画像の表示位置及び大きさを、当該投影画像が当該対応部位に重ねて投影される表示位置及び大きさに決定し、
     前記表示用光学素子は、前記投影画像生成部が決定した前記表示位置及び大きさで前記投影画像を表示する請求項1から12のいずれか1項に記載のプロジェクションマッピング装置。
PCT/JP2016/074250 2015-09-28 2016-08-19 プロジェクションマッピング装置 WO2017056775A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680054781.XA CN108024832A (zh) 2015-09-28 2016-08-19 投影映射装置
JP2017543008A JP6413026B2 (ja) 2015-09-28 2016-08-19 プロジェクションマッピング装置
US15/928,651 US11026763B2 (en) 2015-09-28 2018-03-22 Projection mapping apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015189531 2015-09-28
JP2015-189531 2015-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/928,651 Continuation US11026763B2 (en) 2015-09-28 2018-03-22 Projection mapping apparatus

Publications (1)

Publication Number Publication Date
WO2017056775A1 true WO2017056775A1 (ja) 2017-04-06

Family

ID=58427436

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/074250 WO2017056775A1 (ja) 2015-09-28 2016-08-19 プロジェクションマッピング装置

Country Status (4)

Country Link
US (1) US11026763B2 (ja)
JP (2) JP6413026B2 (ja)
CN (1) CN108024832A (ja)
WO (1) WO2017056775A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121686A (ja) * 2017-01-30 2018-08-09 セイコーエプソン株式会社 内視鏡操作支援システム
JP2019005095A (ja) * 2017-06-23 2019-01-17 ウエストユニティス株式会社 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム
JP2020524546A (ja) * 2017-06-15 2020-08-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線撮影装置
WO2020194942A1 (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
WO2021145413A1 (ja) * 2020-01-16 2021-07-22 オリンパス株式会社 手術支援システムおよびプロセッサ
JP2021121092A (ja) * 2019-12-30 2021-08-19 ジーイー・プレシジョン・ヘルスケア・エルエルシー 医用撮像中の患者構造推定のためのシステムおよび方法
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6643417B2 (ja) * 2018-08-02 2020-02-12 Hapsモバイル株式会社 システム、制御装置及び軽航空機
JP7188970B2 (ja) * 2018-10-11 2022-12-13 ザイオソフト株式会社 ロボット手術支援装置、ロボット手術支援装置の作動方法、及びプログラム
JP7182126B2 (ja) * 2018-10-11 2022-12-02 株式会社メディカロイド ロボット手術支援装置、ロボット手術支援方法、及びプログラム
JP7152240B2 (ja) 2018-10-11 2022-10-12 株式会社メディカロイド ロボット手術支援装置、ロボット手術支援方法、及びプログラム
CN110507337B (zh) * 2019-08-28 2023-07-11 上海联影医疗科技股份有限公司 一种医学设备控制系统、医学设备控制方法及装置
PL3669942T3 (pl) 2018-12-17 2022-05-16 Shanghai United Imaging Healthcare Co., Ltd. Systemy oraz sposoby określania obszaru będącego przedmiotem zainteresowania w badanym obiekcie
EP3903165A4 (en) * 2018-12-28 2023-01-25 Activ Surgical, Inc. SYSTEMS AND METHODS TO OPTIMIZE AVAILABILITY, WORKPLACE AND SKILL IN MINIMALLY INVASIVE SURGERY
WO2021161515A1 (ja) * 2020-02-14 2021-08-19 朝日インテック株式会社 長尺状医療用デバイスの位置検出システムおよび方法
CN112190222B (zh) * 2020-10-20 2023-06-02 青岛市中心医院 一种消化性溃疡检测装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002509748A (ja) * 1998-03-27 2002-04-02 イントラバスキュラー リサーチ リミテッド 医療用超音波画像化
JP2003014430A (ja) * 2001-07-03 2003-01-15 Minolta Co Ltd 3次元測定方法および3次元測定装置
US20050195587A1 (en) * 2004-03-08 2005-09-08 Moctezuma De La Barrera Jose L. Enhanced illumination device and method
JP2008522789A (ja) * 2004-12-14 2008-07-03 ボストン サイエンティフィック リミテッド 体内腔の改善された3次元画像を形成するためのシステムおよび方法
JP2013236757A (ja) * 2012-05-15 2013-11-28 Ge Medical Systems Global Technology Co Llc 手術支援装置
WO2014024422A1 (ja) * 2012-08-06 2014-02-13 パナソニック株式会社 カテーテル先端回転角度検出装置、方法、及び、プログラム
WO2015001806A1 (ja) * 2013-07-05 2015-01-08 パナソニック株式会社 投影システム
JP2015111772A (ja) * 2013-12-06 2015-06-18 シチズンホールディングス株式会社 投影装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10008806A1 (de) 2000-02-25 2001-12-06 Siemens Ag Hautprojektor
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
JP4736040B2 (ja) 2005-12-01 2011-07-27 株式会社国際電気通信基礎技術研究所 人体内部情報投影システム
US7412023B2 (en) 2006-02-28 2008-08-12 Toshiba Medical Systems Corporation X-ray diagnostic apparatus
JP5154134B2 (ja) * 2006-10-05 2013-02-27 株式会社キーエンス 光学式変位計、光学式変位測定方法、光学式変位測定プログラム
US9320428B2 (en) * 2009-08-05 2016-04-26 The Johns Hopkins University Programmable multispectral illumination system for surgery and visualization of light-sensitive tissues
JP5591555B2 (ja) 2010-02-12 2014-09-17 株式会社東芝 X線診断装置、画像処理装置及びx線診断システム
US8996086B2 (en) * 2010-09-17 2015-03-31 OptimumTechnologies, Inc. Digital mapping system and method
US9625258B2 (en) * 2011-06-06 2017-04-18 3Shape A/S Dual-resolution 3D scanner
CN102429728B (zh) * 2011-09-08 2013-08-14 凝辉(天津)科技有限责任公司 医学影像投影辅助外科手术系统
WO2013121267A1 (en) * 2012-02-15 2013-08-22 Mesa Imaging Ag Time of flight camera with stripe illumination
JP5814853B2 (ja) * 2012-04-18 2015-11-17 富士フイルム株式会社 立体モデルデータ生成装置および方法並びにプログラム
EP2912405B1 (en) * 2012-10-29 2017-10-18 7D Surgical Inc. Integrated illumination and optical surface topology detection system and methods of use thereof
TR201811449T4 (tr) * 2012-11-07 2018-09-21 Artec Europe S A R L Üç boyutlu nesnelerin doğrusal boyutlarını gözetlemek için yöntem.
CN102920513B (zh) * 2012-11-13 2014-10-29 吉林大学 一种基于投影仪的增强现实系统试验平台
JP2014212904A (ja) 2013-04-25 2014-11-17 株式会社日立メディコ 医用投影システム
JP6176582B2 (ja) * 2015-03-31 2017-08-09 パナソニックIpマネジメント株式会社 可視光投影装置
US9949700B2 (en) * 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
US10716457B2 (en) * 2015-10-14 2020-07-21 Siemens Aktiengesellschaft Method and system for calculating resected tissue volume from 2D/2.5D intraoperative image data

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002509748A (ja) * 1998-03-27 2002-04-02 イントラバスキュラー リサーチ リミテッド 医療用超音波画像化
JP2003014430A (ja) * 2001-07-03 2003-01-15 Minolta Co Ltd 3次元測定方法および3次元測定装置
US20050195587A1 (en) * 2004-03-08 2005-09-08 Moctezuma De La Barrera Jose L. Enhanced illumination device and method
JP2008522789A (ja) * 2004-12-14 2008-07-03 ボストン サイエンティフィック リミテッド 体内腔の改善された3次元画像を形成するためのシステムおよび方法
JP2013236757A (ja) * 2012-05-15 2013-11-28 Ge Medical Systems Global Technology Co Llc 手術支援装置
WO2014024422A1 (ja) * 2012-08-06 2014-02-13 パナソニック株式会社 カテーテル先端回転角度検出装置、方法、及び、プログラム
WO2015001806A1 (ja) * 2013-07-05 2015-01-08 パナソニック株式会社 投影システム
JP2015111772A (ja) * 2013-12-06 2015-06-18 シチズンホールディングス株式会社 投影装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018121686A (ja) * 2017-01-30 2018-08-09 セイコーエプソン株式会社 内視鏡操作支援システム
JP2020524546A (ja) * 2017-06-15 2020-08-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線撮影装置
JP2019005095A (ja) * 2017-06-23 2019-01-17 ウエストユニティス株式会社 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム
WO2020194942A1 (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP2020156860A (ja) * 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP7312394B2 (ja) 2019-03-27 2023-07-21 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP2021121092A (ja) * 2019-12-30 2021-08-19 ジーイー・プレシジョン・ヘルスケア・エルエルシー 医用撮像中の患者構造推定のためのシステムおよび方法
JP7135064B2 (ja) 2019-12-30 2022-09-12 ジーイー・プレシジョン・ヘルスケア・エルエルシー 医用撮像中の患者構造推定のためのシステムおよび方法
WO2021145413A1 (ja) * 2020-01-16 2021-07-22 オリンパス株式会社 手術支援システムおよびプロセッサ
JPWO2021145413A1 (ja) * 2020-01-16 2021-07-22
JP7311636B2 (ja) 2020-01-16 2023-07-19 オリンパス株式会社 手術支援システム、制御装置、および情報処理方法
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体

Also Published As

Publication number Publication date
US11026763B2 (en) 2021-06-08
CN108024832A (zh) 2018-05-11
JP6413026B2 (ja) 2018-10-24
JPWO2017056775A1 (ja) 2018-09-06
JP6586211B2 (ja) 2019-10-02
JP2019042519A (ja) 2019-03-22
US20180214241A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6586211B2 (ja) プロジェクションマッピング装置
JP5810248B2 (ja) 内視鏡システム
JP5580637B2 (ja) 画像処理装置、内視鏡装置の作動方法及びプログラム
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
US20210321887A1 (en) Medical system, information processing apparatus, and information processing method
JP5771757B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
US10368720B2 (en) System for stereo reconstruction from monoscopic endoscope images
US8666476B2 (en) Surgery assistance system
US20160073854A1 (en) Systems and methods using spatial sensor data in full-field three-dimensional surface measurement
US20210398304A1 (en) Medical observation system configured to generate three-dimensional information and to calculate an estimated region and a corresponding method
Reiter et al. Surgical structured light for 3D minimally invasive surgical imaging
JP5537250B2 (ja) 内視鏡システム
US20220183576A1 (en) Medical system, information processing device, and information processing method
US20220022728A1 (en) Medical system, information processing device, and information processing method
US20210235968A1 (en) Medical system, information processing apparatus, and information processing method
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
US20210401301A1 (en) Medical imaging system, method, and computer program
US20220270243A1 (en) Medical image processing apparatus, method of driving medical image processing apparatus, medical imaging system, and medical signal acquisition system
JP6906342B2 (ja) 内視鏡システム
WO2019202982A1 (ja) 内視鏡装置、内視鏡操作方法、及びプログラム
US20210304419A1 (en) Medical system, information processing apparatus, and information processing method
WO2021038729A1 (ja) 治療支援装置および治療支援方法
CN117062561A (zh) 用于减少计算机辅助医疗系统中的影像中的噪声的系统和方法
JP2011000208A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850951

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017543008

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16850951

Country of ref document: EP

Kind code of ref document: A1