WO2015072047A1 - 投影システム - Google Patents

投影システム Download PDF

Info

Publication number
WO2015072047A1
WO2015072047A1 PCT/JP2014/003700 JP2014003700W WO2015072047A1 WO 2015072047 A1 WO2015072047 A1 WO 2015072047A1 JP 2014003700 W JP2014003700 W JP 2014003700W WO 2015072047 A1 WO2015072047 A1 WO 2015072047A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
light
image
unit
imaging
Prior art date
Application number
PCT/JP2014/003700
Other languages
English (en)
French (fr)
Inventor
雅明 中村
美馬 邦啓
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2015547602A priority Critical patent/JPWO2015072047A1/ja
Priority to EP21192505.2A priority patent/EP3952298A1/en
Priority to EP14862613.8A priority patent/EP3070932B1/en
Publication of WO2015072047A1 publication Critical patent/WO2015072047A1/ja
Priority to US15/152,789 priority patent/US20160252716A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/364Projection microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0079Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/16Microscopes adapted for ultraviolet illumination ; Fluorescence microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3941Photoluminescent markers

Definitions

  • the present disclosure relates to a projection system that projects an image of a captured subject onto the surface of the subject.
  • Patent Document 1 discloses a surgical operation support system in which image data indicating a diseased part of a living body undergoing surgery is output from a fluorescent image capturing device, an image based on the image data is reproduced by an image projection device, and displayed on the actual diseased part.
  • a substance that fluoresces when irradiated with light of a predetermined wavelength is preliminarily administered to an affected part of a living body.
  • this system supports confirmation of a lesioned part by projecting an image obtained by imaging the affected part that has emitted fluorescence onto an actual affected part.
  • the projection system includes an excitation light source, an imaging unit, a control unit, and a projection unit.
  • the excitation light source irradiates the subject with light of a predetermined wavelength band including excitation light.
  • the imaging unit captures a fluorescent image by fluorescent light emission of the subject.
  • the control unit generates image data for projection based on the fluorescent image captured by the imaging unit.
  • the projection unit projects a projection image based on the image data for projection onto the subject with visible light.
  • the projection system made the optical axis of the light incident on the imaging unit coincide with the optical axis of the light emitted from the projection unit.
  • the projection system of the present disclosure since the optical path of the light incident on the imaging unit and the optical path of the light emitted from the projection unit coincide on the subject, the positional deviation between the actual subject and the projected image is reduced. can do.
  • FIG. 6 Schematic which shows the structure of the surgery assistance system concerning Embodiment 1.
  • FIG. The figure which shows the example of the image data of the catheter stored in memory The figure which shows the example of the image data of the forceps stored in memory
  • the figure which shows the example of the image data of Merci stored in memory The figure which shows the example of the image data of the variation of forceps 6 is a flowchart for explaining a projection image generation process in the surgery support system according to the first embodiment; Explanatory drawing which shows the state of the operative field in the surgery assistance system concerning Embodiment 1.
  • FIG. Flowchart for explaining a projection image generation process in a modification of the first embodiment
  • Explanatory drawing which shows the state of the operative field in the surgery assistance system concerning the modification of Embodiment 1.
  • FIG. 1 Schematic which shows the structure of the surgery assistance system concerning Embodiment 2.
  • FIG. Schematic which shows the structure of the surgery assistance system concerning the modification of Embodiment 2.
  • FIG. Schematic which shows the structure of the surgery assistance system concerning Embodiment 3.
  • FIG. Schematic which shows the structure of the surgery assistance system concerning Embodiment 4.
  • a surgical support system used in a medical field will be described as an example of a projection system.
  • FIG. 1 is a schematic diagram illustrating a configuration of a surgery support system according to a first embodiment.
  • the surgery support system is an example of a projection system.
  • the surgery support system captures a fluorescent image of the affected area in the surgical field, detects a fluorescent emission area of the affected area from the captured image, and projects an image projected on the subject area corresponding to the detected area with visible light Project.
  • the user physician etc.
  • this surgery assistance system can confirm the position etc. of a patient's affected part visually.
  • the surgery support system projects an image representing the shape of the medical device onto the surface of the region where the medical device is inserted. Thereby, the doctor etc. can confirm the position etc. of the medical device inserted in the patient's body.
  • the surgery support system sets the optical axis of the light incident on the imaging unit and the optical axis of the light emitted from the projection unit in parallel.
  • region of a projection image is reduced. Therefore, a doctor or the like can correctly confirm a region such as an affected part of a patient.
  • the surgery support system 100 includes an imaging projection device 1, a control unit 2, and a memory 4.
  • the imaging / projecting apparatus 1 includes a light source 11, an imaging unit 12, and a projecting unit 13.
  • an operative field 101 of a patient 10 undergoing surgery includes an affected area 105 and a medical device 20.
  • the imaging unit 12 of the imaging projection device 1 images the operative field 101.
  • the control unit 2 controls each unit of the surgery support system 100.
  • the control unit 2 generates image data for projection of a projection image indicating the shape of the affected area 105 or the medical device based on image data (imaging data) indicating an image captured by the imaging / projecting apparatus 1.
  • the projection unit 13 generates a projection image based on the projection image data, and projects the projection image onto the operative field 101.
  • the memory 4 stores shape information.
  • the control unit 2 reads shape information from the memory 4 and performs predetermined processing.
  • the shape information is image data indicating the shape of the medical device. Details of the shape information will be described later.
  • the memory 4 is an example of a storage unit. As the memory 4, for example, a nonvolatile memory or an HDD (Hard Disk Drive) is used.
  • a photosensitive substance that emits fluorescence when excited by light of a predetermined wavelength is preliminarily administered to blood, lymph, or the like.
  • the photosensitive substance accumulates in the affected area 105 where the flow of blood and lymph is stagnant.
  • the photosensitive substance is, for example, a substance that excites and emits fluorescence when irradiated with near-infrared light, such as indocyanine green.
  • the affected area 105 in which the photosensitive substance is accumulated emits fluorescence when irradiated with excitation light from the light source 11.
  • the medical device 20 used for surgery is coated or kneaded with a photosensitive material that emits fluorescence when excited.
  • the light source 11 irradiates excitation light having a wavelength within the excitation wavelength region of the photosensitive substance.
  • the light source 11 emits light in the near-infrared wavelength band.
  • the light source 11 is an example of an excitation light source.
  • the light source 11 is disposed so as to surround the imaging unit 12 and the projection unit 13.
  • the imaging unit 12 is composed of, for example, a highly sensitive CCD camera or the like.
  • the imaging unit 12 includes an imaging optical system including lenses and the like.
  • the imaging unit 12 captures a fluorescence image by fluorescence emission of a photosensitive substance of the affected area 105 or the medical device 20, and generates imaging data.
  • the imaging data is image data indicating a fluorescent image of the fluorescent light emitting region, and is input to the control unit 2.
  • the imaging unit 12 may capture a visible light image of the surgical field 101 together with the fluorescent image.
  • the imaging unit 12 is configured by a camera group in which a plurality of cameras capable of detecting one or more types of light among, for example, visible light, fluorescence, and excitation light are configured, so that all the types of light described above can be obtained.
  • the imaging unit 12 generates imaging data indicating a fluorescent image.
  • the imaging unit 12 may output data of the entire image of the imaging result including the fluorescent image and the visible light image to the control unit 2, and in that case, the control unit 2 may extract the fluorescent image from the entire image of the imaging result. It may be.
  • the control unit 2 has a function of controlling the operation of the imaging projection apparatus 1. Further, the control unit 2 acquires imaging data from the imaging unit 12, and generates image data for projection indicating the shape of the affected part 105 or the medical device based on the imaging data.
  • the control unit 2 When projecting a projection image showing the shape of a medical device, the control unit 2 reads shape information (details will be described later) from the memory 4 and generates image data for projection. Further, when projecting a projection image indicating the shape of the affected area 105, the control unit 2 generates image data for projection indicating a fluorescent image of the affected area 105 in the imaging data. The control unit 2 determines the affected area 105 and the medical device 20 based on the shape and wavelength band of the fluorescent image in the imaging data (details will be described later).
  • the control unit 2 outputs the generated image data for projection to the projection unit 13.
  • the control unit 2 is configured by, for example, a CPU or MPU, and realizes its function by executing a predetermined program.
  • the function of the control unit 2 may be realized by an electronic circuit designed exclusively.
  • the projection unit 13 generates a projection image based on the image data from the control unit 2, and projects the projection image onto the surface of the affected part where the medical device 20 is inserted.
  • the projection unit 13 is composed of a projector, for example.
  • the projection unit 13 includes a projection optical system including lenses and the like.
  • the optical axis of light incident on the imaging unit 12 is referred to as “imaging optical axis”.
  • the imaging optical axis Z2 is defined by the imaging optical system of the imaging unit 12.
  • the optical axis of the light emitted from the projection unit 13 is referred to as “projection optical axis”.
  • the projection optical axis Z3 is defined by the projection optical system of the projection unit 13. As shown in FIG. 1, the imaging unit 12 and the projection unit 13 are arranged adjacently and in parallel so that the imaging optical axis Z2 and the projection optical axis Z3 are parallel in the upward direction of the affected part 105. .
  • the light source 11 is disposed so as to surround both the imaging optical axis Z2 and the projection optical axis Z3.
  • the memory 4 is connected to the control unit 2 so that the control unit 2 can read the shape information and perform the processing described later.
  • the shape information is image data indicating the shape of the medical device.
  • the shape information is not limited to the shape of the medical device, and may be image data of an object having a predetermined shape.
  • FIG. 2A to 2C show examples of shape information of a plurality of types of surgical instruments stored in the memory 4.
  • FIG. 2A shows catheter image data 51
  • FIG. 2B shows forceps image data 52
  • FIG. 2C shows Mercury Retriever (hereinafter referred to as Standing) image data 53.
  • FIG. Each of the image data 51 to 53 is an example of shape information of each surgical instrument.
  • the catheter is a tubular surgical instrument inserted into the body of the patient 10.
  • One of the features of the catheter image data 51 is that it extends with a certain width along the longitudinal direction 51b to the distal end portion 51a.
  • a forceps is a surgical instrument used for grasping or pulling an affected part or a suture.
  • One of the features of the forceps image data 52 is a bifurcated grip 52a provided at the tip.
  • FIG. 3 shows an example of image data of a variation of the forceps in FIG. 2B.
  • the gripping portions 52a are opened at different angles.
  • the memory 4 also stores variation image data such as forceps image data 52A to 52C as shape information.
  • MERCY is a surgical instrument that is inserted into a blood vessel or the like to remove the thrombus, and has a loop wire and a filament for entwining the thrombus.
  • One of the features of the Giveaway image data 53 is a spiral loop wire 53a provided at the tip.
  • Merci's image data 53 has a filament 53b.
  • the surgery support system 100 when the projection image indicating the shape of the medical device is not projected, for example, when only the projection image indicating the shape of the affected part 105 is projected, the surgery support system 100 does not include the memory 4. Good.
  • FIG. 4 is a flowchart for explaining projection image generation processing in the surgery support system 100.
  • FIG. 5A is an explanatory diagram showing the state of the operative field in the surgery support system 100.
  • FIG. 5B is an explanatory diagram illustrating a state in which a projection image generation process is performed on the operative field of FIG.
  • the controller 2 drives the light source 11 to irradiate the surgical field 101 including the affected area 105 with excitation light (step S110).
  • the excitation light from the light source 11 excites the affected part 105 of the patient 10 and the photosensitive substance of the medical device 20, whereby the affected part 105 and the medical device 20 emit fluorescence as shown in FIG.
  • control unit 2 images the operative field 101 from the imaging unit 12 by the imaging projection device 1 (step S120).
  • the imaging unit 12 generates imaging data indicating a fluorescent image by the photosensitive substance of the affected part 105 or the medical device 20.
  • the imaging data is output to the control unit 2.
  • the control unit 2 generates image data for projection based on the imaging data (step S130). Based on the fluorescence image in the imaging data, the control unit 2 generates projection image data for displaying a projection image indicating the shape of the fluorescence image with visible light. The control unit 2 outputs the image data for projection to the projection unit 13.
  • the control unit 2 determines whether the target to project the projection image is the affected part 105 or the medical device 20 based on the shape of the fluorescent image in the imaging data. Note that the control unit 2 may determine the affected area 105 and the medical device 20 based on, for example, the wavelength band of the fluorescent image in the imaging data. In this case, a photosensitive substance that emits fluorescence in different wavelength bands is previously included in the affected area 105 and the medical device 20.
  • control unit 2 When the affected part 105 is a target to project a projection image, the control unit 2 generates image data for projection indicating the shape of the fluorescent image itself in the imaging data.
  • the control unit 2 selects shape information from a plurality of pieces of shape information stored in the memory 4 based on the similarity to the fluorescent image, and the shape information is Projection image data representing the indicated shape is generated. For example, the control unit 2 selects image data most similar to the fluorescence image of the imaging data from the image data 51 to 53 of the surgical instrument shown in FIGS. 2A to 2C, and causes the projection unit 13 to project the image.
  • the projection unit 13 projects a projection image based on the image data for projection on the fluorescent light emitting area on the surface of the affected area 105 in the surgical field 101 (step S140). With the projection image, a doctor or the like can clearly visually recognize the position and shape of the affected area 105 and the medical device 20 in the surgical field 101 as shown in FIG.
  • the above processing is repeatedly executed in a predetermined cycle (for example, 1/60 seconds). Thereby, for example, an image captured once every 1/60 seconds is projected, and the user can visually recognize the position and shape of the affected area 105 as a real-time video.
  • a predetermined cycle for example, 1/60 seconds.
  • the imaging unit 12 and the projection unit 13 are arranged adjacently in parallel above the affected area 105.
  • the light source 11 is disposed so as to surround both the imaging optical axis Z1 of the imaging unit 12 and the projection optical axis L3 of the projection unit 13, and irradiates the excitation light L1.
  • Imaging optical path Fluorescence emitted from the photosensitive substance accumulated in the affected area 105 by the excitation light L1 emitted from the light source 11 passes through the optical path (hereinafter referred to as “imaging optical path”) L2 along the imaging optical axis Z2, and the imaging section 12. Is incident on. Further, the projection image from the projection device 3 is projected onto the affected area 105 through an optical path (hereinafter referred to as “projection optical path”) L3 along the projection optical axis Z3. At this time, since the imaging optical axis Z2 and the projection optical axis Z3 are configured to be parallel, the imaging optical path L2 and the projection optical path L3 are parallel.
  • the imaging unit 12 and the projection unit 13 are arranged so that the imaging optical axis Z2 of the imaging unit 12 and the projection optical axis Z3 of the projection unit 13 are parallel to each other.
  • the imaging optical path L2 and the projection optical path L3 are parallel to each other, and the deviation between the affected area 105 and the projection image is reduced.
  • the surgery support system 100 includes the light source 11, the imaging unit 12, the control unit 2, and the projection unit 13.
  • the light source 11 irradiates the affected part 105 that emits fluorescence in response to the excitation light with light in a predetermined wavelength band including the excitation light.
  • the imaging unit 12 captures a fluorescence image of the affected part 105 by fluorescence emission.
  • the control unit 2 generates image data for projection based on the fluorescent image captured by the imaging unit 12.
  • the projection unit 13 projects a projection image based on the projection image data onto the affected area 105 with visible light.
  • the imaging optical axis Z2 and the projection optical axis Z3 are set in parallel.
  • the imaging optical path L2 along the imaging optical axis Z2 and the projection optical path L3 along the projection optical axis Z3 are parallel to each other, so that the fluorescence emission region of the affected part 105 and the region where the projection image is projected are shifted. Can be reduced.
  • FIG. 6 shows a modified example of the projection image generation process.
  • the projection image projected from the projection unit 13 is detected, and the image data for projection is corrected to correct the positional deviation of the new projection image. Good.
  • the image data correction process is a process for detecting a projection image and a fluorescent image actually projected on the operative field 101 and correcting the image data for projection according to the difference between the projection image and the fluorescent image.
  • the corrected image data for projection is output to the projection unit 13 again.
  • the projection unit 13 projects a projection image based on the corrected image data for projection onto the affected area 105 of the operative field 101 (step S140).
  • the control unit 2 repeatedly executes the correction of the image data for projection until an operation for termination is performed (step S150) (step S160).
  • FIG. 7 is used to explain the image data correction process when the affected part moves with time.
  • FIG. 7A shows a state in which the projection image 34 is projected with the position of the projection image 34 from the projection unit 13 and the position of the affected part 105 matching.
  • FIG. 7B shows a state where the affected area 103 has moved from the state of the surgical field 101 shown in FIG. As the affected area 103 moves, a shift occurs between the fluorescence emission region of the affected area 103 ′ after movement and the projection area of the projection image 34 from the projection unit 13 as shown in FIG. 7B.
  • the control unit 2 of the surgery support system 100 performs the above-described image data correction process as follows.
  • control unit 2 detects an area 103a that is an area of the affected area 103 and does not display the projection image 34, and displays the projection image data so that the projection image is displayed in the area 103a. to correct.
  • control unit 2 detects a region 34a that is a region that does not emit fluorescence and the projection image 34 is displayed in a shifted manner, so that the projection image 34 is not displayed in the region 34a. Correct the image data.
  • the projection image and the fluorescence image actually projected on the operative field 101 are detected, and the image data for projection is corrected according to the difference between the projection image and the fluorescence image. ),
  • the affected part 103 ′ after movement and the projection image 34 ′ can be matched, and the display shift by the projection part 13 can be eliminated.
  • the image data correction process can project an image of the affected area at an appropriate position even if a deviation occurs due to the surface shape or movement of the affected area.
  • the surgery support system according to the second embodiment will be described with reference to FIGS.
  • the imaging optical path L2 of the light incident on the imaging unit 12 and the projection optical path L3 of the light emitted from the projection unit 13 are parallel, but do not match (FIG. 1). For this reason, even when a projected image having the same fluorescent image shape as that of the imaged affected part (subject) is projected, a slight shift occurs between the affected part and the projected image.
  • the affected part and the projection according to the arrangement position of each part are obtained by matching the optical axis of the light incident on the imaging unit 12 with the optical axis of the light emitted from the projection unit 13. Deviation from the image can be further reduced.
  • FIG. 8 is a schematic diagram illustrating a configuration of a surgery support system according to the second embodiment.
  • the surgery support system 100A includes an imaging projection device 1A and a control unit 2.
  • the imaging projection apparatus 1A includes a light source 11, an imaging unit 12, and a projection unit 13 as in the first embodiment, and further includes a dichroic mirror unit 14.
  • the dichroic mirror unit 14 is configured by a dichroic mirror that transmits light in the same wavelength band as the fluorescence wavelength band of the fluorescence image captured by the imaging unit 12 and reflects visible light.
  • the dichroic mirror unit 14 includes a dichroic mirror that transmits near infrared light and reflects visible light. The dichroic mirror unit 14 bends the optical path of visible light by 90 ° by reflection.
  • the imaging unit 12 and the projection unit 13 are arranged in directions orthogonal to each other via the dichroic mirror unit 14 so that the imaging optical axis Z2 and the projection optical axis Z3 'coincide.
  • the projection optical axis Z ⁇ b> 3 ′ is an optical axis of light emitted from the projection unit 13, which is defined by the projection optical system of the projection unit 13 and the dichroic mirror unit 14.
  • the visible light from the projection unit 13 is reflected by the dichroic mirror unit 14 so that the imaging optical axis Z2 coincides with the projection optical axis Z3 '.
  • the light source 11 and the imaging unit 12 are disposed adjacent to each other.
  • the dichroic mirror unit 14 is disposed between the light source 11 and the imaging unit 12.
  • the imaging optical system (not shown) of the imaging unit 12 is configured to be housed inside the imaging unit 12 so as not to interfere with the dichroic mirror unit 14.
  • the projection unit 13 is also configured to house a projection optical system (not shown) inside the projection unit 13 in order to avoid interference with the dichroic mirror unit 14.
  • the surgery support system 100A performs a projection image generation process similar to that of the first embodiment (see FIG. 4).
  • the optical paths of various types of light used in the projection image generation process of the present embodiment will be described.
  • the excitation light L ⁇ b> 1 emitted from the light source 11 arranged so as to surround the imaging optical axis Z ⁇ b> 2 of the imaging unit 12 and the projection optical axis Z ⁇ b> 3 ′ of the projection unit 13 is photosensitivity accumulated in the affected part 105.
  • the substance is excited, and the excited photosensitive substance emits fluorescence.
  • the fluorescence from the photosensitive substance accumulated in the affected part 105 travels straight inside the dichroic mirror part 14 and enters the imaging part 12 through the imaging optical path L2 along the imaging optical axis Z2.
  • the light emitted from the projection unit 13 for projecting the projection image travels along the projection optical path L3a orthogonal to the imaging optical axis Z2 and enters the dichroic mirror unit 14, and the traveling direction is 90 by reflection at the dichroic mirror unit 14. The angle is changed and the dichroic mirror unit 14 is emitted along the projection optical path L3b.
  • the projection optical path L3b is an optical path along the projection optical axis Z3 '. Thereafter, the light for projecting the projected image travels along the projection optical path L3b and is projected onto the affected area 105.
  • the imaging optical path L2 and the projection optical path L3b are illustrated so as not to overlap, but these optical paths coincide.
  • the imaging optical path L2 and the projection optical path L3b coincide. For this reason, no positional deviation occurs between the projection image having the same fluorescent image shape as that of the affected area 105 imaged by the imaging unit 12 and the actual affected area 105 on which the projected image is projected.
  • the arrangement positions of the imaging unit 12 and the projection unit 13 may be interchanged.
  • the dichroic mirror unit 14 uses a dichroic mirror that reflects light in the fluorescence emission wavelength band and transmits visible light. The light incident on the imaging unit 12 is reflected by the dichroic mirror unit 14 so that the imaging optical axis matches the projection optical axis. Thereby, the effect similar to the above is acquired.
  • the dichroic mirror constituting the dichroic mirror unit 14 may be a dichroic mirror that transmits only light in the fluorescent wavelength band emitted by the photosensitive substance. Or you may arrange
  • the surgery support system 100A includes the light source 11, the imaging unit 12, the control unit 2, and the projection unit 13.
  • the light source 11 irradiates the affected area 105 with light of a predetermined wavelength band including excitation light.
  • the imaging unit 12 captures a fluorescence image of the affected part 105 by fluorescence emission.
  • the control unit 2 generates image data for projection based on the fluorescent image captured by the imaging unit 12.
  • the projection unit 13 projects a projection image based on the projection image data onto the affected area 105 with visible light.
  • the surgery support system 100A matches the imaging optical axis Z2 of the light incident on the imaging unit 12 and the projection optical axis Z3 ′ of the light emitted from the projection unit 13.
  • the imaging optical path L2 along the imaging optical axis Z2 and the projection optical path L3 along the projection optical axis Z3 ′ coincide on the affected area 105, so that the fluorescence emission region of the affected area 105 and the projected image are projected. It is possible to reduce the positional deviation from the region to be processed.
  • the light source is arranged adjacent to the imaging unit to configure the imaging projection device.
  • the light source need not be disposed adjacent to the imaging unit.
  • FIG. 9 is a schematic diagram illustrating a configuration of a surgery support system according to a modification of the second embodiment.
  • a light source 11 ' is disposed on the opposite side of the imaging projection apparatus 1B with the affected part 105 interposed therebetween.
  • the light source 11 ′ is disposed at a position that does not surround the imaging optical axis Z ⁇ b> 2 and the second projection optical axis Z ⁇ b> 3 ′. Therefore, a light source suitable for irradiating the affected part 105 with the excitation light L1 such as a point light source or a surface light source can be selected as the light source 11 '.
  • a photosensitive substance is introduced into the affected part 105.
  • a configuration may be used in which light transmitted through the affected area 105 irradiated from the light source 11 ′ is imaged.
  • the light source 11 ′ may irradiate light (electromagnetic waves) such as X-rays and ⁇ rays in addition to infrared rays, visible rays, and ultraviolet rays.
  • the electromagnetic wave irradiated from the light source 11 ' may be an electromagnetic wave in a frequency range excluding the radio wave.
  • the imaging projection apparatus is configured such that the imaging optical axis and the projection optical axis coincide.
  • the wavelength band of light incident on the imaging unit is further limited.
  • FIG. 10 is a schematic diagram illustrating a configuration of a surgery support system according to the third embodiment.
  • the surgery support system 100C includes an imaging projection device 1C and a control unit 2.
  • the imaging projection device 1C includes the light source 11, the imaging unit 12, and the projection unit 13 in the same manner as the imaging projection device 1A of the second embodiment, and further includes a cutoff filter (second filter) f1 and a transmission filter ( A first filter f2.
  • the blocking filter f1 is a film filter attached on the light source 11.
  • the cutoff filter f1 is configured by a short-pass filter (long wavelength cut filter) that shields the light emitted from the light source 11 from the peak wavelength band of the fluorescence emission of the photosensitive substance contained in the subject such as the affected part 105.
  • the cutoff filter f ⁇ b> 1 transmits the peak wavelength component of the excitation light that is smaller than the peak wavelength of the fluorescence emission of the affected part 105 or the like in the light emitted from the light source 11.
  • the transmission filter f2 is a film filter built in the imaging unit 12.
  • the transmission filter f2 is a band-pass filter that transmits a predetermined wavelength band component including the peak wavelength of fluorescence emission from the affected part 105 or the like in the light incident on the imaging unit 12.
  • the wavelength band component transmitted by the transmission filter f2 does not include the visible light wavelength band and is larger than the peak wavelength of the excitation light.
  • FIG. 11 is a diagram showing wavelength band components that are shielded by various types of light in the surgery support system according to the present embodiment.
  • FIG. 11 shows the wavelength bands of fluorescence and excitation light of indocyanine green, which is a photosensitive substance contained in the subject in the present embodiment.
  • the fluorescence of indocyanine green has a wavelength band of about 810 nm to 890 nm, and the peak wavelength is about 850 nm.
  • indocyanine green excitation light has a wavelength band of approximately 730 nm to 860 nm and a peak wavelength of approximately 780 nm. Therefore, the fluorescence and excitation light of indocyanine green are superimposed in some wavelength bands.
  • the blocking filter f1 and the transmission filter f2 cause the above-described difference between the light irradiated from the light source 11 (excitation light) and the light incident on the imaging unit 12 (detection light).
  • the light is shielded so as to separate the overlapping wavelength bands.
  • the cutoff filter f1 transmits the wavelength band component having a wavelength of less than 800 nm in the light (excitation light) emitted from the light source 11, and blocks the wavelength band component having a wavelength of 800 nm or more.
  • the transmission filter f2 transmits the wavelength band component having a wavelength of 820 nm to 880 nm in the light incident on the imaging unit 12, and shields the wavelength band component smaller than the wavelength 820 nm or larger than the wavelength 880 nm.
  • the fluorescence peak detection component can be maintained by transmitting the fluorescence peak wavelength component through the transmission filter f2. By transmitting the peak wavelength component of the excitation light through the cutoff filter f1, the efficiency of causing the affected area 105 to emit fluorescence can be maintained.
  • the surgery support system 100C includes the light source 11, the imaging unit 12, the control unit 2, and the projection unit 13.
  • the light source 11 irradiates the affected area 105 with light of a predetermined wavelength band including excitation light.
  • the imaging unit 12 captures a fluorescence image of the affected part 105 by fluorescence emission.
  • the control unit 2 generates image data for projection based on the fluorescent image captured by the imaging unit 12.
  • the projection unit 13 projects a projection image based on the projection image data onto the affected area 105 with visible light.
  • the surgery support system 100 ⁇ / b> C matched the imaging optical axis Z ⁇ b> 2 of light incident on the imaging unit 12 with the projection optical axis Z ⁇ b> 3 ′ of light emitted from the projection unit 13.
  • the surgery support system 100C further includes a transmission filter (first filter) f2 and a cutoff filter (second filter) f1.
  • the transmission filter f2 blocks components in a predetermined wavelength band including the peak wavelength of the excitation light in the light incident on the imaging unit 12.
  • the fluorescence cutoff filter f1 blocks components in a predetermined wavelength band including the peak wavelength of fluorescence in the light emitted from the light source 11.
  • detection noise when the imaging unit 12 detects a fluorescent image of a subject such as an affected part by suppressing the imaging unit 12 from receiving a component of excitation light in a wavelength band that overlaps the wavelength band of fluorescence emission. Can be reduced.
  • Embodiment 4 The fourth embodiment will be described below with reference to FIGS.
  • the wavelength band component that becomes the detection noise is shielded in the light incident on the imaging unit and the light emitted from the light source.
  • the wavelength band component that becomes the detection noise in the external light is further reduced. Shield from light.
  • an external light source such as a fluorescent lamp or a surgical light
  • the external light from the external light source generally includes wavelength band components other than the visible light region, which causes detection noise. Therefore, in the present embodiment, wavelength band components that become detection noise in external light are shielded.
  • FIG. 12 is a schematic diagram illustrating a configuration of a surgery support system according to the fourth embodiment.
  • the surgery support system 200 includes the imaging projection device 1C and the control unit 2, and further includes blocking filters (third filters) f7 and f8.
  • a surgical light 7 and a fluorescent light 8 are arranged around the surgery support system 200.
  • the shadowless lamp 7 is a lighting fixture configured to make it difficult to produce a shadow by irregularly reflecting light irradiated by a reflector or the like.
  • the surgical light 7 illuminates the surgical field 101 by irradiating light of a predetermined wavelength band including visible light.
  • the surgical light 7 is composed of an incandescent light bulb, a halogen light bulb, LED lighting, or the like.
  • a cut-off filter f7 composed of a film filter is attached to the surgical light 7.
  • the cutoff filter f7 is a short-pass filter that shields light beyond the peak wavelength band of the fluorescence emission of the affected area 105.
  • the fluorescent lamp 8 is a fluorescent lamp that generates white light and illuminates the entire operating room including the surgical field 101.
  • a fluorescent light blocking filter f8 composed of a film filter is attached to the fluorescent lamp 8.
  • the fluorescence cutoff filter f8 is a short-pass filter that shields light beyond the peak wavelength band of fluorescence emission of the affected area 105.
  • An incandescent bulb or LED illumination may be used instead of the fluorescent lamp 8.
  • FIG. 13 is a diagram for explaining wavelength bands to be shielded by various lights of the surgery support system according to the fourth embodiment.
  • the wavelength band which the light from external light sources, such as the operating light 7 and the fluorescent lamp 8 has with the fluorescence and excitation light of the indocyanine green which is a photosensitive substance contained in a to-be-photographed object is shown.
  • the light from the external light source includes not only the visible light region but also the near-infrared wavelength band component depending on the characteristics of the light source.
  • the spectrum of a fluorescent lamp that generates white light includes a wavelength band component in the near infrared region.
  • the same wavelength band component as the fluorescence emission of the affected area 105 is shielded from external light by the cutoff filters f7 and f8.
  • the cutoff filters f7 and f8 transmit the wavelength band component having a wavelength of less than 800 nm and shield the wavelength band component having a wavelength of 800 nm or more from the light from the operating lamp 7 and the fluorescent lamp 8.
  • the imaging unit 12 it is possible to suppress detection noise by suppressing the imaging unit 12 from receiving a component of external light in a wavelength band that overlaps the wavelength band of fluorescence emission from the surgical light 7 and the fluorescent lamp 8. Further, by passing the wavelength band component having a wavelength of less than 800 nm in the external light through the fluorescence blocking filters f7 and f8, the external light component having the peak wavelength of the excitation light is transmitted together with the visible light, and the affected part 105 is fluorescently emitted. Can be improved.
  • the surgical operation support system 200 compared with the surgical operation support system 100 ⁇ / b> C, has a surgical light 7 that irradiates the affected area 105 with light in a predetermined wavelength band including visible light, and fluorescence. Cutoff filters (third filters) f7 and f8 that are attached to the lamp 8 and cut off predetermined wavelength band components including the peak wavelength of fluorescence are provided.
  • Embodiments 1 to 3 have been described as examples of the technology disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed.
  • Embodiments 1 to 4 have been described taking medical applications such as surgery as an example, but the present invention is not limited to this.
  • the present invention can be applied when it is necessary to work on an object whose state change cannot be visually confirmed, such as a construction site, a mining site, a construction site, or a factory that processes materials.
  • a fluorescent material is applied to an object that cannot be visually confirmed in a construction site, a mining site, a construction site, or a factory that processes the material. , Kneading, or pouring into an imaging object that is an object of imaging by the imaging unit 12.
  • the present invention can be applied as in the first and third embodiments.
  • image data 51 to 53 of surgical instruments stored in the memory 4 are exemplified.
  • the memory 4 may store image data of medical devices including surgical instruments.
  • the shape information stored in the memory 4 may be, for example, image data imaged in advance by the imaging unit 12. As a result, it is possible to project image data indicating an instrument that is actually used.
  • the shape information is image data indicating the shape of the medical device.
  • the shape information is not limited to the medical device, and may be image data of an object having a predetermined shape.
  • the image data of an object having a predetermined shape is not limited to image data of an object such as a medical device.
  • the shape information may be image data that schematically represents the object.
  • the shape information may be a diagram depicting the object or a mark such as an arrow.
  • a projection image is generated and projected for one medical device.
  • the control unit 2 may compare the fluorescent image with a plurality of pieces of shape information at the same time. Thereby, when a plurality of types of surgical instruments are inserted into the body of the patient 10 at the same time, the respective medical devices can be identified.
  • control unit 2 generates projection image data by replacing the fluorescence image of the imaging data with the image data image determined to be similar.
  • the control unit 2 may generate image data for projection by correcting the shape of the unclear fluorescent image in the imaging data with reference to the determined image data.
  • the imaging unit 12 is configured to be able to detect all types of light of visible light, fluorescence, and excitation light, but may be configured to be capable of detecting at least fluorescence.
  • the imaging unit 12 may be configured by combining cameras that can detect only visible light and fluorescence, or may be configured by a camera that can detect only fluorescence.
  • Embodiments 1 to 3 although indocyanine green is exemplified as the photosensitive substance, other photosensitive substances may be used. For example, porphyrin, luciferin, Akalumine (registered trademark), or the like may be used.
  • the light source 11 irradiates excitation light in each excitation wavelength band of each photosensitive substance, and the imaging unit 12 detects a fluorescent image in the detection light in the fluorescence emission wavelength band of each photosensitive substance.
  • an object including porphyrin is irradiated with blue light having a wavelength of about 400 nm from the light source 11, and a fluorescent image of red light having a wavelength of about 600 nm is detected by the imaging unit 12.
  • the projected image may be projected with green light having a wavelength of about 500 nm.
  • the red light may be transmitted by the transmission filter f2 of the third embodiment, and only the blue light may be transmitted by the fluorescence cutoff filter f1.
  • the imaging optical axis Z2 and the projection optical axis Z3 ' are made to coincide with each other by the dichroic mirror of the dichroic mirror unit 14, but the dichroic mirror may not be used.
  • the imaging optical axis Z2 and the projection optical axis Z3 ' may be matched using a half mirror or a polarizing plate.
  • the transmission filter f2 is a film filter built in the imaging unit 12, but may be a film filter attached to the surface of the light receiving unit of the imaging unit 12.
  • the cutoff filters f1, f7, and f8 and the transmission filter f2 are formed of film filters, but may not be film filters.
  • an optical filter made of optical glass or the like may be used.
  • the projection system according to the present disclosure can be applied when working on an object whose state change cannot be confirmed visually, such as medical use, construction site, mining site, construction site, factory for processing materials, etc. .

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Endoscopes (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

 手術支援システム100Aは、光源11と、撮像部12と、制御部2と、投影部13とを備える。光源11は、患部105に、励起光を含む所定の波長帯の光を照射する。撮像部12は、患部105の蛍光発光による蛍光像を撮像する。制御部2は、撮像部12が撮像した蛍光像に基づいて、投影用の画像データを生成する。投影部13は、投影用の画像データに基づく投影画像を、可視光で患部105上に投影する。手術支援システム100Aは、撮像部12に入射する光の撮像光軸Z2と、投影部13から出射した光の投影光軸Z3'とを一致させた。

Description

投影システム
 本開示は、撮像した被写体の画像を、その被写体の表面に投影する投影システムに関する。
 特許文献1は、外科手術を受ける生体の患部を示す画像データを蛍光像撮像装置から出力させ、画像投影装置により上記画像データによる画像を再生し、実際の患部上に表示させる外科手術支援システムを開示する。生体の患部には、所定の波長の光を照射することで蛍光を発する物質が、あらかじめ投与されている。つまり、このシステムは、蛍光発光した患部を撮像して得られる画像を実際の患部に投影することで、病変部の確認の支援をしている。
特開平9-24053号公報
 このようなシステムは、投影する被写体の画像を、実際の被写体上に精度よく投影することが重要である。
 本開示は、被写体の画像を撮像して被写体上に投影する投影システムにおいて、実際の被写体と、投影される画像との位置ずれを低減できる投影システムを提供することを目的とする。
 本開示にかかる投影システムは、励起光源と、撮像部と、制御部と、投影部とを備える。励起光源は、被写体に、励起光を含む所定の波長帯の光を照射する。撮像部は、被写体の蛍光発光による蛍光像を撮像する。制御部は、撮像部が撮像した蛍光像に基づいて、投影用の画像データを生成する。投影部は、投影用の画像データに基づく投影画像を、可視光で被写体上に投影する。投影システムは、撮像部に入射する光の光軸と、投影部から出射した光の光軸とを一致させた。
 本開示における投影システムによれば、撮像部に入射する光の光路と投影部から出射した光の光路とが被写体上で一致するので、実際の被写体と、投影される画像との位置ずれを低減することができる。
実施の形態1にかかる手術支援システムの構成を示す概略図 メモリに格納されるカテーテルの画像データの例を示す図 メモリに格納される鉗子の画像データの例を示す図 メモリに格納されるメルシーの画像データの例を示す図 鉗子のバリエーションの画像データの例を示す図 実施の形態1にかかる手術支援システムにおける投影画像の生成処理を説明するためのフローチャート 実施の形態1にかかる手術支援システムにおける術野の状態を示す説明図 実施の形態1の変形例における投影画像の生成処理を説明するためのフローチャート 実施の形態1の変形例にかかる手術支援システムにおける術野の状態を示す説明図 実施の形態2にかかる手術支援システムの構成を示す概略図 実施の形態2の変形例にかかる手術支援システムの構成を示す概略図 実施の形態3にかかる手術支援システムの構成を示す概略図 実施の形態3にかかる手術支援システムの各種の光において遮光する波長帯を説明するための図 実施の形態4にかかる手術支援システムの構成を示す概略図 実施の形態4にかかる手術支援システムの各種の光において遮光する波長帯を説明するための図
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
 以下の実施形態では、投影システムの一例として、医療現場で用いられる手術支援システムを例として用いて説明する。
(実施の形態1)
1-1.構成
1-1-1.手術支援システムの概要
 図1は、実施の形態1にかかる手術支援システムの構成を示す概略図である。手術支援システムは、投影システムの一例である。
 本実施の形態の手術支援システムは、術野における患部の蛍光像を撮像し、撮像した画像から患部の蛍光発光した領域を検出し、検出した領域に対応する被写体の領域に可視光で投影画像を投影する。これにより、本手術支援システムのユーザ(医師等)は、患者の患部の位置などを目視で確認することができる。
 手術が行われる場合、チューブやカテーテルなどの医療機器が患者の体内に挿入される。通常、患者の体内に挿入された医療機器は、外部から目視で確認することができない。本実施の形態の手術支援システムは、医療機器が挿入された領域の表面に、その医療機器の形状を表す画像を投影する。これにより、医師等は、患者の体内に挿入された医療機器の位置などを確認することができる。
 ここで、術野に投影した投影画像の領域と、術野における蛍光発光した患部や医療機器などの被写体の領域とがずれると、患部などの位置が誤認されるという問題がある。そこで、本実施の形態の手術支援システムは、撮像部に入射する光の光軸と、投影部から出射した光の光軸とを平行に設定する。これにより、蛍光発光した領域と、投影画像の領域とのずれが低減される。そのため、医師等は患者の患部などの領域を正しく確認することができる。
1-1-2.手術支援システムの構成
 以下、手術支援システム100の構成を詳細に説明する。
 手術支援システム100は、撮像投影装置1と、制御部2と、メモリ4とから構成されている。撮像投影装置1は、光源11と、撮像部12と、投影部13とを備える。
 図1に示すように、手術を受ける患者10の術野101には、患部105や医療機器20が含まれる。撮像投影装置1の撮像部12は、術野101を撮像する。制御部2は、手術支援システム100の各部を制御する。制御部2は、撮像投影装置1が撮像した画像を示す画像データ(撮像データ)に基づいて、患部105や医療機器の形状を示す投影画像の投影用の画像データを生成する。投影部13は、投影用の画像データに基づいて投影画像を生成して、術野101に投影する。
 メモリ4は、形状情報を格納する。制御部2は、メモリ4から形状情報を読み出して所定の処理を行う。形状情報は、医療機器の形状を示す画像データである。形状情報の詳細は後述する。メモリ4は、記憶部の一例である。メモリ4としては、例えば不揮発性メモリやHDD(Hard Disk Drive)が用いられる。
 手術を受ける患者10には、所定の波長の光(励起光)によって励起されると蛍光を発する光感受性物質が、あらかじめ血液やリンパ液等に投与される。光感受性物質は、血液やリンパ液の流れが滞っている患部105に光感受性物質が蓄積される。光感受性物質は、例えば近赤外光を照射されると励起して蛍光を発する物質であり、例えばインドシアニングリーンである。光感受性物質が蓄積された患部105は、光源11から励起光を照射されることで蛍光発光する。
 手術に使用される医療機器20は、励起されると蛍光を発する光感受性物質が、表面に塗布され、または練り込まれている。
 光源11は、光感受性物質の励起波長領域内の波長を有する励起光を照射する。例えば、光源11は、近赤外の波長帯の光を照射する。光源11は、励起光源の一例である。光源11は、撮像部12及び投影部13の周囲を取り囲むように配置されている。
 撮像部12は、例えば高感度のCCDカメラ等で構成される。撮像部12は、レンズ等で構成される撮像光学系を内部に含んでいる。撮像部12は、患部105や医療機器20の光感受性物質の蛍光発光による蛍光像を撮像して、撮像データを生成する。撮像データは、蛍光発光した領域の蛍光像を示す画像データであり、制御部2に入力される。また、撮像部12は、蛍光像とともに術野101の可視光像を撮像してもよい。撮像部12は、例えば可視光、蛍光、および励起光の内で一つまたは複数の種類の光を検出できるカメラを複数組み合わせたカメラ群から構成されることで、上記の全ての種類の光を検出できる。本実施の形態では、撮像部12は、蛍光像を示す撮像データを生成する。撮像部12は、蛍光像と可視光像を含む撮像結果の画像全体のデータを制御部2に出力してもよく、その場合、制御部2が撮像結果の画像全体から蛍光像を抽出するようにしてもよい。
 制御部2は、撮像投影装置1の動作を制御する機能を有する。また、制御部2は、撮像部12から撮像データを取得して、撮像データに基づいて患部105や医療機器の形状を示す投影用の画像データを生成する。
 制御部2は、医療機器の形状を示す投影画像を投影する場合、メモリ4から形状情報(詳細は後述)を読み出して、投影用の画像データを生成する。また、制御部2は、患部105の形状を示す投影画像を投影する場合、撮像データにおける患部105の蛍光像を示す投影用の画像データを生成する。制御部2は、撮像データにおける蛍光像の形状や波長帯に基づいて、患部105と医療機器20とを判別する(詳細は後述)。
 制御部2は、生成した投影用の画像データを投影部13に出力する。制御部2は、例えばCPUやMPUで構成され、所定のプログラムを実行することによってその機能を実現する。なお、制御部2の機能は、専用に設計された電子回路により実現されてもよい。
 投影部13は、制御部2からの画像データに基づいて投影画像を生成し、医療機器20が挿入された患部などの表面上に、投影画像を投影する。投影部13は、例えばプロジェクタ等からなる。投影部13は、レンズ等で構成される投影光学系を内部に含んでいる。
 本実施の形態において、撮像部12に入射する光の光軸を、「撮像光軸」という。撮像光軸Z2は、撮像部12の撮像光学系によって規定される。また、投影部13から出射した光の光軸を、「投影光軸」という。投影光軸Z3は、投影部13の投影光学系によって規定される。図1に示すように、撮像部12と投影部13とは、患部105の上方向において、撮像光軸Z2と、投影光軸Z3とが平行になるように、隣接して並列に配置される。これにより、撮像部12が撮像する術野101内の領域と、投影部13が投影画像を投影する領域との位置ずれを低減できる。光源11は、撮像光軸Z2と投影光軸Z3を、ともに取り囲むように配置される。
 メモリ4は、制御部2が形状情報を読み出して後述の処理を行えるように、制御部2に接続されている。形状情報は、医療機器の形状を示す画像データである。なお、形状情報は、医療機器の形状に限らず、所定の形状を有する物体の画像データであってもよい。
 図2A~2Cは、メモリ4が格納する複数種類の手術器具のそれぞれの形状情報の例を示す。図2Aは、カテーテルの画像データ51を示し、図2Bは、鉗子の画像データ52を示し、図2Cは、メルシーリトリーバ(以下、メルシーという。)の画像データ53を示す。各画像データ51~53は、それぞれの手術器具の形状情報の一例である。
 カテーテルは、患者10の体内に挿入される管状の手術器具である。カテーテルの画像データ51の特徴の1つは、長手方向51bに沿って先端部51aまで一定の幅で延在することである。
 鉗子は、患部や縫合糸を把持したり、牽引したりするために用いられる手術器具である。鉗子の画像データ52の特徴の1つは、先端に設けられた二股形状の把持部52aである。図3は、図2Bの鉗子のバリエーションの画像データの例を示す。鉗子の画像データ52A~52Cにおいて、把持部52aはそれぞれ異なる角度で開いている。メモリ4は、鉗子の画像データ52A~52Cなどのバリエーションの画像データも形状情報として格納する。
 メルシーは、血栓を取り除くために血管等に挿入される手術器具であり、血栓を絡め取るためのループワイヤとフィラメントを有する。メルシーの画像データ53の特徴の1つは、先端に設けられたらせん形状のループワイヤ53aである。メルシーの画像データ53は、糸状のフィラメント53bを有する。
 なお、手術支援システム100において、例えば患部105の形状を示す投影画像のみを投影する場合など、医療機器の形状を示す投影画像を投影しない場合、手術支援システム100は、メモリ4を備えなくてもよい。
1-2.動作
 以上のように構成された手術支援システム100の動作を、以下説明する。
 図4は、手術支援システム100における投影画像の生成処理を説明するためのフローチャートである。図5(a)は、手術支援システム100における術野の状態を示す説明図である。図5(b)は、図5(a)の術野に対して投影画像の生成処理を行った状態を示す説明図である。
 まず制御部2は、光源11を駆動して、患部105を含む術野101に励起光を照射する(ステップS110)。光源11からの励起光が、患者10の患部105や医療機器20の光感受性物質を励起することにより、図5(a)に示すように、患部105や医療機器20は蛍光発光する。
 次に、制御部2は、撮像投影装置1により、撮像部12から術野101を撮像する(ステップS120)。このとき、撮像部12は、患部105や医療機器20の光感受性物質による蛍光像を示す撮像データを生成する。撮像データは、制御部2に出力される。
 制御部2は、撮像データに基づいて、投影用の画像データを生成する(ステップS130)。制御部2は、撮像データにおける蛍光像に基づいて、蛍光像の形状を示す投影画像を可視光で表示するための投影用の画像データを生成する。制御部2は、投影用の画像データを投影部13に出力する。
 このとき、まず、制御部2は、投影画像を投影する対象が患部105であるか医療機器20であるかを、撮像データにおける蛍光像の形状に基づいて判別する。なお、制御部2は、例えば撮像データにおける蛍光像の波長帯に基づいて、患部105と医療機器20とを判別してもよい。この場合、予め患部105と医療機器20とに異なる波長帯で蛍光発光する光感受性物質を含ませておく。
 患部105が投影画像を投影する対象である場合、制御部2は、撮像データにおける蛍光像自体の形状を示す投影用の画像データを生成する。
 医療機器20が投影の対象である場合、制御部2は、メモリ4に格納された複数の形状情報の中から、蛍光像との類似度に基づいて形状情報を選択して、その形状情報が示す形状を表す投影用の画像データを生成する。例えば、制御部2は、図2A~2Cに示す手術器具の画像データ51~53のうち、撮像データの蛍光像と最も類似した画像データを選択して、その画像を投影部13に投影させる。
 投影部13は、術野101において、患部105表面の蛍光発光している領域に、投影用の画像データに基づく投影画像を投影する(ステップS140)。投影画像によって、医師等は、図5(b)に示すように、術野101において患部105や医療機器20の位置や形状を明瞭に視認することができる。
 以上の処理は、所定サイクル(例えば1/60秒)で繰り返し実行される。これにより、例えば1/60秒に1度撮像された画像が投影されることとなり、ユーザはリアルタイムの映像として患部105の位置や形状を視認できる。
 上述の処理において用いられる各種の光の光路について、図1を用いて説明する。
 図1において、撮像部12と投影部13は、患部105の上方において隣接して並列に配置されている。光源11は、撮像部12の撮像光軸Z1と投影部13の投影光軸L3とをともに取り囲むように配置され、励起光L1を照射する。
 光源11から照射される励起光L1によって患部105に蓄積された光感受性物質から発する蛍光は、撮像光軸Z2に沿った光路(以下、「撮像光路」という。)L2を通って、撮像部12に入射する。また、投影装置3から投影画像は、投影光軸Z3に沿った光路(以下、「投影光路」という。)L3を通って患部105に投影される。このとき、撮像光軸Z2と投影光軸Z3が平行となるように構成されているので、撮像光路L2と投影光路L3は平行である。
 撮像部12と投影部13の少なくとも一方が患部105(被写体)に対して傾いて配置されている場合、患部105と投影画像との間にずれが発生することは避けがたい。これに対して、図1に示すように撮像部12の撮像光軸Z2と投影部13の投影光軸Z3とが平行になるように、撮像部12と投影部13とが配置されているため、撮像光路L2と投影光路L3とが平行になり、患部105と投影画像とのずれが低減される。
1-3.効果等
 以上のように、本実施の形態において、手術支援システム100は、光源11と、撮像部12と、制御部2と、投影部13とを備える。光源11は、励起光に反応して蛍光を発する患部105に、励起光を含む所定の波長帯の光を照射する。撮像部12は、患部105の蛍光発光による蛍光像を撮像する。制御部2は、撮像部12が撮像した蛍光像に基づいて、投影用の画像データを生成する。投影部13は、投影用の画像データに基づく投影画像を、可視光で患部105上に投影する。撮像光軸Z2と、投影光軸Z3とが、平行に設定される。
 上述の構成により、撮像光軸Z2に沿った撮像光路L2と投影光軸Z3に沿った投影光路L3とが平行となり、患部105の蛍光発光した領域と、投影画像が投影される領域とのずれを低減することができる。
1-3-1.変形例
 図6は、投影画像の生成処理の変形例を示す。本手術支援システム100では投影画像の生成処理において、投影部13から投影された投影画像を検出して、投影用の画像データを補正することで、新たな投影画像の位置ずれを補正してもよい。
 図6に示すフローチャートにおいて、投影部13から投影画像が投影された後(ステップS140)、制御部2は、画像データ補正処理を行う(ステップS160)。画像データ補正処理は、術野101に実際に投影された投影画像と蛍光像とを検出して、投影画像と蛍光像の差分に応じて投影用の画像データを補正する処理である。
 補正された投影用の画像データは、再度、投影部13に出力される。投影部13は、補正された投影用の画像データに基づく投影画像を、術野101の患部105に投影する(ステップS140)。制御部2は、終了のための操作が行われるまで(ステップS150)、投影用の画像データの補正を繰り返し実行する(ステップS160)。
 図7を用いて、患部が時間経過とともに移動した場合における画像データ補正処理を説明する。
 図7(a)は、投影部13からの投影画像34の位置と患部105の位置とが一致して、投影画像34が投影された状態を示す。図7(b)は、図7(a)に示す術野101の状態から、患部103が移動した状態を示す。患部103が移動することで、図7(b)に示すように移動後の患部103’の蛍光発光領域と、投影部13からの投影画像34の投影領域との間に、ずれが発生する。これに対して、手術支援システム100の制御部2は、以下のように上述の画像データ補正処理を行う。
 まず、制御部2は、患部103の領域であって、かつ投影画像34が表示されていない領域103aを検出して、その領域103aに投影画像の表示を行うように、投影用の画像データを補正する。
 また、制御部2は、蛍光発光していない領域であって、かつ投影画像34がずれて表示されている領域34aを検出して、その領域34aにおいて投影画像34を表示させないように、投影用の画像データを補正する。
 以上のように、術野101に実際に投影された投影画像と蛍光像とを検出して、投影画像と蛍光像の差分に応じて投影用の画像データを補正することで、図7(c)に示すように、移動後の患部103’と投影画像34’とを一致させることができ、投影部13による表示のずれを解消することができる。このように、画像データ補正処理によって、患部の表面形状や動きによってずれが生じても、適正な位置に患部の画像を投影することができる。
(実施の形態2)
 以下、図8,9を用いて、実施の形態2における手術支援システムを説明する。実施の形態1に係る手術支援システム100においては、撮像部12に入射する光の撮像光路L2と投影部13から出射した光の投影光路L3とが平行であるが、一致してはいない(図1参照)。そのため、撮像した患部(被写体)と同一の蛍光像の形状を有する投影画像を投影しても、患部と投影画像との間に若干のずれが生じる。そこで、本実施の形態の手術支援システム100Aにおいては、撮像部12に入射する光の光軸と投影部13から出射した光の光軸とを一致させることで、各部の配置位置による患部と投影画像とのずれをより低減できる。
 以下、実施の形態1に係る手術支援システム100と同様の構成、動作の説明は適宜、省略して、手術支援システム100Aを説明する。
2-1.構成
 図8は、実施の形態2にかかる手術支援システムの構成を示す概略図である。手術支援システム100Aは、撮像投影装置1Aと、制御部2とを備える。撮像投影装置1Aは、実施の形態1と同様に光源11と、撮像部12と、投影部13とを備え、さらにダイクロイックミラー部14を備える。
 ダイクロイックミラー部14は、撮像部12で撮像する蛍光像の蛍光波長帯と同一の波長帯の光を透過し、可視光を反射するダイクロイックミラーで構成される。例えば、ダイクロイックミラー部14は、近赤外光を透過し、可視光を反射するダイクロイックミラーで構成される。ダイクロイックミラー部14は、可視光の光路を反射によって90°曲げる。
 撮像部12と投影部13とは、撮像光軸Z2と投影光軸Z3’とが一致するように、ダイクロイックミラー部14を介して互いに直交した向きで配置される。投影光軸Z3’は、投影部13の投影光学系とダイクロイックミラー部14によって規定される、投影部13から出射した光の光軸である。投影部13からの可視光がダイクロイックミラー部14において反射されることで、撮像光軸Z2と投影光軸Z3’とが一致する。これにより、患部105等の被写体上で、撮像部12が撮像する領域と、投影部13が投影画像を投影する領域との位置ずれを解消できる。
 実施の形態1では、光源11と撮像部12とを隣接して配置した。本実施の形態の撮像投影装置1Aでは、光源11と撮像部12との間にダイクロイックミラー部14を配置する。これに合わせて、撮像部12の(図示しない)撮像光学系は、ダイクロイックミラー部14と干渉しないように、撮像部12の内部に収める構成としている。また、投影部13も、ダイクロイックミラー部14との干渉を避けるために、(図示しない)投影光学系を投影部13の内部に収める構成としている。
2-2.動作
 以上のように構成された手術支援システム100Aの動作を、以下説明する。
 本実施の形態の手術支援システム100Aは、実施の形態1と同様の投影画像の生成処理を行う(図4参照)。以下、本実施の形態の投影画像の生成処理において用いられる各種の光の光路について、説明する。
 図8に示すように、撮像部12の撮像光軸Z2と投影部13の投影光軸Z3’を取り囲むように配置された光源11から照射された励起光L1は、患部105に蓄積する光感受性物質を励起し、励起された光感受性物質は蛍光を発する。
 患部105に蓄積された光感受性物質からの蛍光は、ダイクロイックミラー部14内部を直進し、撮像光軸Z2に沿った撮像光路L2を通って撮像部12に入射する。
 一方、投影画像を投影するために投影部13から出射した光は、撮像光軸Z2と直交する投影光路L3aを進んでダイクロイックミラー部14に入射し、ダイクロイックミラー部14における反射によって進行方向を90°変えられ、投影光路L3bに沿ってダイクロイックミラー部14を出射する。投影光路L3bは、投影光軸Z3’に沿った光路である。その後、投影画像を投影するための光は、投影光路L3bを進んで患部105に投影される。
 なお、図8は、説明の便宜のために撮像光路L2と投影光路L3bとが重ならないように図示されているが、これらの光路は一致している。
 このように、本実施の形態の撮像投影装置1Aにおいては、撮像光路L2と投影光路L3bとが一致している。このため、撮像部12において撮像した患部105と同一の蛍光像の形状を有する投影画像と、投影画像が投影される実際の患部105との間に位置ずれが生じない。
 なお、図8に示す撮像投影装置1Aにおいて、撮像部12と投影部13の配置位置を入れ替えてもよい。この場合、ダイクロイックミラー部14において、蛍光発光の波長帯の光を反射するとともに、可視光を透過するダイクロイックミラーを用いる。そして、撮像部12に入射する光をダイクロイックミラー部14において反射させることで、撮像光軸と投影光軸とを一致させる。これにより、上述と同様の効果が得られる。
 また、ダイクロイックミラー部14を構成するダイクロイックミラーを、光感受性物質が発する蛍光の波長帯の光のみを透過するダイクロイックミラーにしてもよい。あるいは、撮像部12とダイクロイックミラー部14との間に、光感受性物質が発する蛍光の波長帯の光のみを透過するフィルタを配置してもよい。このようにすることで、撮像部12には光感受性物質が発する蛍光のみが結像する。そのため、撮像部12で撮像された画像の制御部2による画像処理が容易になる。
2-3.効果等
 以上のように、本実施の形態において、手術支援システム100Aは、光源11と、撮像部12と、制御部2と、投影部13とを備える。光源11は、患部105に、励起光を含む所定の波長帯の光を照射する。撮像部12は、患部105の蛍光発光による蛍光像を撮像する。制御部2は、撮像部12が撮像した蛍光像に基づいて、投影用の画像データを生成する。投影部13は、投影用の画像データに基づく投影画像を、可視光で患部105上に投影する。手術支援システム100Aは、撮像部12に入射する光の撮像光軸Z2と、投影部13から出射した光の投影光軸Z3’とを一致させた。
 上述の構成により、撮像光軸Z2に沿った撮像光路L2と投影光軸Z3’に沿った投影光路L3とが患部105上で一致するので、患部105の蛍光発光した領域と、投影画像が投影される領域との位置ずれを低減することができる。
2-3-1.変形例
 実施の形態2では、光源を撮像部に隣接して配置して、撮像投影装置を構成した。しかしながら、光源は撮像部と隣接して配置する必要はない。以下、図9を用いて、実施の形態2の変形例を説明する。
 図9は、実施の形態2の変形例にかかる手術支援システムの構成を示す概略図である。手術支援システム100Bにおいては、患部105を挟んで撮像投影装置1Bの反対側に、光源11’を配置している。
 光源11’は、撮像光軸Z2と第2の投影光軸Z3’を取り囲んでいない位置に配置されている。そのため、光源11’として、点光源や面光源など、患部105に励起光L1を照射するのに適した光源を選択することができる。
 なお、手術支援システム100Bにおいては、撮像部12が励起光L1によって患部105(被写体)に蓄積した光感受性物質が発生する蛍光を撮像する構成に代えて、患部105に光感受性物質を導入することなく、光源11’から照射された患部105を透過した光を撮像する構成としてもよい。この場合、光源11’から、赤外線、可視光線、紫外線の他にX線、γ線などの光(電磁波)を照射してもよい。光源11’から照射する電磁波は、電波を除く周波数範囲の電磁波であってもよい。
(実施の形態3)
 以下、図10,11を用いて、実施の形態3を説明する。実施の形態2では、撮像光軸と投影光軸とが一致するように撮像投影装置を構成した。本実施の形態では、さらに、撮像部に入射する光の波長帯を制限する。
 以下、実施の形態1,2と同様の構成、動作の説明は適宜、省略して、手術支援システム100Cを説明する。
3-1.手術支援システムの概要
 撮像部によって患部等の被写体の蛍光像を検出する際、被写体の蛍光発光以外の光において、被写体の蛍光発光と同じ波長帯の成分は、検出ノイズとなる。特に、光源から照射する励起光は、被写体を蛍光発光させるために必要だが、検出ノイズになることもある。そこで、本実施の形態では、撮像部に入射する光と光源から照射する光において、検出ノイズになり得る波長帯成分をフィルタによって遮光する。
3-2.手術支援システムの構成
 図10は、実施の形態3にかかる手術支援システムの構成を示す概略図である。手術支援システム100Cは、撮像投影装置1Cと、制御部2とを備える。撮像投影装置1Cは、実施の形態2の撮像投影装置1Aと同様に光源11と、撮像部12と、投影部13とを備え、さらに、遮断フィルタ(第2のフィルタ)f1と、透過フィルタ(第1のフィルタ)f2とを備える。
 遮断フィルタf1は、光源11上に貼り付けられたフィルムフィルタである。遮断フィルタf1は、光源11から照射される光において、患部105等の被写体に含まれる光感受性物質の蛍光発光のピーク波長帯以上を遮光するショートパスフィルタ(長波長カットフィルタ)で構成される。遮断フィルタf1は、光源11から照射される光において、患部105等の蛍光発光のピーク波長よりも小さい励起光のピーク波長成分を透過する。
 透過フィルタf2は、撮像部12に内蔵されたフィルムフィルタである。透過フィルタf2は、撮像部12に入射する光において、患部105等の蛍光発光のピーク波長を含む所定の波長帯成分を透過するバンドパスフィルタで構成される。透過フィルタf2が透過させる波長帯成分は、可視光の波長帯を含まず、また励起光のピーク波長よりも大きい。
 図11は、本実施の形態にかかる手術支援システムの各種の光において遮光する波長帯成分を示す図である。図11において、本実施の形態において被写体に含まれる光感受性物質であるインドシアニングリーンの蛍光と励起光が有する波長帯を示す。インドシアニングリーンの蛍光は、略810nm~890nmの波長帯を有し、ピーク波長は略850nmである。一方、インドシアニングリーンの励起光は、略730nm~860nmの波長帯を有し、ピーク波長は略780nmである。そのため、インドシアニングリーンの蛍光と励起光は、一部の波長帯において重畳する。この重畳した波長帯における励起光が患部105に照射されると、患部105の蛍光発光と患部105表面における励起光の反射光との判別がつかなくなり、検出ノイズを生じる。
 これに対して、手術支援システム100Cにおいては、遮断フィルタf1と透過フィルタf2によって、それぞれ光源11から照射する光(励起光)と撮像部12に入射する光(検出光)との間で、上記の重畳した波長帯を分離するように遮光する。具体的には、遮断フィルタf1によって、光源11から照射する光(励起光)において波長800nm未満の波長帯成分を透過させ、波長800nm以上の波長帯成分を遮光する。さらに、透過フィルタf2によって、撮像部12に入射する光において波長820nm~880nmの波長帯成分を透過させ、波長820nmより小さい、あるいは波長880nmより大きい波長帯成分を遮光する。
 これにより、撮像部12が蛍光発光の波長帯と重なる波長帯の励起光の成分を受光することを抑制して、検出ノイズを低減できる。また、透過フィルタf2において蛍光のピーク波長の成分は透過させることにより、蛍光像の検出効率を維持できる。遮断フィルタf1において励起光のピーク波長の成分は透過させることにより、患部105を蛍光発光させる効率を維持できる。
3-3.効果等
 以上のように、本実施の形態において、手術支援システム100Cは、光源11と、撮像部12と、制御部2と、投影部13とを備える。光源11は、患部105に、励起光を含む所定の波長帯の光を照射する。撮像部12は、患部105の蛍光発光による蛍光像を撮像する。制御部2は、撮像部12が撮像した蛍光像に基づいて、投影用の画像データを生成する。投影部13は、投影用の画像データに基づく投影画像を、可視光で患部105上に投影する。手術支援システム100Cは、撮像部12に入射する光の撮像光軸Z2と、投影部13から出射した光の投影光軸Z3’とを一致させた。
 手術支援システム100Cは、透過フィルタ(第1のフィルタ)f2と、遮断フィルタ(第2のフィルタ)f1とをさらに備える。透過フィルタf2は、撮像部12に入射する光において、励起光のピーク波長を含む所定の波長帯の成分を遮断する。蛍光遮断フィルタf1は、光源11が照射する光において、蛍光のピーク波長を含む所定の波長帯の成分を遮断する。
 上述の構成により、撮像部12が蛍光発光の波長帯と重なる波長帯の励起光の成分を受光することを抑制して、撮像部12によって患部等の被写体の蛍光像を検出する際の検出ノイズを低減できる。
 また、撮像部12の特性によって蛍光発光以外の波長帯の光をも検出し得る場合であっても、透過フィルタf2で蛍光のピーク波長を含む所定の波長帯成分のみ透過させることにより、そのような機器特性による検出ノイズを抑制できる。また、光源11の特性によって、励起光以外の波長帯の光をも照射される場合であっても、遮断フィルタf1で励起光のピーク波長を含む所定の波長帯成分のみ透過させることにより、そのような機器特性による検出ノイズを抑制できる。
(実施の形態4)
 以下、図12,13を用いて、実施の形態4を説明する。実施の形態3では、撮像部に入射する光と光源から照射する光において、検出ノイズとなる波長帯成分を遮光したが、本実施の形態では、さらに外光において検出ノイズとなる波長帯成分を遮光する。
 以下、実施の形態1~3と同様の構成、動作の説明は適宜、省略して、手術支援システム200を説明する。
4-1.手術支援システムの概要
 手術を行う際には、励起光を照射する光源の他にも、術野を可視光で照らす外部光源(蛍光灯や無影灯など)が使用される。図11に示すように、外部光源からの外光には、一般的に可視光領域以外の波長帯成分が含まれ、これによって検出ノイズが生じる。そこで、本実施の形態では、外光において検出ノイズになる波長帯成分を遮光する。
4-2.手術支援システムの構成
 図12は、実施の形態4にかかる手術支援システムの構成を示す概略図である。
 本実施の形態の手術支援システム200は、実施の形態3と同様に、撮像投影装置1Cと、制御部2とを備え、遮断フィルタ(第3のフィルタ)f7,f8をさらに備える。また、手術支援システム200の周囲には、無影灯7と、蛍光灯8とが配置されている。
 無影灯7は、反射板などによって照射する光を乱反射することで、影を生じにくくなるように構成された照明器具である。無影灯7は、可視光を含む所定の波長帯の光を照射して、術野101を照らす。無影灯7は、白熱電球、ハロゲン電球、LED照明などで構成される。無影灯7には、フィルムフィルタで構成される遮断フィルタf7が貼り付けられている。遮断フィルタf7は、患部105の蛍光発光のピーク波長帯以上を遮光するショートパスフィルタである。
 蛍光灯8は、白色光を生成する蛍光ランプであり、術野101を含む手術室全体を照らす。蛍光灯8には、フィルムフィルタで構成される蛍光遮断フィルタf8が貼り付けられている。蛍光遮断フィルタf8は、患部105の蛍光発光のピーク波長帯以上を遮光するショートパスフィルタである。なお、蛍光灯8に代えて、白熱球やLED照明を用いてもよい。
 図13は、実施の形態4にかかる手術支援システムの各種の光において遮光する波長帯を説明するための図である。図13において、被写体に含まれる光感受性物質であるインドシアニングリーンの蛍光と励起光とともに、無影灯7や蛍光灯8などの外部光源からの光が有する波長帯を示す。外部光源からの光には、光源の特性によって可視光領域だけでなく近赤外領域の波長帯成分も含まれるため、インドシアニングリーンの蛍光と、一部の波長帯において重畳する。例えば、白色光を生成する蛍光ランプのスペクトルには、近赤外領域の波長帯成分も含まれる。
 これに対して、手術支援システム200においては、遮断フィルタf7,f8によって、外光から患部105の蛍光発光と同じ波長帯成分を遮光する。具体的には、遮断フィルタf7,f8によって、無影灯7や蛍光灯8からの光のうち、波長800nm未満の波長帯成分を透過させ、波長800nm以上の波長帯成分を遮光する。
 これにより、無影灯7や蛍光灯8から、撮像部12が蛍光発光の波長帯と重なる波長帯の外光の成分を受光することを抑制して、検出ノイズを低減できる。また、蛍光遮断フィルタf7,f8によって、外光において波長800nm未満の波長帯成分を透過させることで、可視光とともに励起光のピーク波長の外光の成分を透過させ、患部105を蛍光発光させる効率を向上できる。
4-3.効果等
 以上のように、本実施の形態において、手術支援システム200は、手術支援システム100Cと比較して、可視光を含む所定の波長帯の光を患部105に照射する無影灯7及び蛍光灯8に取り付けられ、蛍光のピーク波長を含む所定の波長帯成分を遮断する遮断フィルタ(第3のフィルタ)f7,f8を備えた。
 上述の構成により、撮像部12が蛍光発光と重なる波長帯の外光の成分を受光することを抑制して、検出ノイズを低減できる。
(その他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態1~3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 そこで、以下、他の実施の形態を例示する。
 実施の形態1~4では、手術などの医療用途を例に挙げて説明したが、本発明はこれには限らない。例えば、工事現場や採掘現場、建築現場、材料を加工する工場など、目視では状態変化を確認できないような対象物に対して作業を行う必要がある場合、本発明を適用することができる。
具体的には、実施の形態1の医療機器に代えて、工事現場や採掘現場、建築現場、材料を加工する工場などにおける、目視では状態変化を確認できないような対象物に蛍光材料を塗布し、練りこみ、或いは流し込んで、撮像部12による撮像の対象である撮像対象物とする。それとともに、上記対象物の形状に関する形状情報を、メモリ4に格納することにより、実施の形態1,3と同様に、本発明を適用することができる。
 実施の形態1においては、メモリ4に格納した手術器具の画像データ51~53を例示した。しかし、メモリ4は、手術器具を含む医療機器の画像データを格納してもよい。
 また、メモリ4に格納する形状情報は、例えば、撮像部12によって予め撮像した画像データであってもよい。これにより、より実際に使用する器具を示す画像データを投影することができる。
実施の形態1において、形状情報は、医療機器の形状を示す画像データであったが、形状情報は、医療機器に限らず、所定の形状を有する物体の画像データであってもよい。ここで、所定の形状を有する物体の画像データは、医療機器などの物体自体の画像データに限らない。形状情報は、当該物体を模式的に表す画像データであってもよく、例えば、当該物体を描いた図や、矢印などのマークであってもよい。
 実施の形態1において、1つの医療機器について投影画像を生成し、投影した。しかし、制御部2は、蛍光像を同時に複数の形状情報と比較してもよい。これにより、複数種類の手術器具が同時に患者10の体内に挿入されている場合、それぞれの医療機器を識別することができる。
 実施の形態1において、制御部2は、撮像データの蛍光像を、類似すると判定した画像データの画像に置き換えて、投影用の画像データを生成した。しかし、制御部2は、判定した画像データを参照して、撮像データにおける不鮮明な蛍光像の形状を補正することで、投影用の画像データを生成してもよい。
 実施の形態1~3において、撮像部12は、可視光、蛍光、および励起光の全ての種類の光を検出できるように構成されたが、少なくとも蛍光が検出できるように構成されればよい。例えば、撮像部12は、可視光と蛍光のみを検出できるカメラを組み合わせて構成されてもよいし、蛍光のみを検出できるカメラによって構成されてもよい。
 実施の形態1~3においては、光感受性物質としてインドシアニングリーンを例示したが、他の光感受性物質を用いてもよい。例えば、ポルフィリン、ルシフェリン、アカルミネ(登録商標)などを用いてもよい。この場合、光源11は各光感受性物質のそれぞれの励起波長帯の励起光を照射し、撮像部12はそれぞれの光感受性物質の蛍光発光の波長帯の検出光において蛍光像を検出する。
 例えば、ポルフィリンを含む被写体に対して、光源11から波長400nm付近の青色光を照射し、撮像部12によって波長600nm付近の赤色光の蛍光像を検出する。このとき、例えば投影画像を波長500nm付近の緑色光で投影してもよい。これにより、蛍光発光領域と投影領域とを識別しやすい。また、このとき、実施の形態3の透過フィルタf2によって赤色光のみを透過させ、蛍光遮断フィルタf1によって青色光のみを透過させてもよい。
 実施の形態2~4において、ダイクロイックミラー部14のダイクロイックミラーによって撮像光軸Z2と投影光軸Z3’とを一致させたが、ダイクロイックミラーでなくてもよい。例えば、ハーフミラーや偏光板を用いて撮像光軸Z2と投影光軸Z3’とを一致させてもよい。
 実施の形態3,4において、透過フィルタf2は、撮像部12に内蔵されたフィルムフィルタであったが、撮像部12の受光部表面に貼り付けられたフィルムフィルタであってもよい。
 実施の形態3,4において、遮断フィルタf1,f7,f8や透過フィルタf2は、フィルムフィルタで構成されたが、フィルムフィルタでなくてもよい。例えば、光学ガラスなどで構成された光学フィルタであってもよい。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
 したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において、種々の変更、置き換え、付加、省略などを行うことができる。
 本開示における投影システムは、医療用途や、工事現場や採掘現場、建築現場、材料を加工する工場など、目視では状態変化を確認できないような対象物に対して作業を行う際に適用可能である。
 1 撮像投影装置
 11 光源
 12 撮像部
 2 制御部
 13 投影部
 4 メモリ
 10 患者
 20 医療機器
 100,100A,100B,100C,200 手術支援システム

Claims (7)

  1.  被写体に、励起光を含む所定の波長帯の光を照射する励起光源と、
     被写体の蛍光発光による蛍光像を撮像する撮像部と、
     前記撮像部が撮像した蛍光像に基づいて、投影用の画像データを生成する制御部と、
     前記投影用の画像データに基づく投影画像を、可視光で前記被写体上に投影する投影部と
    を備え、
     前記撮像部に入射する光の光軸と、前記投影部から出射した光の光軸とを一致させた
     投影システム。
  2.  前記被写体が発する蛍光の波長帯の光と、可視光とを分離して導光するダイクロイックミラーをさらに備え、
     前記ダイクロイックミラーは、前記撮像部に入射する光の光軸と、前記投影部から出射した光の光軸とを、前記被写体上で一致させるように配置される
     請求項1に記載の投影システム。
  3.  前記撮像部に入射する光において、前記励起光のピーク波長を含む所定の波長帯成分を遮断する第1のフィルタと、
     前記励起光源が照射する光において、前記蛍光のピーク波長を含む所定の波長帯成分を遮断する第2のフィルタと
    をさらに備える
     請求項1または2に記載の投影システム。
  4.  可視光を含む所定の波長帯の光を前記被写体に照射する外部光源に取り付けられ、前記蛍光のピーク波長を含む所定の波長帯成分を遮断する第3のフィルタを備えた
     請求項1~3のいずれか1つに記載の投影システム。
  5.  前記制御部は、
     前記撮像部により撮像された蛍光像と前記投影画像との差分に応じて、前記蛍光発光した領域の画像と前記投影画像とが一致するように、前記投影用の画像データを補正する
     請求項1~4のいずれか1つに記載の投影システム。
  6.  所定の形状を有する物体の画像データである形状情報を複数格納する記憶部をさらに備え、
     前記制御部は、
     前記記憶部に格納された複数の形状情報の中から、前記撮像部により撮像された蛍光像との類似度に基づいて形状情報を選択して、
     前記選択した形状情報が示す形状を有する画像が、前記蛍光発光した領域に投影されるように、前記投影用の画像データを生成する
     請求項1~4のいずれか1つに記載の投影システム。
  7.  前記被写体は、患者の患部、及び医療機器を含む
     請求項1~6のいずれか1つに記載の投影システム。
PCT/JP2014/003700 2013-11-14 2014-07-11 投影システム WO2015072047A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015547602A JPWO2015072047A1 (ja) 2013-11-14 2014-07-11 投影システム
EP21192505.2A EP3952298A1 (en) 2013-11-14 2014-07-11 Projection system
EP14862613.8A EP3070932B1 (en) 2013-11-14 2014-07-11 Projection system
US15/152,789 US20160252716A1 (en) 2013-11-14 2016-05-12 Projection system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013235670 2013-11-14
JP2013-235670 2013-11-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/152,789 Continuation US20160252716A1 (en) 2013-11-14 2016-05-12 Projection system

Publications (1)

Publication Number Publication Date
WO2015072047A1 true WO2015072047A1 (ja) 2015-05-21

Family

ID=53057005

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/003700 WO2015072047A1 (ja) 2013-11-14 2014-07-11 投影システム

Country Status (4)

Country Link
US (1) US20160252716A1 (ja)
EP (2) EP3070932B1 (ja)
JP (1) JPWO2015072047A1 (ja)
WO (1) WO2015072047A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105676439A (zh) * 2016-04-29 2016-06-15 罗文芳 拍摄仪适用的显微镜连接装置
JP6085382B1 (ja) * 2016-02-29 2017-02-22 パナソニック株式会社 投影装置及び投影システム
WO2017043539A1 (ja) * 2015-09-11 2017-03-16 国立研究開発法人産業技術総合研究所 画像処理システム、画像処理装置、投影装置、及び投影方法
WO2018061390A1 (ja) * 2016-09-28 2018-04-05 パナソニック株式会社 表示システム
JPWO2017164101A1 (ja) * 2016-03-22 2019-01-24 国立研究開発法人産業技術総合研究所 光照射システム、制御装置、光照射制御方法、及び手術用顕微鏡装置
WO2019103052A1 (ja) * 2017-11-27 2019-05-31 パナソニック株式会社 投影装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017149586A1 (ja) * 2016-02-29 2017-09-08 オリンパス株式会社 光走査型撮影投影装置および内視鏡システム
JPWO2018211885A1 (ja) * 2017-05-17 2020-03-19 ソニー株式会社 画像取得システム、制御装置及び画像取得方法
CN109875691B (zh) * 2019-03-16 2021-04-06 孔祥瑞 面向微创手术体表投影调整方法的轴调整方法
WO2020261741A1 (ja) * 2019-06-25 2020-12-30 パナソニックIpマネジメント株式会社 投影システム
DE102020201070A1 (de) * 2020-01-29 2021-07-29 Siemens Healthcare Gmbh Darstellungsvorrichtung
CN111631824B (zh) * 2020-05-23 2022-09-06 郑州市中心医院 一种医学影像投影辅助的外科手术系统
CN113520624A (zh) * 2021-07-15 2021-10-22 显微智能科技(湖南)有限公司 一种可校准的甲状旁腺定位装置及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0924053A (ja) 1995-07-12 1997-01-28 Fuji Photo Film Co Ltd 外科手術支援システム
JPH0943164A (ja) * 1995-07-31 1997-02-14 Mitsubishi Heavy Ind Ltd ビーム照射部監視装置
JP2005038118A (ja) * 2003-07-18 2005-02-10 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP2007090044A (ja) * 2005-08-31 2007-04-12 Olympus Corp 光イメージング装置
US20080004533A1 (en) * 2006-06-30 2008-01-03 General Electric Company Optical imaging systems and methods
JP2012065698A (ja) * 2010-09-21 2012-04-05 Fujifilm Corp 手術支援システムおよびそれを用いた手術支援方法
JP2013009949A (ja) * 2011-06-28 2013-01-17 Christie Digital Systems Usa Inc 静脈内アクセスのためにカテーテルの位置を検出するための方法および装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8620410B2 (en) * 2002-03-12 2013-12-31 Beth Israel Deaconess Medical Center Multi-channel medical imaging system
JP2003333608A (ja) * 2002-05-08 2003-11-21 Makoto Dejima 肌撮影用面順次方式テレビカメラ装置
JP2003348496A (ja) * 2002-05-28 2003-12-05 Plus Vision Corp アスペクト比を変換する装置を備えたプロジェクタ
JP4899534B2 (ja) * 2006-02-28 2012-03-21 ソニー株式会社 監視カメラ
JP4228319B2 (ja) * 2006-07-24 2009-02-25 カシオ計算機株式会社 光学系ユニット及びプロジェクタ
FR2916339A1 (fr) * 2007-05-25 2008-11-28 Commissariat Energie Atomique Sonde optique per-operatoire bi-spectrale.
JP2009100174A (ja) * 2007-10-16 2009-05-07 Olympus Corp 電子撮像装置
JP4954033B2 (ja) * 2007-11-22 2012-06-13 オリンパスイメージング株式会社 デジタルカメラ
JP2010027776A (ja) * 2008-07-17 2010-02-04 Seiko Epson Corp 光源装置、画像表示装置およびモニタ装置
DE102009025077A1 (de) * 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
JP5488908B2 (ja) * 2010-06-14 2014-05-14 カシオ計算機株式会社 プロジェクタ
JP2013109508A (ja) * 2011-11-18 2013-06-06 Keyence Corp 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0924053A (ja) 1995-07-12 1997-01-28 Fuji Photo Film Co Ltd 外科手術支援システム
JPH0943164A (ja) * 1995-07-31 1997-02-14 Mitsubishi Heavy Ind Ltd ビーム照射部監視装置
JP2005038118A (ja) * 2003-07-18 2005-02-10 Casio Comput Co Ltd 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP2007090044A (ja) * 2005-08-31 2007-04-12 Olympus Corp 光イメージング装置
US20080004533A1 (en) * 2006-06-30 2008-01-03 General Electric Company Optical imaging systems and methods
JP2012065698A (ja) * 2010-09-21 2012-04-05 Fujifilm Corp 手術支援システムおよびそれを用いた手術支援方法
JP2013009949A (ja) * 2011-06-28 2013-01-17 Christie Digital Systems Usa Inc 静脈内アクセスのためにカテーテルの位置を検出するための方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3070932A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043539A1 (ja) * 2015-09-11 2017-03-16 国立研究開発法人産業技術総合研究所 画像処理システム、画像処理装置、投影装置、及び投影方法
JPWO2017043539A1 (ja) * 2015-09-11 2018-08-30 国立研究開発法人産業技術総合研究所 画像処理システム、画像処理装置、投影装置、及び投影方法
JP6085382B1 (ja) * 2016-02-29 2017-02-22 パナソニック株式会社 投影装置及び投影システム
JP2017157925A (ja) * 2016-02-29 2017-09-07 パナソニック株式会社 投影装置及び投影システム
JPWO2017164101A1 (ja) * 2016-03-22 2019-01-24 国立研究開発法人産業技術総合研究所 光照射システム、制御装置、光照射制御方法、及び手術用顕微鏡装置
CN105676439A (zh) * 2016-04-29 2016-06-15 罗文芳 拍摄仪适用的显微镜连接装置
WO2018061390A1 (ja) * 2016-09-28 2018-04-05 パナソニック株式会社 表示システム
JPWO2018061390A1 (ja) * 2016-09-28 2019-06-24 パナソニック株式会社 表示システム
US11273002B2 (en) 2016-09-28 2022-03-15 Panasonic Corporation Display system
WO2019103052A1 (ja) * 2017-11-27 2019-05-31 パナソニック株式会社 投影装置
JPWO2019103052A1 (ja) * 2017-11-27 2021-01-28 パナソニック株式会社 投影装置

Also Published As

Publication number Publication date
US20160252716A1 (en) 2016-09-01
JPWO2015072047A1 (ja) 2017-03-16
EP3952298A1 (en) 2022-02-09
EP3070932B1 (en) 2021-09-01
EP3070932A4 (en) 2016-11-09
EP3070932A1 (en) 2016-09-21

Similar Documents

Publication Publication Date Title
WO2015072047A1 (ja) 投影システム
JP5507376B2 (ja) 撮像装置
WO2015001806A1 (ja) 投影システム
WO2018025457A1 (ja) 制御装置、制御システム、および制御方法
JP2013531538A (ja) 選択的照明スペクトルよりなる背景外科画像を有する蛍光画像化方法及びシステム
US11160442B2 (en) Endoscope apparatus
JP5587020B2 (ja) 内視鏡装置、内視鏡装置の作動方法およびプログラム
JP2010012102A (ja) 光源装置及びこの光源装置を用いた内視鏡装置
WO2017164101A1 (ja) 光照射システム、制御装置、光照射制御方法、及び手術用顕微鏡装置
JP5455733B2 (ja) 電子内視鏡用光源装置
WO2019176253A1 (ja) 医療用観察システム
JP2011200380A (ja) 電子内視鏡用光源装置
JP6573965B2 (ja) 眼底撮影システム
JP6359998B2 (ja) 内視鏡
JP5450342B2 (ja) 内視鏡用光源装置
CN113766867A (zh) 内窥镜及内窥镜装置
JP2020146407A (ja) 光源装置、医療用観察システム、照明方法およびプログラム
JP6151549B2 (ja) 内視鏡用光源装置
JP2016152872A (ja) 光源装置
WO2011036792A1 (ja) 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム
WO2017098864A1 (ja) 内視鏡システム
JP5934267B2 (ja) 内視鏡用光源装置及びその作動方法並びに内視鏡システム及びその作動方法
JPWO2019215906A1 (ja) 医用画像撮像装置
JP2011200378A (ja) 電子内視鏡用光源装置
WO2016072172A1 (ja) 内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14862613

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015547602

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014862613

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014862613

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE