WO2014199984A1 - 手術用顕微鏡システム - Google Patents

手術用顕微鏡システム Download PDF

Info

Publication number
WO2014199984A1
WO2014199984A1 PCT/JP2014/065349 JP2014065349W WO2014199984A1 WO 2014199984 A1 WO2014199984 A1 WO 2014199984A1 JP 2014065349 W JP2014065349 W JP 2014065349W WO 2014199984 A1 WO2014199984 A1 WO 2014199984A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
light
wavelength
wavelength range
Prior art date
Application number
PCT/JP2014/065349
Other languages
English (en)
French (fr)
Inventor
拓也 奥野
伊知郎 祖川
菅沼 寛
暁 石井
英夫 千原
Original Assignee
住友電気工業株式会社
国立大学法人京都大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友電気工業株式会社, 国立大学法人京都大学 filed Critical 住友電気工業株式会社
Priority to US14/786,084 priority Critical patent/US20160091707A1/en
Priority to EP14810376.5A priority patent/EP3009098A4/en
Priority to CA2902427A priority patent/CA2902427A1/en
Publication of WO2014199984A1 publication Critical patent/WO2014199984A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0012Surgical microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/007Optical devices or arrangements for the control of light using movable or deformable optical elements the movable or deformable optical element controlling the colour, i.e. a spectral characteristic, of the light
    • G02B26/008Optical devices or arrangements for the control of light using movable or deformable optical elements the movable or deformable optical element controlling the colour, i.e. a spectral characteristic, of the light in the form of devices for effecting sequential colour changes, e.g. colour wheels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/06Means for illuminating specimens

Definitions

  • the present invention relates to a surgical microscope system.
  • the present invention has been made in view of the above, and an object thereof is to provide a surgical microscope system capable of grasping the position of a target substance existing inside a tissue by a simpler method.
  • a surgical microscope system includes a near-infrared light source that emits illumination light at an imaging wavelength including two or more wavelength ranges within a wavelength range of 800 nm to 2500 nm.
  • First image pickup means for picking up an image showing a light intensity distribution from a subject irradiated with illumination light from the near-infrared light source and outputting image data having a light detection band at a photographing wavelength
  • a second imaging unit that captures an image indicating the surface shape of the subject at a position where the first imaging unit is provided and outputs shape image data; and the second imaging unit that outputs the shape image data.
  • the calculation unit Based on the image data and the shape image data output from the second imaging unit, the calculation unit generates output data indicating the position of the target substance contained in the subject, and the calculation unit generates the output data.
  • Output Display means for displaying data wherein the imaging wavelength includes a first wavelength region having a width of 50 nm or less including at least wavelengths within a wavelength range of 1185 to 1250 nm and 1700 to 1770 nm, and the first wavelength
  • a first image that is an image showing an intensity distribution of emitted light from the subject in the first wavelength range, and a second wavelength range different from the first wavelength range;
  • a second image which is an image showing the intensity distribution of the emitted light from the subject in the second wavelength range, and outputs each image data
  • the computing means outputs the image data of the first image and Based on the image data of the second image, the image data of the third image indicating the position of the target substance is generated and output by superimposing the image data with the shape image data output from the second imaging means.
  • the first image showing the intensity distribution of the emitted light from the subject in the first wavelength range and the intensity distribution of the emitted light from the subject in the second wavelength range are shown.
  • Image data of a third image indicating the position of the target substance is obtained from the second image.
  • information indicating the position of the target substance is further added to the output data obtained by superimposing this on the shape image data with respect to the image indicating the surface shape of the subject. Therefore, the position of the target substance existing inside the tissue can be grasped non-invasively.
  • the position of the target substance inside the tissue can be grasped by capturing the first image and the second image separately from the shape image data. The position of the target substance can be grasped by a simpler method.
  • the second wavelength band may be included in a wavelength range of 1235 to 1300 nm and / or 1600 to 1680 nm.
  • the accuracy of the position of the target substance specified by the third image obtained from the first image and the second image is further increased. Can do.
  • the computing means calculates the ratio of the intensity of the emitted light in the image data of the first image and the intensity of the emitted light in the image data of the second image, thereby obtaining the image data of the third image. It can be set as the aspect which produces
  • the display means is a mode that displays after performing brightness adjustment in the output data based on data in a part of the region that is included in the output data and is indicated as having the target substance in the third image. Also good.
  • the luminance adjustment according to the luminance around the target substance can be performed by performing the luminance adjustment in the output data based on the data in the area where the target substance is indicated.
  • an aspect including an optical filter that selectively transmits light having any one of imaging wavelengths among imaging wavelengths including two or more wavelength ranges on an optical path from the near infrared light source to the first imaging unit. can do.
  • the optical filter selectively transmits the light in the first wavelength range and the light in the second wavelength range alternately
  • the first imaging means has the optical filter that transmits the light in the first wavelength range.
  • the first image is captured during the transmission time
  • the second image is captured during the time when the optical filter transmits the light in the second wavelength range, thereby alternately alternating the first image and the second image.
  • the image data is captured and output as image data
  • the computing means obtains the image data obtained from the first image sensing means, and the image data obtained immediately before and immediately before the acquisition of the image data. Based on the above, the image data of the third image can be generated.
  • the calculation means based on the image data obtained from the image data output from the first imaging means, and the image data obtained immediately before and before the acquisition of the image data. Since the image data of the third image is generated, the image data of the third image can be obtained continuously, so that the output data can be displayed in near real time.
  • the optical filter has a first time zone for selectively transmitting light in the first wavelength range and a second time zone for selectively transmitting light in the second wavelength range
  • the first imaging means captures a plurality of first images during the first time period, captures a plurality of second images during the second time period
  • the computing means captures images during the first time period. Based on data obtained by integrating image data of a plurality of first images, and data obtained by integrating image data of a plurality of second images captured in the second time zone It can also be set as the structure which produces
  • Image data of the third image is generated.
  • the SN ratio in the image data is improved, and the position of the target substance can be grasped with higher accuracy.
  • optical filter may be arranged on the optical path from the subject to the first imaging means.
  • the near-infrared light source may include a first light source that emits light in the first wavelength range and a second light source that emits light in the second wavelength range.
  • a configuration including the first light source and the second light source a configuration in which two images are acquired by switching the light source may be employed.
  • the near-infrared light source selectively emits light in the first wavelength range and light in the second wavelength range alternately
  • the first imaging means emits light in the first wavelength range.
  • the first image is picked up at the time when the light is emitted
  • the second image is picked up at the time when the light in the second wavelength region is emitted, thereby alternately picking up the first image and the second image.
  • the image data is output, and the computing means acquires the image data obtained from the first imaging means, the image data obtained immediately before and before the acquisition of the image data,
  • the image data of the third image can be generated based on the above.
  • the near-infrared light source has a first time zone in which light in the first wavelength range is selectively emitted and a second time zone in which light in the second wavelength range is selectively emitted.
  • the first imaging means takes a plurality of first images in the first time zone, takes a plurality of second images in the second time zone, and the computing means takes images in the first time zone. Data obtained by integrating the image data of the plurality of first images and data obtained by integrating the image data of the plurality of second images captured in the second time zone. A mode in which the image data of the third image is generated based on this can also be adopted.
  • a surgical microscope system capable of observing the inside of a tissue by a simpler method is provided.
  • FIG. 1 is a schematic explanatory diagram showing a configuration of a surgical microscope system 1 according to an embodiment of the present invention.
  • the surgical microscope system 1 includes a light source 10 (near infrared light source), a filter unit 20 (optical filter), an observation unit 30, a camera unit 40 (first imaging unit, second imaging unit), and a control unit 50 (calculation). Means) and an output unit 60 (display means).
  • the surgical microscope system 1 is a system for non-invasively observing a region to be observed that is a region that is difficult to observe from the outside. Examples of the subject 5 include a blood vessel inner wall.
  • the light source 10 is a light source that emits illumination light at an imaging wavelength including two or more wavelength ranges within the wavelength range of near-infrared light with a wavelength of 800 nm to 2500 nm.
  • a light source or the like is preferably used.
  • the light source 10 may be used for capturing the shape image data of the subject 5.
  • the light emitted from the light source 10 is collimated by the collimator lens 15 and then enters the filter unit 20.
  • the filter unit 20 is disposed on the optical path of the light from the light source 10, receives light output from the light source 10, transmits only light of a specific wavelength based on an instruction from the control unit 50, and transmits the light to the subject 5. Output.
  • a diffraction grating, a wavelength tunable filter, or the like is used for the filter unit 20 .
  • a filter wheel formed by including a plurality of filters 21 and 22 is shown as an example of the filter unit 20. Based on an instruction from the control unit 50, by changing the positions of the filters 21 and 22 with respect to the incident light from the light source 10, light having a specific wavelength is extracted and applied to a portion to be observed of the subject 5. Output.
  • the observation unit 30 inputs the light diffusely reflected at the observation site of the subject 5 after making it parallel light by the objective lens 25. Then, a part of the light is output toward the camera unit 40 by the reflection mirror 34 in the observation unit 30.
  • the observation unit 30 is provided with eyepieces 31 and 32 for the user of the surgical microscope system 1 to observe the subject 5 on the optical path of the light that has been collimated by the objective lens 25.
  • the user can observe an enlarged image of the subject 5 by looking into the eyepiece lenses 31 and 32 with the right eye and the left eye.
  • the camera unit 40 is a unit that inputs light extracted by the reflection mirror 34 and acquires an image related to the subject 5. Specifically, the first imaging that outputs an image data by irradiating the subject 5 with near infrared light from the light source 10 and capturing an image showing the intensity distribution of the radiated light from the subject 5 It has a function as a means and a function as a second imaging means for picking up an image showing the surface shape of the subject 5 and outputting shape image data.
  • a means for acquiring light from the subject 5 in the camera unit 40 for example, a light receiving element that converts light such as a photodiode into a current and outputs it is used.
  • the image data acquired by the camera unit 40 is sent to the control unit 50.
  • the control unit 50 has a function as a calculation unit that creates output data to be output from the output unit 60 from image data related to the light received by the camera unit 40. A method of creating output data in the control unit 50 will be described later.
  • the output data is sent from the control unit 50 to the output unit 60.
  • the output unit 60 has a function of outputting the output data created in the control unit 50.
  • the output unit 60 is configured by, for example, a monitor.
  • the target of observation by the surgical microscope system 1 is, for example, plaque, thrombus, hematoma, etc. adhering to the inner wall of the blood vessel.
  • a typical example of a plaque on the inner wall of a blood vessel is a lipid core composed of cholesterol.
  • plaque or the like adheres to the inner wall of a blood vessel, it is known to cause stenosis or occlusion of the blood vessel, cerebral infarction, cerebral ischemia, or the like. Therefore, when a stenosis or occlusion of a blood vessel occurs, it is necessary to cope with a method of removing plaque from the inner wall of the blood vessel or a method of expanding the blood vessel. Therefore, the surgical microscope system 1 according to the present embodiment aims to detect the position mainly using lipids on the inner wall of the blood vessel as a target substance, thereby detecting the presence of plaque from the outside of the blood vessel non-invasively.
  • FIG. 2 is a diagram for explaining a method of creating output data by the surgical microscope system 1.
  • the first image data is acquired (S11).
  • the first image data referred to here is data indicating the intensity distribution of the emitted light from the subject 5 in the first wavelength region having a width of 50 nm or less including at least wavelengths in the wavelength range of 1185 to 1250 nm and 1700 to 1770 nm. It is.
  • the wavelength ranges of 1185 to 1250 nm and 1700 to 1770 nm are wavelength regions having a lipid-derived peak that is a detection target in the subject 5.
  • detection is performed by acquiring data indicating the intensity distribution of the radiated light from the subject 5 in the first wavelength range, with the wavelength range including at least the wavelength within this wavelength range as the first wavelength range. It is possible to detect a region where a large amount of target lipid exists.
  • the first wavelength region preferably has a bandwidth of 50 nm or less.
  • the reason for setting such a bandwidth is that if the bandwidth is larger than 50 nm, information related to an absorption peak derived from other than lipid may be obtained. In this case, a component different from the lipid that is the detection target may be erroneously detected as a lipid, which may reduce the lipid detection accuracy. Therefore, it is preferable that the bandwidth is 50 nm or less, and information related to the detection target lipid is acquired with higher accuracy.
  • the near-infrared light including the light in the first wavelength range is output from the light source 10, and the filter 21 of the filter unit 20 performs the first operation.
  • the light of the first wavelength range is irradiated on the subject 5 by allowing only the light in the emission range to pass through.
  • the camera unit 40 can receive the first image data by receiving the light diffusely reflected by the subject 5 in the camera unit 40.
  • the second image data is acquired (S12).
  • the second image data is data indicating the intensity distribution of the emitted light from the subject 5 in the second wavelength range which is a wavelength range different from the first wavelength range described above.
  • the second image data is data used for so-called correction used to remove information not derived from lipid from information included in the first image data among information included in the first image data. . Therefore, as the second wavelength range, there is less variation depending on the amount of lipid compared to the first wavelength range, and the same level as the emitted light intensity derived from components other than lipids in the first wavelength range.
  • the wavelength region showing the intensity of the emitted light is preferably selected.
  • Such a second wavelength region preferably includes a wavelength range of 1235 to 1300 nm and / or 1600 to 1680 nm.
  • the absorption of water is equivalent to the first wavelength range, while the absorption of lipid is small relative to the first wavelength range, so the operation for canceling the information related to the radiation emitted from other components Can be suitably used.
  • near-infrared light including light in the second wavelength range described above is output from the light source 10, and the filter 22 (filter wheel) of the filter unit 20 is output.
  • the subject 5 is irradiated with light in the second wavelength region.
  • the camera unit 40 can acquire the second image data by receiving the light diffusely reflected by the subject 5 at the camera unit 40.
  • third image data is generated using the first image data and the second image data (S13).
  • the third image data is generated by calculating the emitted light intensity of the first image data and the emitted light intensity of the second image data for each pixel.
  • the calculation method includes “ratio” (R1 / R2 where R1 is the emitted light intensity of the first image data and R2 is the emitted light intensity of the second image data), “normalized difference index” ((R1 -R2) / (R1 + R2)), "difference” (R1-R2) and the like. By performing these calculations, it is possible to create image data in which the lipid-derived peak is more emphasized.
  • FIGS. 3 and 4 show examples in which the subject is imaged while changing the wavelengths used for the first image data and the second image data, and the third image data is generated based on the result.
  • the first image data is obtained by irradiating the subject with light having the wavelength indicated as the first image wavelength
  • the second image data is obtained by irradiating the subject with light having the wavelength indicated as the second image wavelength.
  • the third image data was obtained as a result of performing the calculation for each pixel by the method shown as the calculation.
  • one wavelength included in the group consisting of wavelengths 1180 nm, 1185 nm, 1190 nm, 1200 nm, and 1210 nm is selected as the first image wavelength
  • wavelengths 1260 nm, 1285 nm, 1310 nm, 1325 nm, and 1350 nm are selected as the second image wavelengths.
  • a result of using one of a ratio, a normalized difference index, and a difference as a calculation method is shown. In FIG.
  • one wavelength included in the group consisting of wavelengths 1695 nm, 1700 nm, 1715 nm, 1725 nm, 1750 nm, and 1790 nm is selected as the first image wavelength
  • wavelengths 1550 nm, 1575 nm, and 1625 nm are selected as the second image wavelengths.
  • a result is shown in which one wavelength included in the group consisting of 1675 nm and 1700 nm is selected, and the ratio is used as the calculation method.
  • the shape image data is image data indicating the shape of the subject 5 in the region imaged in the first image data and the second image data.
  • Examples of the image data indicating the shape of the subject 5 include a visible light image and a pseudo RGB image.
  • image data indicating the shape of the subject 5 can be acquired by receiving visible light at the camera unit 40.
  • the pseudo RGB image is obtained by associating the intensity distribution for each wavelength in each pixel obtained by irradiating the subject 5 with broadband near-infrared light with the RGB brightness in the visible light region.
  • An image similar to a visible light image For example, the light receiving intensity of light having a wavelength in the range of 1100 to 1200 nm corresponding to R is used, and the light receiving intensity of light having a wavelength in the range of 1330 to 1380 nm corresponding to G is used.
  • the received light intensity of light having a wavelength in the range of 1570 to 1660 nm the subject 5 which is a living tissue can be displayed in a color close to a visible image.
  • the shape image data can be acquired by emitting near-infrared light having a wavelength used as RGB from the light source 10 and receiving the light with the camera unit 40.
  • An example of the above pseudo RGB image is shown in FIG.
  • FIG. 5 shows a pseudo RGB image obtained by combining the wavelengths of light selected as wavelengths corresponding to RGB and the light of those wavelengths.
  • a visible image obtained from the intensity of visible light is also shown. As shown in FIG. 5, it is possible to grasp the shape of the subject 5 in the pseudo RGB image similarly to the visible light image.
  • output data is created by combining them in the control unit 50 (S31).
  • the output data to be created indicates the shape image data by superimposing the region where the lipid specified by the third image data is present. It is also possible to perform processing such as coloring only the region where the lipid content exceeds a predetermined threshold in the region where the lipid specified by the third image data exists.
  • information indicating a region with lipid on the inner wall side is added to the image showing the shape of the subject 5, so that only the shape outside the subject 5 is known and the internal situation is not known. Even if it exists, the information on the inner wall side can be obtained non-invasively.
  • the output data is output from the output unit 60, so that the user can use information included in the output data.
  • the brightness adjustment in the output data is performed based on the data in the area where the target substance is indicated, so that the brightness adjustment according to the brightness around the target substance can be performed, and a clearer display can be performed. it can.
  • Image data of a third image showing the position of the target substance is obtained from the second image showing the intensity distribution of the emitted light from the specimen.
  • Information indicating the position of the target substance is further added to the output data obtained by superimposing this on the shape image data with respect to the image indicating the surface shape of the subject 5. Therefore, the position of the target substance existing inside the tissue can be grasped non-invasively by referring to the output data.
  • the position of the target substance inside the tissue can be grasped by capturing the first image and the second image separately from the shape image data. The position of the target substance can be ascertained by a simpler method than this method.
  • the surgical microscope system 1 when a wavelength included in the wavelength range of 1235 to 1300 nm and / or 1600 to 1680 nm is selected as the second wavelength range, it is obtained from the first image and the second image.
  • the accuracy of the position of the target substance specified by the third image to be determined can be further increased.
  • FIG. 6 is a diagram illustrating the configuration of the surgical microscope system 2 according to a modification.
  • the surgical microscope system shown in FIG. 6 is different from the surgical microscope system 1 shown in FIG. 1 in that the position of the filter unit 20 (filter wheel 20) is changed and provided between the observation unit 30 and the camera unit 40. ing.
  • the surgical microscope system 1 is usually provided with a heat cutoff filter or the like because bright illumination light is necessary to observe the subject 5.
  • a heat blocking filter or the like In the method of disposing the filter unit 20 on the side of irradiating the subject 5 and switching the wavelength of light, the irradiation of the surgical illumination light itself is limited.
  • the first image can be obtained without adjusting the wavelength and the amount of light irradiated to the subject 5 by providing the filter unit 20 on the camera unit 40 side. And a second image can be acquired.
  • the filter part 20 should just be arrange
  • the light source 10 itself may be switched instead of limiting the wavelength range of light incident on the camera unit 40 using a filter.
  • a first light source that emits light in the first wavelength region and a second light source that emits light in the second wavelength region are prepared, and the first image is displayed when light is emitted from the first light source. It is good also as a structure which acquires and acquires a 2nd image, when radiate
  • Imaging method and calculation Various changes can be made to the imaging method and the calculation method.
  • the first image data is acquired as shown in FIG.
  • the configuration of generating the third image data (S13) after the acquisition (S12) has been described.
  • the camera unit 40 performs the acquisition of the first image data (S11) and the acquisition of the second image data (S12).
  • the control unit 50 repeats alternately, each time one of the first image data and the second image data is acquired, the latest acquired image data and the previous one (when acquiring the latest image data) It is good also as a structure which produces
  • the third image data can be generated using the latest two pieces of image data. As described above, when the operation of generating and outputting the third image data using the latest two pieces of image data is repeated, the acquisition of the first image data and the acquisition of the second image data are repeated. By shortening the time, the third image data indicating the state inside the subject 5 can be continuously output, and a configuration close to real-time display can be obtained.
  • the timing of the acquisition of the first image data (S11) and the second image data (S12) is alternately passed by exchanging the filter in the filter unit 20 in correspondence with the timing of acquisition (S12).
  • a first time period for selectively emitting light in the first wavelength range and a second time for selectively emitting light in the second wavelength range A time zone may be provided, and the camera unit 40 may acquire a plurality of first image data in the first time zone and acquire a plurality of second image data in the second time zone.
  • control unit 50 integrates data obtained by integrating a plurality of first image data obtained in the first time zone and a plurality of second image data obtained in the second time zone.
  • image data of the third image can be generated based on the data obtained by doing so.
  • the said embodiment demonstrated the structure which images a 1st image, a 2nd image, and a shape image in the one camera part 40, for example, the imaging means (1st imaging means) which images a near-infrared image ) And the imaging means (second imaging means) for capturing a visible image as a shape image may be separate.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Astronomy & Astrophysics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

 より簡易な方法で組織の内側に存在する標的物質の位置を把握する。 手術用顕微鏡システム1によれば、第1の波長域における被検体5からの放射光の強度分布を示す第1の画像と、第2の波長域における被検体からの放射光の強度分布を示す第2の画像から、標的物質の位置を示す第3の画像の画像データが得られる。そして、これを形状画像データと重ねあわせることで得られる出力データには、被検体5の表面形状を示す画像に対してさらに標的物質の位置を示す情報が付加されている。したがって、出力データを参照することで、組織の内側に存在する標的物質の位置を非侵襲で把握することができる。さらに、上記の手術用顕微鏡システム1においては、形状画像データとは別に第1の画像と第2の画像とを撮像することによって組織の内側の標的物質の位置を把握することができることから、従来の方法よりもより簡易な方法で標的物質の位置の把握が実現される。

Description

手術用顕微鏡システム
 本発明は、手術用顕微鏡システムに関する。
 一般的な手術用顕微鏡システムにおいて、非破壊で組織の内側を観察する方法として、例えば特許文献1記載の発明のように、蛍光色素を観察対象物に蓄積させて蛍光色素の蛍光を観察する方法が検討されている。
特表2009-525495号公報
 しかしながら、例えば、血管内壁への脂質プラークの付着による動脈硬化等に由来する疾病に対してバイパス手術等を用いる場合、特許文献1記載の方法を用いて血流を可視化することは可能であるものの、脂質に特異的に結合する蛍光色素は一般的に入手困難であり、脂質プラーク自体を可視化することは困難である。また、特許文献1記載の方法では、蛍光色素を予め患者に投与して観察対象物に蓄積させる必要があり、患者への負担も増大する。
 本発明は上記を鑑みてなされたものであり、より簡易な方法で組織の内側に存在する標的物質の位置を把握することが可能な手術用顕微鏡システムを提供することを目的とする。
 上記目的を達成するため、本発明の一実施形態に係る手術用顕微鏡システムは、800nm~2500nmの波長範囲内の2以上の波長域が含まれる撮影波長において照明光を出射する近赤外光源と、撮影波長で光検出帯域を有し、前記近赤外光源からの照明光が照射された被検体からの放射光の強度分布を示す画像を撮像して画像データを出力する第1の撮像手段と、前記第1の撮像手段が設けられる位置での前記被検体の表面形状を示す画像を撮像して形状画像データを出力する第2の撮像手段と、前記第1の撮像手段から出力された画像データと、前記第2の撮像手段から出力された形状画像データと、に基づいて、前記被検体に含まれる標的物質の位置を示す出力データを作成する演算手段と、前記演算手段により作成された出力データを表示する表示手段と、を備え、前記撮影波長は、1185~1250nm及び1700~1770nmの波長範囲内の波長が少なくとも含まれる幅50nm以下の第1の波長域と、前記第1の波長域とは異なる第2の波長域と、を含み、前記第1の撮像手段は、前記第1の波長域における前記被検体からの放射光の強度分布を示す画像である第1の画像と、第2の波長域における被検体からの放射光の強度分布を示す画像である第2の画像と、を撮像してそれぞれの画像データを出力し、演算手段は、第1の画像の画像データと、第2の画像の画像データとに基づいて、標的物質の位置を示す第3の画像の画像データを生成し、これを第2の撮像手段から出力された形状画像データと重ねあわせることで出力データを作成することを特徴とする。
 上記の手術用顕微鏡システムによれば、第1の波長域における被検体からの放射光の強度分布を示す第1の画像と、第2の波長域における被検体からの放射光の強度分布を示す第2の画像とから、標的物質の位置を示す第3の画像の画像データが得られる。そして、これを形状画像データと重ねあわせることで得られる出力データには、被検体の表面形状を示す画像に対してさらに標的物質の位置を示す情報が付加されている。したがって、組織の内側に存在する標的物質の位置を非侵襲で把握することができる。さらに、上記の手術用顕微鏡システムでは、形状画像データとは別に第1の画像と第2の画像とを撮像することによって組織の内側の標的物質の位置を把握することができることから、従来の方法よりもより簡易な方法で標的物質の位置の把握が実現される。
 ここで、第2の波長域は、1235~1300nm及び/または1600~1680nmの波長範囲に含まれる態様とすることができる。
 第2の波長域として上記の波長範囲内の波長を選択することで、第1の画像と第2の画像とから得られる第3の画像により特定される標的物質の位置の精度をより高めることができる。
 ここで、演算手段は、第1の画像の画像データにおける放射光の強度と、第2の画像の画像データにおける放射光の強度との比率を算出することで、第3の画像の画像データを生成する態様とすることができる。
 上記のように第1の画像の画像データにおける放射光の強度と第2の画像の画像データにおける放射光の強度との比率を用いて第3の画像の画像データを生成することで、画素毎の光の強度の違いによる画像のムラ等を除去した第3の画像が得られる。
 また、表示手段は、出力データに含まれ、第3の画像において標的物質があると示された領域の一部の領域におけるデータに基づいて、出力データにおける輝度調整を行った後に表示する態様としてもよい。
 この場合、出力データにおける輝度調整を標的物質があると示された領域のデータに基づいて行うことで、標的物質の周辺の輝度に応じた輝度調整が可能となる。
 また、近赤外光源から第1の撮像手段までの光路上に、2以上の波長域が含まれる撮影波長のうちの何れかの撮影波長の光を選択的に透過させる光フィルタを備える態様とすることができる。
 ここで、光フィルタは、第1の波長域の光と第2の波長域の光とを交互に選択的に透過させ、第1の撮像手段は、光フィルタが第1の波長域の光を透過させる時間に第1の画像を撮像し、光フィルタが第2の波長域の光を透過させる時間に第2の画像を撮像することで、第1の画像と第2の画像とをそれぞれ交互に撮像して画像データを出力し、演算手段は、第1の撮像手段から出力された画像データを取得した画像データと、当該画像データの取得時よりも以前で且つ直近に取得された画像データと、に基づいて第3の画像の画像データを生成する態様とすることができる。
 上記のように、演算手段において、第1の撮像手段から出力された画像データを取得した画像データと、当該画像データの取得時よりも以前で且つ直近に取得された画像データと、に基づいて第3の画像の画像データが生成されることにより、第3の画像の画像データを連続的に取得することができるため、出力データのよりリアルタイムに近い表示が可能となる。
 また、光フィルタは、第1の波長域の光を選択的に透過させる第1の時間帯と、第2の波長域の光を選択的に透過させる第2の時間帯と、を有し、第1の撮像手段は、第1の時間帯に第1の画像を複数撮像し、第2の時間帯に第2の画像を複数撮像し、演算手段は、第1の時間帯に撮像された複数の第1の画像の画像データを積算することで得られるデータと、第2の時間帯に撮像された複数の第2の画像の画像データを積算することで得られるデータと、に基づいて第3の画像の画像データを生成する構成とすることもできる。
 この場合、第1の時間帯において撮像された複数の第1の画像の画像データを積算したデータと、第2の時間帯において撮像された複数の第2の画像の画像データを積算したデータと、に基づいて第3の画像の画像データが生成される。このように、積算したデータを用いることから、画像データにおけるSN比が向上し、より高い精度での標的物質の位置の把握が可能となる。
 また、光フィルタは、被検体から第1の撮像手段までの光路上に配置される態様としてもよい。
 近赤外光源が、第1の波長域の光を出射する第1光源と、第2の波長域の光を出射する第2光源とを含む態様としてもよい。
 このように、第1光源と第2光源とが含まれる構成として、光源を切り替えて2つの画像を取得する構成とすることもできる。
 このとき、近赤外光源は、第1の波長域の光と第2の波長域の光とを交互に選択的に出射し、第1の撮像手段は、第1の波長域の光が出射される時間に第1の画像を撮像し、第2の波長域の光が出射される時間に第2の画像を撮像することで、第1の画像と第2の画像とをそれぞれ交互に撮像して画像データを出力し、演算手段は、第1の撮像手段から出力された画像データを取得した画像データと、当該画像データの取得時よりも以前で且つ直近に取得された画像データと、に基づいて第3の画像の画像データを生成する態様とすることができる。
 また、近赤外光源は、第1の波長域の光を選択的に出射する第1の時間帯と、第2の波長域の光を選択的に出射する第2の時間帯と、を有し、第1の撮像手段は、第1の時間帯に第1の画像を複数撮像し、第2の時間帯に第2の画像を複数撮像し、演算手段は、第1の時間帯に撮像された複数の第1の画像の画像データを積算することで得られるデータと、第2の時間帯に撮像された複数の第2の画像の画像データを積算することで得られるデータと、に基づいて第3の画像の画像データを生成する態様とすることもできる。
 本発明によれば、より簡易な方法で組織の内側を観察することが可能な手術用顕微鏡システムが提供される。
本発明の実施形態に係る手術用顕微鏡システムの構成を示す概略説明図である。 手術用顕微鏡システムによる出力データの作成方法を説明する図である。 第1画像データと第2画像データとに用いる波長を変更しながら被検体を撮像し、この結果に基づいて第3画像データを生成した結果を示す図である。 第1画像データと第2画像データとに用いる波長を変更しながら被検体を撮像し、この結果に基づいて第3画像データを生成した結果を示す図である。 RGBに対応する波長として選択した光の波長と、それらの波長の光の組合せで得られる疑似RGB画像を示す図である。 変形例に係る手術用顕微鏡システムの構成を示す概略説明図である。
 以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
(手術用顕微鏡システム)
 図1は、本発明の実施形態に係る手術用顕微鏡システム1の構成を示す概略説明図である。手術用顕微鏡システム1は、光源10(近赤外光源)、フィルタ部20(光フィルタ)、観察部30、カメラ部40(第1の撮像手段、第2の撮像手段)、制御部50(演算手段)、及び出力部60(表示手段)を含んで構成される。この手術用顕微鏡システム1は、観察対象となるものが外部からの観察が困難な領域であって、これを非侵襲で観察するためのシステムである。被検体5としては、例えば、血管内壁等が挙げられる。
 光源10は、波長800nm~2500nmの近赤外光の波長範囲内の2以上の波長域が含まれる撮影波長において照明光を出射する光源であり、例えば、LD(Laser Diode)光源やSC(Supercontinuum)光源等が好適に用いられる。また、被検体5の形状画像データの撮像において光源10を用いてもよい。
 光源10から出射される光は、コリメータレンズ15によりコリメートされた後、フィルタ部20に入射する。
 フィルタ部20は、光源10からの光の光路上に配置され、光源10により出力された光を入力し、制御部50による指示に基づいて特定波長の光のみを透過して被検体5に対して出力する。フィルタ部20には、回折格子や波長可変フィルタ等が用いられる。図1では、フィルタ部20の一例として、複数のフィルタ21,22を含んで形成されたフィルタホイールを示している。制御部50からの指示に基づいて、光源10からの入射光に対し、フィルタ21,22の位置を変更することによって、特定波長の光を取り出して被検体5の観察対象となる部位に対して出力する。
 観察部30は、被検体5の観察部位において拡散反射された光を、対物レンズ25により平行光にした後に入力する。そして、観察部30内の反射ミラー34により、その一部の光がカメラ部40に向けて出力される。
 また、観察部30には、対物レンズ25により平行光にされた光の光路上に手術用顕微鏡システム1の使用者が被検体5を観察するための接眼レンズ31,32が設けられる。使用者は、接眼レンズ31,32を右目と左目とで覗き込むことで、被検体5の拡大像を観察できるようになっている。
 カメラ部40は、反射ミラー34によって取り出された光を入力し、被検体5に係る画像を取得する手段である。具体的には、光源10からの近赤外光を被検体5に対して照射することで被検体5からの放射光の強度分布を示す画像を撮像して画像データを出力する第1の撮像手段としての機能と、被検体5の表面形状を示す画像を撮像して形状画像データを出力する第2の撮像手段としての機能を有する。カメラ部40において被検体5からの光を取得する手段としては、例えば、フォトダイオード等の光を電流に変換して出力する受光素子が用いられる。カメラ部40において取得された上記の画像データは制御部50へ送られる。
 制御部50は、カメラ部40において受光された光に係る画像データから出力部60において出力するための出力データを作成する演算手段としての機能を有する。制御部50における出力データの作成方法については後述する。出力データは、制御部50から出力部60へ送られる。
 出力部60は、制御部50において作成された出力データを出力する機能を有する。出力部60は、例えばモニタ等により構成される。
 上記の手術用顕微鏡システム1による観察の対象は、例えば血管の内壁に付着するプラークや血栓・血腫等である。血管内壁のプラークとして代表的なものとしては、コレステロールからなる脂質コアが挙げられる。血管の内壁にプラーク等が付着した場合、血管の狭窄や閉塞、また脳梗塞や脳虚血等を引き起こす原因となることが知られている。そこで、血管の狭窄や閉塞が起きている場合には、プラークを血管内壁から除去する方法や、血管を拡張する方法等で対応する必要がある。そこで、本実施形態に係る手術用顕微鏡システム1では、主に血管内壁の脂質を標的物質としてその位置を検出し、これによりプラークの存在を血管外部から非侵襲で検出することを目的とする。
 上記の目的において、手術用顕微鏡システム1で行われる処理について、図2を参照しながら説明する。図2は、手術用顕微鏡システム1による出力データの作成方法を説明する図である。
 本実施形態に係る手術用顕微鏡システム1では、脂質の位置を特定するため画像データの作成に係る一連の処理(S11~S13)と、形状画像データの取得(S21)とが行われた後に、これらを組み合わせることで出力データが作成される(S31)。
 はじめに、脂質の位置を特定するための画像データの作成について説明する。まず、第1画像データの取得が行われる(S11)。ここでいう第1画像データとは、1185~1250nm及び1700~1770nmの波長範囲内の波長が少なくとも含まれる幅50nm以下の第1の波長域における被検体5からの放射光の強度分布を示すデータである。波長1185~1250nm及び1700~1770nmの波長範囲とは、被検体5における検出目標である脂質由来のピークを有する波長域である。したがって、この波長範囲内の波長が少なくとも含まれている波長域を第1の波長域として、第1の波長域における被検体5からの放射光の強度分布を示すデータを取得することで、検出目標である脂質が多く存在する領域を検出することができる。
 第1の波長域は帯域幅が50nm以下であることが好ましい。このような帯域幅とする理由は、帯域幅を50nmよりも大きくすると、脂質以外に由来する吸収ピークに係る情報を取得してしまう可能性があるからである。この場合、検出目標である脂質とは異なる成分を脂質として誤検出してしまうこともあり、脂質の検出精度が低下する可能性が考えられる。したがって、帯域幅を50nm以下とし、検出目標の脂質に係る情報をより高い精度で取得することが好ましい。
 カメラ部40において第1画像データを取得する際の装置構成としては、光源10から上記の第1の波長域の光が含まれる近赤外光を出力し、フィルタ部20のフィルタ21で第1の放射域の光のみを通過させることで、第1の波長域の光が被検体5に照射される。そして、被検体5により拡散反射される光をカメラ部40において受光することで、カメラ部40において第1の画像データを取得することができる。
 次に、第2画像データの取得が行われる(S12)。ここでいう第2画像データとは、上述の第1の波長域とは異なる波長域である第2の波長域における被検体5からの放射光の強度分布を示すデータである。第2の画像データは、第1の画像データに含まれる情報のうち、脂質に由来しない情報を第1の画像データに含まれる情報から取り除くために用いられる所謂補正のために用いられるデータである。したがって、第2の波長域としては、第1の波長域と比較して脂質の量に応じた変動が少なく、且つ、第1の波長域における脂質以外の成分に由来する放射光強度と同程度の放射光強度を示す波長域が好適に選ばれる。このような第2の波長域としては、1235~1300nm及び/または1600~1680nmの波長範囲が含まれることが好ましい。上記の波長範囲では水の吸収が第1の波長域と同等である一方で脂質の吸収が第1の波長域に対して小さいため、他成分に由来する放射光に係る情報を打ち消すための操作において好適に利用することができる。
 カメラ部40において第2画像データを取得する際の装置構成としては、光源10から上記の第2の波長域の光が含まれる近赤外光を出力し、フィルタ部20のフィルタ22(フィルタホイールを回転させることでフィルタを変更する)で第2の放射域の光のみを通過させることで、第2の波長域の光が被検体5に照射される。そして、被検体5により拡散反射される光をカメラ部40において受光することで、カメラ部40において第2の画像データを取得することができる。
 次に、上記の第1画像データと第2画像データとを用いて第3画像データの生成が行われる(S13)。第3画像データは、画素毎に第1画像データの放射光強度と第2画像データの放射光強度とを演算することにより生成される。演算方法としては、「比率」(第1画像データの放射光強度をR1とし、第2画像データの放射光強度をR2としたときに、R1/R2)、「正規化差分指標」((R1-R2)/(R1+R2))、「差分」(R1-R2)等が挙げられる。これらの演算を行うことにより、脂質由来のピークがより強調された画像データを作成することができる。
 このうち、「比率」を用いる場合は、画素毎の光量のムラ等を除去することができる。また、「正規化差分指標」を用いる場合は、光量ムラを除去するとともに輝度を-1から+1の範囲内で表現すことができるため輝度調節が容易である。また、「差分」を用いる場合は、「比率」「正規化差分指標」と比較してデータの精度は高くないが、より簡単に第3画像データの生成が行われる。
 ここで、第1画像データと第2画像データとに用いる波長を変更しながら被検体を撮像し、この結果に基づいて第3画像データを生成した例を図3及び図4に示す。
 図3及び図4に示す画像データの生成に際しては、被検体としてブタ血管の内膜と中膜との間の一部の領域にラードを注入したものを用いた。そして、第1画像波長として示す波長の光を被検体に照射することで第1画像データを取得し、その後に第2画像波長として示す波長の光を被検体に照射することで第2画像データを取得し、各画素について、演算として示す方法により演算を行った結果第3画像データを得た。図3では、第1画像波長として、波長1180nm、1185nm、1190nm、1200nm、1210nmからなる群に含まれる1つの波長を選択し、第2画像波長として、波長1260nm、1285nm、1310nm、1325nm、1350nmからなる群に含まれる1つの波長を選択し、演算方法として、比率、正規化差分指標、差分のいずれかを用いた結果を示している。また、図4では、第1画像波長として、波長1695nm、1700nm、1715nm、1725nm、1750nm、1790nmからなる群に含まれる1つの波長を選択し、第2画像波長として、波長1550nm、1575nm、1625nm、1675nm、1700nmからなる群に含まれる1つの波長を選択し、演算方法として、比率を用いた結果を示している。
 図3及び図4に示す結果から、第1の波長域として用いる波長と、第2の波長域として用いる波長との組合せを変えることで、脂質(ラード)が注入された領域を特定することが可能な第3画像データを得ることができることが確認された。
 次に、図2に戻り、形状画像データの取得(S21)について説明する。
 形状画像データとは、第1画像データ及び第2画像データにおいて撮像された領域における被検体5の形状を示す画像データである。被検体5の形状を示す画像データとしては、可視光画像と疑似RGB画像とが挙げられる。可視光画像の場合、カメラ部40において可視光を受光することで、被検体5の形状を示す画像データを取得することができる。
 また、疑似RGB画像とは、広帯域の近赤外光を被検体5に対して照射することで得られる各画素における波長毎の強度分布を可視光域におけるRGBの輝度と対応させることで得られる可視光画像に類似した画像のことをいう。例えば、Rに対応して波長1100~1200nmの範囲内の波長の光の受光強度を利用し、Gに対応して波長1330~1380nmの範囲内の波長の光の受光強度を利用し、Bに対応して波長1570~1660nmの範囲内の波長の光の受光強度を利用することで、生体組織である被検体5を可視画像に近い色合いで表示することができる。この場合、光源10からRGBとして用いる波長の近赤外光を光源10から出射し、これをカメラ部40で受光することで、形状画像データを取得することができる。上記の疑似RGB画像の例を図5に示す。図5では、RGBに対応する波長として選択した光の波長と、それらの波長の光の組合せで得られる疑似RGB画像を示している。また、可視光の強度から求めた可視画像についても併せて示している。図5に示すように、疑似RGB画像においても可視光画像と同様に被検体5の形状を把握することが可能である。
 上記の方法により、第3の画像データと形状画像データとが得られると、制御部50においてこれらを組み合わせることで出力データが作成される(S31)。作成される出力データは、形状画像データに対して、第3の画像データにより特定された脂質が存在する領域を重ねて示すものである。第3の画像データにより特定された脂質が存在する領域のうち脂質の含量が所定の閾値を超える領域についてのみ着色する等の処理を行うこととしてもよい。出力データでは、被検体5の形状を示す画像に対して、内壁側に脂質がある領域を示す情報が追加されるため、被検体5の外側の形状しか分からず内部の状況が分からない場合であっても、内壁側の情報を非侵襲で得ることができる。そして、上記の出力データが出力部60により出力されることで、使用者が出力データに含まれる情報を使用することができる。
 なお、出力部60においてモニタ等に表示する場合に、標的物質である脂質があると示された領域の一部の画素に係るデータを用いて、出力データ全体の輝度調整を行う構成としてもよい。この場合、出力データにおける輝度調整を標的物質があると示された領域のデータに基づいて行うことで、標的物質の周辺の輝度に応じた輝度調整が可能となり、より鮮明な表示を行うことができる。
 上記のように、本実施形態に係る手術用顕微鏡システム1によれば、第1の波長域における被検体5からの放射光の強度分布を示す第1の画像と、第2の波長域における被検体からの放射光の強度分布を示す第2の画像から、標的物質の位置を示す第3の画像の画像データが得られる。そして、これを形状画像データと重ねあわせることで得られる出力データには、被検体5の表面形状を示す画像に対してさらに標的物質の位置を示す情報が付加されている。したがって、出力データを参照することで、組織の内側に存在する標的物質の位置を非侵襲で把握することができる。さらに、上記の手術用顕微鏡システム1においては、形状画像データとは別に第1の画像と第2の画像とを撮像することによって組織の内側の標的物質の位置を把握することができることから、従来の方法よりもより簡易な方法で標的物質の位置の把握が実現される。
 また、上記の手術用顕微鏡システム1において、第2の波長域を1235~1300nm及び/または1600~1680nmの波長範囲に含まれる波長を選択した場合、第1の画像と第2の画像とから得られる第3の画像により特定される標的物質の位置の精度をより高めることができる。
(変形例)
 以下、本発明の一実施形態に係る手術用顕微鏡システムの変形例について説明する。以下の変形例の説明においては、上記実施形態で示した手術用顕微鏡システム1との相違点を特に説明する。
(フィルタ部・光源について)
 図6は、変形例に係る手術用顕微鏡システム2の構成を説明する図である。図6に示す手術用顕微鏡システムが、図1の手術用顕微鏡システム1と異なる点は、フィルタ部20(フィルタホイール20)の位置が変更され、観察部30とカメラ部40との間に設けられている。
 一般的に、手術用顕微鏡システム1においては、被検体5を観察するために明るい照明光が必要であることから通常熱遮断フィルタ等を備えている場合がほとんどである。しかしながら、熱遮断フィルタ等によって特定の波長の光が必ずしも完全に遮断されているとは言い切れない。また、被検体5を照射する側にフィルタ部20を配置して、光の波長を切り替える方法では手術用の照明光自体の照射を制限することになるため、コントラストの低下が起きる可能性がある。これに対して、図6に示すように、カメラ部40側にフィルタ部20を設ける構成とすることで、被検体5に対して照射する光の波長及び光量を調整することなく第1の画像及び第2の画像を取得することができる。
 なお、フィルタ部20は、近赤外光源10とカメラ部40との間の光路上のいずれかに配置されていればよい。
 また、フィルタを利用してカメラ部40に入射する光の波長範囲を制限するのではなく、光源10自体を切り替える構成としてもよい。例えば、第1の波長域の光を出射する第1光源と、第2の波長域の光を出射する第2光源とを準備し、第1光源から光を出射する際に第1の画像を取得し、第2光源から光を出射する際に第2の画像を取得する構成としてもよい。
(撮像方法・演算について)
 撮像方法や演算の方法についても種々の変更を行うことができる。
 例えば、上記の手術用顕微鏡システム1による脂質の位置を示す情報をリアルタイム表示させたい場合、上記実施形態では、図2に示すように第1画像データを取得し(S11)、第2画像データを取得した(S12)後に、第3の画像データを生成する(S13)構成について説明したが、カメラ部40では、第1画像データの取得(S11)と第2画像データの取得(S12)とを交互に繰り返し、制御部50は、第1画像データ及び第2画像データのいずれか一方が取得される度に、最新に取得された画像データと、その1つ前(最新の画像データの取得時よりも以前で且つ直近に取得された)の画像データと、に基づいて、第3の画像データを生成する(S13)構成としてもよい。
 この場合、カメラ部40では、第1画像データと第2画像データとが交互に取得されているため、最新の画像データが第1画像データであれば、その1つ前の画像データは第2画像データであるため、最新の2枚の画像データを用いて第3の画像データを生成することができる。そのように、最新の2枚の画像データを用いて第3画像データを生成して出力する操作を繰り返す構成とした場合、第1の画像データの取得と第2の画像データの取得との繰り返し時間を短くすることで、被検体5の内部の様子を示す第3画像データを連続して出力することができ、リアルタイム表示に近い構成とすることができる。
 上記の構成とする場合、第1画像データの取得(S11)と第2画像データの取得(S12)とを繰り返すためには、第1画像データの取得(S11)のタイミングと第2画像データの取得(S12)のタイミングとに対応させて、フィルタ部20においてフィルタを交換することで、第1の波長域の光と第2の波長域の光とを交互に通過させる構成とすることが好ましい。
 また、光源10及び/又はフィルタ部20の駆動によって、第1の波長域の光を選択的に出射する第1の時間帯と、第2の波長域の光を選択的に出射する第2の時間帯と、を設け、カメラ部40において、第1の時間帯に第1画像データを複数取得し、また、第2の時間帯に第2画像データを複数取得する構成としてもよい。
 その場合、制御部50は、第1の時間帯に得られた複数の第1画像データを積算することで得られるデータと、第2の時間帯に得られた複数の第2画像データを積算することで得られるデータと、に基づいて第3の画像の画像データを生成する構成とすることができる。
 上記のように、第1の時間帯に撮像された複数の第1画像データを積算することで得られるデータと第2の時間帯に撮像された複数の第2画像データを積算することで得られるデータとを利用する場合、積算したデータではノイズ由来のピークが均されることから、SN比が向上し、より高い精度での標的物質の位置の把握が可能となる。
 また、上記実施形態では、1つのカメラ部40において第1の画像、第2の画像及び形状画像を撮像する構成について説明したが、例えば近赤外画像を撮像する撮像手段(第1の撮像手段)と、形状画像となる可視画像を撮像する撮像手段(第2の撮像手段)とが別体であってもよい。
 1、2…手術用顕微鏡システム、10…光源、20…フィルタ部、30…観察部、40…カメラ部、50…制御部、60…出力部。

Claims (11)

  1.  800nm~2500nmの波長範囲内の2以上の波長域が含まれる撮影波長において照明光を出射する近赤外光源と、
     前記撮影波長で光検出帯域を有し、前記近赤外光源からの照明光が照射された被検体からの放射光の強度分布を示す画像を撮像して画像データを出力する第1の撮像手段と、
     前記第1の撮像手段が設けられる位置での前記被検体の表面形状を示す画像を撮像して形状画像データを出力する第2の撮像手段と、
     前記第1の撮像手段から出力された画像データと、前記第2の撮像手段から出力された形状画像データと、に基づいて、前記被検体に含まれる標的物質の位置を示す出力データを作成する演算手段と、
     前記演算手段により作成された出力データを表示する表示手段と、
     を備え、
     前記撮影波長は、1185~1250nm及び1700~1770nmの波長範囲内の波長が少なくとも含まれる幅50nm以下の第1の波長域と、前記第1の波長域とは異なる第2の波長域と、を含み、
     前記第1の撮像手段は、前記第1の波長域における前記被検体からの放射光の強度分布を示す画像である第1の画像と、前記第2の波長域における前記被検体からの放射光の強度分布を示す画像である第2の画像と、を撮像してそれぞれの画像データを出力し、
     前記演算手段は、前記第1の画像の画像データと、前記第2の画像の画像データとに基づいて、前記標的物質の位置を示す第3の画像の画像データを生成し、これを前記第2の撮像手段から出力された前記形状画像データと重ねあわせることで前記出力データを作成する
     ことを特徴とする手術用顕微鏡システム。
  2.  前記第2の波長域は、1235~1300nm及び/または1600~1680nmの波長範囲に含まれることを特徴とする請求項1記載の手術用顕微鏡システム。
  3.  前記演算手段は、前記第1の画像の画像データにおける放射光の強度と、前記第2の画像の画像データにおける放射光の強度との比率を算出することで、前記第3の画像の画像データを生成することを特徴とする請求項1又は2記載の手術用顕微鏡システム。
  4.  前記表示手段は、前記出力データに含まれ、前記第3の画像において前記標的物質があると示された領域の一部の領域におけるデータに基づいて、前記出力データにおける輝度調整を行った後に表示することを特徴とする請求項1~3のいずれか一項に記載の手術用顕微鏡システム。
  5.  前記近赤外光源から前記第1の撮像手段までの光路上に、前記2以上の波長域が含まれる撮影波長のうちの何れかの撮影波長の光を選択的に透過させる光フィルタを備えることを特徴とする請求項1~4のいずれか一項に記載の手術用顕微鏡システム。
  6. 前記光フィルタは、前記第1の波長域の光と前記第2の波長域の光とを交互に選択的に透過させ、
     前記第1の撮像手段は、前記光フィルタが前記第1の波長域の光を透過させる時間に前記第1の画像を撮像し、前記光フィルタが前記第2の波長域の光を透過させる時間に前記第2の画像を撮像することで、前記第1の画像と前記第2の画像とをそれぞれ交互に撮像して画像データを出力し、
     前記演算手段は、前記第1の撮像手段から出力された画像データを取得した画像データと、当該画像データの取得時よりも以前で且つ直近に取得された画像データと、に基づいて前記第3の画像の画像データを生成することを特徴とする請求項5記載の手術用顕微鏡システム。
  7.  前記光フィルタは、前記第1の波長域の光を選択的に透過させる第1の時間帯と、前記第2の波長域の光を選択的に透過させる第2の時間帯と、を有し、
     前記第1の撮像手段は、前記第1の時間帯に前記第1の画像を複数撮像し、前記第2の時間帯に前記第2の画像を複数撮像し、
     前記演算手段は、前記第1の時間帯に撮像された複数の前記第1の画像の画像データを積算することで得られるデータと、前記第2の時間帯に撮像された複数の前記第2の画像の画像データを積算することで得られるデータと、に基づいて前記第3の画像の画像データを生成することを特徴とする請求項5記載の手術用顕微鏡システム。
  8.  前記光フィルタは、前記被検体から前記第1の撮像手段までの光路上に配置されることを特徴とする請求項5~7のいずれか一項に記載の手術用顕微鏡システム。
  9.  前記近赤外光源が、前記第1の波長域の光を出射する第1光源と、前記第2の波長域の光を出射する第2光源とを含むことを特徴とする請求項1~4のいずれか一項に記載の手術用顕微鏡システム。
  10.  前記近赤外光源は、前記第1の波長域の光と前記第2の波長域の光とを交互に選択的に出射し、
     前記第1の撮像手段は、前記第1の波長域の光が出射される時間に前記第1の画像を撮像し、前記第2の波長域の光が出射される時間に前記第2の画像を撮像することで、前記第1の画像と前記第2の画像とをそれぞれ交互に撮像して画像データを出力し、
     前記演算手段は、前記第1の撮像手段から出力された画像データを取得した画像データと、当該画像データの取得時よりも以前で且つ直近に取得された画像データと、に基づいて前記第3の画像の画像データを生成することを特徴とする請求項9記載の手術用顕微鏡システム。
  11.  前記近赤外光源は、前記第1の波長域の光を選択的に出射する第1の時間帯と、前記第2の波長域の光を選択的に出射する第2の時間帯と、を有し、
     前記第1の撮像手段は、前記第1の時間帯に前記第1の画像を複数撮像し、前記第2の時間帯に前記第2の画像を複数撮像し、
     前記演算手段は、前記第1の時間帯に撮像された複数の前記第1の画像の画像データを積算することで得られるデータと、前記第2の時間帯に撮像された複数の前記第2の画像の画像データを積算することで得られるデータと、に基づいて前記第3の画像の画像データを生成することを特徴とする請求項9記載の手術用顕微鏡システム。
PCT/JP2014/065349 2013-06-10 2014-06-10 手術用顕微鏡システム WO2014199984A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/786,084 US20160091707A1 (en) 2013-06-10 2014-06-10 Microscope system for surgery
EP14810376.5A EP3009098A4 (en) 2013-06-10 2014-06-10 Microscope system for surgery
CA2902427A CA2902427A1 (en) 2013-06-10 2014-06-10 Microscope system for surgery

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-121746 2013-06-10
JP2013121746A JP6082321B2 (ja) 2013-06-10 2013-06-10 手術用顕微鏡システム

Publications (1)

Publication Number Publication Date
WO2014199984A1 true WO2014199984A1 (ja) 2014-12-18

Family

ID=52022276

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/065349 WO2014199984A1 (ja) 2013-06-10 2014-06-10 手術用顕微鏡システム

Country Status (5)

Country Link
US (1) US20160091707A1 (ja)
EP (1) EP3009098A4 (ja)
JP (1) JP6082321B2 (ja)
CA (1) CA2902427A1 (ja)
WO (1) WO2014199984A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015199067A1 (ja) 2014-06-24 2015-12-30 株式会社ニコン 画像解析装置、撮像システム、手術支援システム、画像解析方法、及び画像解析プログラム
JP6451741B2 (ja) 2014-07-11 2019-01-16 株式会社ニコン 画像解析装置、撮像システム、手術支援システム、及び画像解析プログラム
WO2017000116A1 (zh) * 2015-06-29 2017-01-05 北京旷视科技有限公司 活体检测方法、活体检测系统以及计算机程序产品
JP6538466B2 (ja) * 2015-07-27 2019-07-03 株式会社トプコン 眼科用顕微鏡
WO2018038123A1 (ja) * 2016-08-22 2018-03-01 キユーピー株式会社 食品検査装置、食品検査方法及び食品検査装置の識別手段の学習方法
DE102017100262A1 (de) 2017-01-09 2018-07-12 Carl Zeiss Microscopy Gmbh Verfahren zur Erzeugung eines dreidimensionalen Modells einer Probe in einem digitalen Mikroskop und digitales Mikroskop
CN106773509B (zh) * 2017-03-28 2019-07-09 成都通甲优博科技有限责任公司 一种光度立体三维重建方法及分光式光度立体相机
CN113614487A (zh) * 2019-03-26 2021-11-05 索尼集团公司 图像处理装置、图像处理方法和图像处理程序
EP4006615A1 (en) * 2020-11-30 2022-06-01 Leica Instruments (Singapore) Pte. Ltd. Imaging system
US20240077710A1 (en) * 2021-02-05 2024-03-07 Sony Olympus Medical Solutions Inc. Surgical microscope system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039510A (ja) * 2007-07-18 2009-02-26 Fujifilm Corp 撮像装置
JP2009525495A (ja) 2006-01-30 2009-07-09 カール ツァイス サージカル ゲーエムベーハー 顕微鏡システム
JP2010051350A (ja) * 2008-08-26 2010-03-11 Fujifilm Corp 画像処理装置および方法ならびにプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10339784B4 (de) * 2002-08-28 2021-09-16 Carl Zeiss Meditec Ag Mikroskopiesystem und Mikroskopieverfahren
US7539530B2 (en) * 2003-08-22 2009-05-26 Infraredx, Inc. Method and system for spectral examination of vascular walls through blood during cardiac motion
JP5658146B2 (ja) * 2009-05-13 2015-01-21 住友電気工業株式会社 血管内壁分析装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009525495A (ja) 2006-01-30 2009-07-09 カール ツァイス サージカル ゲーエムベーハー 顕微鏡システム
JP2009039510A (ja) * 2007-07-18 2009-02-26 Fujifilm Corp 撮像装置
JP2010051350A (ja) * 2008-08-26 2010-03-11 Fujifilm Corp 画像処理装置および方法ならびにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3009098A4 *

Also Published As

Publication number Publication date
JP6082321B2 (ja) 2017-02-15
EP3009098A1 (en) 2016-04-20
JP2014236911A (ja) 2014-12-18
CA2902427A1 (en) 2014-12-18
US20160091707A1 (en) 2016-03-31
EP3009098A4 (en) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6082321B2 (ja) 手術用顕微鏡システム
JP6728070B2 (ja) マルチスペクトルイメージングのための方法及び手段
JP6204314B2 (ja) 電子内視鏡システム
JP6426974B2 (ja) データ処理方法及びoct装置
KR101570666B1 (ko) 화상처리장치 및 화상처리방법
JP6581984B2 (ja) 内視鏡システム
JP2011200367A (ja) 画像撮像方法および装置
WO2019087557A1 (ja) 内視鏡システム
JP6745508B2 (ja) 画像処理システム、画像処理装置、投影装置、及び投影方法
JP6776076B2 (ja) Oct装置
JP2016049255A (ja) 検眼装置
JP2014073207A (ja) 眼科撮影装置
JP5385176B2 (ja) 画像表示装置の作動方法および画像表示装置
JP2011005002A (ja) 内視鏡装置
JP6452990B2 (ja) データ処理方法及びoct装置
JP6859554B2 (ja) 観察補助装置、情報処理方法、およびプログラム
JP4245787B2 (ja) 蛍光画像取得方法および装置
US20220191439A1 (en) Apparatus, System and Method to Capture Images of a Medical Site In White Light and Fluorescent Light
JP5489785B2 (ja) 蛍光内視鏡装置
JP6180877B2 (ja) 光画像計測装置
WO2015025672A1 (ja) 内視鏡システム及びプロセッサ装置並びに作動方法並びにテーブル作成方法
JP2012050617A (ja) 画像取得方法および装置
JP6120770B2 (ja) 分光画像取得装置
JP6779674B2 (ja) Oct装置
JP5489806B2 (ja) 蛍光内視鏡装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14810376

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2902427

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2014810376

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14786084

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE