WO2014175223A1 - 癌診断装置、診断システム、診断装置 - Google Patents

癌診断装置、診断システム、診断装置 Download PDF

Info

Publication number
WO2014175223A1
WO2014175223A1 PCT/JP2014/061186 JP2014061186W WO2014175223A1 WO 2014175223 A1 WO2014175223 A1 WO 2014175223A1 JP 2014061186 W JP2014061186 W JP 2014061186W WO 2014175223 A1 WO2014175223 A1 WO 2014175223A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
diagnostic
raman scattering
visible light
measurement
Prior art date
Application number
PCT/JP2014/061186
Other languages
English (en)
French (fr)
Inventor
秀視 高須
前田 利久
田中 雅英
拓滋 前川
Original Assignee
ローム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013089515A external-priority patent/JP6288936B2/ja
Priority claimed from JP2014085486A external-priority patent/JP6560485B2/ja
Application filed by ローム株式会社 filed Critical ローム株式会社
Priority to US14/785,902 priority Critical patent/US10184894B2/en
Publication of WO2014175223A1 publication Critical patent/WO2014175223A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/65Raman scattering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0237Adjustable, e.g. focussing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0248Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using a sighting port, e.g. camera or human eye
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0264Electrical interface; User interface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/44Raman spectrometry; Scattering spectrometry ; Fluorescence spectrometry
    • G01J3/4412Scattering spectrometry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Definitions

  • the present invention relates to a diagnostic system, a diagnostic device, and a display device, and more particularly to a cancer diagnostic device.
  • Patent Document 1 Japanese Translation of PCT International Publication No. 2003-507088
  • a laser beam from a light source is applied to a tissue to be measured, and Raman scattered light is spectrally separated from Rayleigh scattered light. It has been proposed to evaluate a substantial difference between the Raman scattered light intensity of a suspected biological tissue and the Raman scattered light intensity from an adjacent normal biological tissue as the presence or risk of a disease.
  • Patent Document 2 a pulse having a wavelength of 1064 nm from an Nd: YAG laser light source 10 is used as excitation light to irradiate a sample in discrimination between normal tissue and cancer tissue using Raman spectrum.
  • Raman scattered light that is spectrally separated by the spectroscope and detected by the photodetector 31 is detected by the coincidence counting circuit according to the excitation light detection signal from the photodiode 16 that detects the excitation light. It has been proposed to reduce the intensity of background light in the Raman spectrum by counting in synchronization with the excitation light.
  • an object of the present invention is to propose an easier-to-use diagnostic system, diagnostic device, display device, and cancer diagnostic device.
  • the present invention provides a cancer diagnostic apparatus comprising a CIGS image sensor provided with a visible light filter and a Raman scattering detection filter.
  • the Raman scattering detection filter includes a measurement infrared filter that selectively transmits Raman scattered light, and a reference infrared filter that selectively transmits infrared light in a near region without Raman scattered light.
  • the cancer diagnostic apparatus of the present invention includes a visible light range illumination light source and a Raman scattering light source
  • the CIGS image sensor includes the visible light range illumination light source and the Raman scattering. A visible light image is picked up and Raman scattering is detected based on the light source.
  • the storage unit stores the output of the CIGS image sensor provided with the Raman scattering detection filter as a reference value. More specifically, the said memory
  • imaging of a visible light image and detection of Raman scattering by the CIGS image sensor are performed in a time-sharing manner, and the display unit displays the visible light image.
  • the display of the visible light image is continued even when the Raman scattering is detected.
  • a superimposed display for specifying the detection portion of the Raman scattering is performed.
  • the CIGS image sensor includes an imaging lens that forms an image of a measurement target, and the superimposed display that specifies the detection portion of the Raman scattering is changed according to focus adjustment or zooming of the imaging lens. .
  • the present invention is characterized by comprising a cancer diagnostic device and a plurality of wearable display devices that display diagnostic information received through wireless short-range communication with the cancer diagnostic device.
  • a diagnostic system implemented as a diagnostic system.
  • the imaging lens has an imaging lens, can capture a visible light image and perform diagnostic measurement, and performs a superimposed display that identifies a target portion of the diagnostic measurement in displaying a visible light image.
  • a diagnostic apparatus is provided in which the superimposed display position is changed according to the adjustment of the imaging lens.
  • a diagnostic information acquisition unit that obtains diagnostic information, and a plurality of wearable display devices that display the received diagnostic information through wireless short-range communication with the diagnostic information acquisition unit.
  • a diagnostic system is provided.
  • the diagnostic information acquisition unit restricts at least one of the plurality of wearable display devices to a part of the diagnostic information provided to other wearable display devices.
  • At least one of the plurality of wearable display devices is for a diagnosis subject to wear.
  • the plurality of wearable display devices are for a plurality of diagnosis staff to wear in order to share diagnosis information.
  • the plurality of wearable display devices include a calling means for calling between a plurality of diagnosis staff.
  • at least one of the plurality of wearable display devices is to be worn by a person to be diagnosed, and the call means is connected to the wearable display device worn by the person to be diagnosed. Means are provided for muting so that no sound is transmitted.
  • the diagnostic information acquisition unit acquires 3D image information
  • the plurality of wearable display devices include a 3D image display unit. More specifically, the pair of optical axis widths for the diagnostic information acquisition unit to acquire 3D image information is different from the eye width in the plurality of wearable display devices, and has means for adjusting between the two. .
  • the diagnostic information acquisition unit acquires a pair of images as 3D image information
  • the diagnostic system includes means for obtaining a center of gravity of the pair of images, and a center of gravity of the pair of images. Analyzing means for analyzing the deviation is provided.
  • Example 1 is a schematic diagram illustrating an overall configuration of an endoscope according to a first embodiment of the present invention.
  • Example 1 It is a block diagram of the whole structure of the endoscope in Example 1 of FIG. It is a color filter arrangement
  • sequence figure of the CIGS image sensor in Example 1 of FIG. 3 is a timing chart showing a relationship between light emission of red, green, and blue LEDs and irradiation of a laser beam emitted from a Raman scattering light source laser 30 in Example 1 of FIG. 2.
  • FIG. 3 is a cross-sectional view and a monitor display diagram of the imaging optical system in Example 1 of FIG. 2. It is the schematic diagram which showed the display range of the monitor shown in FIG. 5 with the comparatively wide range of object.
  • FIG. 10 is a block diagram of the distal end portion of the endoscope in Example 2 of FIG. 9.
  • FIG. 10 is a block diagram of an eyeglass-type wearable monitor for an operator in Example 2 of FIG. 9.
  • FIG. 10 is a block diagram of a general unit in the second embodiment of FIG. 9. It is a basic flowchart of operation
  • FIG. 1 is a schematic diagram showing an overall configuration of Example 1 of an endoscope according to an embodiment of the present invention.
  • the endoscope of the first embodiment is controlled by the overall unit 2, and the overall unit 2 has a monitor 4 for displaying an observation image or the like.
  • the operation unit 6 is connected to the overall unit 2 by a connection cable 8, and an optical fiber for transmitting light source light and a signal line for transmitting an electrical signal pass through the connection cable 8.
  • the operation unit 6 is held by the hand of a doctor who operates the operation unit 6, and an insertion portion 10 to be inserted into the stomach or the like extends, and a distal end thereof is a distal end portion 12 where an imaging optical system and an illumination optical system are disposed. It has become.
  • the endoscope according to the first embodiment is configured to discriminate between normal tissue and cancer tissue by irradiating the stomach with a laser beam and detecting Raman scattering in addition to a normal function of observing an image of the stomach or the like. Has been.
  • FIG. 2 is a block diagram of the overall configuration of the endoscope according to the first embodiment shown in FIG. 1, and parts corresponding to those in FIG.
  • the overall unit 2 is provided with a control unit 14 that performs overall control of the entire endoscope.
  • the storage unit 16 stores a control program necessary for the operation of the control unit 14 and accumulates and stores measurement data. Further, data related to control is temporarily stored.
  • the image processing unit 18 processes the endoscopic image captured by the distal end portion 12 and updates the display image data in the display memory 20 when a new color image is obtained.
  • the monitor 4 performs image display based on the display image data in the display memory 20.
  • the image processing unit 18 also superimposes and displays the light source beam irradiation position for detecting Raman scattering on the endoscopic image, and displays at which position of the endoscopic image the light source beam is irradiated.
  • the imaging of the endoscopic image and the detection of Raman scattering are performed in a time-sharing manner, but the display memory 20 can also be used in the time zone when the imaging of the endoscopic image is not performed for Raman scattering detection. The latest endoscopic image is held and the display on the monitor 4 is continued.
  • the overall unit 2 is further provided with a light source unit 22, and the control unit 14 controls the red LED 24, the green LED 26, and the blue LED 28 to emit light sequentially in the endoscope image capturing time zone.
  • the light source unit 22 is further provided with a Raman scattering light source laser 30 that generates infrared light (for example, 1056 nm), and the control unit 14 controls the Raman scattering light source laser 30 in a time zone for detecting Raman scattering. Control to emit light.
  • the front end portion 12 is provided with an imaging lens 32 capable of focus adjustment and zooming, and the CIGS image sensor 34 captures a visible light image by the imaging lens 32.
  • the CIGS image sensor 34 is a photoelectric sensor using a polycrystalline CIGS thin film made of copper, indium, gallium, and selenium, and controls the absorption wavelength region by changing the band gap by controlling the composition of the CIGS image sensor 34. To 1300 nm and a wide sensitivity range. As a result, the CIGS image sensor 34 can capture a visible light image by image output at the timing when the red LED 24, the green LED 26, and the blue LED 28 emit light sequentially, and, for example, a light source light of 1056 nm as described later. It also functions as a sensor for detecting 1258 nm Raman scattered light.
  • the imaging lens 32 is automatically focus-adjusted by a focus driving unit 36 that functions based on an autofocus signal, and is manually zoomed by a zoom driving unit 38 that functions based on a manual operation signal.
  • Visible illumination light sequentially emitted from the red LED 24, the green LED 26, and the blue LED 28 is guided through the illumination optical fiber 40 to illuminate the widest field of view range of the imaging lens 32 from the illumination optical system 42.
  • the laser light emitted from the Raman scattering light source laser 30 is guided through the laser optical fiber 44 and irradiated from the beam irradiation optical system 46 in parallel with the optical axis 48 of the imaging lens 32.
  • the operation unit 6 through which the optical fiber for illumination 40 and the optical fiber for laser 44 are routed is provided with an operation unit 50.
  • a zoom manual operation signal is transmitted to the zoom drive unit 38.
  • the autofocus processing unit 52 of the operation unit 6 detects the contrast based on the image output of the CIGS image sensor 34 at the time when the green LED 26 is irradiated, and the contrast becomes larger based on the control of the control unit 14.
  • an autofocus control signal for driving the imaging lens 32 is transmitted to the focus driving unit 36.
  • the Raman scattering processing unit 54 of the operation unit 6 processes the output of the CIGS image sensor 34 at the timing when the laser beam is emitted from the Raman scattering light source laser 30 and transmits this to the control unit 14.
  • the output of the CIGS image sensor 34 at the timing when the red LED 24, the green LED 26 and the blue LED 28 emit light sequentially is also performed via the operation unit 6.
  • connection of the optical fibers 40 and 44 between the operation unit 6 and the overall unit 2 and the connection of the signal line for transmitting an electrical signal are performed through the connection cable 8.
  • connection of the optical fibers 40 and 44 between the operation unit 6 and the distal end portion 12 and the connection of the signal line for transmitting an electrical signal are performed through the insertion portion 10.
  • a bending mechanism 56 for freely changing the direction of the distal end portion 12 with respect to the insertion portion 10 is provided in the vicinity of the end portion of the insertion portion 10, and bending based on manual operation of the operation portion 50 of the operation unit 6 is provided. A control signal is transmitted.
  • FIG. 3 is a color filter array diagram of the CIGS image sensor 34 in the first embodiment shown in FIG.
  • visible light filters V11 and V22 that cut the infrared region and transmit the visible light region
  • a narrow band having a half-value width of ⁇ 4 nm around 1258 nm to selectively transmit the Raman scattered light.
  • Infrared filter IR12 for measurement and IRref21 for narrowband reference having a half-value width of ⁇ 4 nm centered on 1271 nm are shown in order to selectively transmit near-range infrared light without Raman scattered light This is an array that repeats this as one unit.
  • the CIGS image sensor 34 of the present invention has a wide spectral sensitivity range from the visible light range to the infrared light as described above, a color filter for visible light and infrared light is provided in one sensor in this way, Image detection and Raman scattered light measurement can be performed.
  • the Rayleigh scattered light based on the light source light of the Raman scattering light source laser 30 of 1056 nm can be removed by using the narrow-band measurement infrared filter IR12 and the reference infrared filter IRref21.
  • the outputs of all the pixels provided with the measurement infrared filter IR12 are added, and the outputs of all the images provided with the reference infrared filter IRref21 are added.
  • the intensity of the Raman scattered light at 1258 nm can be detected.
  • an image provided with the measurement infrared filter IR12 and the reference infrared filter IRref21 is also interpolated by data of pixels around which a visible light region filter is provided. To obtain a pixel signal. This interpolation is performed for the red image, the green image, and the blue image at each timing when the red LED 24, the green LED 26, and the blue LED 28 emit light sequentially.
  • FIG. 4 is a timing chart showing the relationship between the light emission of the red LED 24, the green LED 26 and the blue LED 28 in Example 1 shown in FIG. 2 and the irradiation timing of the laser beam emitted from the Raman scattering light source laser 30 to the measurement target. It is. As shown in FIG. 4, a green image based on the emission of the green LED 26 starting at t1, a red image based on the emission of the red LED 24 starting at t3, and a blue image based on the emission of the blue LED 28 starting at t5. , A visible light color image of one frame indicated by V1 is created.
  • the measurement of Raman scattering corresponds to the measurement infrared filter IR12 based on the irradiation of the laser beam emitted from the Raman scattering light source laser 30 started at t7.
  • the outputs of all the pixels to be added are added, the outputs of all the images corresponding to the reference infrared filter IRref21 at the same timing are added, and the difference between the two addition values is taken to obtain the Raman scattering intensity R1.
  • the Raman scattering intensity R2 is obtained by taking the difference between the two addition values.
  • the Raman scattering intensity can be continuously measured in a time division manner in parallel with the imaging of the visible light image. Therefore, it is possible to measure the Raman scattering intensity at the laser irradiation position superimposed and displayed in the visible light image while measuring the object with the visible light image. The measurement can be continued while changing the measurement position by observing visible light.
  • FIG. 5 is a cross-sectional view and a monitor display diagram of the imaging optical system of the endoscope in the embodiment 1 shown in FIG. 2, for explaining the display of the beam position in the monitor display. Parts corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted unless necessary.
  • FIG. 5A schematically shows a cross section of the imaging optical system of the endoscope at the longest shooting distance at the wide end (most wide-angle side) of zoom.
  • An image of an imaging and measurement target 58 such as a stomach wall is formed on the CIGS image sensor 34, and a light source beam 60 is irradiated from the beam irradiation optical system 46 in parallel with the optical axis 48 of the imaging lens 32. ing.
  • FIG. 5B shows a screen displayed on the monitor 4 in the state of FIG. 5A, and a target 58 such as a stomach wall is displayed in the monitor 4.
  • the monitor 4 further displays a crosshair 62 indicating the center of the image and an irradiation position mark 64 of the light source beam 60 in a superimposed manner.
  • a desired position can be irradiated with the light source beam 60 while observing the object 58, and Raman scattering at that position can be measured.
  • FIG. 5C schematically shows a cross section in a state where the imaging optical system is brought close to the object 58 with the zoom left at the wide end.
  • the imaging lens 32 is fed out with the focus adjusted by an autofocus function.
  • the positional relationship between the light source beam 60 irradiated from the beam irradiation optical system 46 and the optical axis 48 of the image pickup lens 32 does not change, but the light source beam 60 moves closer to the outside of the image pickup range by narrowing the image pickup range. Will be irradiated.
  • FIG. 5D shows a screen displayed on the monitor 4 in the state of FIG. 5C.
  • the object 58 is enlarged and displayed, and the light source beam 60 is compared with FIG. 5B.
  • the irradiation position mark 64 is moved away from the cross line 62 and moved further outward in the field of view of the monitor 4 and displayed.
  • FIG. 5E schematically shows a cross section in a state in which the imaging lens 32 is zoomed up to the telephoto side while the photographing distance remains in the state of FIG.
  • the zoom driving unit 38 drives the imaging lens 32 so that the focal length of the imaging lens 32 is increased.
  • the positional relationship between the light source beam 60 irradiated from the beam irradiation optical system 46 and the optical axis 48 of the imaging lens 32 does not change.
  • the imaging range is narrowed as in FIG. 60 is irradiated to the outside of the imaging range.
  • FIG. 5 (F) shows a screen displayed on the monitor 4 in the state of FIG. 5 (E).
  • the object 58 is enlarged and displayed in the same manner as FIG. 5 (D), and FIG. Compared with B), the irradiation position mark 64 of the light source beam 60 is moved away from the cross line 62 and moved to the outer side in the visual field of the monitor 4 and displayed.
  • FIG. 5 shows a typical state, but imaging at a desired magnification can be performed by changing the shooting distance and zooming of the imaging lens 32.
  • the movement of the irradiation position mark 64 in the field of view of the monitor 4 as shown in FIGS. 5B, 5D, and 5F is caused by the focal length information and focus driving of the imaging lens 32 during zooming. This can be performed based on information on the focus adjustment state of the imaging lens 32 in the unit 36.
  • FIG. 6 is a schematic diagram showing the display range of the monitor 4 shown in FIG. 5B together with a relatively wide range of the object 58 such as a stomach wall.
  • the relatively wide area of the target 58 is illustrated.
  • a state of scanning and preliminary measurement is shown.
  • the endoscope is set in the preliminary measurement mode, and a portion that looks normal as a visible image while observing the object 58 displayed on the monitor 4 is changed to, for example, the display ranges 4a to 4b in FIG. It corresponds to moving.
  • the light source beam 60 moves from the irradiation position marks 64a to 64b via the locus 64c.
  • the Raman scattering processing unit 54 repeatedly measures the Raman scattering intensity based on the output of the CIGS image sensor 34, accumulates and stores these, and sets and stores the average value as a reference value for measurement. By obtaining a reference value based on such preliminary measurement at the initial stage of measurement, it is possible to consider the reference value obtained by actual measurement as the Raman scattering intensity of the normal tissue and compare it with the Raman scattering intensity when the target portion is actually measured. It is possible to determine whether or not the target tissue in this measurement is normal.
  • FIG. 7 is a basic flowchart of the operation of the control unit 14 of the endoscope in the first embodiment shown in FIG.
  • the flow starts.
  • the imaging lens 32 is initially set to the wide end of the zoom, and in step S4, the focus initial position (for example, a position where the shooting distance is relatively long and the depth of focus is deep) is set. Set up.
  • step S6 an initial value of data for displaying the light source beam irradiation position mark 64 in a superimposed manner in the monitor 4 is set based on the above zoom setting and focus setting.
  • focus driving in the initial direction (for example, the direction for shortening the shooting distance) is started in step S8. This is because the autofocus in the first embodiment is a contrast method, and focusing cannot be performed unless the imaging lens 32 is first driven to see a change in contrast.
  • step S10 a visible light imaging process is performed under illumination of the visible light LEDs (24, 26, 28). As a result, a visible light image in the field of view can be obtained, and contrast information for autofocus can be obtained. Details of the visible light imaging process in step S10 will be described later. Further, in step S12, a Raman scattering detection process is performed under irradiation of the light source beam by the Raman scattering light source laser 30 to obtain a detection value. Details of the Raman scattering detection process in step S12 will also be described later.
  • step S14 When the detection values of visible light imaging and Raman scattering are obtained once each in step S10 and step S12, the process proceeds to step S14, and a reference value (a predetermined initial value when there is no actual measurement value) is determined from the detection value of Raman measurement. And record as measured value.
  • step S16 it is checked whether or not the absolute value of the difference between the reference value and the detected value is less than or equal to a predetermined value. . If it is the preliminary measurement mode, the process proceeds to step S20 to recalculate the reference value for adding the current detection value and taking the average again, and the process proceeds to step S22. As will be described later, the processing from step S10 to step S20 is repeated in the preliminary measurement as shown in FIG.
  • step S16 a reference value based on the actual measurement average is set in this repetition. If the difference between the absolute value of the reference value and the measured value is greater than or equal to the predetermined value in step S16, or if it is confirmed in step S18 that it is not the preliminary measurement mode, the detected value of this time is directly reflected on the reference value. Control goes to step S22.
  • step S22 it is checked whether or not the contrast of the visible light image captured this time is lower than the visible light image captured this time. If there is no decrease in contrast, the process proceeds to step S24, and it is checked whether or not there is a change in contrast. If there is a change, it means that the contrast has increased due to the focus drive, so the focus drive in that direction is continued and the process proceeds to step S26. On the other hand, when a decrease in contrast is detected in step S22, it means that the imaging lens 32 is focus-driven in the out-of-focus direction. Therefore, the process proceeds to step S28, and the focus drive is reversed and the process proceeds to step S26. To do.
  • step S24 If it is confirmed in step S24 that there is no change in contrast, it means that the contrast is at the peak and the camera is in focus. Therefore, the process proceeds to step S30, the focus drive is stopped, and the process proceeds to step S26. In any case, in step S26, the light source beam irradiation position superimposition data is updated based on the new focus adjustment position, and the process proceeds to step S32.
  • step S22 the focus drive stop is continued in step S30, and as a result, the same data is continued even in the data update in step S26.
  • step S28 the focus drive is resumed in step S28.
  • the direction is opposite to the direction before the stop, but if this is inappropriate, it is detected that the contrast further decreases in step S22 in the next iteration, so step S28 is reached again, and the focus drive direction is corrected.
  • step S32 it is checked whether or not a zoom operation has been performed. If there is a zoom operation, the process proceeds to step S34, the light source beam irradiation position superimposition data is updated based on the new focal length as a result of the zoom operation, and the process proceeds to step S36. On the other hand, when the zoom operation is not confirmed in step S32, the process directly proceeds to step S36.
  • step S36 it is checked whether or not a measurement stop operation has been performed. If the operation is not confirmed, the process returns to step S10. Then, unless a measurement stop operation is confirmed in step S36, steps S10 to S36 are repeated, and visible light image capturing and Raman scattering measurement are continued. On the other hand, if a measurement stop is detected in step S36, the flow is immediately terminated.
  • FIG. 8 is a flowchart showing details of the visible light imaging process in step S10 and the Raman scattering detection process in step S12 in FIG.
  • the process proceeds to step S42 in FIG. 8, and the green LED 26 is turned on and the output of the pixel provided with the visible light region filters (V11, V12) of the CIGS image sensor 34 in step S44.
  • a green image is taken into the image processing unit 18.
  • step S46 the contrast of the captured green image is detected and stored.
  • step S48 the red LED 24 is turned on, and in step S50, the output of the pixel provided with the visible light range filters (V11, V12) of the CIGS image sensor 34 is taken into the image processing unit 18 as a red image.
  • step S52 the blue LED 28 is turned on, and in step S54, the output of the pixel provided with the visible light range filters (V11, V12) of the CIGS image sensor 34 is taken into the image processing unit 18 as a blue image, and step S56 is performed.
  • step S56 interpolation is performed for the pixels provided with the measurement infrared filter (IR12) and the reference infrared filter (IRref21) for each of the green image, the red image, and the blue image captured as described above. At the same time, a visible light image is obtained on the basis of the interpolated green image, red image and blue image, and this is recorded.
  • IR12 measurement infrared filter
  • IRref21 reference infrared filter
  • step S58 it is checked whether or not the mode is the Raman scattering measurement mode. If applicable, in step S60, the irradiation position of the light source beam 60 is superimposed on the visible light image, and the process proceeds to step S62. On the other hand, when it is detected in step S58 that the mode is not the Raman scattering measurement mode, the process proceeds to step S64, the process of canceling the light source beam irradiation position superposition is performed, and the process proceeds to step S62. For example, when there is no intention to measure Raman scattering, such as when an endoscope is inserted, it is bothersome if there is a superimposed display of the light source beam irradiation position. Cancel overlay display. If the mode is not the man scattering measurement mode from the beginning, nothing is done in step S64, and the process proceeds to step S62.
  • step S62 the display data of the display memory 20 is updated with display data in which the light source beam irradiation position is superimposed on the new visible light image obtained in step S56 as necessary.
  • the display data is not updated as described above, the previous display data is stored in the display memory 20, and the display on the monitor 4 based on this is continued even during the Raman scattering measurement. If the display data is updated, the display on the monitor 4 is also updated.
  • step S66 it is checked again whether or not the mode is the Raman scattering measurement mode. If applicable, the light source beam 60 is irradiated in step S68, and in step S70, the output of all pixels provided with the measurement infrared filter (IR12) is output. In addition, the outputs of all the pixels provided with the reference infrared filter (IRref21) are added in step S72, and the process proceeds to step S74. In step S74, the addition value of the output of all pixels provided with the reference infrared filter (IRref21) is subtracted from the addition value of the output of all pixels provided with the measurement infrared filter (IR12), and the result is detected. It records as a value and transfers to step S14 of FIG.
  • the measurement of the visible light image in the first embodiment is based on the visible light region filter provided in the CIGS image sensor and the time-division emission of red, green, and blue LEDs, but is not limited thereto.
  • a red filter, a green filter, a blue filter, a measurement infrared filter, and a reference infrared filter are arranged in an appropriate pattern in a CIGS image sensor so that a visible light image can be obtained by illumination without time division using a white light source. May be.
  • the light source unit 22 is disposed in the overall unit 2. However, if the light source unit 22 is disposed in the distal end portion 12, an intermediate optical fiber is omitted, and exchange with the overall unit 2 is performed only by an electrical signal. Also good. Furthermore, in the first embodiment, the autofocus processing unit 52 and the Raman scattering processing unit 54 are arranged in the operation unit 6, but these may be arranged in the overall unit 2. Regarding the focus adjustment, the auto focus is employed in the first embodiment, but this may be a manual focus. Also in this case, information on the result of manual focus adjustment is reflected in correction of the light source beam irradiation position superimposed display.
  • FIG. 9 is a schematic diagram showing an overall configuration of Example 2 of the endoscope system according to the embodiment of the present invention.
  • Each component of the endoscope system according to the second embodiment is described with a number in the hundreds.
  • the components common to the endoscope of the first embodiment in the endoscope portion are The number of the first place is made common, and explanation is omitted unless necessary.
  • the endoscope system according to the second embodiment illustrated in FIG. 9 includes an endoscope having a general unit 102, an operation unit 106, a connection cable 108, an insertion portion 110, and a distal end portion 112. As described above, this endoscope has the same components as those of the endoscope according to the first embodiment. Differences from the first embodiment will be described later.
  • the endoscope system according to the second embodiment shown in FIG. 9 further includes an eyeglass-type wearable monitor 166 for an operator worn by an operator who operates the endoscope, and an eyeglass-type for staff worn by a medical staff who cooperates with the operator.
  • a wearable monitor 168 and a glasses-type wearable monitor 170 for a patient worn by the patient are included. These names are intended for medical situations, but in the case of medical examination, the staff's glasses-type wearable monitor 168 is worn by the staff of the examination team, and the patient's glasses-type wearable monitor 170 is It shall be read as the name “spectacles-type wearable monitor for subject 170”. Further, only one staff eyeglass-type wearable monitor 168 is shown for simplicity, but a plurality of staff eyeglass-type wearable monitors 168 are usually used for a plurality of staff members.
  • the eyeglass-type wearable monitor 166 for the operator is basically configured not to obstruct the visual field so as not to obstruct the medical practice or the diagnostic act, and is also used for an endoscopic image or diagnosis superimposed on a part of the visual field or on the visual field. Information is displayed. Further, it is possible to display an endoscopic image and diagnostic information in the entire visual field by switching.
  • the operator's glasses-type wearable monitor 166 can communicate with the overall unit 102 by the short-range wireless radio wave 172, receives endoscopic image information and diagnostic information from the overall unit 102, and enters the endoscopic image and diagnostics within the visual field. Display information. As will be described later, the operator's glasses-type wearable monitor 166 can observe a stereoscopic image (hereinafter referred to as “3D image”), and the right-eye image and the left-eye image are respectively in the right-eye and left-eye fields of view. Is displayed.
  • 3D image stereoscopic image
  • the operator's spectacle-type wearable monitor 166 further includes a microphone 174 and an earphone 176, and allows a medical conversation with the staff spectacle-type wearable monitor 168 via wireless short-range communication with the overall unit 102. Can be done. A commentary announcement can be transmitted to the patient's glasses-type wearable monitor 170 via the microphone 174 via wireless short-range communication with the central unit 102. In order to avoid anxiety to the patient, when performing a conversation on the medical side, a signal for muting is transmitted to the overall unit 102 by operating the operation unit 178 so that the sound from the microphone 174 is not transmitted to the patient wearable monitor 170 for patients. can do.
  • An external measuring device 180 that measures blood pressure, pulse, SaO 2 (arterial blood oxygen saturation by a pulse oximeter, etc.), body temperature, and the like is further connected to the overall unit 102 of the second embodiment.
  • the patient measurement information by the external measurement device 180 is also transmitted from the overall unit 102 to the operator glasses-type wearable monitor 166 by the short-range wireless radio wave 172 and displayed in the field of view.
  • the configuration of the eyeglass-type wearable monitor 166 for an operator as described above is within the field of view in which a medical or diagnostic action is performed even if the operator does not face the monitor 104 of the overall unit 102. It is possible to display an endoscopic image and diagnostic information. Therefore, the operation of the endoscope can be performed in a posture facing the patient rather than an unnatural posture such as twisting the face. In addition, since the information of the external measuring device 180 is also displayed in the field of view, it is possible to grasp the information while maintaining the posture of performing a medical act or a diagnostic act without twisting the face to see the display of the external measuring device 180. can do.
  • the configuration of the staff glasses-type wearable monitor 168 is basically the same as the configuration of the operator glasses-type wearable monitor 166. Therefore, the same reference numerals are given to the corresponding portions, and the description is omitted unless necessary.
  • the staff eyeglass-type wearable monitor 168 receives endoscopic image information and diagnostic information from the overall unit 102 and displays the endoscopic image and diagnostic information in the visual field in the same manner as the operator eyeglass-type wearable monitor 166. . Information on the external measuring device 180 is also displayed in the field of view.
  • the configuration of the patient's glasses-type wearable monitor 170 is basically the same as the configuration of the operator's glasses-type wearable monitor 166. Therefore, the same reference numerals are given to the corresponding parts and the description is omitted unless necessary. However, for the patient's glasses-type wearable monitor 170, only the endoscopic image information is transmitted from the overall unit 102, and diagnostic information that may cause anxiety and misunderstanding to the patient and information of the external measuring device 180 are not transmitted. As described above, the operator's commentary announcement is output to the earphone 176 of the patient's glasses-type wearable monitor 170 via the overall unit 102. Incidentally, in order to prevent confusion, the glasses-type wearable monitor 170 for patients is dedicated to reception and is not provided with a microphone.
  • the patient's spectacle-type wearable monitor 170 is attached, so that the patient can view his / her endoscopic image information in an easy consultation posture without twisting his face toward the monitor 104, By providing commentary announcements from appropriate operators, it is possible to receive consultation without anxiety.
  • FIG. 10 is a block diagram of the distal end portion 112 of the endoscope in the second embodiment shown in FIG. 9, and the same reference numerals are given to the portions corresponding to those in FIG.
  • An imaging lens 132a, a CIGS image sensor 134a, a focus driving unit 136a, and a zoom driving unit 138a similar to those of the first embodiment are provided at the distal end portion 112 of the second embodiment.
  • another set of the same imaging lens 132b, CIGS image sensor 134b, focus driving unit 136b, and zoom driving unit 138b is provided to obtain a 3D image.
  • the former is for the left eye and the latter is for the right eye.
  • Both optical axes 148a and 148b are parallel.
  • the beam irradiation optical system 146 is disposed between the imaging lenses 132a and 132b, and the light source beam 160 from the Raman scattering light source laser 30 guided through the laser optical fiber 144 is captured by the imaging lenses 132a and 132b. Are irradiated in parallel with the optical axes 148a and 148b.
  • visible illumination light sequentially emitted from the red LED 24, the green LED 26, and the blue LED 28 is guided through the illumination optical fiber 140 and is taken from the illumination optical system 142 to the imaging lens. Illuminates the widest field-of-view range of 132a and 132b.
  • the distal end portion 112 of the second embodiment is provided with a pH sensor 182 for measuring the pH of gastric juice, for example.
  • a pH sensor 182 for measuring the pH of gastric juice, for example.
  • Such an internal measurement value of the endoscope is also displayed in the field of view of the eyeglass wearable monitor 166 for the operator and the wearable monitor 168 for the staff by communication with the overall unit 102.
  • Example 2 the surface 158a of the target tissue 158 is 3D-imaged with visible light by the left-eye CIGS image sensor 134a and the right-eye CIGS image sensor 134b by the binocular imaging system as described above, and the right-eye image obtained thereby. And the image for the left eye are displayed in the visual field of the right eye and the left eye on the glasses-type wearable monitor (166, 168, 170), respectively.
  • the region 158c that reacts to the light source beam 160 from the Raman scattering light source laser 30 may be expected to be a relatively narrow region. is there.
  • the Raman scattered light from the region 158c is received by the left-eye CIGS image sensor 134a and the right-eye CIGS image sensor 134b, the image has a spread as a result of scattering, but the center of gravity of the intensity distribution is detected.
  • the information on the direction of the light source beam 160 in the region 158c can be obtained by obtaining the shift amount of the center of gravity detected by the CIGS image sensor 134a for the left eye and the CIGS image sensor 134b for the right eye.
  • FIG. 11 is a block diagram of the eyeglass-type wearable monitor 166 for the operator in the embodiment 2 of FIG. 9, and the same reference numerals are given to portions corresponding to those in FIG.
  • An eyeglass-type wearable monitor 166 for an operator of Example 2 shown in FIG. 11 includes a left-eye monitor 184a and a right-eye monitor 184b that provide display virtual images for the left eye and the right eye, respectively.
  • the display image signal is received from the overall unit 102 by the communication unit 186 and provided to the left-eye monitor 184a and the right-eye monitor 184b via the control unit 188 and the display driver 190, respectively.
  • an audio signal such as a staff voice is received from the overall unit 102 by the communication unit 186 and is output to the earphone 176 via the control unit 188 and the audio unit 192.
  • the operator's voice input from the microphone 174 is transmitted from the communication unit 186 to the overall unit 102 via the audio unit 192 and the control unit 188.
  • the operation by the operation unit 178 is transmitted from the communication unit 186 to the overall unit 102 via the control unit 188.
  • the operator wants to give a specialized instruction on the medical side only to the staff instead of an explanation announcement to the patient
  • his / her own voice is received by the glasses-type wearable monitor 170 for the patient.
  • a signal to be muted so as not to be transmitted to the control unit 102 can be transmitted.
  • the power supply unit 194 supplies power from the battery 196 to each part of the eyeglass-type wearable monitor 166 for the operator.
  • the internal configuration of the staff spectacles wearable monitor 168 is the same as that of the operator spectacles wearable monitor 166 shown in FIG. The function can also be understood by replacing FIG. 11 based on the description in FIG. Further, the internal configuration of the patient's glasses-type wearable monitor 170 can be understood by removing the microphone 174 and the operation unit 178 from FIG.
  • FIG. 12 is a block diagram of the overall unit 102 in the second embodiment of FIG. 9, and parts corresponding to those in FIG. 9 are assigned the same numbers.
  • parts common to the block diagram of the first embodiment in FIG. 2 are numbered in the hundreds as described above, and the description is omitted unless it is necessary to share the tenth and first place numbers. To do.
  • the eyeglass-type wearable monitor 170 is in communication.
  • the visible light image information from the image display memory 120 and the diagnostic display information from the diagnostic display memory 200 are input to the operator channel 198a and the staff channel 198b.
  • the diagnostic display information from the diagnostic display memory 200 is processed by the control unit 114 based on the input from the Raman scattering processing unit 154, the internal measurement input such as the pH sensor 182 and the input from the external measurement device 180. The result is stored in the diagnostic display memory 200.
  • the diagnostic display information in the diagnostic display memory 200 is also transmitted to the monitor 104 and displayed.
  • the operator channel 198a and the staff channel 198b perform bidirectional information exchange with the audio processing unit 202.
  • a voice call can be made between the operator channel 198a and the staff channel 198b, and a mute signal based on the operation of the operation unit 178 received by the operator channel 198a or the staff channel 198b is transmitted to the audio processing unit 202.
  • a unidirectional audio signal is input from the audio processing unit 202.
  • the audio signal is input via the mute unit 204.
  • the mute signal detection unit 206 detects that the mute signal has been transmitted to the audio processing unit 202
  • the mute unit 204 controls the audio processing unit 202 by the control. Mute the audio signal transmission from to the patient channel 198c.
  • FIG. 13 is a basic flowchart of the operation of the control unit 114 of the overall unit 102 in the second embodiment shown in FIG. 12.
  • the flow starts.
  • the flow of FIG. 12 is illustrated with reference to the flow of the first embodiment shown in FIGS.
  • the same step number is assigned to the same function. Description of these portions is omitted unless necessary.
  • Step S82 in FIG. 13 is a summary of steps S2 to S8 in FIG.
  • Step S88 in FIG. 13 summarizes the reference value recalculation function in steps S16 to S20 in FIG.
  • Step S90 in FIG. 13 is a summary of the light source beam irradiation position superimposition data update function accompanying the autofocus or manual zoom operation in steps S22 to S34 in FIG.
  • Steps S92 to S106 are functions related to real-time information sharing by the glasses-type wearable monitors (166, 168, 170) described with reference to FIGS.
  • the flow moves from step S90 to step S92, it is checked whether or not the information sharing mode is set. If it is the information sharing mode, the process proceeds to step S 94, and the visible image is output to all channels of the communication unit 198.
  • the diagnostic display is output to the operator channel 198a and the staff channel 198b.
  • step S98 staff voices are output to the operator channel 198a and staff channel 198b, and the process proceeds to step S100.
  • step S100 it is checked whether or not the mute signal received by the operator channel 198a has been detected by the mute signal detector 206. If there is no detection, the process proceeds to step S102, and it is checked whether or not the mute signal received by the stuff channel 198b is detected by the mute signal detection unit 206. If there is a detection, the process proceeds to step S104, the sound of the patient channel 198c is muted, and the process proceeds to step S106. When the mute signal received in the operator channel 198a is detected in step S100, the process proceeds to step S104, and the sound of the patient channel 198c is muted, and the process proceeds to step S106. On the other hand, if neither the operator channel 198a nor the stuff channel 198b receives a mute signal, the process proceeds from step S100 to step S102 through step S108, the mute is canceled, and the process proceeds to step S106.
  • step S106 the operator's voice is output to the operator channel 198a and the patient channel 198c, and the process proceeds to step S36.
  • step S104 the sound of the patient channel 198c is muted in step S104, the sound output to the patient's glasses-type wearable monitor 170 is not performed.
  • step S110 the output of all channels (198a, 198b, 198c) is turned off, and the process proceeds to step S36.
  • step S36 it is checked whether or not the measurement is stopped, and it is checked whether or not the measurement is stopped.
  • step S36 If the measurement is not stopped, the process returns to step S10, and steps S10, S84, S12, S86, S14, step S88 to step S110 and step S36 are repeated unless a measurement stop is detected in step S36. On the other hand, if a measurement stop is detected in step S36, the flow is immediately terminated.
  • FIG. 14 is a flowchart showing the details of the visible light 3D processing in step S84 in FIG. 13 and the depth information processing / information addition processing in step S86 that moves through step S12.
  • the process proceeds to step S112 through the visible light imaging process under the illumination of the visible light LEDs (24, 26, 28) in step S10, it is obtained based on the image signals of the left-eye CIGS image sensor 134a and the right-eye CIGS image sensor 134b.
  • the visible light images in the field of view are recorded as a right-eye image and a left-eye image, respectively.
  • step S114 image enlargement processing for eye width adjustment is performed. This is because the optical axes 148a and 148b at the distal end portion 112 are narrower than the natural eye width, so that the images are enlarged and displayed on the left-eye monitor 184a and the left-eye monitor 184b such as the eyeglass-type wearable monitor 166 for the operator. This is to make it recognized as a natural 3D image.
  • the above steps S112 and S114 are the details of the visible light 3D processing in FIG.
  • Step S116 to S134 are details of the depth information processing in step S86 of FIG. 13, and steps S136 to S142 are details of the information addition processing in step S86 of FIG.
  • step S116 it is checked in step S116 whether or not Raman scattering has been detected. If detected, the process proceeds to step S118, and the Raman scattering images of the left-eye CIGS image sensor 134a and the right-eye CIGS image sensor 134b at the time of detection are recorded. Information on the focus distance at this time is also recorded in association with the Raman scattering image.
  • step S120 the focus adjustment is performed to detect the limit at which Raman scattering is not detected, and then the focus distance is changed by a predetermined amount in a predetermined direction, and the process proceeds to step S122.
  • step S122 it is checked whether Raman scattering is detected after changing the focus distance. If detected, the process returns to step S118, and the left and right Raman scattering images and the focus distance information at this time are recorded in association with each other. Thereafter, steps S118 to S122 are repeated until no Raman scattering can be detected in step S122, and a set of left and right Raman scattering images with different focus distances (a plurality of sets if the abnormal tissue 158b shown in FIG. 10 has a thickness). Record it.
  • step S124 a set is called from the recorded left and right Raman scattering images, and the process proceeds to step S126 to check whether or not the center of gravity of the intensity distribution can be detected in the left and right Raman scattering images. . If it is detectable, the center of gravity of the left and right images detected in step S128 is recorded, and the process proceeds to step S130.
  • step S130 it is checked whether a set of all recorded left and right Raman scattering images has been called. If there is a recorded image that has not been called, the process returns to step S124, and thereafter, steps S124 to S130 are repeated until all sets of left and right Raman scattering images have been called. During this repetition, the centroid position of the set of left and right images capable of detecting the centroid is recorded. (In some cases, the position of the center of gravity is not detected and no record can be obtained.)
  • step S130 If it is detected in step S130 that all the recorded images have been called, the process proceeds to step S132, and if there is a set of images whose center of gravity is already recorded, the difference between the left and right center of gravity positions is detected for each set. Then, based on the detected difference between the center of gravity positions, a calculation process for estimating information in the depth direction (light source beam 160 direction) is performed in step S134, and the process proceeds to step S136. If Raman scattering is not detected in step S116, the process directly proceeds to step S136.
  • step S136 the presence or absence of input of an internal measurement value such as the pH sensor 182 is detected. If there is an input, the process proceeds to step S138, and the input internal measurement value is added to the diagnostic information, and the process proceeds to step S140. On the other hand, if there is no input of the internal measurement value, the process directly proceeds to step S140.
  • step S140 it is detected whether or not an external measurement value is input from the external measurement device 180 or the like. If there is an input, the process proceeds to step S142, and the input external measurement value is added to the diagnostic information, and the process proceeds to step S14. On the other hand, if there is no input of an external measurement value, the process proceeds directly to step S14.
  • the display image of the measurement input added in step S138 or step S142 is input to the diagnostic display memory 200 of FIG. 12, transmitted from the communication unit 198, and displayed together with the endoscopic image on the operator's glasses-type wearable monitor 166 or the like.
  • Example 2 is configured as a cancer diagnostic apparatus using Raman scattering, features such as real-time information exchange or 3D processing among operators, staff, and patients using a spectacle-type wearable monitor are not Applicable to endoscopes and other diagnostic medical devices.
  • the invention disclosed in the present specification provides a cancer diagnostic apparatus having a CIGS image sensor provided with a visible light filter and a Raman scattering detection filter. Thereby, the visible light imaging and the Raman scattering detection of the object can be performed using the wide sensitivity range of the CIGS image sensor.
  • the Raman scattering detection filter includes a measurement infrared filter that selectively transmits Raman scattered light, and an infrared in the vicinity of the region without Raman scattered light.
  • a reference infrared filter that selectively transmits light is included.
  • the cancer diagnostic apparatus has an illumination light source in the visible light range and a light source for Raman scattering, and the CIGS image sensor is based on the illumination light source in the visible light range and the light source for Raman scattering. Imaging and detection of Raman scattering.
  • the illumination light source in the visible light region and the light source for Raman scattering are irradiated onto the object in a time division manner.
  • the illumination light source in the visible light region includes a plurality of color light sources that are lighted in a time-sharing manner, and the visible light region filter transmits all of the light of the plurality of color light sources.
  • the visible light range filter selectively transmits multiple colors.
  • the cancer diagnosis apparatus is provided with a storage unit that stores an output of a CIGS image sensor provided with a Raman scattering detection filter as a reference value.
  • a reference value can be obtained by preliminary measurement, and the main measurement can be performed based on the reference value.
  • the storage unit stores an average value of a plurality of measurement values obtained by the CIGS image sensor provided with the Raman scattering detection filter as a reference value.
  • the superimposed display for specifying the detection portion of the Raman scattering is performed.
  • the Raman scattering measurement part can be accurately known based on the visible light image.
  • an imaging lens is provided, and imaging of a visible light image and measurement of Raman scattering are possible, and detection of Raman scattering in displaying a visible light image.
  • a cancer diagnosis apparatus that performs superposition display for specifying a portion and changes the superposition display position in accordance with focus adjustment of an imaging lens.
  • an imaging lens is provided, and imaging of a visible light image and measurement of Raman scattering are possible, and detection of Raman scattering in displaying a visible light image.
  • a cancer diagnostic apparatus that performs superposition display for specifying a portion and changes the superposition display position according to zooming of an imaging lens. This makes it possible to accurately know the Raman scattering measurement part based on the visible light image, and accurately detect the Raman scattering measurement part regardless of zooming even if the Raman scattering detection part is not on the optical axis of the imaging lens.
  • Superimposed display is provided.
  • visible light image capturing and Raman scattering measurement are performed in a time-sharing manner, and visible light is also displayed when detecting Raman scattering in the display of a visible light image.
  • a cancer diagnostic apparatus that continues to display an image is provided. Thereby, the imaging of the visible light image and the measurement of the Raman scattering can be performed without mutual interference, and the visible light image can be displayed without being interrupted by the measurement of the Raman scattering.
  • the invention disclosed in this specification includes a diagnostic information acquisition unit that obtains diagnostic information, and a plurality of wearable display devices that display the received diagnostic information by performing wireless short-range communication with the diagnostic information acquisition unit.
  • a diagnostic system characterized by comprising: As a result, it is possible to share diagnostic information in real time while maintaining the posture in the diagnostic action or the like.
  • the diagnostic information acquisition unit provides at least one of the plurality of wearable display devices while limiting a part of the diagnostic information provided to other wearable display devices.
  • the diagnostic information acquisition unit determines whether to limit the diagnostic information provided to at least one of the plurality of wearable display devices. Thereby, for example, when information is shared with a patient, provision of specialized information can be restricted, and anxiety can be prevented.
  • the diagnostic information acquisition unit determines whether or not to limit the diagnostic information provided to at least one of the plurality of wearable display devices from another wearable display device. Determine based on instructions. As a result, for example, it is possible to limit information by an instruction from a person who acquires diagnostic information or an instruction from a staff who feels a need for a specialized question.
  • At least one of the plurality of wearable display devices is for a subject to wear.
  • the plurality of wearable display devices share diagnostic information and are therefore worn by a plurality of diagnostic staff.
  • the plurality of wearable display devices comprise a calling means for calling between a plurality of diagnostic staff.
  • at least one of the plurality of wearable display devices is intended to be worn by the diagnosed person, and the voice of the calling means is applied to the wearable display apparatus worn by the diagnosed person.
  • a means for muting is provided so as not to be transmitted.
  • the diagnostic information acquisition unit acquires 3D image information
  • the plurality of wearable display devices include a 3D image display unit. This makes it possible to perform diagnosis based on 3D image information using a wearable display device.
  • the apparatus has another diagnostic information acquisition unit, and the plurality of wearable display devices also display the diagnostic information acquired by the other diagnostic information acquisition unit.
  • the information of the plurality of diagnostic information acquisition units can be centrally shared by the wearable display device.
  • a diagnostic information acquisition unit that has a pair of optical axes different from the eye width and acquires 3D image information, and the pair of 3D image information.
  • a diagnostic device characterized by having adjustment means for adjusting the difference between the optical axis width and the eye width and providing the difference to the 3D image display unit.
  • a diagnostic information acquisition unit that acquires a pair of images as 3D image information, a means for obtaining a center of gravity of the pair of images, There is provided a diagnostic apparatus characterized by having an analysis means for analyzing the shift of the center of gravity. Thereby, even if the acquired image is spread by scattering or the like, information in the depth direction can be obtained from the 3D image.
  • a wireless short-range communication unit for exchanging information with other wearable display devices, and an operation for restricting information provided to the other wearable display devices
  • a wearable display device characterized by having a section.
  • the operation unit performs an operation of limiting information provided to one of the other wearable display devices in comparison with information provided to the other wearable display device. is there.
  • the present invention can be applied to a diagnostic system, a diagnostic device, a diagnostic display device, and a cancer diagnostic device.
  • V11, V22 Visible light filter IR12, IRref21 Raman scattering detection filter 34 CIGS image sensor IR12 Measurement infrared filter IRref21 Reference infrared filter 24, 26, 28 Visible light illumination light source 30 Raman scattering light source 16 Storage unit 4 Display unit 64 Superimposed display 32 that identifies the detection part of Raman scattering 32 Imaging lenses 102 to 112 Diagnostic information acquisition units 166, 168, 170 Wearable display devices 174, 176 Communication unit 204 Mute unit 148a, 148 3D image information is acquired A pair of optical axes 114, 118 adjustment means 114, 118 means 114 for obtaining the center of gravity 114, 118 analysis means 180, 182, other diagnostic information acquisition units 134a, 134b CIGS image sensor 178 operation

Abstract

 可視光域の照明光源およびラマン散乱用赤外レーザビームを時分割で対象に照射し、可視光域のフィルタ、ラマン散乱光測定用狭帯域赤外フィルタおよびラマン散乱光を透過しない近接域の参照用狭帯域赤外フィルタを設けたCIGSイメージセンサに撮像レンズで対象像を結像させる。予備測定で正常部分を複数測定して平均し、これを基準としてラマン散乱の本測定を行う。CIGSイメージセンサによる可視光像の表示において、ラマン散乱の検知部分を特定する重畳表示を行うとともにフォーカシングおよびズーミングに伴い重畳表示位置を補正する。ラマン散乱の検出時においても可視光像の表示を継続する。一対のCIGSイメージセンサで3D画像を撮像する。CIGSイメージセンサ等による画像信号および測定結果信号を複数のウエアラブル表示装置に送信して共有する。患者への情報送信には制限をかける。

Description

癌診断装置、診断システム、診断装置
 本発明は、診断システム、診断装置、表示装置に関し、より詳しくは、癌診断装置に関する。
 診断システムや診断装置に関しては種々の提案がなされている。例えば、特表2003-507088号公報(特許文献1)では、癌の診断において、測定する組織に光源からのレーザ光を当て、レイリー散乱光からラマン散乱光をスペクトル分離することにより、悪性腫瘍の疑いのある生物組織のラマン散乱光強度と隣接する正常な生物組織からのラマン散乱光強度との間の実質的な差を疾病の存在または危険として評価することが提案されている。また、特開2002-5835号公報(特許文献2)では、ラマンスペクトルを用いた正常組織及び癌組織の弁別において、試料に照射する励起光として、Nd:YAGレーザ光源10からの波長1064nmのパルス状の近赤外光を用い、分光器で分光されて光検出器31で検出されるラマン散乱光の計数について、励起光を検出するフォトダイオード16からの励起光検出信号によって、同時計数回路で励起光と同期させて計数することによって、ラマンスペクトルでのバックグラウンド光の強度を低減することが提案されている。
特表2003-507088号公報 特開2002-5835号公報
 しかしながら、診断システム、診断装置、表示装置、癌診断装置に関してはさらに検討すべき課題が多い。
 本発明の課題は、上記に鑑み、より使いやすい診断システム、診断装置、表示装置、癌診断装置を提案することにある。
 上記課題を解決するため、本発明は、可視光域のフィルタおよびラマン散乱検出フィルタを設けたCIGSイメージセンサを有することを特徴とする癌診断装置を提供する。具体的には、前記ラマン散乱検出フィルタは、ラマン散乱光を選択的に透過させる測定用赤外フィルタおよびラマン散乱光がない近接域の赤外光を選択的に透過させる参照用赤外フィルタを含む。
 他の具体的な特徴によれば、本発明の癌診断装置は、可視光域の照明光源およびラマン散乱用光源を有し、前記CIGSイメージセンサは、前記可視光域の照明光源および前記ラマン散乱用光源に基づきそれぞれ可視光像の撮像とラマン散乱の検出を行う。
 さらに他の具体的な特徴によれば、前記ラマン散乱検出フィルタを設けたCIGSイメージセンサの出力を基準値として記憶する記憶部を有する。より具体的には、前記記憶部は、前記ラマン散乱検出フィルタを設けたCIGSイメージセンサによる複数の測定値の平均値を基準値として記憶する。
 さらに他の具体的な特徴によれば、前記CIGSイメージセンサによる可視光像の撮像とラマン散乱の検出は時分割で行われるとともに、前記可視光像を表示する表示部を有し、前記表示部における可視光像の表示は、ラマン散乱の検出時も継続される。
 さらに他の具体的な特徴によれば、前記CIGSイメージセンサによる可視光像の表示において、前記ラマン散乱の検知部分を特定する重畳表示が行われる。より具体的には、前記CIGSイメージセンサに測定対象を結像させる撮像レンズを有し、前記ラマン散乱の検知部分を特定する重畳表示は、前記撮像レンズのフォーカス調節またはズーミングに応じて変化させられる。
 他の具体的な特徴によれば、本発明は、癌診断装置と、前記癌診断装置と無線近距離通信を行い受信した診断情報を表示する複数のウエアラブル表示装置とを有することを特徴とする診断システムとして実施される。
 本発明の他の特徴によれば、撮像レンズを有し、可視光画像の撮像および診断測定が可能であるとともに、可視光像の表示において前記診断測定の対象部分を特定する重畳表示を行い、重畳表示位置は、前記撮像レンズの調節に応じて変化させられることを特徴とする診断装置が提供される。
 本発明の他の特徴によれば、診断情報を得る診断情報取得部と、前記診断情報取得部と無線近距離通信を行い受信した診断情報を表示する複数のウエアラブル表示装置とを有することを特徴とする診断システムが提供される。
 上記本発明の具体的な特徴によれば、前記診断情報取得部は、前記複数のウエアラブル表示装置のうちの少なくとも一つに対し、他のウエアラブル表示装置に提供する診断情報の一部を制限して提供する。
 他の具体的な特徴によれば、前記複数のウエアラブル表示装置のうちの少なくとも一つは、被診断者が装着するためのものである。また、他の具体的な特徴によれば、前記複数のウエアラブル表示装置は、診断情報を共有するために、複数の診断スタッフが装着するためのものである。
 他の具体的な特徴によれば、前記複数のウエアラブル表示装置は、複数の診断スタッフ同士で通話するための通話手段を備える。さらに具体的な特徴によれば、前記複数のウエアラブル表示装置のうちの少なくとも一つは、被診断者が装着するためのものであり、前記被診断者が装着するウエアラブル表示装置に前記通話手段の音声が伝わらないようミュートする手段が設けられる。
 他の具体的な特徴によれば、前記診断情報取得部は3D画像情報を取得するとともに、前記複数のウエアラブル表示装置は3D画像表示部を有する。より具体的には、前記診断情報取得部が3D画像情報を取得するための一対の光軸幅は、前記複数のウエアラブル表示装置における眼幅と異なっており、両者間の調整を行う手段を有する。
 他の具体的な特徴によれば、前記診断情報取得部は3D画像情報として一対の画像を取得するとともに、診断システムには、前記一対の画像の重心を求める手段と、前記一対の画像の重心のずれを分析する分析手段が設けられる。
 上記のように、本発明によれば、より使いやすい診断システム、診断装置、表示装置、癌診断装置を提供することができる。
本発明に係る内視鏡の実施例1の全体構成を示す模式図である。(実施例1) 図1の実施例1における内視鏡の全体構成のブロック図である。 図2の実施例1におけるCIGSイメージセンサのカラーフィルタ配列図である。 図2の実施例1における赤色、緑色、および青色LEDの発光、並びにラマン散乱用光源レーザ30から射出されるレーザビームの照射の関係を示すタイミングチャートである。 図2の実施例1における撮像光学系の断面図およびモニタ表示図である。 図5で示したモニタの表示範囲を対象の比較的広範囲とともに示した模式図である。 図2の実施例1における制御部の動作の基本フローチャートである。 図7のステップS10およびステップS12の詳細を示すフローチャートである。 本発明に係る内視鏡システムの実施例2の全体構成を示す模式図である。(実施例2) 図9の実施例2における内視鏡の先端部のブロック図である。 図9の実施例2における操作者用眼鏡型ウエアラブルモニタのブロック図である。 図9の実施例2における統括ユニットのブロック図である。 図12の実施例2における制御部の動作の基本フローチャートである。 図13におけるステップS84およびステップS12を経由して移行するステップS86の詳細を示すフローチャートである。
 図1は、本発明の実施の形態に係る内視鏡の実施例1の全体構成を示す模式図である。実施例1の内視鏡は、統括ユニット2によって制御されており、統括ユニット2は、観察画像等を表示するためのモニタ4を有する。操作ユニット6は接続ケーブル8によって統括ユニット2に接続されており、接続ケーブル8には光源光を伝達するための光ファイバーおよび電気信号を伝達するための信号線などが通っている。操作ユニット6はこれを操作する医師の手に握られるもので、胃などに挿入される挿入部10が延びており、その先端は、撮像光学系や照明光学系が配置される先端部12となっている。実施例1の内視鏡は、胃などの画像を観察する通常の機能と併せ、胃などにレーザビームを照射してそのラマン散乱を検知することで正常組織と癌組織とを弁別するよう構成されている。
 図2は、図1の実施例1における内視鏡の全体構成のブロック図であり、図1と対応する部分には同一の番号を付す。統括ユニット2には内視鏡全体を統括制御する制御部14が設けられている。記憶部16は、制御部14の動作に必要な制御プログラムを記憶するとともに、測定データを蓄積記憶する。また、制御に関連するデータを一時的に記憶する。
 画像処理部18は、先端部12で撮像された内視鏡画像を処理し、新たなカラー画像が得られると表示メモリ20の表示用画像データを更新する。そしてモニタ4は、表示メモリ20の表示用画像データに基づき画像表示を行う。画像処理部18は、また、ラマン散乱検知のための光源ビーム照射位置を内視鏡画像に重畳表示し、内視鏡画像のどの位置に光源ビームが照射されているかを表示する。後述するように、内視鏡画像の撮像とラマン散乱の検出は時分割で行われるが、表示メモリ20は、ラマン散乱検出のために内視鏡画像の撮像が行われない時間帯においても、最新の内視鏡画像を保持し、モニタ4での表示を継続する。
 統括ユニット2には、さらに光源部22が設けられており、制御部14は、内視鏡画像撮像時間帯において赤色LED24、緑色LED26および青色LED28を順次発光させるよう制御する。光源部22には、さらに赤外光(例えば1056nm)を発生するラマン散乱用光源レーザ30が設けられており、制御部14は、ラマン散乱検出のための時間帯においてラマン散乱用光源レーザ30を発光させるよう制御する。
 先端部12には、フォーカス調節およびズーミングが可能な撮像レンズ32が設けられており、CIGSイメージセンサ34は、撮像レンズ32による可視光像を撮像する。CIGSイメージセンサ34は、銅、インジウム、ガリウムおよびセレンよりなる多結晶のCIGS系薄膜を用いた光電センサであって、その組成制御によりバンドギャップを変化させることで吸収波長域を制御し、400nm付近から1300nm付近にわたる広い感度域を持たせたものである。これによって、CIGSイメージセンサ34は、赤色LED24、緑色LED26および青色LED28が順次発光しているタイミングの画像出力により可視光像の撮像を行うことができるとともに、後述のように例えば1056nmの光源光に対する1258nmのラマン散乱光を検知するセンサとしても機能する。
 撮像レンズ32は、オートフォーカス信号に基づいて機能するフォーカス駆動部36により自動的にフォーカス調節されるとともに、手動操作信号に基づいて機能するズーム駆動部38により手動でズーム操作される。赤色LED24、緑色LED26および青色LED28から順次発光される可視照明光は、照明用光ファイバー40内を導かれて照明光学系42から撮像レンズ32の最広角の視野範囲を照明する。また、ラマン散乱用光源レーザ30から射出されたレーザ光は、レーザ用光ファイバー44内を導かれてビーム照射光学系46から撮像レンズ32の光軸48と平行に光源ビームを照射する。
 照明用光ファイバー40およびレーザ用光ファイバー44が経由している操作ユニット6には、操作部50が設けられており、この操作部50を手動操作することによりズーム手動操作信号がズーム駆動部38に伝達される。また、操作ユニット6のオートフォーカス処理部52は、緑色LED26が照射された時点のCIGSイメージセンサ34の画像出力に基づいてそのコントラストを検出処理し、制御部14の制御に基づいてコントラストがより大きくなるよう撮像レンズ32を駆動するためのオートフォーカス制御信号をフォーカス駆動部36に伝達する。さらに、操作ユニット6のラマン散乱処理部54は、ラマン散乱用光源レーザ30からレーザビームが射出されるタイミングにおけるCIGSイメージセンサ34の出力を処理し、これを制御部14に伝える。なお、赤色LED24、緑色LED26および青色LED28が順次発光しているタイミングにおけるCIGSイメージセンサ34の出力も操作ユニット6を経由して行われる。
 なお、上述のように、操作ユニット6と統括ユニット2との間の光ファイバー40、44の接続および電気信号を伝達するための信号線の接続は接続ケーブル8を通して行われる。また、操作ユニット6と先端部12との間の光ファイバー40、44の接続および電気信号を伝達するための信号線の接続は挿入部10を通して行われる。また、挿入部10の端部近傍には、挿入部10に対する先端部12の向きを自由に変更させるための屈曲機構56が設けられており、操作ユニット6の操作部50の手動操作に基づく屈曲制御信号が伝達される。
 図3は、図2で示した実施例1におけるCIGSイメージセンサ34のカラーフィルタ配列図である。CIGSイメージセンサ34においては、赤外域をカットし可視光域を透過させる可視光域フィルタV11、V22、ラマン散乱光を選択的に透過させるために1258nmを中心として±4nmの半値幅を持つ狭帯域の測定用赤外フィルタIR12、およびラマン散乱光がない近接域の赤外光を選択的に透過させるために1271nmを中心として±4nmの半値幅を持つ狭帯域の参照用赤外フィルタIRref21が図示のように配列され、これを一つの単位として繰り返す配列となっている。本発明のCIGSイメージセンサ34は、上記のように可視光域から赤外光にわたる広い分光感度域をもつため、このように一つのセンサに可視光および赤外光のカラーフィルタを設け、可視光像の検知とラマン散乱光の測定を行うことができる。
 上記のように、ともに狭帯域の測定用赤外フィルタIR12および参照用赤外フィルタIRref21を用いることにより、1056nmのラマン散乱用光源レーザ30の光源光に基づくレイリー散乱光を除去することができる。そして、ラマン散乱光の測定にあたっては、測定用赤外フィルタIR12が設けられている全画素の出力を加算するとともに、参照用赤外フィルタIRref21が設けられている全画像の出力が加算し、両加算値の差をとることで、1258nmにおけるラマン散乱光の強度を検出することができる。
 なお、可視光像の形成にあたっては、測定用赤外フィルタIR12、参照用赤外フィルタIRref21が設けられている画像についても、その周囲にある可視光域フィルタが設けられている画素のデータによって補間を行うことにより画素信号を得る。この補間は、赤色LED24、緑色LED26および青色LED28が順次発光している各タイミングにおいてそれぞれ赤色画像、緑色画像および青色画像について行う。
 図4は、図2で示した実施例1における赤色LED24、緑色LED26および青色LED28の発光、並びにラマン散乱用光源レーザ30から射出されるレーザビームの測定対象への照射タイミングの関係を示すタイミングチャートである。図4に示すように、t1で開始される緑色LED26の発光に基づく緑色画像、t3で開始される赤色LED24の発光に基づく赤色画像、およびt5で開始される青色LED28の発光に基づく青色画像によって、V1で示す1フレームの可視光カラー画像が作成される。厳密に言えば各色の発光に時間差があるので各色の画像は同一時間のものではないが、時間差は僅少なので高速で動く被写体でない限りこのような時分割による各色画像の取得でも問題はない。同様にして、t9で開始される緑色LED26の発光に基づく緑色画像、t11で開始される赤色LED24の発光に基づく赤色画像、およびt13で開始される青色LED28の発光に基づく青色画像によって、V2で示す1フレームの可視光カラー画像が作成される。以下同様にして1フレームのカラー画像が作成され、個々のカラー動画は静止画としても記録できるとともに、これらを繋げてカラー動画としても記録できる。なお、これらのカラー処理は、図2に示した画像処理部18で行われる。
 一方、ラマン散乱の測定については、図4に示すように、t7で開始されるラマン散乱用光源レーザ30から射出されるレーザビームの測定対象への照射に基づき、測定用赤外フィルタIR12に対応する全画素の出力を加算するとともに、同タイミングにおける参照用赤外フィルタIRref21に対応する全画像の出力を加算し、両加算値の差をとることでラマン散乱強度R1が求められる。同様にt15で開始されるレーザビームの照射に基づき、測定用赤外フィルタIR12に対応する全画素の出力を加算するとともに、同タイミングにおける参照用赤外フィルタIRref21に対応する全画像の出力を加算し、両加算値の差をとることでラマン散乱強度R2が求められる。以下同様にして可視光像の撮像と並行して時分割でラマン散乱強度を連続して測定することができる。従って、可視光像により対象を測定しながら、可視光像の中に重畳表示されるレーザ照射位置についてラマン散乱強度を測定することができる。そして可視光の観察により測定位置を変えながら測定を続けることができる。
 図5は、図2で示した実施例1における内視鏡の撮像光学系の断面図およびモニタ表示図であり、モニタ表示におけるビーム位置の表示を説明するためのものである。図2と対応する部分には同一の番号を付し、必要のない限り説明を省略する。図5(A)は、ズームのワイド端(最も広角側)における最長撮影距離での内視鏡の撮像光学系の断面を模式的に示したものである。胃壁等の撮像および測定の対象58の像がCIGSイメージセンサ34上に結像しているとともに、ビーム照射光学系46から撮像レンズ32の光軸48と平行に光源ビーム60が対象58に照射されている。
 図5(B)は、図5(A)の状態においてモニタ4に表示される画面を示しており、モニタ4の中に、胃壁等の対象58が表示されている。モニタ4にはさらに、画像の中心を示す十字線62および光源ビーム60の照射位置マーク64が重畳表示されている。これによって、モニタ4に表示されている対象58のどこに光源ビーム60が照射されているかがわかる。このような表示により、対象58を観察しながら所望の位置に光源ビーム60を照射してその位置におけるラマン散乱の測定を行うことができる。
 図5(C)は、ズームをワイド端のままにして撮像光学系を対象58に近づけた状態の断面を模式的に示している。このように対象に近づくことによって、対象58の一部の像がCIGSイメージセンサ34上に拡大して結像する。なお、撮像レンズ32はオートフォーカス機能によりフォーカス調節されて繰り出されている。この状態においてもビーム照射光学系46から照射される光源ビーム60と撮像レンズ32の光軸48の位置関係は変わらないが、撮像範囲が狭まることにより、光源ビーム60は撮像範囲のより外側寄りに照射されることになる。図5(D)は、図5(C)の状態においてモニタ4に表示される画面を示しており、対象58が拡大されて表示されるとともに、図5(B)と比較して光源ビーム60の照射位置マーク64が十字線62から離れ、モニタ4の視野内のより外側寄りに移動して表示される。
 図5(E)は、撮影距離を図5(A)の状態のままにして、撮像レンズ32を望遠側にズームアップした状態の断面を模式的に示している。このようにズーミングを行うことによっても対象58の一部の像がCIGSイメージセンサ34上に拡大して結像する。この場合、撮像レンズ32の焦点距離が長くなるようズーム駆動部38が撮像レンズ32を駆動する。この状態においてもビーム照射光学系46から照射される光源ビーム60と撮像レンズ32の光軸48の位置関係は変わらないが、図5(C)と同様にして撮像範囲が狭まることにより、光源ビーム60は撮像範囲のより外側寄りに照射されることになる。図5(F)は、図5(E)の状態においてモニタ4に表示される画面を示しており、図5(D)と同様にして対象58が拡大されて表示されるとともに、図5(B)と比較して光源ビーム60の照射位置マーク64が十字線62から離れ、モニタ4の視野内のより外側寄りに移動して表示される。以上、図5では、典型的な状態を示したが、撮影距離の変化および撮像レンズ32のズーミングにより所望の倍率での撮像が可能となる。そして、図5(B)、図5(D)および図5(F)に示したようなモニタ4の視野内における照射位置マーク64の移動は、ズーミングにおける撮像レンズ32の焦点距離情報およびフォーカス駆動部36における撮像レンズ32のフォーカス調節状態の情報により行うことができる。
 図6は、図5(B)で示したモニタ4の表示範囲を胃壁等の対象58の比較的広範囲とともに示した模式図であり、先端部12を屈曲させることにより対象58の比較的広範囲をスキャンして予備測定する様子を示している。このスキャンによる予備測定は、内視鏡を予備測定モードに設定し、モニタ4に表示される対象58を観察しながら可視画像としては正常に見える部分を、例えば図6における表示範囲4aから4bに移動させることに相当する。このようなスキャンによる予備測定によって、光源ビーム60は照射位置マーク64aから64bに軌跡64cを経由して移動する。この間、ラマン散乱処理部54はCIGSイメージセンサ34の出力に基づいてラマン散乱強度を繰り返し実測し、これらを蓄積記憶してその平均値を測定の基準値として設定記憶する。測定の初期においてこのような予備測定に基づいて基準値を求めることにより、この実測による基準値を正常組織のラマン散乱強度とみなして目的部分を本測定した際のラマン散乱強度と比較することができ、本測定における目的部分の組織が正常か否かを判断することができる。
 図7は、図2で示した実施例1における内視鏡の制御部14の動作の基本フローチャートである。測定開始操作を行うとフローがスタートし、ステップS2で、撮像レンズ32をズームのワイド端に初期設定するとともに、ステップS4でフォーカス初期位置(例えば比較的撮影距離が長く焦点深度も深い位置)の設定を行う。次いでステップS6において、以上のズーム設定およびフォーカス設定に基づき、光源ビーム照射位置マーク64をモニタ4内で重畳表示するためのデータの初期値を設定する。以上の諸初期設定の後、ステップS8で初期方向(例えば撮影距離を短くする方向)へのフォーカス駆動を開始する。実施例1のオートフォーカスはコントラスト方式なので、まず撮像レンズ32を駆動してみてコントラストの変化を見ないと焦点合わせができないからである。
 そしてステップS10で可視光LED(24、26、28)の照明下での可視光撮像処理を行う。これにより視野内の可視光像が得られるとともにオートフォーカスのためのコントラスト情報が得られる。ステップS10での可視光撮像処理の詳細は後述する。さらにステップS12でラマン散乱用光源レーザ30による光源ビーム照射下でのラマン散乱検出処理を行い、検出値を得る。ステップS12でのラマン散乱検出処理の詳細についても後述する。
 ステップS10およびステップS12でそれぞれ一回ずつの可視光撮像およびラマン散乱の検出値が得られるとステップS14に進み、ラマン測定の検出値から基準値(実測値がない場合は所定の初期値)を引き、測定値として記録する。次にステップS16では基準値と検出値の差の絶対値が所定値以下であるかどうかがチェックされ、差の絶対値が所定値以下であればステップS18に進んで予備測定モードかどうかチェックする。そして予備測定モードであればステップS20に進んで今回の検出値を加入して平均を取り直す基準値の再演算を行い、ステップS22に移行する。後述のようにステップS10からステップS20の処理は図6に示したような予備測定において繰り返されるが、この繰り返しの中で実測平均に基づく基準値が設定される。ステップS16で基準値と測定値の絶対値の差が所定値以上であったとき、またはステップS18で予備測定モードでないことが確認されたときは今回の検出値を基準値に反映させることなく直接ステップS22に移行する。
 ステップS22では、前回の撮像の可視光像に比べ今回撮像の可視光像のコントラストが低下しているか否かチェックする。そしてコントラストの低下がなければステップS24に進み、コントラストの変化があったか否かチェックする。変化があった場合は、フォーカス駆動によりコントラストが高くなったことを意味するのでその方向へのフォーカス駆動を継続してステップS26に進む。一方、ステップS22でコントラストの低下が検知されたときはピントが外れる方向に撮像レンズ32がフォーカス駆動されていることを意味するので、ステップS28に移行し、フォーカス駆動を逆転させてステップS26に移行する。また、ステップS24でコントラストに変化がないことが確認されたときは、コントラストがピークでありピントが合ったことを意味するのでステップS30に進みフォーカス駆動を停止してステップS26に移行する。ステップS26では、いずれの場合も、新たなフォーカス調節位置に基づき光源ビーム照射位置重畳データを更新してステップS32に移行する。
 なお、後述のようにステップS22、S24、S28およびS30のオートフォーカス制御は繰り返し行われる。この繰り返しの中で、ステップS30でフォーカス駆動が停止された後にステップS22に至り、ここでコントラストの低下がないことが確認されてステップS24でもコントラスト変化が確認されなかった場合はピントが合った状態が継続していることを意味する。この場合、ステップS30ではフォーカス駆動停止が継続され、ステップS26でのデータ更新でも結果的には同じデータが継続される。また、ステップS30でフォーカス駆動が停止された後にステップS22に至り、ここでコントラストの低下が確認されたときは、ステップS28でフォーカス駆動が再開される。その方向は停止前と逆方向となるが、これが不適当であれば次の繰り返しの中のステップS22でさらにコントラストが低下することが検知されるので再度ステップS28に至り、フォーカス駆動方向が訂正される。
 ステップS32では、ズーム操作が行われたか否かをチェックする。そしてズーム操作があればステップS34に進み、ズーム操作の結果の新たな焦点距離に基づき光源ビーム照射位置重畳データを更新してステップS36に移行する。一方ステップS32でズーム操作が確認されないときは、直接ステップS36に移行する。
 ステップS36では、測定停止操作が行われたか否かチェックし、操作が確認されないときはステップS10に戻る。そしてステップS36で測定停止操作が確認されない限り、ステップS10からステップS36を繰り返し、可視光像の撮像とラマン散乱の測定を継続する。一方、ステップS36で測定停止が検知された場合は直ちにフローを終了する。
 図8は、図7のステップS10の可視光撮像処理およびステップS12のラマン散乱検出処理の詳細を示すフローチャートである。図7においてステップS8からステップS10に移行すると、図8のステップS42となり、緑色LED26を点灯させるとともにステップS44でCIGSイメージセンサ34の可視光域フィルタ(V11、V12)が設けられた画素の出力を緑色画像として画像処理部18に取り込む。そして、ステップS46では取り込んだ緑色画像のコントラストを検出して記憶する。
 次いで、ステップS48では、赤色LED24を点灯させるとともにステップS50でCIGSイメージセンサ34の可視光域フィルタ(V11、V12)が設けられた画素の出力を赤色画像として画像処理部18に取り込む。同様に、ステップS52では、青色LED28を点灯させるとともにステップS54でCIGSイメージセンサ34の可視光域フィルタ(V11、V12)が設けられた画素の出力を青色画像として画像処理部18に取り込み、ステップS56に移行する。
 ステップS56では、上記のようにして取り込まれた緑色画像、赤色画像および青色画像のそれぞれについて、測定用赤外フィルタ(IR12)および参照用赤外フィルタ(IRref21)が設けられた画素についての補間を行うとともに、補間後の緑色画像、赤色画像および青色画像に基づいて可視光画像を得て、これを記録する。
 次いで、ステップS58では、ラマン散乱測定モードか否かチェックし該当すればステップS60で光源ビーム60の照射位置を可視光画像に重畳表示する処理をしてステップS62に移行する。一方、ステップS58でラマン散乱測定モードでないことが検知されるとステップS64に移行し、光源ビーム照射位置重畳を解除する処理をしてステップS62に移行する。例えば、内視鏡挿入時など、特にラマン散乱を測定する意図がないときは光源ビーム照射位置重畳表示があると煩わしく、また誤解を招くのでこのようにラマン散乱測定モードでないときは光源ビーム照射位置重畳表示を解除する。なお、最初からマン散乱測定モードでないときはステップS64では何もせずステップS62に移行する。
 ステップS62では、ステップS56で得られた新しい可視光画像に必要に応じ光源ビーム照射位置を重畳した表示データにより、表示メモリ20の表示データを更新する。なお、上記のように表示データの更新がない限り、表示メモリ20には前回の表示データが保存され、これに基づくモニタ4での表示はラマン散乱測定中も継続される。そして表示データの更新があれば、モニタ4での表示も更新される。
 次いで、ステップS66では、再度ラマン散乱測定モードか否かチェックし該当すればステップS68で光源ビーム60の照射を行い、ステップS70で測定用赤外フィルタ(IR12)が設けられた全画素の出力を加算するとともに、ステップS72で参照用赤外フィルタ(IRref21)が設けられた全画素の出力を加算してステップS74に移行する。ステップS74では、測定用赤外フィルタ(IR12)が設けられた全画素の出力の加算値から参照用赤外フィルタ(IRref21)が設けられた全画素の出力の加算値を減算し、結果を検出値として記録して図7のステップS14に移行する。
 上記本発明の種々の特徴は上記の実施例に限るものではなく、その利点が享受できる限り種々の他の実施例において活用可能である。例えば、実施例1における可視光像の測定は、CIGSイメージセンサに設けられた可視光域フィルタと赤色、緑色、青色LEDの時分割発光によっているが、これに限るものではない。例えば、CIGSイメージセンサに赤色フィルタ、緑色フィルタ、青色フィルタ、測定用赤外フィルタおよび参照用赤外フィルタを適切なパターンで配置し、白色光源による時分割なしの照明で可視光像を得るようにしてもよい。
 また、実施例1では、光源部22を統括ユニット2に配置しているが、先端部12に配置すれば途中の光ファイバーを省略し、統括ユニット2とのやりとりは電気信号のみで行うようにしてもよい。さらに、実施例1では、オートフォーカス処理部52、ラマン散乱処理部54を操作ユニット6に配置しているがこれを統括ユニット2に配置してもよい。フォーカス調節についても実施例1はオートフォーカスを採用しているがこれを手動フォーカスとしてもよい。この場合も、手動フォーカス調節の結果の情報は光源ビーム照射位置重畳表示の修正に反映される。
 図9は、本発明の実施の形態に係る内視鏡システムの実施例2の全体構成を示す模式図である。実施例2の内視鏡システムの各構成要素は百番台の番号を付して説明するが、そのうち内視鏡部分において実施例1の内視鏡と共通の構成要素については、十の位および一の位の数字を共通にし、必要のない限り説明を省略する。
 図9に示す実施例2の内視鏡システムは、統括ユニット102、操作ユニット106、接続ケーブル108、挿入部110および先端部112を有する内視鏡を含む。この内視鏡の構成は、上記のように、実施例1の内視鏡と共通の構成要素を有するもので、実施例1と異なる点については後述する。
 図9に示す実施例2の内視鏡システムは、さらに、内視鏡を操作する操作者が装着する操作者用眼鏡型ウエアラブルモニタ166、操作者に協力する医療スタッフが装着するスタッフ用眼鏡型ウエアラブルモニタ168、および患者が装着する患者用眼鏡型ウエアラブルモニタ170を有する。なお、これらの名称は医療の場面を想定したものであるが、検診の場合は、スタッフ用眼鏡型ウエアラブルモニタ168は検診チームのスタッフが装着することになるとともに、患者用眼鏡型ウエアラブルモニタ170は「被験者用眼鏡型ウエアラブルモニタ170」との名称に読み替えるものとする。また、スタッフ用眼鏡型ウエアラブルモニタ168は簡単のため一つだけ図示しているが、通常は複数のスタッフのために複数のスタッフ用眼鏡型ウエアラブルモニタ168が用いられる。
 操作者用眼鏡型ウエアラブルモニタ166は、医療行為や診断行為を妨げないよう、基本的には視野を遮らないよう構成されるとともに、視野の一部または視野に重畳して内視鏡画像や診断情報が表示される。また、切換えにより視野全体に内視鏡画像や診断情報が表示されるようにすることができる。
 操作者用眼鏡型ウエアラブルモニタ166は、近距離無線電波172により統括ユニット102と通信可能であり、統括ユニット102から内視鏡画像情報や診断情報を受信して視野内に内視鏡画像や診断情報を表示する。なお、後述のように操作者用眼鏡型ウエアラブルモニタ166は立体画像(以下「3D画像」)を観察することが可能であり、右目用画像および左目用画像が、右目および左目の視野内にそれぞれ表示される。
 操作者用眼鏡型ウエアラブルモニタ166は、さらにマイク174およびイヤホン176を備えており、統括ユニット102との無線近距離通信を介してスタッフ用眼鏡型ウエアラブルモニタ168との間で医療側での会話を行なうことができる。統括ユニット102との無線近距離通信を介してまたマイク174から患者用眼鏡型ウエアラブルモニタ170に解説アナウンスを伝えることができる。なお、患者に不安を与えないため医療側での会話を行なうときはマイク174からの音声が患者用眼鏡型ウエアラブルモニタ170に伝わらないようミュートする信号を操作部178の操作により統括ユニット102に送信することができる。
 実施例2の統括ユニット102には、さらに血圧、脈拍、SaO(パルスオキシメータ等による動脈血酸素飽和度)、体温などを測定する外部測定装置180が接続される。そしてこれら外部測定装置180による患者の測定情報も近距離無線電波172により統括ユニット102から操作者用眼鏡型ウエアラブルモニタ166に送信され、視野内に表示される。
 以上のような操作者用眼鏡型ウエアラブルモニタ166の構成は、操作者が統括ユニット102のモニタ104の方に顔を向けなくても、医療行為や診断行為を行なう姿勢のままの視野内に、内視鏡画像や診断情報を表示することを可能とする。従って顔を捻る等の不自然な姿勢ではなく患者の方を向いた姿勢で内視鏡の操作を行なうことができる。また、外部測定装置180の情報も視野内に表示されるので、外部測定装置180の表示を見るために顔を捻らなくても、医療行為や診断行為を行なう姿勢のままでこれらの情報を把握することができる。
 スタッフ用眼鏡型ウエアラブルモニタ168の構成は、基本的に操作者用眼鏡型ウエアラブルモニタ166の構成と同じなので、対応する部分には同一番号を付与して必要のない限り説明を省略する。スタッフ用眼鏡型ウエアラブルモニタ168は、操作者用眼鏡型ウエアラブルモニタ166と同様にして統括ユニット102から内視鏡画像情報や診断情報を受信して視野内に内視鏡画像や診断情報を表示する。また、外部測定装置180の情報も視野内に表示する。
 これによって、医療スタッフは、それぞれの役割に応じた医療行為や診断行為の姿勢のままで操作者とリアルタイムで情報を共有できる。つまり、医療スタッフ全員がモニタ104の方に顔を向けなければならない等の必要性がなくなる。また、医療スタッフが自発的に操作者に質問等をしたいときは、操作部178の操作により統括ユニット102にその旨の信号を送信すれば、スタッフ用眼鏡型ウエアラブルモニタ168のマイク174がオンとなるとともに、スタッフからの質問および操作者の回答を含めた医療側での会話が患者に聞こえて不安を与えないよう、操作部178の操作後は患者用眼鏡型ウエアラブルモニタ170のイヤホンがミュートされる。なおこのミュートは操作者の操作により適宜解除可能である。
 患者用眼鏡型ウエアラブルモニタ170の構成についても、基本的に操作者用眼鏡型ウエアラブルモニタ166の構成と同じなので、対応する部分には同一番号を付与して必要のない限り説明を省略する。但し、患者用眼鏡型ウエアラブルモニタ170については、統括ユニット102から内視鏡画像情報のみが送信され、患者に不安や誤解を与える可能性のある診断情報や外部測定装置180の情報は送信されない。なお、上記のように、患者用眼鏡型ウエアラブルモニタ170のイヤホン176には操作者の解説アナウンスが統括ユニット102経由で出力される。因みに、混乱防止のため、患者用眼鏡型ウエアラブルモニタ170は受信専用であり、マイクは設けられていない。
 以上の構成により、患者用眼鏡型ウエアラブルモニタ170の装着によって、患者はモニタ104の方に顔を捻らなくても楽な受診姿勢のままで、自身の内視鏡画像情報を見ることができ、適切な操作者からの解説アナウンスの提供により不安なく受診することができる。
 図10は、図9の実施例2における内視鏡の先端部112のブロック図であり、図9と対応する部分には同一の番号を付す。実施例2の先端部112には、実施例1と同様の撮像レンズ132a、CIGSイメージセンサ134a、フォーカス駆動部136a、ズーム駆動部138aが設けられている。そして実施例では、3D画像を得るため、同様の撮像レンズ132b、CIGSイメージセンサ134b、フォーカス駆動部136b、ズーム駆動部138bがもう一組設けられている。前者は左目用、後者は右目用である。両者の光軸148a、148bは平行である。
 また、実施例2では、撮像レンズ132a、132bの間にビーム照射光学系146が配置され、レーザ用光ファイバー144内を導かれたラマン散乱用光源レーザ30からの光源ビーム160が撮像レンズ132a、132bの光軸148a、148bと平行に照射される。なお、実施例2においても、実施例1と同様にして、赤色LED24、緑色LED26および青色LED28から順次発光される可視照明光が、照明用光ファイバー140内を導かれて照明光学系142から撮像レンズ132a、132bの最広角の視野範囲を照明する。なお、実施例2の先端部112には例えば胃液のペーハーを測定するためのペーハーセンサ182が設けられている。このような内視鏡の内部測定値も、統括ユニット102との通信により、操作者用眼鏡型ウエアラブルモニタ166およびスタッフ用眼鏡型ウエアラブルモニタ168の視野内に表示される。
 実施例2では、上記のような双眼の撮像系により対象組織158の表面158aが左目用CIGSイメージセンサ134aおよび右目用CIGSイメージセンサ134bにより可視光で3D撮像され、これによって得られた右目用画像および左目用画像が眼鏡型ウエアラブルモニタ(166、168、170)における右目および左目の視野内にそれぞれ表示される。
 次に、ラマン散乱光の検知について説明する。図10のように、仮に検知対象の異常組織158bが比較的薄い場合、これがラマン散乱用光源レーザ30からの光源ビーム160に反応する領域158cが比較的狭い領域となることが期待される場合がある。そしてこの領域158cからのラマン散乱光を左目用CIGSイメージセンサ134aおよび右目用CIGSイメージセンサ134bでそれぞれ受光すると、散乱によって画像としてはそれぞれ広がりを持つ出力となるが、その強度分布の重心が検知される場合は、左目用CIGSイメージセンサ134aおよび右目用CIGSイメージセンサ134bによりそれぞれ検知される重心位置のずれ量を求めることにより、領域158cにおける光源ビーム160方向の情報とすることができる。
 図11は、図9の実施例2における操作者用眼鏡型ウエアラブルモニタ166のブロック図であり、図9と対応する部分には同一の番号を付す。図11に示す実施例2の操作者用眼鏡型ウエアラブルモニタ166は、それぞれ左目および右目に表示用の虚像を提供する左目用モニタ184aおよび右目用モニタ184bを有する。表示用の画像信号は通信部186により統括ユニット102から受信され、制御部188および表示ドライバ190経由でそれぞれ左目用モニタ184aおよび右目用モニタ184bに提供される。
 一方、スタッフの声などのオーディオ信号は、通信部186により統括ユニット102から受信され、制御部188およびオーディオ部192経由でイヤホン176に出力される。またマイク174から入力される操作者の声は、オーディオ部192および制御部188経由で通信部186から統括ユニット102に送信される。
 また、操作部178による操作は、制御部188経由で通信部186から統括ユニット102に送信される。例えば、操作者が患者への解説アナウンスに代えてスタッフのみに対し医療側での専門的指示を行いたいときなど、操作部178を操作することにより、自身の音声が患者用眼鏡型ウエアラブルモニタ170に伝わらないようミュートする信号を統括ユニット102に送信することができる。なお、電源部194は、電池196による電力を、操作者用眼鏡型ウエアラブルモニタ166各部に供給する。
 スタッフ用眼鏡型ウエアラブルモニタ168の内部構成については、図11に示した操作者用眼鏡型ウエアラブルモニタ166のものと同様なので、図示と説明を省略する。またその機能は、図9での説明に基づき図11を読み替えることで理解することもできる。また、患者用眼鏡型ウエアラブルモニタ170の内部構成は、図11からマイク174および操作部178を除去して理解することができる。
 図12は、図9の実施例2における統括ユニット102のブロック図であり、図9と対応する部分には同一の番号を付す。また、図2の実施例1のブロック図と共通の部分は、上記のようにそれぞれ百番台の番号を付し、十の位および一の位の数字を共通にして必要のない限り説明を省略する。
 図12に示した統括ユニット102の通信部198は、操作者チャネル198a、スタッフチャネル198bおよび患者チャネル198cを有し、それぞれ、操作者用眼鏡型ウエアラブルモニタ166、スタッフ用眼鏡型ウエアラブルモニタ168および患者用眼鏡型ウエアラブルモニタ170と通信している。
 操作者チャネル198aおよびスタッフチャネル198bには、画像表示メモリ120からの可視光像情報が入力されるとともに、診断表示メモリ200からの診断表示情報が入力される。診断表示メモリ200からの診断表示情報は、ラマン散乱処理部154からの入力、ペーハーセンサ182等の内部測定入力、および外部測定装置180からの入力等に基づいて制御部114が処理するもので、その結果が診断表示メモリ200に記憶される。なお、診断表示メモリ200の診断表示情報はモニタ104にも伝達され、表示される。
 また、操作者チャネル198aおよびスタッフチャネル198bはオーディオ処理部202との間で双方向の情報交換を行う。これによって、操作者チャネル198aおよびスタッフチャネル198b間で音声通話が可能となるとともに、操作者チャネル198aまたはスタッフチャネル198bで受信される操作部178の操作に基づくミュート信号がオーディオ処理部202に伝達される。
 一報、患者チャネル198cには、画像表示メモリ120からの可視光像情報が入力されるが診断表示メモリ200からの診断表示情報は入力されない。また、オーディオ処理部202からの一方向の音声信号が入力される。また、この音声信号は、ミュート部204を介して入力されており、オーディオ処理部202にミュート信号が伝達されたことをミュート信号検知部206が検知するとその制御でミュート部204がオーディオ処理部202から患者チャネル198cへの音声信号伝達をミュートする。
 図13は、図12で示した実施例2における統括ユニット102の制御部114の動作の基本フローチャートであり、測定開始操作を行うとフローがスタートする。図12のフローは、図7、図8に示した実施例1のフローを引用して図示している。また同じ機能については同じステップ番号を付している。これらの部分については、必要のない限り説明を省略する。図13におけるステップS82は、図7のステップS2からステップS8をまとめたものである。ステップS82からステップS10を経てステップS84に至ると、可視光3D処理を行ってステップS12に移行する。ステップS84の可視光3D処理の詳細は後述する。
 また、ステップS12のラマン散乱検出処が終了するとステップS86の深さ情報処理および情報付加処理を行ってステップS14に移行する。ステップS86の詳細は後述する。図13のステップS88は、図7のステップS16からステップS20における基準値再演算機能をまとめたものである。また、図13のステップS90は図7のステップS22からステップS34におけるオートフォーカスまたは手動ズーム操作に伴う光源ビーム照射位置重畳データ更新機能をまとめたものである。
 ステップS92からステップS106が、図9および図12に基づいて説明した眼鏡型ウエアラブルモニタ(166、168、170)によるリアルタイム情報共有に関する機能である。フローがステップS90からステップS92に移行すると、情報共有モードが設定されているか否かがチェックされる。そして情報共有モードであればステップS94に移行して、可視画像を通信部198の全チャネルに出力する。さらにステップS96において診断表示を操作者チャネル198aおよびスタッフチャネル198bに出力する。さらにステップS98においてスタッフの音声を操作者チャネル198aおよびスタッフチャネル198bに出力してステップS100に移行する。
 ステップS100では、操作者チャネル198aで受信したミュート信号がミュート信号検知部206で検知されたか否かチェックする。検知がなければ、ステップS102に進み、スタッフチャネル198bで受信したミュート信号がミュート信号検知部206で検知されたか否かチェックする。そして検知があればステップS104に進み患者チャネル198cの音声をミュートしてステップS106に移行する。ステップS100において操作者チャネル198aで受信したミュート信号が検知された場合もステップS104に進み患者チャネル198cの音声をミュートしてステップS106に移行する。一方、操作者チャネル198aでもスタッフチャネル198bでもミュート信号が受信されなければステップS100からステップS102を経てステップS108に移行し、ミュートを解除してステップS106に移行する。
 ステップS106では、操作者の音声を操作者チャネル198aおよび患者チャネル198cに出力してステップS36に移行する。このときステップS104で患者チャネル198cの音声がミュートされている場合は、患者用眼鏡型ウエアラブルモニタ170への音声出力は行われない。なおステップS92で情報共有モードへの設定が検知できない場合はステップS110に移行し全チャネル(198a、198b、198c)の出力をオフしてステップS36に移行する。ステップS36では測定が停止されたか否かチェックし、測定が停止されたか否かチェックする。測定が停止されていない場合はステップS10に戻り、以下ステップS36で測定停止が検知されない限り、ステップS10、S84、S12、S86、S14、ステップS88からステップS110およびステップS36を繰り返す。一方、ステップS36で測定停止が検知された場合は直ちにフローを終了する。
 図14は、図13におけるステップS84における可視光3D処理およびステップS12を経由して移行するステップS86における深さ情報処理/情報付加処理の詳細を示すフローチャートである。ステップS10における可視光LED(24、26、28)の照明下での可視光撮像処理を経てステップS112に移行すると、左目用CIGSイメージセンサ134aおよび右目用CIGSイメージセンサ134bの画像信号に基づいて得られた視野内の可視光像は、それぞれ右目用画像および左目用画像として記録される。
 次いで、ステップS114では、眼幅調整のための画像拡大処理が行われる。これは、先端部112における光軸148a、148bの幅が自然な眼幅よりも狭いのでそれぞれ画像を拡大し、操作者用眼鏡型ウエアラブルモニタ166等の左目用モニタ184aおよび左目用モニタ184bで表示されたとき自然な3D画像として認知されるようにするためである。以上のステップS112およびS114が図13における可視光3D処理の詳細である。
 次いで、ステップS12を経てステップS116に至る。ステップS116からステップS134が図13のステップS86における深さ情報処理の詳細であり、ステップS136からステップS142が図13のステップS86における情報付加処理の詳細である。
 まずステップS116でラマン散乱が検出されたか否かがチェックされる。そして検出があるとステップS118に進み、検出時点における左目用CIGSイメージセンサ134aおよび右目用CIGSイメージセンサ134bのラマン散乱画像が記録される。そしてこの時のフォーカス距離の情報もラマン散乱画像に関連付けて記録される。
 以上の記録の後ステップS120に進み、フォーカス調節をしてラマン散乱が検出されなくなる限界を検知した後、そこからフォーカス距離を所定方向に所定量変更してステップS122に移行する。ステップS122では、フォーカス距離変更後ラマン散乱が検出されるか否かチェックする。そして検出されればステップS118に戻り、この時の左右のラマン散乱画像およびフォーカス距離の情報が関連付けて記録される。以下、ステップS122でラマン散乱が検出できなくなるまでステップS118からステップS122を繰り返し、フォーカス距離を変えた左右のラマン散乱画像の組(図10で示した異常組織158bに厚みがあれば複数組)を記録していく。
 ステップS122でラマン散乱が検出できなくなるとステップS124に進み、記録済みの左右ラマン散乱画像から一組を呼出し、ステップS126に進んで左右ラマン散乱画像に強度分布の重心が検出可能か否かチェックする。そして検出可能であればステップS128で検出された左右画像の重心を記録してステップS130に移行する。ステップS130では、記録済みの全ての左右ラマン散乱画像の組が呼出し済みであるかチェックする。呼出し済みでない記録画像があればステップS124に戻り、以下全ての左右ラマン散乱画像の組が呼出し済となるまでステップS124からステップS130を繰り返す。この繰り返しの中で重心検知が可能な左右画像の組の重心位置が記録されていく。(重心位置が検知されず、記録が全く得られない場合もある。)
 ステップS130で全ての記録画像が呼出し済みであることが検知されるとステップS132に進み、重心位置が記録済み画像の組があれば、その各組について左右重心位置の差が検知される。そして検知された重心位置の差に基づいてステップS134で深さ方向(光源ビーム160方向)の情報を推定する演算処理を行ってステップS136に移行する。なお、ステップS116でラマン散乱が検出されない場合は直接ステップS136に移行する。
 ステップS136では、ペーハーセンサ182等の内部測定値の入力の有無が検知され、入力があればステップS138に進んで、入力された内部測定値を診断情報に付加してステップS140に移行する。一方、内部測定値の入力がなければ直接ステップS140に移行する。ステップS140では、外部測定装置180等の外部測定値の入力の有無が検知され、入力があればステップS142に進んで、入力された外部測定値を診断情報に付加してステップS14に移行する。一方、外部測定値の入力がなければ直接ステップS14に移行する。ステップS138またはステップS142で付加された測定入力の表示画像は図12の診断表示メモリ200に入力され、通信部198から送信されて操作者用眼鏡型ウエアラブルモニタ166等で内視鏡画像とともに表示される。
 上記本発明の種々の特徴は上記の実施例に限るものではなく、その利点が享受できる限り種々の他の実施例において活用可能である。例えば、実施例2はラマン散乱を用いた癌診断装置として構成されているが、眼鏡型ウエアラブルモニタを利用した操作者、スタッフおよび患者間のリアルタイム情報交換または3D処理等の特徴は、通常の内視鏡その他の診断医療装置に応用可能である。
<開示のまとめ>
 以下では、本明細書中に開示されている種々の発明について、総括的に説明する。
 本明細書中に開示されている発明は、可視光域のフィルタおよびラマン散乱検出フィルタを設けたCIGSイメージセンサを有する癌診断装置を提供する。これによって、CIGSイメージセンサの広い感度域を利用して対象の可視光撮像およびラマン散乱検出を行うことができる。
 本明細書中に開示されている発明の具体的な特徴によれば、ラマン散乱検出フィルタは、ラマン散乱光を選択的に透過させる測定用赤外フィルタおよびラマン散乱光がない近接域の赤外光を選択的に透過させる参照用赤外フィルタを含む。これによって、レイリー散乱をカットするとともに適確なラマン散乱の検出が可能となる。
 他の具体的な特徴によれば、癌診断装置は可視光域の照明光源およびラマン散乱用光源を有し、CIGSイメージセンサは可視光域の照明光源およびラマン散乱用光源に基づき可視光像の撮像とラマン散乱の検出を行う。より具体的な特徴によれば、可視光域の照明光源および前記ラマン散乱用光源は時分割で対象に照射される。他の具体的な特徴によれば、可視光域の照明光源は時分割で点灯される複数色の光源を含み、可視光域のフィルタはこれら複数色の光源の光をいずれも透過させる。別の具体的な特徴によれば、可視光域のフィルタは複数色を選択的に透過させる。
 他の具体的な特徴によれば、癌診断装置にはラマン散乱検出フィルタを設けたCIGSイメージセンサの出力を基準値として記憶する記憶部が設けられる。これによって、例えば予備測定により基準値を求め、これを基準として本測定を行うことができる。より具体的な特徴によれば、記憶部は、ラマン散乱検出フィルタを設けたCIGSイメージセンサによる複数の測定値の平均値を基準値として記憶する。
 他の具体的な特徴によれば、CIGSイメージセンサによる可視光像の表示において、ラマン散乱の検知部分を特定する重畳表示が行われる。これによって、可視光像に基づいてラマン散乱測定部分を適確に知ることができる。
 本明細書中に開示されている発明の他の特徴によれば、撮像レンズを有し、可視光画像の撮像およびラマン散乱の測定が可能であるとともに、可視光像の表示においてラマン散乱の検知部分を特定する重畳表示を行い、重畳表示位置は、撮像レンズのフォーカス調節に応じて変化させられる癌診断装置が提供される。これによって、可視光像に基づいてラマン散乱測定部分を適確に知ることができるとともに、ラマン散乱の検知部分が撮像レンズの光軸上になくてもフォーカス調節にかかわらずラマン散乱測定部分を正確に重畳表示できる。
 本明細書中に開示されている発明の他の特徴によれば、撮像レンズを有し、可視光画像の撮像およびラマン散乱の測定が可能であるとともに、可視光像の表示においてラマン散乱の検知部分を特定する重畳表示を行い、重畳表示位置は、撮像レンズのズーミングに応じて変化させられる癌診断装置が提供される。これによって、可視光像に基づいてラマン散乱測定部分を適確に知ることができるとともに、ラマン散乱の検知部分が撮像レンズの光軸上になくてもズーミングにかかわらずラマン散乱測定部分を正確に重畳表示できる。
 本明細書中に開示されている発明の他の特徴によれば、可視光画像の撮像およびラマン散乱の測定を時分割で行うとともに、可視光像の表示においてラマン散乱の検出時においても可視光像の表示を継続する癌診断装置が提供される。これによって、可視光画像の撮像およびラマン散乱の測定を互いの干渉なく行うことができるとともに、ラマン散乱の測定に中断されることなく可視光画像の表示を行うことができる。
 また、本明細書中に開示されている発明は、診断情報を得る診断情報取得部と、前記診断情報取得部と無線近距離通信を行い受信した診断情報を表示する複数のウエアラブル表示装置とを有することを特徴とする診断システムを提供する。これにより、診断行為等における姿勢をそれぞれ保ったまま診断情報をリアルタイムでの共有することが可能となる。
 具体的な特徴によれば、前記診断情報取得部は、前記複数のウエアラブル表示装置のうちの少なくとも一つに対し、他のウエアラブル表示装置に提供する診断情報の一部を制限して提供する。また他の特徴によれば、前記診断情報取得部は、前記複数のウエアラブル表示装置のうちの少なくとも一つに対して提供する診断情報に制限を加えるか否か決定する。これにより、例えば患者と情報を共有する際に専門的な情報の提供を制限し、徒に不安をあおること等を防止できる。より具体的な特徴によれば、前記診断情報取得部は、前記複数のウエアラブル表示装置のうちの少なくとも一つに対して提供する診断情報に制限を加えるか否かを他のウエアラブル表示装置からの指示に基づいて決定する。これにより例えば診断情報の取得者からの指示、または専門的な質問の必要を感じたスタッフからの指示で情報の制限をすることが可能となる。
 より具体的な他の特徴によれば、前記複数のウエアラブル表示装置のうちの少なくとも一つは被診断者が装着するためのものである。また他のより具体的な特徴によれば、前記複数のウエアラブル表示装置は診断情報を共有するため、複数の診断スタッフが装着するためのものである。より具体的な他の特徴によれば、前記複数のウエアラブル表示装置は複数の診断スタッフ同士で通話するための通話手段を備える。さらに具体的な特徴によれば、前記複数のウエアラブル表示装置のうちの少なくとも一つは被診断者が装着するためのものであり、前記被診断者が装着するウエアラブル表示装置に前記通話手段の音声が伝わらないようミュートする手段を備える。
 他の具体的な特徴によれば、前記診断情報取得部は3D画像情報を取得するとともに、前記複数のウエアラブル表示装置は3D画像表示部を有する。これにより、ウエアラブル表示装置を活用して3D画像情報による診断を行うことが可能となる。 
 他の具体的な特徴によれば、他の診断情報取得部を有し、前記複数のウエアラブル表示装置は、前記他の診断情報取得部が取得する診断情報についても併せて表示を行う。これによって、複数の診断情報取得部の情報を一元的にウエアラブル表示装置で共有することができる。
 本明細書中に開示されている発明の他の特徴によれば、眼幅と異なる幅の一対の光軸を有し3D画像情報を取得する診断情報取得部と、前記3D画像情報における前記一対の光軸幅と眼幅との異なりを調整して3D画像表示部に提供する調整手段とを有することを特徴とする診断装置が提供される。これにより効果的な3D画像観察が可能となる。
 本明細書中に開示されている発明の他の特徴によれば、3D画像情報として一対の画像を取得する診断情報取得部と、前記一対の画像の重心を求める手段と、前記一対の画像の重心のずれを分析する分析手段とを有することを特徴とする診断装置が提供される。これによって、取得画像が散乱等により広がっていても、3D画像により深さ方向の情報を得ることができる。
 本明細書中に開示されている発明の他の特徴によれば、他のウエアラブル表示装置と情報交換する無線近距離通信部と、他のウエアラブル表示装置に提供する情報に制限を加えるための操作部を有することを特徴とするウエアラブル表示装置が提供される。これにより、例えば患者と情報を共有する際に専門的な情報の提供を制限し、徒に不安をあおること等を防止できる。より具体的な特徴によれば、前記操作部は、他のウエアラブル表示装置の一つに提供する情報をそれ以外の他のウエアラブル表示装置に提供する情報に比較して制限する操作を行うものである。
 本発明は、診断システム、診断装置、診断の表示装置、癌診断装置に適用することができる。
V11、V22  可視光域のフィルタ
IR12、IRref21  ラマン散乱検出フィルタ
34  CIGSイメージセンサ
IR12  測定用赤外フィルタ
IRref21  参照用赤外フィルタ
24、26、28  可視光域の照明光源
30  ラマン散乱用光源
16 記憶部
4 表示部
64  ラマン散乱の検知部分を特定する重畳表示
32  撮像レンズ
102~112     診断情報取得部
166、168、170 ウエアラブル表示装置
174、176     通話手段
204         ミュートする手段
148a、148    3D画像情報を取得するための一対の光軸
114、118     調整手段
114、118     重心を求める手段
114、118     分析手段
180、182、    他の診断情報取得部
134a、134b   CIGSイメージセンサ
178         操作部

Claims (20)

  1.  可視光域のフィルタおよびラマン散乱検出フィルタを設けたCIGSイメージセンサを有することを特徴とする癌診断装置。
  2.  前記ラマン散乱検出フィルタは、ラマン散乱光を選択的に透過させる測定用赤外フィルタおよびラマン散乱光がない近接域の赤外光を選択的に透過させる参照用赤外フィルタを含むことを特徴とする請求項1記載の癌診断装置。
  3.  可視光域の照明光源およびラマン散乱用光源を有し、前記CIGSイメージセンサは、前記可視光域の照明光源および前記ラマン散乱用光源に基づきそれぞれ可視光像の撮像とラマン散乱の検出を行うことを特徴とする請求項1記載の癌診断装置。
  4.  前記ラマン散乱検出フィルタを設けたCIGSイメージセンサの出力を基準値として記憶する記憶部を有することを特徴とする請求項1記載の癌診断装置。
  5.  前記記憶部は、前記ラマン散乱検出フィルタを設けたCIGSイメージセンサによる複数の測定値の平均値を基準値として記憶することを特徴とする請求項4記載の癌診断装置。
  6.  前記CIGSイメージセンサによる可視光像の撮像とラマン散乱の検出は時分割で行われるとともに、前記可視光像を表示する表示部を有し、前記表示部における可視光像の表示は、ラマン散乱の検出時も継続されることを特徴とする請求項1記載の癌診断装置。
  7.  前記CIGSイメージセンサによる可視光像の表示において、前記ラマン散乱の検知部分を特定する重畳表示を行うことを特徴とする請求項1記載の癌診断装置。
  8.  前記CIGSイメージセンサに測定対象を結像させる撮像レンズを有し、前記ラマン散乱の検知部分を特定する重畳表示は、前記撮像レンズのフォーカス調節に応じて変化させられることを特徴とする請求項7記載の癌診断装置。
  9.  前記CIGSイメージセンサに測定対象を結像させる撮像レンズを有し、前記ラマン散乱の検知部分を特定する重畳表示位置は、前記撮像レンズのズーミングに応じて変化させられることを特徴とする請求項7記載の癌診断装置。
  10.  請求項1記載の癌診断装置と、前記癌診断装置と無線近距離通信を行い受信した診断情報を表示する複数のウエアラブル表示装置とを有することを特徴とする診断システム。
  11.  撮像レンズを有し、可視光画像の撮像および診断測定が可能であるとともに、可視光像の表示において前記診断測定の対象部分を特定する重畳表示を行い、重畳表示位置は、前記撮像レンズの調節に応じて変化させられることを特徴とする診断装置。
  12.  診断情報を得る診断情報取得部と、前記診断情報取得部と無線近距離通信を行い受信した診断情報を表示する複数のウエアラブル表示装置とを有することを特徴とする診断システム。
  13.  前記診断情報取得部は、前記複数のウエアラブル表示装置のうちの少なくとも一つに対し、他のウエアラブル表示装置に提供する診断情報の一部を制限して提供することを特徴とする請求項12記載の診断システム。
  14.  前記複数のウエアラブル表示装置のうちの少なくとも一つは、被診断者が装着するためのものであることを特徴とする請求項12記載の診断システム。
  15.  前記複数のウエアラブル表示装置は、診断情報を共有するために、複数の診断スタッフが装着するためのものであることを特徴とする請求項12記載の診断システム。
  16.  前記複数のウエアラブル表示装置は、複数の診断スタッフ同士で通話するための通話手段を備えることを特徴とする請求項12記載の診断システム。
  17.  前記複数のウエアラブル表示装置のうちの少なくとも一つは、被診断者が装着するためのものであり、前記被診断者が装着するウエアラブル表示装置に前記通話手段の音声が伝わらないようミュートする手段を備えることを特徴とする請求項16記載の診断システム。
  18.  前記診断情報取得部は3D画像情報を取得するとともに、前記複数のウエアラブル表示装置は3D画像表示部を有することを特徴とする請求項12記載の診断システム。
  19.  前記診断情報取得部が3D画像情報を取得するための一対の光軸幅は、前記複数のウエアラブル表示装置における眼幅と異なっており、両者間の調整を行う手段を有することを特徴とする請求項18記載の診断システム。
  20.  前記診断情報取得部は3D画像情報として一対の画像を取得するとともに、前記一対の画像の重心を求める手段と、前記一対の画像の重心のずれを分析する分析手段とを有することを特徴とする請求項12記載の診断システム。
PCT/JP2014/061186 2013-04-22 2014-04-21 癌診断装置、診断システム、診断装置 WO2014175223A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/785,902 US10184894B2 (en) 2013-04-22 2014-08-21 Cancer diagnostic device, diagnostic system, and diagnostic device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-089515 2013-04-22
JP2013089515A JP6288936B2 (ja) 2013-04-22 2013-04-22 癌診断装置
JP2014-085486 2014-04-17
JP2014085486A JP6560485B2 (ja) 2014-04-17 2014-04-17 診断システム

Publications (1)

Publication Number Publication Date
WO2014175223A1 true WO2014175223A1 (ja) 2014-10-30

Family

ID=51791797

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/061186 WO2014175223A1 (ja) 2013-04-22 2014-04-21 癌診断装置、診断システム、診断装置

Country Status (2)

Country Link
US (1) US10184894B2 (ja)
WO (1) WO2014175223A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107566707A (zh) * 2017-09-29 2018-01-09 努比亚技术有限公司 双镜头摄像装置及移动终端
CN110811498A (zh) * 2019-12-19 2020-02-21 中国科学院长春光学精密机械与物理研究所 可见光和近红外荧光3d融合图像内窥镜系统

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5988907B2 (ja) * 2013-03-27 2016-09-07 オリンパス株式会社 内視鏡システム
US20170035280A1 (en) * 2015-08-07 2017-02-09 Reinroth Gmbh Stereoscopic endoscope system with concurrent imaging at visible and infrared wavelengths
JPWO2016098171A1 (ja) 2014-12-15 2017-09-28 オリンパス株式会社 撮像装置およびカプセル型内視鏡
US20160209330A1 (en) * 2015-01-21 2016-07-21 Protrustech Co., Ltd Integrated raman spectrometer and modularized laser module
US10869592B2 (en) 2015-02-23 2020-12-22 Uroviu Corp. Handheld surgical endoscope
US11684248B2 (en) 2017-09-25 2023-06-27 Micronvision Corp. Endoscopy/stereo colposcopy medical instrument
US11832797B2 (en) 2016-09-25 2023-12-05 Micronvision Corp. Endoscopic fluorescence imaging
US11216941B2 (en) * 2016-11-04 2022-01-04 Sony Corporation Medical image processing apparatus, medical image processing method, and program
US11931010B2 (en) * 2017-03-24 2024-03-19 Covidien Lp Endoscopes and methods of treatment
US11771304B1 (en) 2020-11-12 2023-10-03 Micronvision Corp. Minimally invasive endoscope
WO2021016626A1 (en) 2019-07-25 2021-01-28 Uroviu Corp. Disposable endoscopy cannula with integrated grasper

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05289001A (ja) * 1992-04-10 1993-11-05 Asahi Optical Co Ltd 内視鏡用撮像装置
JPH0998985A (ja) * 1995-10-09 1997-04-15 Olympus Optical Co Ltd 医療用顔面装着型映像表示装置
WO2010024397A1 (ja) * 2008-08-28 2010-03-04 独立行政法人理化学研究所 ラマン散乱測定装置
WO2010116974A1 (ja) * 2009-04-07 2010-10-14 ローム株式会社 光電変換装置および撮像装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3288504B2 (ja) 1993-10-19 2002-06-04 富士写真光機株式会社 レーザー光照射装置を用いる電子内視鏡装置
JP3869029B2 (ja) 1995-05-16 2007-01-17 オリンパス株式会社 立体視内視鏡システム
US6205354B1 (en) 1999-06-18 2001-03-20 University Of Utah Method and apparatus for noninvasive measurement of carotenoids and related chemical substances in biological tissue
JP2001091892A (ja) 1999-09-24 2001-04-06 Olympus Optical Co Ltd 顔面装着型映像表示装置
JP2002005835A (ja) 2000-06-23 2002-01-09 宏夫 ▲浜▼口 ラマン分光測定装置及びそれを用いた生体試料分析方法
US20060239673A1 (en) 2003-03-13 2006-10-26 Roke Manor Research Limited Camera illumination system
JP3959644B2 (ja) 2003-09-30 2007-08-15 英宏 藤江 歯科診療装置
JP2006300611A (ja) 2005-04-18 2006-11-02 Hamamatsu Photonics Kk 試料分析装置及びそれを用いた試料分析方法
JP5114024B2 (ja) * 2005-08-31 2013-01-09 オリンパス株式会社 光イメージング装置
JP5085732B2 (ja) 2008-06-06 2012-11-28 株式会社モリタ製作所 歯科治療用撮像装置及び撮像装置付歯科治療用インスツルメント装置
CN102124392A (zh) * 2008-08-19 2011-07-13 罗姆股份有限公司 照相机
JP2010227200A (ja) 2009-03-26 2010-10-14 Rohm Co Ltd 内視鏡
JP6396658B2 (ja) 2010-12-02 2018-09-26 ウルトラデント プロダクツ インコーポレイテッド 立体視ビデオ画像を観察および追跡するためのシステムおよび方法
KR101677561B1 (ko) * 2010-12-08 2016-11-18 한국전자통신연구원 영상 정합 장치 및 그것의 영상 정합 방법
JP2012125455A (ja) 2010-12-16 2012-07-05 Rohm Co Ltd 口腔内撮像装置
JP5948076B2 (ja) 2011-08-23 2016-07-06 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御方法
JP5953187B2 (ja) * 2011-10-11 2016-07-20 オリンパス株式会社 合焦制御装置、内視鏡システム及び合焦制御方法
JP5973707B2 (ja) 2011-10-14 2016-08-23 オリンパス株式会社 三次元内視鏡装置
US20130267855A1 (en) * 2011-10-28 2013-10-10 Kazuo Tsubota Comprehensive measuring method of biological materials and treatment method using broadly tunable laser
US8928887B2 (en) * 2012-03-02 2015-01-06 The Board Of Trustees Of The University Of Illinois Characteristic parameters of cells and tissue from quantitative phase imaging
JP2013223635A (ja) 2012-04-23 2013-10-31 Konica Minolta Inc プローブ
GB2513343A (en) 2013-04-23 2014-10-29 Univ Singapore Methods related to instrument-independent measurements for quantitative analysis of fiber-optic Raman spectroscopy
JP6238736B2 (ja) * 2013-12-26 2017-11-29 キヤノン株式会社 光音響装置、信号処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05289001A (ja) * 1992-04-10 1993-11-05 Asahi Optical Co Ltd 内視鏡用撮像装置
JPH0998985A (ja) * 1995-10-09 1997-04-15 Olympus Optical Co Ltd 医療用顔面装着型映像表示装置
WO2010024397A1 (ja) * 2008-08-28 2010-03-04 独立行政法人理化学研究所 ラマン散乱測定装置
WO2010116974A1 (ja) * 2009-04-07 2010-10-14 ローム株式会社 光電変換装置および撮像装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107566707A (zh) * 2017-09-29 2018-01-09 努比亚技术有限公司 双镜头摄像装置及移动终端
CN110811498A (zh) * 2019-12-19 2020-02-21 中国科学院长春光学精密机械与物理研究所 可见光和近红外荧光3d融合图像内窥镜系统

Also Published As

Publication number Publication date
US10184894B2 (en) 2019-01-22
US20160077008A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
WO2014175223A1 (ja) 癌診断装置、診断システム、診断装置
CN107072476B (zh) 观察装置
JPH0584218A (ja) 内視鏡装置
US20160128545A1 (en) Endoscope apparatus and method for controlling endoscope apparatus
JP6329715B1 (ja) 内視鏡システムおよび内視鏡
JPWO2018211885A1 (ja) 画像取得システム、制御装置及び画像取得方法
US11653824B2 (en) Medical observation system and medical observation device
EP4202526A1 (en) Endoscope system and method for detecting when tail end of endoscope comes into contact with tissue
WO2019235492A1 (ja) 内視鏡プロセッサ、表示設定方法および表示設定プログラム
JPH06202006A (ja) 立体視硬性内視鏡
CN114324268A (zh) 观察辅助装置、信息处理方法以及程序
JP6560485B2 (ja) 診断システム
JP6293392B1 (ja) 生体観察システム
US8596784B2 (en) Opthalmology photographing apparatus
JP2021145859A (ja) 医療用画像処理装置及び医療用観察システム
JPH0980323A (ja) 内視鏡装置
JP6288936B2 (ja) 癌診断装置
JP6368886B1 (ja) 内視鏡システム
JP5989283B1 (ja) 撮像システム及び信号処理装置
WO2014200041A1 (ja) 角膜内皮細胞撮影装置
JP5508140B2 (ja) 眼底撮像装置及びその処理方法
JP4118650B2 (ja) 手術用観察装置
US11648080B2 (en) Medical observation control device and medical observation system that correct brightness differences between images acquired at different timings
JP7456385B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
EP4201298A1 (en) Endoscope system with adaptive lighting control

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14788116

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14785902

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14788116

Country of ref document: EP

Kind code of ref document: A1