WO2019049997A1 - 内視鏡システム - Google Patents

内視鏡システム Download PDF

Info

Publication number
WO2019049997A1
WO2019049997A1 PCT/JP2018/033245 JP2018033245W WO2019049997A1 WO 2019049997 A1 WO2019049997 A1 WO 2019049997A1 JP 2018033245 W JP2018033245 W JP 2018033245W WO 2019049997 A1 WO2019049997 A1 WO 2019049997A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
endoscope
air
image
heat sink
Prior art date
Application number
PCT/JP2018/033245
Other languages
English (en)
French (fr)
Inventor
敏雄 千葉
紘正 山下
健吉 谷岡
哲 ▲高▼橋
Original Assignee
カイロス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カイロス株式会社 filed Critical カイロス株式会社
Priority to CN201880057960.8A priority Critical patent/CN111093466A/zh
Priority to JP2019541025A priority patent/JPWO2019049997A1/ja
Priority to EP18854577.6A priority patent/EP3682790A1/en
Priority to US16/645,792 priority patent/US20200268236A1/en
Publication of WO2019049997A1 publication Critical patent/WO2019049997A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00105Constructional details of the endoscope body characterised by modular construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00119Tubes or pipes in or with an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/002Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor having rod-lens arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0653Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with wavelength conversion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • A61B1/128Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for regulating temperature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Definitions

  • the present invention relates to an endoscope system to which an 8K high resolution endoscope is applied.
  • Patent Document 1 is a document disclosing an invention related to this type of endoscope.
  • the field of view can be expanded, and even when the operation range is wide, it is easy to operate, and it is convenient to confirm the position of the surgical device and to avoid interference between the surgical devices. Furthermore, large-screen observation is also possible, and all parties involved in surgery can share the same image, and communication becomes smooth. Thus, the use of 4K and 8K high-resolution imaging technology has great potential.
  • the conventional high-resolution endoscope system has room for improvement in terms of designation of the zoom position in the display image of the endoscope.
  • This invention is made in view of such a subject, and it aims at further improving the convenience of the endoscope system containing an endoscope.
  • the present invention takes an image of an object in a body cavity of a patient and outputs an image signal of a predetermined number of pixels, and a predetermined 3D processing of the output signal of the endoscope.
  • a control device that outputs a 3D image signal obtained by the 3D processing to the display device as a moving image signal of a predetermined frame rate, polarized glasses worn by a practitioner who is performing treatment on the patient, the display device, It is an endoscope system provided with a sensor each provided in said polarization glasses, and a trigger signal generating part which generates a trigger signal which directs a zoom of a display picture of said display device, wherein said control device is a trigger signal.
  • the generation unit When the generation unit generates the trigger signal, the detection signal of the sensor in the polarized glasses at the time of the generation of the trigger signal and the sensor in the display device Based on the relationship of knowledge signal, to identify the fixation point of the operator within said displayed image of the display device, provides an endoscope system characterized by zoom in around the fixation point.
  • the sensor provided in the polarized glasses comprises: a first sensor for detecting a potential at the left nose of the polarized glasses; and a second sensor for detecting the potential at the right nose of the polarized glasses.
  • a third sensor that detects the potential of the bridge of the polarized glasses, a fourth sensor that detects the position of the polarized glasses, and a fifth sensor that detects the orientation of the lenses of the polarized glasses
  • the control device is configured based on the potential waveform indicated by the detection signal of the first sensor, the potential waveform indicated by the detection signal of the second sensor, and the potential waveform indicated by the detection signal of the third sensor.
  • the gaze position corresponding to the gaze of the operator on the lens of the polarized glasses is determined, and the gaze position, the relationship between the position where the display device is placed and the position detected by the fourth sensor, On the basis of the relationship between the orientation and the fifth sensor detects the orientation of the display device, to provide an endoscopic system and identifies the gaze point of the surgeon in the display representation image.
  • the endoscope is a solid state imaging device including a housing and a solid-state imaging device housed in the housing, each of which is a matrix of 8K equivalent pixels each having a photoelectric conversion element.
  • 8K comprising an imaging device and an insertion unit extending as a base end of the casing, the insertion unit being inserted into a body cavity of the patient and guiding light from a subject in the body cavity to the solid-state imaging device
  • the pitch of adjacent pixels in the solid-state imaging device may be larger than the longest wavelength of the light in the illumination that illuminates the subject.
  • the housing has a mount portion having a large area of a cross section orthogonal to the optical axis of light passing through the inside of the insertion portion, and a grip portion having an area of the cross section smaller than the mount portion.
  • An imaging device may be housed.
  • the insertion portion may have a hollow rigid barrel, and a plurality of lenses including an objective lens may be provided in the rigid barrel.
  • air is forcibly supplied into the housing through an air supply pipe and an air discharge pipe connected to the housing, and the air supply pipe, and air is supplied from the inside of the housing through the air discharge pipe.
  • It has an air supply / exhaust device for forced exhaust and an air cooling device for cooling the air flowing through the air supply pipe, and the housing, the air supply pipe, and the air discharge pipe form one sealed space.
  • the air conditioner covers a first heat sink provided in the solid-state imaging device, an FPGA for image processing, a second heat sink provided in the FPGA, and the second heat sink in the housing. And a cover member connected to the discharge pipe, wherein a first air flow for cooling the first heat sink and a second air flow for cooling the second heat sink are generated in the housing.
  • the first air flow is configured such that cooling air supplied from the air supply pipe is blown to the first heat sink and diverges around the first heat sink, and the second air flow is The air may flow from the periphery of the second heat sink to the air discharge pipe via the cover member.
  • the endoscope is a housing, and a solid-state imaging device housed in the housing, the solid-state imaging device in which pixels each having a photoelectric conversion element are arranged in a matrix, and a hollow flexible lens barrel
  • At least one of the one or more mirrors having a first axis inclined with respect to the optical axis direction of light passing through each core of the multi-core fiber, and the first axis Tiltable about two axes of a second axis orthogonal to the axis of the frame, and the control device periodically switches the tilt angle of the mirror at a time interval shorter than the frame switching time interval of the frame rate
  • FIG. 2 is a cross-sectional view of the insertion portion 110 of FIG. It is a figure which shows the polarization glasses 50 of FIG. It is a figure which shows the structure of the control apparatus 40 of FIG. It is a figure which shows the process of the control apparatus 40 of FIG. It is a figure which shows the process of the control apparatus 40 of FIG.
  • FIG. 18 is a view of the insertion portion 110 ′ of FIG. 17 as viewed in the direction of arrow A, and a cross-sectional view of the insertion portion 110 ′ along the line B-B ′. It is a figure which shows the process of the control apparatus 40 of FIG. It is a figure which shows the feature of the modification of the present invention.
  • FIG. 1 is a view showing a configuration of an endoscope system including an endoscope according to a first embodiment of the present invention.
  • the endoscope system includes a rigid endoscope 10, a lighting device 20, a display device 30, a control device 40, polarized glasses 50, a suction and discharge device 60, and an air cooling device 70.
  • FIG. 2 is a view showing a single-hole laparoscopic surgery which is an example of a surgery performed under the support of the endoscope system of the present embodiment.
  • single-lumen laparoscopic surgery a hole of about 2 centimeters is made in the patient's abdomen (in many cases at the navel position), a port (resin frame) is put in the hole, and carbon dioxide gas is put in Inflate the body cavity.
  • the operator of the surgery inserts an endoscope, a scalpel, and a forceps (a pinching / pulling surgical tool) from the port into the body cavity, and observes a photographed image of the endoscope displayed on the display device 30, Treat the affected area in the body cavity.
  • the patient's vein is injected with a near infrared excitation drug prior to surgery.
  • a near infrared excitation drug As the drug travels into the patient's body, blood vessels illuminated by excitation light of a certain wavelength emit near-infrared light.
  • the operator wears polarized glasses 50 for stereoscopic viewing of 3D images.
  • the control device 40 acquires an image of visible light of the affected area in the body cavity of the patient and an image of infrared light from the capillary blood vessel in the back from the rigid endoscope 10, These images are displayed on the display device 30 as 3D moving images.
  • control device 40 is based on the relationship between the detection signal of the sensor in the polarized glasses 50 and the detection signal of the sensor in the display device 30, and the gaze point ahead of the line of sight of the operator in the display image of the display device 30. Identify the FP and zoom in around the fixation point FP.
  • the rigid endoscope 10 is an apparatus that plays a role in imaging a patient's body cavity.
  • the rigid endoscope 10 has a camera body 130, an insertion portion 110, and an eyepiece lens mount portion 120.
  • the housing 131 of the camera body 130 has a shape in which the thickness of the cross section of the front of the cylindrical body is expanded.
  • FIG. 4 is a view of the case 131 of FIG. 1 as viewed in the direction of arrow A.
  • the housing 131 includes a front mount portion 1131 and a rear grip portion 1132.
  • the front surface of the mount portion 1131 is provided with a perfect circular opening.
  • the area of the cross section of the mount portion 1131 of the housing 131 is larger than the area of the grip portion 1132 of the housing 131.
  • An annular frame is fitted in the opening of the front surface of the mount portion 1131 of the housing 131.
  • a solid-state image sensor 1311 and an A / D converter 1319 are located at a position facing the front frame in the housing 131.
  • the solid-state imaging device 1311 is a complementary metal oxide semiconductor (CMOS) image sensor.
  • CMOS complementary metal oxide semiconductor
  • the filter of the pixel PX ij at the upper left of the block is a red filter (a filter that transmits only the red wavelength).
  • the filter at the lower left pixel PX ij of the block is a green filter (a filter that transmits only green wavelengths).
  • the filter of the pixel PX ij at the upper right of the block is a blue filter (a filter that transmits only the blue wavelength).
  • the filter of the pixel PX ij at the lower right of the block is a near-infrared light filter (a filter that transmits only the near-infrared light wavelength).
  • a wavelength of light illuminating the subject It is larger than the longest wavelength. If the light illuminating the subject contains only visible light, the pitch of the pixels PX ij is preferably 2.8 ⁇ m to 3.8 ⁇ m. If light illuminating the subject includes visible light and near infrared light, the pitch of the pixels PX ij is preferably 3.8 ⁇ m or more.
  • the data is output as an image signal SD.
  • a heat sink 1316, a duct 1318, an image processing FPGA 1331, a heat sink 1336, a cover member 1338, a duct 166B, etc. 14 The details of these units will be described later.
  • buttons 139IN and 139OUT are provided at the rear of the side of the housing 131.
  • the buttons 139IN and 139OUT serve as trigger generating units.
  • a zoom-in trigger signal for instructing the zoom-in of the image displayed on the display device 30 is transmitted from the rigid endoscope 10 to the control device 40.
  • a zoom out trigger signal instructing zoom out of the image displayed on the display device 30 is transmitted from the rigid endoscope 10 to the control device 40.
  • the eyepiece mount portion 120 has a shape in which a part of the outer periphery of the cylindrical body is recessed inward.
  • An eyepiece lens 1201 is fitted in the eyepiece lens mount 120.
  • the insertion portion 110 is a portion to be inserted into a body cavity of a patient.
  • the insertion portion 110 has a rigid barrel 111 and an eyepiece 112.
  • a connector 113 for a lighting device is provided at a position on the tip end side of the eyepiece 112 on the outer periphery of the insertion portion 110.
  • FIG. 5 is a cross-sectional view taken along the line B-B 'of the insertion portion 110 of FIG.
  • the hollow light guiding region 1112 is a cavity having a diameter slightly smaller than the diameter of the insertion portion 110 itself.
  • Several hundreds to several thousands of optical fibers 1901 are embedded in the outer shell surrounding the hollow light guiding region 1112 in the insertion portion 110. In FIG. 5, only 16 optical fibers 1901 are shown for simplicity.
  • a diffusion lens (not shown) is provided at the tip of the tip of the optical fiber in the insertion portion 110.
  • An objective lens 1111 is fitted at a position slightly inside of the tip of the hollow light guiding area 1112 of the insertion portion 110.
  • a relay lens 1113 is fitted between the objective lens 1111 and the eyepiece 112 in the hollow light guiding region 1112.
  • the eyepiece 112 of the insert 110 is coupled to the eyepiece mount 120.
  • the eyepiece mount unit 120 is connected to a frame on the front surface of the housing 131.
  • the lighting device 20 includes a light emitting element that emits light having a wavelength of visible light and a wavelength of near infrared light, and a driver circuit that drives the light emitting element.
  • the lighting device 20 is connected to the connection connector 113 of the insertion unit 110.
  • the illumination light of the illumination device 20 (light having the wavelengths of visible light and near infrared light) passes through the optical fiber 1901 of the insertion portion 110 and is irradiated into the body cavity through the diffusion lens on the further side.
  • the display device 30 is a liquid crystal display having display pixels equivalent to 8K (display pixels of 4320 rows and 7680 columns).
  • the display device 30 is provided with a position detection sensor 36 and a direction detection sensor 37.
  • the position detection sensor 36 detects the position of the display device 30.
  • the position detection sensor 36 has a direction parallel to the ground axis direction as the Z-axis direction, one direction orthogonal to the Z-axis direction as the Y-axis direction, and is orthogonal to both the Z-axis direction and the Y-axis direction
  • the position of the display device 30 on the X axis and the Y axis in the case where the direction is the X axis direction and the reference point (for example, the center of the room) in the room where surgery is performed is the origin (0.0.0).
  • Coordinate signals SD X , SD Y , and SD Z indicating the upper position and the position on the Z axis are output.
  • the orientation detection sensor 37 detects the orientation of the display device 30. Specifically, the direction detection sensor 37 uses a plane parallel to the X-axis direction and the Y-axis direction as a reference plane, and sets the inclination of the display screen of the display device 30 to the reference plane around the X axis as the elevation angle of the display screen. An angle signal SD ⁇ X indicating the elevation angle of the display screen is output. Further, the direction detection sensor 37 sets an inclination of the display screen of the display device 30 in the direction around the Z axis with respect to the reference plane as the direction of the display screen, and outputs an angle signal SD ⁇ Z indicating the direction of the display screen.
  • polarized glasses 50 are polarized glasses of a passive type (circular polarized light filter type).
  • the left lens 55L and the right lens 55R are fitted in the frame 54 of the polarized glasses 50.
  • the left lens 55L guides the image for the left eye of the 3D image to the retina of the operator's left eye.
  • the right lens 55R guides the right-eye image of the 3D image to the right-eye retina of the operator.
  • a position detection sensor 56 is embedded at the upper left of the left lens 55 ⁇ / b> L in the frame 54 of the polarized glasses 50.
  • the position detection sensor 56 detects the position of the polarized glasses 50. Specifically, when the position detection sensor 56 sets the reference point (center of the room) as the origin (0.0.0), the position on the X axis, the position on the Y axis, and the position on the Y axis of the polarized glasses 50 The coordinate signals SG X , SG Y and SG Z indicating the position on the axis are output.
  • a direction detection sensor 57 is embedded.
  • the orientation detection sensor 57 detects the orientation of the lenses 55 ⁇ / b> L and 55 ⁇ / b> R of the polarized glasses 50. Specifically, the orientation detection sensor 57 sets the inclination of the lenses 55L and 55R in the direction around the X axis of the polarized glasses 50 with respect to the reference plane (plane parallel to the X and Y directions) as the elevation angle of the lenses 55L and 55. , And outputs an angle signal SG .theta . X indicating the elevation angle of the lenses 55L and 55R.
  • the direction detection sensor 57 sets an inclination of the direction around the Z axis with respect to the reference plane as the direction of the lenses 55L and 55R, and outputs an angle signal SG ⁇ Z indicating the direction of the lenses 55L and 55R.
  • a first electric potential sensor 51 is embedded in the left nose of the frame 54 of the polarized glasses 50.
  • a second electric potential sensor 52 is embedded in the right nose of the frame 54 of the polarized glasses 50.
  • a third electric potential sensor 53 is embedded in the middle bridge of the frame 54 of the polarized glasses 50.
  • Potential sensor 51 detects the potential of the portion the nose destined contacts the left in the face of the operator, and outputs the left portion potential signal SG V1 indicating the detected potential.
  • Potential sensor 52 detects the potential of the portion right nasal addressed in the face of the operator is in contact, and outputs a right portion potential signal SG V2 indicating the detected potential.
  • Potential sensor 53 detects the potential of the portion where the bridge is in contact at the face of the operator, and outputs the upper potential signal SG V3 indicating the detected potential.
  • a wireless communication unit 58 is embedded in the right temple of the frame 54 of the polarized glasses 50.
  • the carrier is modulated with the output signal SG V2 and the output signal SG V3 of the potential sensor 53, and a radio signal SG ′ obtained by this modulation is transmitted.
  • the control device 40 is a device that serves as a control center of the endoscope system. As shown in FIG. 7, the control device 40 includes a wireless communication unit 41, an operation unit 42, an input / output interface 43, an image processing unit 44, a storage unit 45, and a control unit 46.
  • the wireless communication unit 41 'receives this signal SG' radio signal SG signal SG X obtained by demodulating the, SG Y, SG Z, SG ⁇ X, SG ⁇ Z, SG V1, SG V2, and SG V3
  • the control unit 46 is supplied.
  • the operation unit 42 performs various operations such as a keyboard, a mouse, a button, and a touch panel.
  • the input / output interface 43 mediates transmission and reception of data between the display device 30 and the rigid endoscope 10 and the control device 40.
  • the image processing unit 44 is an image processor.
  • the storage unit 45 includes both volatile memory such as random access memory (RAM) and non-volatile memory such as electrically erasable programmable read only memory (EEPROM).
  • the storage unit 45 stores an operation program PRG of the control unit 46 and the image processing unit 44.
  • the storage unit 45 includes a storage area and a work such as the reception buffer 45S, the left-eye image buffer 45L, the right-eye image buffer 45R, the drawing frame buffer 45D, and the display frame buffer 45E in the control unit 46 and the image processing unit 44. Provide an area.
  • Control unit 46 includes a CPU.
  • the control unit 46 executes illumination drive processing, image pickup device drive processing, display control processing, and zoom control processing by the operation of the operation program PRG in the storage unit 45.
  • the illumination drive processing is processing for supplying a drive signal for driving a driver in the illumination device 20 to the illumination device 20 through the input / output interface 43.
  • the imaging device drive processing is processing for supplying a drive signal for driving the solid-state imaging device 1311 in the rigid endoscope 10 to the endoscope 10 via the input / output interface 43.
  • the image signal SD transmitted from the rigid endoscope 10 is subjected to 3D processing, and a 3D image obtained by the 3D processing is an image signal SD of a moving image with a frame rate of 59.94 frames / 1 second.
  • This processing is output to the display device 30 as 3D .
  • the zoom control process when a trigger signal for zoom in or zoom out is generated, the potential waveform indicated by the detection signal SG V1 of the potential sensor 51 of the polarization glasses 50 at the time of generation of the trigger signal, and the detection signal SG V2 of the potential sensor 52 Based on the electric potential waveform shown and the electric potential waveform shown by the detection signal SG V3 of the electric potential sensor 53, the visual line position corresponding to the visual line of the operator on the lenses 55L and 55R of the polarizing glasses 50 is determined.
  • the gaze point FP of the operator is identified based on the relationship between the position of the polarization glasses 50 and the position of the polarization glasses 50, and the relationship between the orientation of the display device 30 and the orientation of the polarization glasses 50, and the image around the gaze points FP is enlarged or It is a process to reduce.
  • the control unit 46 receives the image signal SD (visible light image and near-infrared light image) as photographed image data in the reception buffer of the storage unit 45. I memorize in 45S. Next, the control unit 46 generates left-eye image data and right-eye image data having binocular parallax from the photographed image data in the reception buffer 45S, and generates left-eye image data and right-eye image data. Are stored in the left eye image buffer 45L and the right eye image buffer 45R. Next, the control unit 46 combines the left-eye image data and the right-eye image data, and stores the combined image data in the drawing frame buffer 45D of the storage unit 45.
  • SD visible light image and near-infrared light image
  • the control unit 46 replaces the drawing frame buffer 45D of the storage unit 45 with the display frame buffer 45E every 1 / 59.94 seconds ( ⁇ 0.17 seconds) and converts the image data in the display frame buffer 45E into the image signal SD. It outputs to the display apparatus 30 as 3D .
  • the control unit 46 controls the output signal SG V1 of the potential sensor 51 of the polarized glasses 50, the output signal SG V2 of the potential sensor 52, and the output signal SG V3 of the potential sensor 53.
  • the potential of the potential sensor 51 absolute value and positive / negative sign of the amplitude
  • the potential of the potential sensor 52 when the potential of the potential sensor 53 is the reference potential
  • the potential of the potential sensor 52 when the potential of the potential sensor 53 is the reference potential
  • control unit 46 refers to the left eye gaze position identification table of the storage unit 45, and the X coordinate value and the Y coordinate value of the left eye gaze position of the operator on the lens 55L of the polarized glasses 50 (lens 55L In parallel, an X coordinate value and a Y coordinate value of an intersection position of an XY plane whose origin (0.0) is the position of the electric potential sensor 53 and the line of sight of the left eye are specified.
  • control unit 46 refers to the right eye line-of-sight position identification table of the storage unit 45, and detects the X and Y coordinate values (parallel to the lens 55R) of the operator's right eye line-of-sight position on the lens 55R of the polarized glasses 50
  • the X coordinate value and the Y coordinate value of the intersection position of the XY plane with the position of the potential sensor 53 as the origin (0.0) and the line of sight of the right eye are specified.
  • the cornea side is positively charged, and the retina side is negatively charged.
  • the electric potential based on the electric potential of the electric potential sensor 53 at the time when the line of sight turns upward time t U in FIG. 10
  • the potential of the sensor 51 (left eye potential) and the potential of the potential sensor 52 based on the potential of the potential sensor 53 (right eye potential) are both negative.
  • the potential of the potential sensor 51 relative to the potential of the sensor 53 at the time towards the line of sight to the left becomes positive
  • the potential (right eye potential) of the potential sensor 52 based on the potential of the potential sensor 53 becomes negative.
  • the first electric potential sensor 51, the second electric potential sensor 52, and the third electric potential sensor 53 when the line of sight of the subject is directed to each point on the left lens 55L of the polarizing glasses 50.
  • the measured values of the electric potential of each point are recorded in association with the X coordinate and the Y coordinate of each point.
  • the first electric potential sensor 51, the second electric potential sensor 52, and the third electric potential when the eye of the subject wearing the polarized glasses 50 is directed to each point on the right lens 55R.
  • the measured values of the potential of the sensor 53 are recorded in association with the X coordinate and the Y coordinate of each point.
  • the control unit 46 the difference SD X -SG X of the output signal SG X of the position detection sensor 56 of the output signal SD X and the polarizing glasses 50 of the position detecting sensor 36 of the display device 30, the position detection of the display device 30 position sensor of the output signal SD Z and the polarizing glasses 50 of the output signal SD Y and difference SD Y -SG Y of the output signal SG Y position detecting sensor 56 of the polarizing glasses 50, the position detecting sensor 36 of the display device 30 of the sensor 36 difference SD Z -SG Z of the output signal SG Z 56, a difference SD .theta.X -SG .theta.X output signal SG .theta.X orientation detecting sensor 57 of the output signal SD .theta.X and the polarization glasses 50 orientation detecting sensor 37 of the display device 30, a display the output signal of the direction detecting sensor 57 of the output signal SD .theta.Z and the polarization glasses 50 orientation detecting sensor 37 of the display
  • Control unit 46 these differences SD X -SG X, SD Y -SG Y, SD Z -SG Z, SD ⁇ X -SG ⁇ X, and SD .theta.Z -SG from .theta.Z, the left and right X-coordinate value of the line-of-sight position of the eye And Y conversion values for converting the Y coordinate values into X coordinate values and Y coordinate values of the gaze point FP on the display screen of the display device 30, and X coordinate values and Y coordinate values of the gaze positions of the left and right eyes
  • the X-coordinate value and the Y-coordinate value of the gaze point FP are obtained by applying the transformation matrix.
  • the control unit 46 supplies the X-coordinate value and the Y-coordinate value of the gaze point FP to the image processing unit 44 as gaze point data.
  • the image processing unit 44 receives the fixation point data and rewrites the image in the drawing frame buffer 45D into an enlarged image of a predetermined rectangular area centered on the fixation point FP. I do.
  • the image processing unit 44 receives the gaze point data when the zoom out trigger signal is generated, the image in the drawing frame buffer 45D is a reduced image of a predetermined rectangular area centered on the gaze point FP. Perform processing to rewrite to.
  • one end of a cable 165, an air supply pipe 164 ⁇ / b> A, and an air discharge pipe 164 ⁇ / b> B are connected to the rear end of the grip portion 1132 of the casing 131 of the endoscope.
  • the cable 165 is connected to the controller 40.
  • the air supply pipe 164A is connected to the air suction and discharge device 60 via the air cooling device 70.
  • the air discharge pipe 164 B is connected to the air suction and discharge device 60.
  • the air intake / exhaust device 60 has a role of forcibly supplying air into the housing 131 via the air supply pipe 164A and a role of forcibly exhausting air from inside the housing 131 via the air exhaust pipe. It is.
  • the air cooling device 70 serves to cool the air flowing through the air supply pipe 164A.
  • FIG. 14A is a diagram showing details of the configuration in the housing 131.
  • FIG. 14B is a diagram showing details of the configuration of the air suction and discharge device 60, the air cooling device 70, the air supply pipe 164A, and the air discharge pipe 164B.
  • FIG. 14A a solid-state image sensor 1311 and a substrate 1312 for supporting the same are located in the front of the housing 131 at a position facing the eyepiece lens 1201.
  • Electronic components such as an A / D conversion unit 1319 are mounted on the substrate 1312.
  • FIG. 15 is an enlarged view of the periphery of the solid-state imaging device 1311 and the substrate 1312 of FIG.
  • An anti-reflection glass 1315 is attached to the solid-state imaging device 1311.
  • a plurality of ball grids 1313 are interposed between the solid-state imaging device 1311 and the substrate 1312.
  • the heat sink 1316 is a so-called needle-like type in which a plurality of fins 1316B are erected from a flat plate 1316A.
  • the flat plate 1316A of the heat sink 1316 is fitted into this opening.
  • the flat plate 1316 A of the heat sink 1316 is bonded to the solid-state imaging device 1311 via a thermally conductive adhesive 1314.
  • FIG. 16 is an enlarged view of the periphery of the image processing FPGA 1331, the substrate 1332, the cover member 1338, the heat sink 1336, and the duct 166B of FIG. 14A.
  • a plurality of child ball grids 1333 are interposed between the image processing FPGA 1331 and the substrate 1332.
  • the heat sink 1336 is a so-called needle-like type in which a plurality of fins 1336B are erected from a flat plate 1336A.
  • the dimensions of the flat plate 1336A of the heat sink 1336 are approximately the same as the dimensions of the image processing FPGA 1331.
  • the flat plate 1336A of the heat sink 1336 is bonded to the image processing FPGA 1331 via a thermally conductive adhesive 1334.
  • the cover member 1338 opens the lower surface of the thin box 1338A, causes the cylinder 1338B to project from the center of the surface opposite to the open side, and gently bends the cylinder 1338B in the direction orthogonal to the base end surface of the cylinder It has the same shape as you did.
  • the opening of the cover member 1338 covers the heat sink 1336.
  • the tip of the cylinder 1338B of the cover member 1338 is connected to the duct 166B.
  • the other end of the duct 166B is connected to the air discharge pipe 164B.
  • the air supply device 160A creates a positive pressure of +10 hPa to +20 hPa.
  • the air discharger 160B generates a negative pressure of -10 hPa to -20 hPa, and this pressure sends out the air sucked from the air discharge pipe 164B 164B to the outside.
  • the air delivered from the air supply device 160A to the air supply pipe 164A is cooled by the air cooling device 70 when passing through the air cooling device 70.
  • the cooled air is blown to the heat sink 1316 as a first air flow from the opening at the tip of the duct 1318 via the air supply pipe 164A and the duct 1318.
  • the first air flow flows to the side through the heat sink 1316 and circulates in the housing 131.
  • the first air stream takes its heat as it passes through the heat sink 1316.
  • the air that has flowed to the lower part via the heat sink 1316 is blown to the lower heat sink 1336 in the housing 131 as a second air flow.
  • the second air flow is drawn into the opening of the cover member 1338.
  • the second air stream takes its heat as it passes through the heat sink 1336.
  • the air sucked into the cover member 1338 via the heat sink 1336 is exhausted to the outside by the air exhaust device 160B via the duct 166B and the air exhaust pipe 164B.
  • the endoscope With a conventional 2K or 4K endoscope, the endoscope must be brought close to the subject and photographed, and a surgical instrument such as a scalpel or forceps interferes with the endoscope in the body cavity to perform surgery It could happen that However, in the endoscope of the present embodiment, even if the subject is photographed from a position at a distance of about 8 cm to 12 cm from the subject in the body cavity, it is possible to obtain a sufficiently-slightly-sharp image. For this reason, a wide visual field and an operation space can be secured in the body cavity, and a smoother operation can be realized.
  • a red filter, a green filter, a blue filter, and a near red An external light film is attached, and an image in which an RGB image of visible light and an image of near infrared light are superimposed is displayed on the display device 30.
  • an infrared excitation drug is injected into the patient's vein, the drug binds to proteins in the blood.
  • excitation light is applied from outside the blood vessel, near infrared light is emitted, and this near infrared light is reflected in the image. Therefore, the operator can simultaneously grasp the state of the affected area itself to be treated and the state of the distribution of blood vessels in the back by viewing one image displayed on the display device 30.
  • the photographed image of the rigid endoscope 10 is displayed on the display device 30 as a 3D moving image. Therefore, the operator can accurately grasp the positional relationship and the distance between the target organ and the surgical instrument in the body cavity.
  • the control device 40 displays the display device 30 based on the relationship between the detection signal of the sensor in the polarization glasses 50 and the detection signal of the sensor in the display device 30 at the time of generation of the trigger signal.
  • the fixation point FP of the operator in the image is identified, and the periphery of the fixation point FP is enlarged and displayed.
  • the operator can specify the zoom-in and zoom-out range as his / her intention without troublesome input operations.
  • the pitch of the adjacent pixels PX ij in the solid-state imaging device 1311 of the rigid endoscope 10 is larger than the longest wavelength of the light in the illumination that illuminates the subject.
  • the pitch of adjacent pixels PX ij in the solid-state imaging device 1311 and the size of the light wavelength The relationship becomes pitch ⁇ wavelength, and the light diffraction effect causes the captured image to be blurred.
  • the housing 131 of the rigid endoscope 10 has a mount portion 1131 having a large area of a cross section orthogonal to the optical axis of light passing through the insertion portion 110, and a grip portion having an area of the cross section smaller than the mount portion 1131. It has 1132.
  • the casing 131 of the rigid endoscope 10 includes a first heat sink 1316 provided in the solid-state imaging device 1311, an image processing FPGA 1331, and a second provided in the FPGA 1331.
  • a heat sink 1336 and a cover member 1338 covering the second heat sink 1336 and connected to the air discharge pipe 164B are provided.
  • a first air flow for cooling the first heat sink 1316 and a second air flow for cooling the second heat sink 1336 are generated, and the first air flow is generated from the air supply pipe 164A.
  • the supplied cooling air is blown to the first heat sink 1316 and configured to diverge around the first heat sink 1316, and the second air flow is from the periphery of the second heat sink 1336 via the cover member 1338. , And flows to the air discharge pipe 164B. Therefore, it is possible to efficiently cool the solid-state imaging device 1311 and the image processing FPGA 1331 which are main heat sources in the casing 131 of the endoscope.
  • FIG. 17 is a view showing the configuration of an endoscope system including a flexible endoscope 10 'according to a second embodiment of the present invention.
  • the endoscope system of the present embodiment supports a surgery in which a flexible endoscope 10 'is inserted from the mouth or anus to treat an organ in a body cavity.
  • the rigid endoscope 10 of the endoscope system of the first embodiment is replaced with a flexible endoscope 10 '.
  • the solid-state imaging device in the casing 131 of the flexible endoscope 10 ′ has a smaller number of pixels than the solid-state imaging device in the casing 131 of the rigid endoscope 10 of the first embodiment (for example, 300,000 pixels) Solid-state imaging device).
  • FIG. 17 the same elements as those of FIG. 1 are denoted by the same reference numerals, and elements different from those of FIG.
  • FIG. 18A is a view of the insertion portion 110 ′ of FIG. 1 viewed from the direction of arrow A.
  • FIG. 18B is a cross-sectional view of the insertion portion 110 'of FIG. 1 along the line B-B'.
  • the insertion portion 110 ′ of the flexible endoscope 10 ′ includes a flexible lens barrel 111 ′ and an eyepiece 112.
  • the flexible lens barrel 111 ' is made of a flexible material.
  • the hollow light guiding region 1112 ' is a cavity having a diameter about half the diameter of the insertion portion 110' itself.
  • the center of the cross section of the hollow light guiding region 1112 ' is offset from the center of the cross section of the insertion portion 110' itself.
  • the thickness of the portion near the center of the hollow light guiding region 1112 in the shell surrounding the hollow light guiding region 1112 of the insertion portion 110 ′ is thinner, and the portion near the center of the hollow light guiding region 1112 Is getting thicker.
  • One thick optical fiber 1901 is embedded in the thick portion of the outer shell of the insertion portion 110 '.
  • a diffusion lens (not shown) is embedded at the end of the tip of the optical fiber 1901 in the insertion portion 110 '.
  • An objective lens 1111 is fitted at a position farther from the tip of the hollow light guiding region 1112 ′ of the insertion portion 110.
  • a multi-core fiber 1116 is accommodated between the objective lens 1111 and the eyepiece 112 in the hollow light guiding region 1112 '.
  • the light guiding direction of each core CR of the multi-core fiber 1116 is parallel to the extending direction of the insertion portion 110 ′.
  • the cross section of the tip end side portion of the insertion position of the objective lens 1111 in the hollow light guiding region 1112 'of the insertion portion 110 is wider than the cross section of the portion where the objective lens 1111 and the multi-core fiber 1116 exist.
  • a movable mirror 1114 is supported at a position facing the objective lens 1111 at the tip end portion of the hollow light guiding region 1112 '.
  • the movable mirror 1114 is a MEMS (Micro Electro Mechanical Systems) mirror.
  • the movable mirror 1114 is supported so as to be able to swing around two axes of a first axis ⁇ 1 and a second axis ⁇ 2.
  • the first axis ⁇ 1 is an axis that intersects the optical axis of the light passing through the cores of the multi-core fiber 1116 with an inclination relative to the optical axis of the light (optical axis of the objective lens 1111).
  • the second axis ⁇ 2 is an axis orthogonal to both the optical axis of the objective lens 1111 and the first axis ⁇ 1.
  • the fixed mirror 1115 is fixed between the movable mirror 1114 and the optical fiber 1901 in the portion on the tip side of the hollow light guiding area 1112 ′.
  • the reflecting surface of the movable mirror 1114 faces the objective lens 1111 and the fixed mirror 1115.
  • the reflection surface of the fixed mirror 1115 faces the outside of the opening 1801 at the tip of the movable mirror 1114 and the insertion portion 110 '.
  • control unit 46 of the control device 40 performs illumination drive processing, image pickup device drive processing, display control processing, zoom control processing, and mirror drive processing by the function of the operation program PRG in the storage unit 45.
  • the mirror driving process is a process of supplying a driving signal for driving the movable mirror 1114 to the movable mirror 1114 via the input / output interface 43.
  • Control unit 46 at time t 1, 1 th region AR-1 of light of the whole imaging range M divided M regions AR-k (k 1 ⁇ 9) of the insertion portion 110 '
  • the tilt of the movable mirror 1114 is controlled so as to be guided from the opening 1801 at the tip to the multi-core fiber 1116 via the fixed mirror 1115 and the movable mirror 1114.
  • the light in the area AR-1 reaches the solid-state imaging device 1311 through the multicore fiber 1116.
  • the light in the area AR-1 is stored in the reception buffer 45S of the storage unit 45 as image data after undergoing photoelectric conversion in the solid-state imaging device 1311.
  • the control unit 46 stores the image data in a storage area corresponding to the area AR-1 in the drawing frame buffer 45D.
  • the light in the region AR-2 reaches the solid-state imaging device 1311 through the multicore fiber 1116.
  • the light of the area AR-2 is stored in the reception buffer 45S of the storage unit 45 as image data after undergoing photoelectric conversion in the solid-state imaging device 1311.
  • the control unit 46 stores the image data in a storage area corresponding to the area AR-2 in the drawing frame buffer 45D.
  • the control unit 46 performs the same processing at time t 3 , time t 4 , time t 5 , time t 6 , time t 7 , time t 8 , and time t 9 as well, and performs area AR-3 and area AR-4.
  • the image data generated for each of the area AR-5, the area AR-6, the area AR-7, the area AR-8, and the area AR-9 is stored in a separate storage area of the drawing frame buffer 45D.
  • the drawing frame buffer 45D is replaced with the display frame buffer 45E, and the areas AR-1, AR-2, AR-3, AR-4, AR-5, etc. in the display frame buffer 45E.
  • AR-6, image data of the AR-7, AR-8, and AR-9 is outputted to the display unit 30 as a moving image signal SC 3D of 1 frame.
  • the number of cores of the multi-core fiber 1116 is increased to the same number as the number of pixels of the solid-state imaging device If this happens, flexibility is lost.
  • the upper limit of the number of cores which can maintain flexibility is about 10,000.
  • the movable mirror 1114 and the fixed mirror 1115 are provided in the soft lens barrel 111 ′ of the insertion portion 110 ′, and the movable mirror 1114 is the light passing through each core CR of the multicore fiber 1116. It can tilt around two axes of a first axis ⁇ 1 having an inclination with respect to the optical axis direction and a second axis ⁇ 2 orthogonal to the first axis ⁇ 1. Furthermore, the control device 40 generates divided area images of different parts of the subject by periodically switching the tilt angle of the movable mirror 1114 at intervals of time T shorter than the frame switching time interval of the moving image frame rate. By combining the generated divided area images, a moving image of one frame is generated.
  • a flexible endoscope 10 'having 8K resolution can be realized using a solid-state imaging device of less than 2K.
  • an image of an optical system (the objective lens 1111, the eyepiece lens 1201, the relay lens 1113, etc.) in the insertion portion 110 of the endoscope.
  • the focal length (the distance between the solid-state imaging device 1311 and the optical system) may be set short so that the circle circumscribes the light receiving region of the solid-state imaging device 1311 or as shown in FIG.
  • the focal length (the solid-state imaging device 1311 and the focal distance (the solid-state imaging device 1311 and the like) such that the image circle of the optical system (the objective lens 1111, the eyepiece 1201, the relay lens 1113, etc.) in the insertion section 110 of the endoscope is inscribed
  • the distance to the optical system may be set long.
  • the position detection sensor 56 and the orientation detection sensor 57 are embedded in the polarization glasses 50, and the position detection sensor 36 and the orientation detection sensor 375 are embedded in the display device 30.
  • the display device 30 may not include the position detection sensor 36 and the orientation detection sensor 37.
  • the control unit 46 is a fixed value of the X coordinate value, the Y coordinate value, the Z coordinate value, the direction, and the elevation angle of the position of the display device 30, and the position detection sensor 56 and the direction detection sensor 57 of the polarizing glasses 50.
  • the transformation matrix may be generated using the detection signal of the detection signal.
  • the solid-state imaging device 4320 rows 7680 columns in the 1311 pixel PX ij is adapted to the four pixels PX ij for each block of two rows and two columns, four pixels PX of each block Red, green, blue and near infrared light filters were attached to ij .
  • a red filter is attached to the pixels PX ij of all the columns of the first row of the block
  • a green filter is attached to the pixels PX ij of all the columns of the second row
  • a blue filter may be attached to the pixels PX ij of all the columns in the third row
  • near infrared light may be attached to the pixels PX ij of all the columns in the fourth row.
  • the casing 131 has the buttons 139IN and 139OUT, and the trigger signal is generated when the buttons 139IN and 139OUT are pressed once for a short time.
  • the trigger for the generation of the trigger signal may be different.
  • a microphone may be mounted on the housing 131, and a trigger signal may be generated in response to the operator issuing the word "zoom".
  • a zoom-in trigger signal for instructing to zoom in the image displayed on the display device 30 is generated, and when the operation to press the button 139IN once is performed, the zoom-in is performed.
  • a release trigger signal may be generated to instruct release of the zoom in, and a trigger signal for zooming out may not be generated.
  • the solid-state imaging device 1311 is a CMOS image sensor.
  • the solid-state imaging device 1311 may be configured by a charge coupled device (CCD) image sensor.
  • CCD charge coupled device
  • one multi-core fiber 1116 is accommodated in the insertion portion 110 '.
  • multiple multi-core fibers 1116 may be accommodated.
  • the insertion portion 110 in the second embodiment, the insertion portion 110 'includes the two mirrors of the fixed mirror 1115 and the movable mirror 1114.
  • the number of mirrors may be one or three or more.
  • one or more of them may be all movable mirrors.
  • light from the subject is guided to the multicore fiber 1116 via one or more mirrors, as long as the scanning region can be made variable.
  • the first axis ⁇ 1 only needs to be inclined with respect to the optical axis of the light passing through each core of the multicore fiber 1116, and the light of the light passing through each core of the multicore fiber 1116 There is no need to intersect the axis.
  • the tilt of the movable mirror 1114 about the second axis ⁇ 2 is such that the inclination of the light passing through each core CR of the multi-core fiber 1116 at the first axis ⁇ 1 is 45 degrees ⁇ predetermined angle It is good to control.
  • tilting of the movable mirror 1114 about the first axis ⁇ 1 is controlled such that the inclination of light passing through each core CR of the multi-core fiber 1116 in the second axis ⁇ 2 with respect to the optical axis direction is 90 degrees ⁇ predetermined angle Good.

Abstract

制御装置40は、内視鏡10のトリガ信号発生部がズームインまたはズームアウトのトリガ信号を発生した場合、当該トリガ信号の発生時における偏光メガネ50内のセンサの検知信号及びディスプレイ装置30内のセンサの検知信号の関係に基づいて、ディスプレイ装置30の表示画像内における術者の注視点を特定し、この注視点の周囲をズームインまたはズームアウトするため、8K内視鏡を含む内視鏡システムの利便性がより一層向上する。

Description

内視鏡システム
 この発明は、8K高解像度の内視鏡を適用した内視鏡システムに関する。
 細長い挿入部を体腔に挿入し、体腔内の様子を撮影して低侵襲手術を施術するための軟性内視鏡に関わる技術が各種提案されている。この種の内視鏡に関わる発明の開示した文献として、特許文献1がある。
特開2008-43763号公報
 ところで、画像処理技術や光学技術の発展により、4K、8Kと呼ばれる高解像度映像技術が実用化されている。2K→4K→8Kという映像技術の進化は、内視鏡を用いた医療機器の分野、低侵襲手術の分野にも技術革新を起こしつつある。内視鏡に8K高解像度映像技術を適用すると、例えば、手術用の細糸や臓器の微細な患部、臓器・組織間の境界の認識が容易になり、細胞レベルの観察も可能になる。これにより、手術の信頼性・確実性が高まり、医療技術のより一層の進展が期待される。すなわち、臓器の患部の識別性が高くなり、不意に患部以外を傷つけるおそれも少なくなる。また、術視野を拡大でき、施術範囲が広い場合でも手術し易くなり、手術機器位置の確認や手術機器間の干渉を避けるにも便宜である。さらに、大画面観察も可能になり、手術関係者全員が同じ画像を共有でき、コミュニケーションがスムーズになる。このように、4K、8K高解像度映像技術の利用は大きな発展性を秘めている。
 しかしながら、従来の高解像度内視鏡システムは、内視鏡の表示画像内におけるズーム位置の指定という点において改善の余地があった。
 本発明は、このような課題に鑑みてなされたものであり、内視鏡を含む内視鏡システムの利便性をより一層向上させることを目的とする。
 上記課題を解決するため、本発明は、患者の体腔内の被写体を撮像し、所定の画素数の画像信号を出力する内視鏡と、前記内視鏡の出力信号に所定の3D化処理を施し、3D化処理により得た3D画像信号を所定のフレームレートの動画像信号としてディスプレイ装置に出力する制御装置と、前記患者に施術をする術者が装着する偏光メガネと、前記ディスプレイ装置、及び前記偏光メガネに各々設けられるセンサと、前記ディスプレイ装置の表示画像のズームを指示するトリガ信号を発生するトリガ信号発生部とを具備する内視鏡システムであって、前記制御装置は、前記トリガ信号発生部が前記トリガ信号を発生した場合、当該トリガ信号の発生時における前記偏光メガネ内のセンサの検知信号及び前記ディスプレイ装置内のセンサの検知信号の関係に基づいて、前記ディスプレイ装置の表示画像内における術者の注視点を特定し、この注視点の周囲をズームインすることを特徴とする内視鏡システムを提供する。
 この内視鏡システムにおいて、前記偏光メガネに設けられるセンサは、当該偏光メガネの左の鼻あての電位を検知する第1のセンサと、当該偏光メガネの右の鼻あての電位を検知する第2のセンサと、当該偏光メガネのブリッジの電位を検知する第3のセンサと、当該偏光メガネの位置を検知する第4のセンサと、当該偏光メガネのレンズの向きを検知する第5のセンサとを含み、前記制御装置は、前記第1のセンサの検知信号が示す電位波形、前記第2のセンサの検知信号が示す電位波形、及び前記第3のセンサの検知信号が示す電位波形を基に、前記偏光メガネのレンズ上における前記術者の視線と対応する視線位置を求め、この視線位置、前記ディスプレイ装置が置かれている位置と前記第4のセンサが検知した位置との関係、及び、前記ディスプレイ装置の向きと前記第5のセンサが検知した向きとの関係に基づいて、前記ディスプレイ表示画像内における前記術者の注視点を特定することを特徴とする内視鏡システムを提供する。
 この内視鏡システムにおいて、前記内視鏡は、筐体と、前記筐体内に収められた固体撮像素子であって、各々が光電変換素子を有する8K相当数の画素をマトリクス状に並べた固体撮像素子と、前記筐体を基端として延在する挿入部であって、前記患者の体腔内に挿入され、体腔内の被写体からの光を前記固体撮像素子に導く挿入部とを具備する8K内視鏡であり、前記固体撮像素子における隣り合う画素のピッチが、前記被写体を照らす照明内の光の波長のうち最も長い波長よりも大きくなっていてもよい。
 また、前記筐体は、前記挿入部内を通る光の光軸と直交する断面の面積が広いマウント部と当該断面の面積がマウント部よりも狭い把持部とを有し、前記マウント部に前記固体撮像素子が収められていてもよい。
 また、前記挿入部は、中空な硬性鏡筒を有し、前記硬性鏡筒内には、対物レンズを含む複数のレンズが設けられていてもよい。
 また、前記筐体に接続された空気供給管及び空気排出管と、前記空気供給管を経由して前記筐体内に空気を強制供給し且つ前記空気排出管を経由して前記筐体内から空気を強制排気する給排気装置と、前記空気供給管を流れる空気を冷却する空気冷却装置とを有し、前記筐体、前記空気供給管、及び前記空気排出管は1つの密閉空間を形成するように接続され、前記筐体内には、前記固体撮像素子に設けられた第1のヒートシンクと、画像処理用FPGAと、前記FPGAに設けられた第2のヒートシンクと、前記第2のヒートシンクを覆い前記空気排出管に接続されたカバー部材とが設けられており、前記筐体内において、前記第1のヒートシンクを冷却する第1の空気流と前記第2のヒートシンクを冷却する第2の空気流が生成され、前記第1の空気流は、前記空気供給管から供給された冷却空気が前記第1のヒートシンクに吹き付けられ、前記第1のヒートシンクの周囲に発散するように構成され、前記第2の空気流は、前記第2のヒートシンクの周囲から前記カバー部材を経由して、前記空気排出管に流れるように構成されていてもよい。
 また、前記内視鏡は、筐体と、前記筐体内に収められた固体撮像素子であって、各々が光電変換素子を有する画素をマトリクス状に並べた固体撮像素子と、中空な軟性鏡筒とを具備し、前記軟性鏡筒内には、対物レンズと、マルチコアファイバと、被写体からの光を1回又は複数回に渡って反射させて前記対物レンズに導く1個又は複数個のミラーとが設けられており、前記1個又は複数個のミラーのうち少なくとも1個のミラーは、前記マルチコアファイバの各コアを通る光の光軸方向に対する傾きをもった第1の軸、及び前記第1の軸と直交する第2の軸の2つの軸周りに傾動可能であり、前記制御装置は、前記ミラーの傾斜角度を前記フレームレートのフレーム切替時間間隔よりも短い時間間隔で周期的に切替えることにより、前記被写体における相異なる部分の分割領域画像を生成し、生成した分割領域画像を合成することにより、1フレーム分の動画像を生成してもよい。
本発明の一実施形態である内視鏡システムの全体構成を示す図である。 内視鏡システムによる手術の様子を示す図である。 内視鏡システムの特徴を示す図である。 図1の筐体131を矢印A方向から見た図である。 図1の挿入部110のB-B’線断面図である。 図1の偏光メガネ50を示す図である。 図1の制御装置40の構成を示す図である。 図1の制御装置40の処理を示す図である。 図1の制御装置40の処理を示す図である。 図1の偏光メガネ50のセンサの波形の一例を示す図である。 図1の偏光メガネ50のセンサの波形の一例を示す図である。 図1の偏光メガネ50のセンサの波形の一例を示す図である。 図1の偏光メガネ50のセンサの波形の一例を示す図である。 図1の内視鏡の筐体131内の構成、及び吸排気装置60、空気冷却装置70、空気供給管164A、及び空気排出管164Bの構成を示す図である。 図14(A)の固体撮像素子1311及び基板1312の周辺を拡大した図である。 図14(A)の画像処理用FPGA1331、基板1332、カバー部材1338、及びダクト166Bの周辺を拡大した図である。 本発明の第2実施形態である軟性内視鏡10’を含む内視鏡システムの構成を示す図である。 図17の挿入部110’を矢印A方向から見た図、及び挿入部110’のB-B’線断面図である。 図17の制御装置40の処理を示す図である。 本発明の変形例の特徴を示す図である。
<第1実施形態>
 図1は、本発明の第1実施形態である内視鏡を含む内視鏡システムの構成を示す図である。内視鏡システムは、硬性内視鏡10、照明装置20、ディスプレイ装置30、制御装置40、偏光メガネ50、吸排気装置60、及び空気冷却装置70を備える。
 図2は、本実施形態の内視鏡システムによる支援の下に執り行う手術の一例である単孔式腹腔鏡下手術を示す図である。単孔式腹腔鏡下手術では、患者の腹部(多くの場合はへその位置)に2センチメートル程度の孔をあけてその孔にポート(樹脂製の枠)を装着し、炭酸ガスを入れて体腔内を膨らませる。手術の術者は、内視鏡、メス、及び鉗子(挟んだり引っ張ったりする手術具)をポートから体腔内に挿入し、ディスプレイ装置30に表示される内視鏡の撮影画像を観察しながら、体腔内の患部に処置を施す。
 本実施形態では、手術の前に、患者の静脈に近赤外励起薬剤を注射する。この薬剤が患者の体内に行き渡ると、ある波長の励起光に照らされた血管が近赤外光を発する。また、術者は、3D画像の立体視用の偏光メガネ50を装着する。そのうえで、図3に示すように、制御装置40は、硬性内視鏡10から、患者の体腔内の患部の可視光の画像とその奥の毛細血管からの赤外光の画像とを取得し、これらの画像を3Dの動画像としてディスプレイ装置30に表示させる。また、制御装置40は、偏光メガネ50内のセンサの検知信号、及びディスプレイ装置30内のセンサの検知信号の関係に基づいて、ディスプレイ装置30の表示画像内における術者の視線の先の注視点FPを特定し、注視点FPの周囲をズームインする。
 図1において、硬性内視鏡10は、患者の体腔内を撮影する役割を果たす装置である。硬性内視鏡10は、カメラ本体130、挿入部110、及び接眼レンズマウント部120を有している。カメラ本体130の筐体131は、筒体の前部の断面の厚みを広げたような形をしている。
 図4は、図1の筐体131を矢印A方向から見た図である。筐体131は、前側のマウント部1131と後側の把持部1132とからなる。マウント部1131の前面には真円状の開口が設けられている。筐体131のマウント部1131の断面の面積は筐体131の把持部1132の面積よりも広くなっている。筐体131のマウント部1131の前面の開口には、環状の枠体が嵌め込まれている。筐体131内における前面の枠体に臨む位置には、固体撮像素子1311とA/D変換部1319がある。固体撮像素子1311は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。固体撮像素子1311は、8K相当の個数の画素PXij(i=1~4320、j=1~7680)をマトリクス状に並べたものである。ここで、iは、画素の行のインデックスであり、jは、画素の列のインデックスである。固体撮像素子1311の画素PXij(i=1~4320、j=1~7680)の各々は、光電変換素子ELと光電変換素子ELの光電変換により得られた信号電荷を増幅するアンプAMPとを有する。
 図4において、固体撮像素子1311における4320行7680列の画素PXij(i=1~4320、j=1~7680)は、2行2列の4つの画素PXij毎のブロックになっている。各ブロックの4つの画素PXijには、赤、緑、青、及び近赤外光のフィルタが貼られている。具体的には、ブロックの左上の画素PXijのフィルタは赤フィルタ(赤の波長のみを透過するフィルタ)になっている。ブロックの左下の画素PXijのフィルタは緑フィルタ(緑の波長のみを透過するフィルタ)になっている。ブロックの右上の画素PXijのフィルタは青フィルタ(青の波長のみを透過するフィルタ)になっている。ブロックの右下の画素PXijのフィルタは近赤外光フィルタ(近赤外光の波長のみを透過するフィルタ)になっている。
 また、固体撮像素子1311における隣り合う画素PXijのピッチ(より具体的には、隣り合う画素PXijの光電変換素子ELの受光領域の中心間の距離D)は、被写体を照らす光の波長のうち最も長い波長よりも大きくなっている。被写体を照らす光が可視光のみを含むものであれば、画素PXijのピッチは、2.8μm~3.8μmが好適である。被写体を照らす光が可視光と近赤外光とを含むものであれば、画素PXijのピッチは3.8μm以上が好適である。
 A/D変換部1319は、画素PXij(i=1~4320、j=1~7680)のアンプAMPによる増幅を経た信号電荷を点順次でA/D変換し、A/D変換により得たデータを画像信号SDとして出力する。筐体131内には、固体撮像素子1311及びA/D変換部1319のほかに、ヒートシンク1316、ダクト1318、画像処理用FPGA1331、ヒートシンク1336、カバー部材1338、ダクト166Bなどが収められている(図14参照)。これら各部の詳細は、後述する。
 筐体131の側面の後部には、ボタン139IN及び139OUTが設けられている。ボタン139IN及び139OUTは、トリガ発生部としての役割を果たすものである。ボタン139INを短く1回押す操作がなされると、ディスプレイ装置30に表示されている画像のズームインを指示するズームイントリガ信号が硬性内視鏡10から制御装置40に送信される。ボタン139OUTを短く1回押す操作がなされると、ディスプレイ装置30に表示されている画像のズームアウトを指示するズームアウトトリガ信号が硬性内視鏡10から制御装置40に送信される。
 図1において、接眼レンズマウント部120は、筒体の外周の一部を内側に凹ませたような形をしている。接眼レンズマウント部120内には、接眼レンズ1201が嵌め込まれている。挿入部110は、患者の体腔内に挿入される部分である。挿入部110は、硬性鏡筒111とアイピース112とを有する。挿入部110の外周におけるアイピース112よりも先端側の位置には照明装置用の接続コネクタ113が設けられている。
 図5は、図1の挿入部110のB-B’線断面図である。図5に示すように、挿入部110内には、中空導光領域1112がある。中空導光領域1112は、挿入部110自体の直径より僅かに小さな直径をもった空洞である。挿入部110における中空導光領域1112を囲む外殻には、数百本~数千本の光ファイバ1901が埋め込まれている。図5では、簡便のため、光ファイバ1901を16本だけ示している。挿入部110における光ファイバの先端の先には拡散レンズ(不図示)が設けられている。挿入部110の中空導光領域1112における先端のわずかに内側の位置には対物レンズ1111が嵌め込まれている。中空導光領域1112における対物レンズ1111とアイピース112の間には、リレーレンズ1113が嵌め込まれている。挿入部110のアイピース112は、接眼レンズマウント部120に連結される。接眼レンズマウント部120は、筐体131の前面の枠体に連結される。
 図1において、照明装置20は、可視光の波長及び近赤外光の波長を有する光を発光する発光素子と、発光素子を駆動するドライバ回路とを有する。照明装置20は、挿入部110の接続コネクタ113に接続される。照明装置20の照明光(可視光及び近赤外光の波長を有する光)は、挿入部110の光ファイバ1901を通り、その先の拡散レンズを介して体腔内に照射される。
 図1において、ディスプレイ装置30は、8K相当の表示画素(4320行7680列の表示画素)をもった液晶ディスプレイである。ディスプレイ装置30には、位置検出センサ36及び向き検出センサ37が設けられている。位置検出センサ36は、ディスプレイ装置30の位置を検出する。具体的には、位置検出センサ36は、地軸方向と平行な方向をZ軸方向とし、Z軸方向と直交する一の方向をY軸方向とし、Z軸方向及びY軸方向の両方と直交する方向をX軸方向とし、手術を行う部屋内の基準点(例えば、部屋の中心とする)を原点(0.0.0)とした場合における、ディスプレイ装置30のX軸上の位置、Y軸上の位置、及びZ軸上の位置を示す座標信号SD、SD、及びSDを出力する。
 向き検出センサ37は、ディスプレイ装置30の向きを検出する。具体的には、向き検出センサ37は、X軸方向及びY軸方向に平行な面を基準面とし、基準面に対するディスプレイ装置30の表示画面のX軸周り方向の傾きを表示画面の仰角とし、表示画面の仰角を示す角度信号SDθXを出力する。また、向き検出センサ37は、基準面に対するディスプレイ装置30の表示画面のZ軸周り方向の傾きを表示画面の方角とし、表示画面の方角を示す角度信号SDθZを出力する。
 図1において、偏光メガネ50は、パッシブ方式(円偏光フィルター方式)の偏光メガネである。図6に示すように、偏光メガネ50のフレーム54には、左レンズ55L及び右レンズ55Rが嵌め込まれている。左レンズ55Lは、3D画像の左眼用画像を術者の左眼網膜に導く。右レンズ55Rは、3D画像の右眼用画像を術者の右眼網膜に導く。
 偏光メガネ50のフレーム54における左レンズ55Lの左上には、位置検出センサ56が埋め込まれている。位置検出センサ56は、偏光メガネ50の位置を検出する。具体的には、位置検出センサ56は、基準点(部屋の中心)を原点(0.0.0)とした場合における、偏光メガネ50のX軸上の位置、Y軸上の位置、及びZ軸上の位置を示す座標信号SG、SG、及びSGを出力する。
 偏光メガネ50のフレーム54における右レンズ55Rの右上には、向き検出センサ57が埋め込まれている。向き検出センサ57は、偏光メガネ50のレンズ55L及び55Rの向きを検出する。具体的には、向き検出センサ57は、基準面(X軸方向及びY軸方向に平行な面)に対する偏光メガネ50のレンズ55L及び55RのX軸周り方向の傾きをレンズ55L及び55の仰角とし、レンズ55L及び55Rの仰角を示す角度信号SGθXを出力する。また、向き検出センサ57は、基準面に対するZ軸周り方向の傾きをレンズ55L及び55Rの方角とし、レンズ55L及び55Rの方角を示す角度信号SGθZを出力する。
 偏光メガネ50のフレーム54の左の鼻あてには、第1の電位センサ51が埋め込まれている。偏光メガネ50のフレーム54の右の鼻あてには、第2の電位センサ52が埋め込まれている。偏光メガネ50のフレーム54の真ん中のブリッジには、第3の電位センサ53が埋め込まれている。電位センサ51は、術者の顔面における左の鼻あてが接する部分の電位を検出し、検出した電位を示す左部電位信号SGV1を出力する。電位センサ52は、術者の顔面における右の鼻あてが接する部分の電位を検出し、検出した電位を示す右部電位信号SGV2を出力する。電位センサ53は、術者の顔面におけるブリッジが接する部分の電位を検出し、検出した電位を示す上部電位信号SGV3を出力する。
 偏光メガネ50のフレーム54の右のつるには無線通信部58が埋め込まれている。無線通信部58は、位置検出センサ56の出力信号SG、SG、及びSG、向き検出センサ57の出力信号SGθX、及びSGθZ、電位センサ51の出力信号SGV1、電位センサ52の出力信号SGV2、並びに、電位センサ53の出力信号SGV3でキャリアを変調し、この変調により得た無線信号SG’を発信する。
 図1において、制御装置40は、内視鏡システムの制御中枢としての役割を果たす装置である。図7に示すように、制御装置40は、無線通信部41、操作部42、入出力インターフェース43、画像処理部44、記憶部45、及び制御部46を有する。無線通信部41は、無線信号SG’を受信し、この信号SG’を復調して得た信号SG、SG、SG、SGθX、SGθZ、SGV1、SGV2、及びSGV3を制御部46に供給する。
 操作部42は、キーボード、マウス、ボタン、タッチパネルなどの各種操作を行うものである。入出力インターフェース43は、ディスプレイ装置30及び硬性内視鏡10と制御装置40との間のデータの送受信を仲介するものである。画像処理部44は、イメージプロセッサである。記憶部45は、RAM(Random Access Memory)などの揮発性メモリとEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性メモリとを併有するものである。記憶部45は、制御部46や画像処理部44の動作プログラムPRGを記憶する。また、記憶部45は、制御部46及び画像処理部44に、受信バッファ45S、左眼画像用バッファ45L、右眼画像用バッファ45R、描画フレームバッファ45D、表示フレームバッファ45Eなどの記憶領域やワークエリアを提供する。
 制御部46は、CPUを含む。制御部46は、記憶部45内の動作プログラムPRGの働きにより、照明駆動処理、撮像素子駆動処理、表示制御処理、及びズーム制御処理を実行する。照明駆動処理は、照明装置20内のドライバを駆動する駆動信号を入出力インターフェース43を介して照明装置20に供給する処理である。撮像素子駆動処理は、硬性内視鏡10内の固体撮像素子1311を駆動する駆動信号を入出力インターフェース43を介して内視鏡10に供給する処理である。
 表示制御処理は、硬性内視鏡10から送信される画像信号SDに3D化処理を施し、3D化処理により得た3D画像を59.94フレーム/1秒のフレームレートの動画像の画像信号SD3Dとしてディスプレイ装置30に出力する処理である。
 ズーム制御処理は、ズームインまたはズームアウトのトリガ信号が発生した場合に、トリガ信号の発生時における偏光メガネ50の電位センサ51の検知信号SGV1が示す電位波形、電位センサ52の検知信号SGV2が示す電位波形、及び電位センサ53の検知信号SGV3が示す電位波形に基づいて、偏光メガネ50のレンズ55L及び55R上における術者の視線と対応する視線位置を求め、この視線位置、ディスプレイ装置30の位置と偏光メガネ50の位置の関係、及びディスプレイ装置30の向きと偏光メガネ50の向きとの関係に基づいて、術者の注視点FPを特定し、注視点FPの周囲の画像を拡大又は縮小する処理である。
 より詳細に説明すると、図8に示すように、表示制御処理では、制御部46は、画像信号SD(可視光の画像と近赤外光の画像)を撮影画像データとして記憶部45の受信バッファ45Sに記憶する。次に、制御部46は、受信バッファ45S内の撮影画像データから、両眼視差をもった左眼用画像データ及び右眼用画像データを生成し、左眼用画像データ及び右眼用画像データを左眼画像用バッファ45L及び右眼画像用バッファ45Rに記憶する。次に、制御部46は、左眼用画像データ及び右眼用画像データを合成し、合成した画像データを記憶部45の描画フレームバッファ45Dに記憶する。制御部46は、1/59.94秒(≒0.17秒)毎に、記憶部45の描画フレームバッファ45Dと表示フレームバッファ45Eとを置き換え、表示フレームバッファ45E内の画像データを画像信号SD3Dとしてディスプレイ装置30に出力する。
 図9に示すように、ズーム制御処理では、制御部46は、偏光メガネ50の電位センサ51の出力信号SGV1、電位センサ52の出力信号SGV2、及び電位センサ53の出力信号SGV3から、電位センサ53の電位を基準電位とした場合における電位センサ51の電位(振幅の絶対値と正負の符号)、電位センサ53の電位を基準電位とした場合における電位センサ52の電位(振幅の絶対値と正負の符号)を求める。
 その上で、制御部46は、記憶部45の左眼視線位置特定テーブルを参照し、偏光メガネ50のレンズ55L上における術者の左眼視線位置のX座標値とY座標値(レンズ55Lに平行で電位センサ53の位置を原点(0.0)とするXY平面と左目の視線の交差位置のX座標値とY座標値)を特定する。また、制御部46は、記憶部45の右眼視線位置特定テーブルを参照し、偏光メガネ50のレンズ55R上における術者の右眼視線位置のX座標値とY座標値(レンズ55Rに平行で電位センサ53の位置を原点(0.0)とするXY平面と右目の視線の交差位置のX座標値とY座標値)を特定する。
 ここで、人の眼は、角膜側が正に帯電しており、網膜側が負に帯電している。このため、図10の波形に示すように、術者が視線を正面から上に向けると、視線を上に向けた時点(図10の時刻t)における電位センサ53の電位を基準とする電位センサ51の電位(左眼電位)と電位センサ53の電位を基準とする電位センサ52の電位(右眼電位)がいずれも負になる。
 図11に示すように、術者が視線を正面から下に向けると、視線を下に向けた時点(図11の時刻t)における電位センサ53の電位を基準とする電位センサ51の電位(左眼電位)と電位センサ53の電位を基準とする電位センサ52の電位(右眼電位)がいずれも正になる。
 図12に示すように、術者が視線を正面から左に向けると、視線を左に向けた時点(図12の時刻t)における電位センサ53の電位を基準とする電位センサ51の電位(左眼電位)が正になり、電位センサ53の電位を基準とする電位センサ52の電位(右眼電位)が負になる。
 図13に示すように、術者が視線を正面から右に向けると、視線を左に向けた時点(図13の時刻t)における電位センサ53の電位を基準とする電位センサ51の電位(左眼電位)が負になり、電位センサ53の電位を基準とする電位センサ52の電位(右眼電位)が正になる。
 左眼視線位置特定テーブルには、被験者の視線を偏光メガネ50の左レンズ55L上の各点に向けたときの第1の電位センサ51、第2の電位センサ52、及び第3の電位センサ53の電位の実測値が、各点のX座標及びY座標と対応付けて収録されている。右眼視線位置特定テーブルには、偏光メガネ50を装着した被験者の視線を右レンズ55R上の各点に向けたときの第1の電位センサ51、第2の電位センサ52、及び第3の電位センサ53の電位の実測値が、各点のX座標及びY座標と対応付けて収録されている。よって、術者の偏光メガネ50のセンサの出力信号SGV1、SGV2、及びSGV3を基にテーブルを参照することにより、偏光メガネ50のレンズ上における術者の視線位置の特定が可能となる。
 図9において、制御部46は、ディスプレイ装置30の位置検出センサ36の出力信号SDと偏光メガネ50の位置検出センサ56の出力信号SGの差SD-SG、ディスプレイ装置30の位置検出センサ36の出力信号SDと偏光メガネ50の位置検出センサ56の出力信号SGの差SD-SG、ディスプレイ装置30の位置検出センサ36の出力信号SDと偏光メガネ50の位置検出センサ56の出力信号SGの差SD-SG、ディスプレイ装置30の向き検出センサ37の出力信号SDθXと偏光メガネ50の向き検出センサ57の出力信号SGθXの差SDθX-SGθX、ディスプレイ装置30の向き検出センサ37の出力信号SDθZと偏光メガネ50の向き検出センサ57の出力信号SGθZの差SDθZ-SGθZを各々求める。
 制御部46は、これらの差SD-SG、SD-SG、SD-SG、SDθX-SGθX、及びSDθZ-SGθZから、左右の眼の視線位置のX座標値及びY座標値をディスプレイ装置30の表示画面上の注視点FPのX座標値及びY座標値に変換するための変換行列を生成し、左右の眼の視線位置のX座標値及びY座標値をこの変換行列を作用させることにより、注視点FPのX座標値及びY座標値を求める。制御部46は、注視点FPのX座標値及びY座標値を注視点データとして画像処理部44に供給する。画像処理部44は、ズームイントリガ信号が発生している場合は、注視点データを受けとると、描画フレームバッファ45D内の画像を、注視点FPを中心とする所定の矩形領域の拡大画像に書き換える処理を行う。また、画像処理部44は、ズームアウトトリガ信号が発生している場合は、注視点データを受けとると、描画フレームバッファ45D内の画像を、注視点FPを中心とする所定の矩形領域の縮小画像に書き換える処理を行う。
 図1において、内視鏡の筐体131の把持部1132の後端には、ケーブル165、空気供給管164A、及び空気排出管164Bの一端が接続されている。ケーブル165は、制御装置40に接続されている。空気供給管164Aは、空気冷却装置70を介して吸排気装置60に接続されている。空気排出管164Bは、吸排気装置60に接続されている。吸排気装置60は、空気供給管164Aを経由して筐体131内に空気を強制供給する役割と、空気排気管を経由して筐体131内から空気を強制排気する役割とを併有する装置である。空気冷却装置70は、空気供給管164Aを流れる空気を冷却する役割を果たす装置である。
 硬性内視鏡10の筐体131、空気供給管164A、及び空気排出管164Bは、一つの密閉空間を形成し、この密閉空間内に筐体131内を冷やす空気の流れが生じる。この空気の流れについて説明する。図14(A)は、筐体131内の構成の詳細を示す図である。図14(B)は、吸排気装置60、空気冷却装置70、空気供給管164A、及び空気排出管164Bの構成の詳細を示す図である。
 図14(A)に示すように、筐体131内の前方における接眼レンズ1201と対峙する位置には、固体撮像素子1311とそれを支持する基板1312とがある。この基板1312には、A/D変換部1319などの電子部品が装着されている。図15は、図14(A)の固体撮像素子1311及び基板1312の周辺を拡大した図である。固体撮像素子1311には、反射防止ガラス1315が貼られている。固体撮像素子1311と基板1312との間には、複数子のボールグリッド1313が介挿されている。
 基板1312の裏には、ヒートシンク1316がある。ヒートシンク1316は、平板1316Aから複数のフィン1316Bを起立させた、いわゆる針状タイプのものである。基板1312の中央には、ヒートシンク1316の平板1316Aとほぼ同じ寸法の開口がある。ヒートシンク1316の平板1316Aはこの開口に嵌め込まれている。ヒートシンク1316の平板1316Aは、熱伝導性接着剤1314を介して固体撮像素子1311に接着されている。筐体131内における把持部1132の内側の位置にはダクト1318がある。ダクト1318の一端はヒートシンク1316のフィン1316Bに向けられている。ダクト1318の他端は空気供給管164Aと接続されている。
 筐体131の把持部1132の内側におけるダクト1318の下方には、画像処理用FPGA(Field Programmable Gate Array)1331、基板1332、ヒートシンク1336、カバー部材1338、及びダクト166Bからなる構造体がある。図16は、図14(A)の画像処理用FPGA1331、基板1332、カバー部材1338、ヒートシンク1336、及びダクト166Bの周辺を拡大した図である。画像処理用FPGA1331と基板1332との間には、複数子のボールグリッド1333が介挿されている。
 基板1332の上には、ヒートシンク1336がある。ヒートシンク1336は、平板1336Aから複数のフィン1336Bを起立させた、いわゆる針状タイプのものである。ヒートシンク1336の平板1336Aの寸法は画像処理用FPGA1331の寸法とほぼ同じである。ヒートシンク1336の平板1336Aは、熱伝導性接着剤1334を介して画像処理用FPGA1331に接着されている。
 ヒートシンク1336の上には、カバー部材1338がある。カバー部材1338は、薄い箱体1338Aの下面を開放し、開放された側と反対の面の中心から筒1338Bを突出させ、その筒1338Bを筒の基端面と直交する方向に向けて緩やかに屈曲させたような形を有している。カバー部材1338の開口は、ヒートシンク1336を覆っている。カバー部材1338の筒1338Bの先端はダクト166Bと接続されている。ダクト166Bの他端は空気排出管164Bと接続されている。
 筐体131内の以上の構成において、吸排気装置60内の空気供給装置160Aと空気排出装置160B、及び空気冷却装置70を動作させると、空気供給装置160Aは、+10hPa~+20hPaの正圧を作り出し、この圧力により外部から吸い込んだ空気を空気供給管164Aに送出する。空気排出装置160Bは、-10hPa~-20hPaの負圧を作り出し、この圧力により空気排出管164B164Bから吸い込んだ空気を外部に送出する。
 空気供給装置160Aから空気供給管164Aに送出された空気は、空気冷却装置70を経由するときに空気冷却装置70によって冷却される。冷却された空気は、空気供給管164A及びダクト1318を経由し、ダクト1318の先端の開口から第1の空気流としてヒートシンク1316に吹き付けられる。第1の空気流は、ヒートシンク1316を経由してその側部に流れ、筐体131内を循環する。第1の空気流は、ヒートシンク1316を経由する際にその熱を奪う。ヒートシンク1316を経由してその下部に流れた空気は、第2の空気流として、筐体131内の下部のヒートシンク1336に吹き付けられる。第2の空気流は、ヒートシンク1336を経由した後、カバー部材1338の開口に吸い込まれる。第2の空気流は、ヒートシンク1336を経由する際にその熱を奪う。ヒートシンク1336を経由してカバー部材1338に吸い込まれた空気は、ダクト166B及び空気排出管164Bを経由し、空気排出装置160Bにより外部に排出される。
 以上が、本実施形態の詳細である。本実施形態によると、次の効果が得られる。
 第1に、本実施形態では、硬性内視鏡10の固体撮像素子1311は、8K相当の個数の画素PXijを(i=1~4320、j=1~7680)有している。ここで、従来の2Kや4Kの内視鏡では、被写体の近くまで内視鏡を近づけて撮影せざるを得ず、体腔内においてメスや鉗子などの手術器具が内視鏡と干渉して手術が滞ることも起こりえた。しかし、本実施形態の内視鏡は、体腔内の被写体から8cm~12cm程度の離れた位置から被写体を撮影したとしても、十分・BR>ノ微細な撮影画像を得ることができる。このため、体腔内において広い視野と手術空間を確保し、より円滑な手術を実現することができる。
 第2に、本実施形態では、硬性内視鏡10の固体撮像素子1311の画素PXij(i=1~4320、j=1~7680)に、赤フィルタ、緑フィルタ、青フィルタ、及び近赤外光フィルが貼られており、可視光のRGB画像と近赤外光の画像とを重ねた画像をディスプレイ装置30に表示させるようになっている。ここで、患者の静脈に赤外励起薬剤を注射すると、薬剤が血中のたんぱく質と結合する。励起光を血管の外から当てると、近赤外光を発し、この近赤外光が画像に写る。よって、術者は、ディスプレイ装置30に表示される1つの画像を観ることにより、施術の対象である患部そのものの様子と、その奥の血管の分布の様子とを同時に把握することができる。
 第3に、本実施形態では、硬性内視鏡10の撮影画像を3Dの動画像としてディスプレイ装置30に表示させる。よって、術者は、体腔内における施術の対象の器官と手術器具の位置関係や距離を正確に把握することができる。
 第4に、本実施形態では、制御装置40は、トリガ信号の発生時における偏光メガネ50内のセンサの検知信号及びディスプレイ装置30内のセンサの検知信号の関係に基づいて、ディスプレイ装置30の表示画像内における術者の注視点FPを特定し、この注視点FPの周囲を拡大表示する。術者は、煩わしい入力操作をせずに、ズームインやズームアウトの範囲を自らの意図通りに指定することができる。
 第5に、本実施形態では、硬性内視鏡10の固体撮像素子1311における隣り合う画素PXijのピッチが、被写体を照らす照明内の光の波長のうち最も長い波長よりも大きくなっている。ここで、8Kの固体撮像素子1311は、4320行7680列もの画素PXij(i=1~4320、j=1~7680)を配列したものであるため、画素PXij(i=1~4320、j=1~7680)の集積度を高めないと、筐体131を扱いやすいサイズにし難い。一方、固体撮像素子1311の画素PXij(i=1~4320、j=1~7680)の集積度を高くしすぎると、固体撮像素子1311における隣り合う画素PXijのピッチと光の波長の大小関係がピッチ<波長になり、光の回折効果により、撮影画像がぼやけたものになってしまう。固体撮像素子1311における隣り合う画素PXijのピッチを被写体を照らす照明内の光の波長のうち最も長い波長よりも大きくすることにより、画像の明瞭生とコンパクト性とを両立した内視鏡を提供することができる。
 第6に、硬性内視鏡10の筐体131は、挿入部110内を通る光の光軸と直交する断面の面積が広いマウント部1131と当該断面の面積がマウント部1131よりも狭い把持部1132と有している。8Kの固体撮像素子1311は4320行7680列もの画素PXij(i=1~4320、j=1~7680)があるため、4Kのものと同じ寸法にすることは難しく、小型化にもある程度の限界がある。8Kの内視鏡の筐体全体の厚みを固体撮像素子1311の縦横の寸法に合わせてしまうと、片手で把持することができなくなる。本実施形態では、把持部1132の断面積をマウント部1131の断面積よりも狭くしているので、高解像度でありながら、片手で把持しての取り扱いも十分に可能な内視鏡を提供することができる。
 第7に、本実施形態では、硬性内視鏡10の筐体131には、固体撮像素子1311に設けられた第1のヒートシンク1316と、画像処理用FPGA1331と、FPGA1331に設けられた第2のヒートシンク1336と、第2のヒートシンク1336を覆い空気排出管164Bに接続されたカバー部材1338とが設けられている。さらに、本実施形態では、第1のヒートシンク1316を冷却する第1の空気流と第2のヒートシンク1336を冷却する第2の空気流が生成され、第1の空気流は、空気供給管164Aから供給された冷却空気が第1のヒートシンク1316に吹き付けられ、第1のヒートシンク1316の周囲に発散するように構成され、第2の空気流は、第2のヒートシンク1336の周囲からカバー部材1338を経由して、空気排出管164Bに流れるように構成されている。よって、内視鏡の筐体131内の主要な発熱源である固体撮像素子1311と画像処理用FPGA1331とを効率よく冷却することができる。
<第2実施形態>
 図17は、本発明の第2実施形態である軟性内視鏡10’を含む内視鏡システムの構成を示す図である。本実施形態の内視鏡システムは、口や肛門から軟性内視鏡10’を挿入して体腔内の臓器に対する処置を行う手術を支援するものである。本実施形態では、第1実施形態の内視鏡システムの硬性内視鏡10が軟性内視鏡10’に置き換わっている。軟性内視鏡10’の筐体131内の固体撮像素子は、第1実施形態の硬性内視鏡10の筐体131内の固体撮像素子に比べて画素数が少ないもの(例えば、30万画素の固体撮像素子)となっている。
 図17において、図1と同じ要素には同一の符号を付し、図1と異なる要素には異なる符号を付している。図18(A)は、図1の挿入部110’を矢印A方向から見た図である。図18(B)は、図1の挿入部110’のB-B’線断面図である。軟性内視鏡10’の挿入部110’は、軟性鏡筒111’とアイピース112とを有している。軟性鏡筒111’は、柔軟な素材からなる。
 挿入部110’の軟性鏡筒111’内には、中空導光領域1112’がある。中空導光領域1112’は、挿入部110’自体の直径の半分程度の直径をもった空洞である。中空導光領域1112’の断面の中心は、挿入部110’自体の断面の中心からずれている。挿入部110’の中空導光領域1112’を囲む外殻における中空導光領域1112の’中心に近い側の部分の厚みは薄くなっており、中空導光領域1112’の中心から近い側の部分は厚くなっている。挿入部110’の外殻における肉厚の部分には1本の光ファイバ1901が埋め込まれている。挿入部110’における光ファイバ1901の先端の先には拡散レンズ(不図示)が埋め込まれている。
 挿入部110の中空導光領域1112’における先端よりも離れた位置には対物レンズ1111が嵌め込まれている。中空導光領域1112’における対物レンズ1111とアイピース112との間にはマルチコアファイバ1116が収められている。マルチコアファイバ1116の各コアCRの導光の方向は、挿入部110’の延在する方向と平行である。
 挿入部110の中空導光領域1112’における対物レンズ1111の嵌め込み位置の先端側の部分の断面は、対物レンズ1111及びマルチコアファイバ1116がある部分の断面よりも広くなっている。中空導光領域1112’の先端側の部分における対物レンズ1111と対峙する位置には可動ミラー1114が支持されている。可動ミラー1114は、MEMS(Micro Electro Mechanical Systems)ミラーである。可動ミラー1114は、第1の軸φ1及び第2の軸φ2の2つの軸周りに揺動し得るように支持されている。第1の軸φ1は、マルチコアファイバ1116の各コアを通る光の光軸(対物レンズ1111の光軸)に対する傾きをもって当該光軸と交差する軸である。第2の軸φ2は、対物レンズ1111の光軸及び第1の軸φ1の両方と直交する軸である。固定ミラー1115は、中空導光領域1112’の先端側の部分における可動ミラー1114と光ファイバ1901の間に固定されている。可動ミラー1114の反射面は、対物レンズ1111と固定ミラー1115を向いている。固定ミラー1115の反射面は、可動ミラー1114と挿入部110’の先端の開口1801の外を向いている。
 本実施形態では、制御装置40の制御部46は、記憶部45内の動作プログラムPRGの働きにより、照明駆動処理、撮像素子駆動処理、表示制御処理、ズーム制御処理、及びミラー駆動処理を行う。ミラー駆動処理は、可動ミラー1114を駆動する駆動信号を入出力インターフェース43を介して可動ミラー1114に供給する処理である。制御部46は、この可動ミラー1114への駆動信号の供給を通じて、可動ミラー1114の軸φ1周り及び軸φ2周りの傾斜角度を動画像のフレームのフレーム切替よりも短い時間T(例えば、T=1/120秒)の間隔毎に周期的に切替えることにより、体腔内の被写体における相異なる部分の分割領域画像を生成し、生成した分割領域画像を合成することにより、フレームの画像を生成する。
 より具体的に説明すると、図19に示すように、制御部46は、体腔内における軟性内視鏡10’の撮影範囲をM(Mは2以上の自然数、図19の例ではM=9)分割し、時間T内における時刻t、時刻t・・時刻tM(=9)に合わせて次のような処理を行う。
 制御部46は、時刻tにおいて、撮影範囲の全体をM分割したM個の領域AR-k(k=1~9)のうちの1番目の領域AR-1の光が挿入部110’の先端の開口1801から固定ミラー1115及び可動ミラー1114を経由してマルチコアファイバ1116に導かれるように、可動ミラー1114の傾きを制御する。領域AR-1の光は、マルチコアファイバ1116を通って固体撮像素子1311に到達する。領域AR-1の光は、固体撮像素子1311における光電変換を経た後、画像データとして記憶部45の受信バッファ45Sに記憶される。制御部46は、受信バッファ45Sに領域AR-1の画像データが記憶されると、その画像データを描画フレームバッファ45Dにおける領域AR-1と対応する記憶領域に記憶する。
 制御部46は、時刻tにおいて、M個の領域AR-k(k=1~9)のうち2番目の領域AR-2の光が挿入部110’の先端の開口1801から固定ミラー1115及び可動ミラー1114を経由してマルチコアファイバ1116に導かれるように、可動ミラー1114の傾きを制御する。領域AR-2の光は、マルチコアファイバ1116を通って固体撮像素子1311に到達する。領域AR-2の光は、固体撮像素子1311における光電変換を経た後、画像データとして記憶部45の受信バッファ45Sに記憶される。制御部46は、受信バッファ45Sに領域AR-2の画像データが記憶されると、その画像データを描画フレームバッファ45Dにおける領域AR-2と対応する記憶領域に記憶する。
 制御部46は、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻tにおいても、同様の処理を行い、領域AR-3、領域AR-4、領域AR-5、領域AR-6、領域AR-7、領域AR-8、領域AR-9の各々について生成した画像データを描画フレームバッファ45Dの個別の記憶領域に記憶する。次のフレーム切替の時刻に合わせて、描画フレームバッファ45Dは表示フレームバッファ45Eと置き換えられ、表示フレームバッファ45E内の領域AR-1、AR-2、AR-3、AR-4、AR-5、AR-6、AR-7、AR-8、及びAR-9の画像データが1フレームの動画像信号SC3Dとしてディスプレイ装置30に出力される。
 以上が、本実施形態の詳細である。ここで、挿入部110’の軟性内視鏡10’の筐体131内に8Kの固体撮像素子を収めることはできるが、固体撮像素子の画素数と同じ本数までマルチコアファイバ1116のコア数を増やしてしまうと、フレキシブル性が損なわれてしまう。フレキシブル性を維持できるコア数の上限は1万本程度である。
 これに対し、本実施形態では、挿入部110’の軟性鏡筒111’内に可動ミラー1114と固定ミラー1115が設けられており、可動ミラー1114は、マルチコアファイバ1116の各コアCRを通る光の光軸方向に対する傾きをもった第1の軸φ1、及び第1の軸φ1と直交する第2の軸φ2の2つの軸周りに傾動可能となっている。さらに、制御装置40は、可動ミラー1114の傾斜角度を動画像のフレームレートのフレーム切替時間間隔よりも短い時間Tの間隔で周期的に切替えることにより、被写体における相異なる部分の分割領域画像を生成し、生成した分割領域画像を合成することにより、1フレーム分の動画像を生成するようになっている。よって、本実施形態によると、マルチコアファイバ1116を従来のファイバスコープ(2K未満)のものと同程度の太さに抑えたままで、8Kの撮影画像を得ることができる。従って、本実施形態によると、2K未満の固体撮像素子を用いて8K解像度を有する軟性内視鏡10’を実現することができる。
 以上、本発明の第1及び第2実施形態について説明したが、この実施形態に以下の変形を加えても良い。
(1)上記第1及び第2実施形態において、図20(A)に示すように、内視鏡の挿入部110内の光学系(対物レンズ1111、接眼レンズ1201、リレーレンズ1113など)のイメージサークルが、固体撮像素子1311の受光領域と外接するように、焦点距離(固体撮像素子1311と光学系との距離)を短く設定してもよいし、図20(B)に示すように、内視鏡の挿入部110内の光学系(対物レンズ1111、接眼レンズ1201、リレーレンズ1113など)のイメージサークルが、固体撮像素子1311の受光領域と内接するように、焦点距離(固体撮像素子1311と光学系との距離)を長く設定してもよい。
(2)上記第1及び第2実施形態では、偏光メガネ50に位置検出センサ56と向き検出センサ57が埋設されており、ディスプレイ装置30にも位置検出センサ36と向き検出センサ375が埋設されていた。しかし、ディスプレイ装置30を位置検出センサ36と向き検出センサ37のないものとしてもよい。この場合、制御部46は、ディスプレイ装置30の位置のX座標値、Y座標値、及びZ座標値、方角、及び仰角の固定値と、偏光メガネ50の位置検出センサ56及び向き検出センサ57の検知信号の検出信号とを用いて、変換行列を生成するようにしてもよい。
(3)上記第1実施形態では、固体撮像素子1311における4320行7680列の画素PXijは、2行2列の4つの画素PXij毎のブロックになっており、各ブロックの4つの画素PXijには、赤、緑、青、及び近赤外光のフィルタが貼られていていた。しかし、このように4つのブロック毎に、赤、緑、青、及び近赤外光のフィルタを貼らずともよい。例えば、4320行を4行ごとにブロック化し、ブロックの第1の行の全列の画素PXijに赤のフィルタを貼り、第2の行の全列の画素PXijに緑のフィルタを貼り、第3の行の全列の画素PXijに青のフィルタを貼り、第4の行の全列の画素PXijに近赤外光を貼ってもよい。
(4)上記第1及び第2実施形態では、筐体131にボタン139IN及び139OUTがあり、ボタン139IN及び139OUTが短く1回押されたことを契機としてトリガ信号が発生するようになっていた。しかし、トリガ信号の発生の契機は別のものであってもよい。例えば、筐体131にマイクロホンを搭載し、術者が「ズーム」という言葉を発したことを契機としてトリガ信号が発生するようにしてもよい。また、ボタン139INを短く1回押す操作がなされると、ディスプレイ装置30に表示されている画像のズームインを指示するズームイントリガ信号が発生し、ボタン139INを長く1回押す操作がなされると、ズームインの解除を指示する解除トリガ信号が発生するようにし、ズームアウトのトリガ信号は発生しないようにしてもよい。
(5)上記第1及び第2実施形態では、固体撮像素子1311はCMOSイメージセンサであった。しかし、固体撮像素子1311をCCD(Charge Coupled Device)イメージセンサで構成してもよい。
(6)上記第2実施形態では、挿入部110’内に一つのマルチコアファイバ1116が収められていた。しかし、複数のマルチコアファイバ1116を収めてもよい。
(7)上記第2実施形態では、挿入部110’は固定ミラー1115と可動ミラー1114の2つのミラーを有していた。しかし、ミラーの個数は1つでも3つ以上でもよい。また、1又は複数のすべてを可動ミラーとしてもよい。要するに、被写体から光が1又は複数のミラーを経由してマルチコアファイバ1116に導かれるようになっており、走査領域を可変にし得るようになってさえいればよい。
(8)上記第2実施形態において、第1の軸φ1は、マルチコアファイバ1116の各コアを通る光の光軸に対して傾いてさえいればよく、マルチコアファイバ1116の各コアを通る光の光軸と交差する必要はない。この場合において、可動ミラー1114の第2の軸φ2周りの傾動は、第1の軸φ1におけるマルチコアファイバ1116の各コアCRを通る光の光軸方向に対する傾きが45度±所定角度になるように制御するとよい。また、可動ミラー1114の第1の軸φ1周りの傾動は、第2の軸φ2におけるマルチコアファイバ1116の各コアCRを通る光の光軸方向に対する傾きが90度±所定角度になるように制御するとよい。
10…硬性内視鏡、10’…軟性内視鏡、20…照明装置、30…ディスプレイ装置、40…制御装置、50…偏光メガネ、60…吸排気装置、70…空気冷却装置、130…筐体、110…挿入部、120…接眼レンズマウント部、41…無線通信部、42…操作部、43…入出力インターフェース、44…画像処理部、45…記憶部、46…制御部

Claims (7)

  1.  患者の体腔内の被写体を撮像し、所定の画素数の画像信号を出力する内視鏡と、
     前記内視鏡の出力信号に所定の3D化処理を施し、3D化処理により得た3D画像信号を所定のフレームレートの動画像信号としてディスプレイ装置に出力する制御装置と、
     前記患者に施術をする術者が装着する偏光メガネと、
     前記ディスプレイ装置、及び前記偏光メガネに各々設けられるセンサと、
     前記ディスプレイ装置の表示画像のズームを指示するトリガ信号を発生するトリガ信号発生部と
     を具備する内視鏡システムであって、
     前記制御装置は、前記トリガ信号発生部が前記トリガ信号を発生した場合、当該トリガ信号の発生時における前記偏光メガネ内のセンサの検知信号及び前記ディスプレイ装置内のセンサの検知信号の関係に基づいて、前記ディスプレイ装置の表示画像内における術者の注視点を特定し、この注視点の周囲をズームインする
     ことを特徴とする内視鏡システム。
  2.  前記偏光メガネに設けられるセンサは、当該偏光メガネの左の鼻あての電位を検知する第1のセンサと、当該偏光メガネの右の鼻あての電位を検知する第2のセンサと、当該偏光メガネのブリッジの電位を検知する第3のセンサと、当該偏光メガネの位置を検知する第4のセンサと、当該偏光メガネのレンズの向きを検知する第5のセンサとを含み、
     前記制御装置は、
     前記第1のセンサの検知信号が示す電位波形、前記第2のセンサの検知信号が示す電位波形、及び前記第3のセンサの検知信号が示す電位波形を基に、前記偏光メガネのレンズ上における前記術者の視線と対応する視線位置を求め、この視線位置、前記ディスプレイ装置が置かれている位置と前記第4のセンサが検知した位置との関係、及び、前記ディスプレイ装置の向きと前記第5のセンサが検知した向きとの関係に基づいて、前記ディスプレイ表示画像内における前記術者の注視点を特定する
     ことを特徴とする請求項1に記載の内視鏡システム。
  3.  前記内視鏡は、
     筐体と、
     前記筐体内に収められた固体撮像素子であって、各々が光電変換素子を有する8K相当数の画素をマトリクス状に並べた固体撮像素子と、
     前記筐体を基端として延在する挿入部であって、前記患者の体腔内に挿入され、体腔内の被写体からの光を前記固体撮像素子に導く挿入部と
     を具備する8K内視鏡であり、
     前記固体撮像素子における隣り合う画素のピッチが、前記被写体を照らす照明内の光の波長のうち最も長い波長よりも大きくなっている
     ことを特徴とする請求項2に記載の内視鏡システム。
  4.  前記筐体は、
     前記挿入部内を通る光の光軸と直交する断面の面積が広いマウント部と当該断面の面積がマウント部よりも狭い把持部とを有し、
     前記マウント部に前記固体撮像素子が収められている
     ことを特徴とする請求項3に記載の内視鏡システム。
  5.  前記挿入部は、中空な硬性鏡筒を有し、
     前記硬性鏡筒内には、対物レンズを含む複数のレンズが設けられている
     ことを特徴とする請求項4に記載の内視鏡システム。
  6.  前記筐体に接続された空気供給管及び空気排出管と、
     前記空気供給管を経由して前記筐体内に空気を強制供給し且つ前記空気排出管を経由して前記筐体内から空気を強制排気する給排気装置と、
     前記空気供給管を流れる空気を冷却する空気冷却装置と
     を有し、
     前記筐体、前記空気供給管、及び前記空気排出管は1つの密閉空間を形成するように接続され、
     前記筐体内には、
     前記固体撮像素子に設けられた第1のヒートシンクと、画像処理用FPGAと、前記FPGAに設けられた第2のヒートシンクと、前記第2のヒートシンクを覆い前記空気排出管に接続されたカバー部材とが設けられており、
     前記筐体内において、前記第1のヒートシンクを冷却する第1の空気流と前記第2のヒートシンクを冷却する第2の空気流が生成され、前記第1の空気流は、前記空気供給管から供給された冷却空気が前記第1のヒートシンクに吹き付けられ、前記第1のヒートシンクの周囲に発散するように構成され、前記第2の空気流は、前記第2のヒートシンクの周囲から前記カバー部材を経由して、前記空気排出管に流れるように構成されている
     ことを特徴とする請求項5に記載の内視鏡システム。
  7.  前記内視鏡は、
     筐体と、
     前記筐体内に収められた固体撮像素子であって、各々が光電変換素子を有する画素をマトリクス状に並べた固体撮像素子と、
     中空な軟性鏡筒と
     を具備し、
     前記軟性鏡筒内には、対物レンズと、マルチコアファイバと、被写体からの光を1回又は複数回に渡って反射させて前記対物レンズに導く1個又は複数個のミラーとが設けられており、
     前記1個又は複数個のミラーのうち少なくとも1個のミラーは、前記マルチコアファイバの各コアを通る光の光軸方向に対する傾きをもった第1の軸、及び前記第1の軸と直交する第2の軸の2つの軸周りに傾動可能であり、
     前記制御装置は、前記ミラーの傾斜角度を前記フレームレートのフレーム切替時間間隔よりも短い時間間隔で周期的に切替えることにより、前記被写体における相異なる部分の分割領域画像を生成し、生成した分割領域画像を合成することにより、1フレーム分の動画像を生成する
     ことを特徴とする請求項1に記載の内視鏡システム。
PCT/JP2018/033245 2017-09-10 2018-09-07 内視鏡システム WO2019049997A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880057960.8A CN111093466A (zh) 2017-09-10 2018-09-07 内视镜系统
JP2019541025A JPWO2019049997A1 (ja) 2017-09-10 2018-09-07 内視鏡システム
EP18854577.6A EP3682790A1 (en) 2017-09-10 2018-09-07 Endoscope system
US16/645,792 US20200268236A1 (en) 2017-09-10 2018-09-17 Endoscope system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017173598 2017-09-10
JP2017-173598 2017-09-10

Publications (1)

Publication Number Publication Date
WO2019049997A1 true WO2019049997A1 (ja) 2019-03-14

Family

ID=65634090

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/033245 WO2019049997A1 (ja) 2017-09-10 2018-09-07 内視鏡システム

Country Status (6)

Country Link
US (1) US20200268236A1 (ja)
EP (1) EP3682790A1 (ja)
JP (1) JPWO2019049997A1 (ja)
CN (1) CN111093466A (ja)
TW (1) TW201919537A (ja)
WO (1) WO2019049997A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021175727A1 (de) * 2020-03-02 2021-09-10 Carl Zeiss Meditec Ag Kopfgetragenes visualisierungssystem

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11163155B1 (en) * 2017-12-18 2021-11-02 Snap Inc. Eyewear use detection
TWI777147B (zh) * 2020-03-27 2022-09-11 榮晶生物科技股份有限公司 內視鏡系統
TWI798854B (zh) * 2021-10-04 2023-04-11 張錦標 結合注射針頭之內視鏡及內視鏡系統

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5055348A (ja) * 1973-09-12 1975-05-15
JPH0534605A (ja) * 1991-07-29 1993-02-12 Olympus Optical Co Ltd 内視鏡用外付テレビカメラ
JP2002318353A (ja) * 2001-04-19 2002-10-31 Yoshifusa Fujii 内視鏡用レンズ
JP2003250812A (ja) * 2002-02-28 2003-09-09 Olympus Optical Co Ltd 医療用立体表示装置
JP2006201796A (ja) * 2005-01-21 2006-08-03 Karl Storz Development Corp 先端に画像センサを備えた視界器具の可変方向性
JP2007189489A (ja) * 2006-01-13 2007-07-26 Ntt Comware Corp 立体映像処理装置並びにそのプログラム
JP2008043763A (ja) 2006-08-14 2008-02-28 Pentax Corp 走査型光ファイバを備えた内視鏡および内視鏡先端ユニット
JP2009508591A (ja) * 2005-09-15 2009-03-05 カンヌフロウ インコーポレイテッド 関節内視鏡手術温度調節システム及び関節内視鏡手術温度調節方法
JP2009297426A (ja) * 2008-06-17 2009-12-24 Fujinon Corp 電子内視鏡
JP2010022700A (ja) * 2008-07-23 2010-02-04 Fujifilm Corp 内視鏡システム
JP2011085830A (ja) * 2009-10-19 2011-04-28 Nikon Corp 映像表示システム
JP2011248254A (ja) * 2010-05-31 2011-12-08 Sharp Corp 映像表示システム、それを実現する映像表示装置、傾き検出装置および映像表示方法
JP2015119827A (ja) * 2013-12-24 2015-07-02 パナソニックIpマネジメント株式会社 内視鏡システム
WO2016009886A1 (ja) * 2014-07-16 2016-01-21 オリンパス株式会社 内視鏡システム
WO2016103805A1 (ja) * 2014-12-26 2016-06-30 オリンパス株式会社 撮像装置
WO2016163447A1 (ja) * 2015-04-09 2016-10-13 オリンパス株式会社 内視鏡対物光学系
JP6029159B1 (ja) * 2016-05-13 2016-11-24 株式会社タムロン 観察光学系、観察撮像装置、観察撮像システム、結像レンズ系及び観察光学系の調整方法
WO2017061293A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 手術システム、並びに、手術用制御装置および手術用制御方法
JP2017516508A (ja) * 2014-03-19 2017-06-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法
JP2017523445A (ja) * 2014-06-05 2017-08-17 オプティカ アムカ(エー.エー.)リミテッド 動的レンズの制御

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5055348A (ja) * 1973-09-12 1975-05-15
JPH0534605A (ja) * 1991-07-29 1993-02-12 Olympus Optical Co Ltd 内視鏡用外付テレビカメラ
JP2002318353A (ja) * 2001-04-19 2002-10-31 Yoshifusa Fujii 内視鏡用レンズ
JP2003250812A (ja) * 2002-02-28 2003-09-09 Olympus Optical Co Ltd 医療用立体表示装置
JP2006201796A (ja) * 2005-01-21 2006-08-03 Karl Storz Development Corp 先端に画像センサを備えた視界器具の可変方向性
JP2009508591A (ja) * 2005-09-15 2009-03-05 カンヌフロウ インコーポレイテッド 関節内視鏡手術温度調節システム及び関節内視鏡手術温度調節方法
JP2007189489A (ja) * 2006-01-13 2007-07-26 Ntt Comware Corp 立体映像処理装置並びにそのプログラム
JP2008043763A (ja) 2006-08-14 2008-02-28 Pentax Corp 走査型光ファイバを備えた内視鏡および内視鏡先端ユニット
JP2009297426A (ja) * 2008-06-17 2009-12-24 Fujinon Corp 電子内視鏡
JP2010022700A (ja) * 2008-07-23 2010-02-04 Fujifilm Corp 内視鏡システム
JP2011085830A (ja) * 2009-10-19 2011-04-28 Nikon Corp 映像表示システム
JP2011248254A (ja) * 2010-05-31 2011-12-08 Sharp Corp 映像表示システム、それを実現する映像表示装置、傾き検出装置および映像表示方法
JP2015119827A (ja) * 2013-12-24 2015-07-02 パナソニックIpマネジメント株式会社 内視鏡システム
JP2017516508A (ja) * 2014-03-19 2017-06-22 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法
JP2017523445A (ja) * 2014-06-05 2017-08-17 オプティカ アムカ(エー.エー.)リミテッド 動的レンズの制御
WO2016009886A1 (ja) * 2014-07-16 2016-01-21 オリンパス株式会社 内視鏡システム
WO2016103805A1 (ja) * 2014-12-26 2016-06-30 オリンパス株式会社 撮像装置
WO2016163447A1 (ja) * 2015-04-09 2016-10-13 オリンパス株式会社 内視鏡対物光学系
WO2017061293A1 (ja) * 2015-10-09 2017-04-13 ソニー株式会社 手術システム、並びに、手術用制御装置および手術用制御方法
JP6029159B1 (ja) * 2016-05-13 2016-11-24 株式会社タムロン 観察光学系、観察撮像装置、観察撮像システム、結像レンズ系及び観察光学系の調整方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021175727A1 (de) * 2020-03-02 2021-09-10 Carl Zeiss Meditec Ag Kopfgetragenes visualisierungssystem
WO2021175776A1 (de) * 2020-03-02 2021-09-10 Carl Zeiss Meditec Ag Kopftragbare visualisierungseinheit und visualisierungssystem
JP7453403B2 (ja) 2020-03-02 2024-03-19 カール ツアイス メディテック アクチエンゲゼルシャフト ヘッドマウント可視化システム
US11953687B2 (en) 2020-03-02 2024-04-09 Carl Zeiss Meditec Ag Head-mounted visualization unit and visualization system comprising light-transmissive optical system

Also Published As

Publication number Publication date
JPWO2019049997A1 (ja) 2020-10-15
CN111093466A (zh) 2020-05-01
US20200268236A1 (en) 2020-08-27
EP3682790A1 (en) 2020-07-22
TW201919537A (zh) 2019-06-01

Similar Documents

Publication Publication Date Title
US11147443B2 (en) Surgical visualization systems and displays
ES2899353T3 (es) Sistema digital para captura y visualización de video quirúrgico
US10028651B2 (en) Surgical visualization systems and displays
TWI534476B (zh) 頭戴式顯示器
WO2019049997A1 (ja) 内視鏡システム
EP3383247A1 (en) Surgical visualization systems and displays
EP3277152A1 (en) Surgical visualization systems and displays
US20210076921A1 (en) Microscope system and medical light source apparatus
JP6654006B2 (ja) 医療用観察装置
US11653824B2 (en) Medical observation system and medical observation device
US20200113413A1 (en) Surgical system and surgical imaging device
US20200082849A1 (en) Information processing apparatus, information processing method, and information processing program
US11496662B2 (en) Image processing apparatus, image processing method, and image pickup system for displaying information associated with an image
JP2004320722A (ja) 立体観察システム
JP6418578B2 (ja) 立体視硬性内視鏡
WO2019049998A1 (ja) 内視鏡システム
JP6502785B2 (ja) 医療用観察装置、制御装置、制御装置の作動方法および制御装置の作動プログラム
US20200100661A1 (en) Integrated endoscope and visualization system
CN112190347A (zh) 一种显微内窥镜及显微内窥镜系统
WO2019198293A1 (ja) 顕微鏡システム及び医療用光源装置
WO2020045014A1 (ja) 医療システム、情報処理装置及び情報処理方法
JPH10174673A (ja) 内視鏡装置
JP2001104245A (ja) 内視鏡及び内視鏡装置
JP2019154886A (ja) 医療用表示制御装置、および表示制御方法
EP3852052A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18854577

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019541025

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018854577

Country of ref document: EP

Effective date: 20200414