WO2018029962A1 - 内視鏡装置及び内視鏡装置の制御方法 - Google Patents

内視鏡装置及び内視鏡装置の制御方法 Download PDF

Info

Publication number
WO2018029962A1
WO2018029962A1 PCT/JP2017/020998 JP2017020998W WO2018029962A1 WO 2018029962 A1 WO2018029962 A1 WO 2018029962A1 JP 2017020998 W JP2017020998 W JP 2017020998W WO 2018029962 A1 WO2018029962 A1 WO 2018029962A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
endoscope
illumination light
light
image
Prior art date
Application number
PCT/JP2017/020998
Other languages
English (en)
French (fr)
Inventor
植田 充紀
智之 大木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201780048499.5A priority Critical patent/CN109561819B/zh
Priority to US16/311,076 priority patent/US11266295B2/en
Priority to EP17839037.3A priority patent/EP3498148B1/en
Priority to JP2018533439A priority patent/JP6943246B2/ja
Publication of WO2018029962A1 publication Critical patent/WO2018029962A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00117Optical cables in or with an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0627Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for variable illumination angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0623Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for off-axis illumination

Definitions

  • the present disclosure relates to an endoscope apparatus and a control method of the endoscope apparatus.
  • one of the other medical practices using an endoscope device is observation of a luminal organ using a flexible endoscope.
  • an image obtained by a flexible endoscope is displayed on a display screen for a luminal organ
  • the organ located on the back side is displayed in the center of the screen, and the peripheral part of the screen is close to the flexible endoscope.
  • the near organ at a distance is displayed.
  • the target site exists in front of the lumen and the illumination light Is difficult to reach, so the image of the part to be inserted becomes relatively dark.
  • the organ located in the middle of the target site is close to the distal end of the endoscope, so that the amount of illumination light that reaches the organ increases and the image becomes bright.
  • At least a part of the endoscope unit is inserted into the observation target object and propagates an image inside the observation target object irradiated with illumination light
  • the endoscope unit A light source unit that emits the illumination light that illuminates the inside of the observation object, and an image of the inside of the observation object that is propagated from the endoscope unit.
  • An imaging unit that generates a captured image; and a control unit that controls driving of the endoscope unit, the light source unit, and the imaging unit, and the emission angle of the illumination light is variable, and the control unit Depending on whether the insertion part which is a part of the endoscope unit inserted into the observation object is moving inside the observation object or stopped, Change the radiation angle of the illumination light
  • An endoscope device is provided.
  • an endoscope unit that propagates an image of the inside of the observation object that is at least partially inserted into the observation object and irradiated with illumination light
  • the endoscope unit In contrast, a light source unit that emits the illumination light that illuminates the inside of the observation object, and an image of the inside of the observation object that is propagated from the endoscope unit, Control for performing drive control of the endoscope unit, the light source unit, and the imaging unit with respect to an endoscope apparatus that includes an imaging unit that generates an internal captured image, and the radiation angle of the illumination light is variable Determining whether the insertion unit, which is a part of the endoscope unit inserted into the observation object, is moving inside the observation object or stopped by the unit. And the insertion part Depending on the state, the control method of the endoscope apparatus comprising: a changing the emission angle of the illumination light is provided.
  • control unit of the endoscope apparatus is configured such that the insertion unit that is a part of the endoscope unit inserted into the observation target is moving inside the observation target, or Then, it is determined whether or not it is stopped, and the radiation angle of the illumination light is changed according to the state of the insertion portion.
  • Embodiment 1.1 Overall configuration of endoscope apparatus 1.2. Configuration of endoscope unit 1.3. Configuration of light source unit 1.4. Configuration of control unit 1.5. About the hardware configuration of the control unit
  • FIG. 1 is an explanatory diagram schematically showing the overall configuration of the endoscope apparatus according to the present embodiment.
  • the endoscope apparatus 10 is an apparatus that can observe the inside of the observation object S by inserting a part of the endoscope apparatus 10 into the observation object S.
  • Examples of such an endoscope apparatus 10 include various medical endoscope apparatuses such as a rigid endoscope, a flexible endoscope, and an arthroscope, and various industrial endoscope apparatuses.
  • the endoscope apparatus 10 is a medical endoscope apparatus, and the observation target S is inside a living body (for example, a lumen, a body cavity, a body cavity, etc.) as an example. An explanation shall be given.
  • the endoscope apparatus 10 irradiates a part of the living body S to be observed with predetermined illumination light and images a part of the living body S irradiated with the observation light, thereby It is an apparatus which produces
  • the wavelength band of the illumination light is not particularly limited, but is generally a visible light band (a band corresponding to a wavelength range of about 380 nm to 780 nm).
  • a captured image in the near infrared band a band corresponding to a wavelength range of about 780 nm to a wavelength of about 2.5 ⁇ m
  • a captured image in the ultraviolet band etc. It is also possible to generate captured images in various wavelength bands.
  • the captured image related to the observation object generated by the endoscope apparatus 10 is displayed as needed on a display unit such as a display connected to the endoscope apparatus 10 by wire or wirelessly.
  • the endoscope apparatus 10 having such a function includes a control unit 101, an endoscope unit 103, a light source unit 105, an imaging unit 107, and a display unit 109.
  • a control unit 101 controls the endoscope apparatus 10 to generate images.
  • an endoscope unit 103 controls the endoscope apparatus 10 to generate images.
  • the control unit 101 is realized by, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the control unit 101 is a unit that controls the overall functions of the endoscope apparatus 10.
  • the control unit 101 includes an endoscope unit 103, a light source unit 105, an imaging unit 107, and a display that constitute the endoscope apparatus 10.
  • the operation state of the unit 109 is controlled collectively.
  • the control unit 101 is a unit corresponding to, for example, a camera control unit (CCU) of an endoscope apparatus.
  • CCU camera control unit
  • the endoscope unit 103 is a unit that is partially inserted into the living body under the control of the control unit 101.
  • the endoscope unit 103 forms an image (observation image) obtained by observing the inside of the living body S using the illumination light emitted from the light source unit 105 on the imaging unit 107 in the subsequent stage.
  • the light source unit 105 is a unit that emits illumination light for observing the inside of the living body under the control of the control unit 101, and is optically connected to the endoscope unit 103.
  • the light source unit 105 has at least an illumination light source (for example, a white light source) for obtaining a captured image of a living body using an image sensor.
  • the light source unit 105 includes various laser light sources that emit light of a specific wavelength, such as a near infrared light source for obtaining a captured image of a living body in the near infrared band, an ultraviolet light source, and the like. You may have various well-known light sources.
  • the light source unit 105 can switch the type of illumination light emitted from these various light sources at an arbitrary timing under the control of the control unit 101.
  • the light source unit 105 further includes a light source for realizing a specific function such as an OCT light source, a ranging light source, PDT (Photodynamic Therapy), or the like. You may have.
  • the imaging unit 107 is a unit that generates an image data of a captured image by capturing an observation image inside the living body with illumination light from the light source unit 105 under the control of the control unit 101.
  • the imaging unit 107 is optically connected to the endoscope unit 103.
  • an imaging device that is sensitive to the wavelength in the visible light band
  • an image close to the situation of direct observation with the human eye is captured, and after such an image is appropriately developed, An observation result is displayed on the display unit 109 as an observation image.
  • an image pickup element that is sensitive to wavelengths in the near infrared band
  • Fluorescence observation mode for observing fluorescence generated in the living body
  • NBI narrow wavelength imaging
  • the imaging unit 107 outputs the image data of the captured image generated as described above to the subsequent display unit 109 under the control of the control unit 101 as needed.
  • the display unit 109 is a unit that displays a captured image generated by the imaging unit 107 to an operator of the endoscope apparatus 10 under the control of the control unit 101.
  • the number of display screens provided in the display unit 109 is not particularly limited, and the display unit 109 may have only one display screen or a plurality of display screens. Also good.
  • the display unit 109 is not particularly limited, and a known display device can be used.
  • the endoscope apparatus 10 includes at least one of the endoscope unit 103 and the light source unit 105 as will be described in detail below, so that the radiation angle of illumination light is variable. It has become.
  • FIGS. 2A and 2B are explanatory views schematically illustrating an example of a configuration of an endoscope unit included in the endoscope apparatus according to the present embodiment.
  • FIG. 3 is a block diagram schematically showing an example of the overall configuration of the acceleration sensor.
  • the endoscope unit 103 is a unit that is at least partially inserted into the observation object S and propagates an image inside the observation object S irradiated with illumination light to the imaging unit 107. It is.
  • the endoscope unit 103 mainly includes relay optical systems 111 and 117, an illumination optical system 113, an objective optical system 115, and an imaging optical system 119, as schematically shown in FIG. 2A. is doing.
  • As the relay optical system 117 a light guide is used when the endoscope unit is a flexible endoscope. However, when the endoscope unit is a rigid endoscope, a lens that can easily maintain image quality is used. The optical system used is used.
  • the relay optical system 111 of the illumination optical system usually uses a light guide.
  • the light guide 111 as an illumination relay optical system is usually an index guide type in which a plurality of multimode optical fibers having a core diameter of about 10 ⁇ m to 80 ⁇ m are bundled (bundled).
  • the light guide 111 is connected to the light source unit 105, and guides illumination light having a predetermined wavelength (for example, illumination light in the visible light band) emitted from the light source unit 105 to the distal end portion of the endoscope unit 103. Shine.
  • the light guide 111 is not particularly limited, and various known light guides can be used.
  • the illumination optical system 113 is an optical system that adjusts the imaging state of the illumination light propagated by the light guide 111 onto the observation object S.
  • the illumination optical system 113 is not particularly limited, and various known illumination optical systems can be used.
  • the endoscope apparatus 10 is configured such that the radiation angle of illumination light is variable.
  • the illumination optical system 113 is configured to emit illumination light as disclosed in, for example, Japanese Patent Application Laid-Open No. 1-185510 or Japanese Patent Publication No. 6-58458. It is preferable to have a mechanism for making the angle variable. It is possible to change the radiation angle of the illumination light by moving at least some of the optical elements (for example, various lenses) of the illumination optical system 113 along the optical axis direction of the endoscope unit 103. It is.
  • the illumination optical system 113 does not have a mechanism for changing the radiation angle of illumination light as described above, the light source unit 105 will be described in detail below. It suffices to have a mechanism for making the radiation angle of the illumination light variable.
  • the objective optical system 115 is an optical system for obtaining an observation image of a portion that is located inside the observation object S and is irradiated with illumination light.
  • the objective optical system 115 is not particularly limited, and various known optical systems can be used.
  • the observation image propagated by the objective optical system 115 is further guided to the imaging optical system 119 by the light guide 117 functioning as a relay optical system.
  • the imaging optical system 119 is an optical system for forming an observation image of the observation object S guided by the ride guide 117 on the imaging unit 107, and is optically connected to the imaging unit 107 in the subsequent stage. Yes.
  • the imaging optical system 119 is not particularly limited, and various known imaging optical systems can be used.
  • an insertion portion that is a part of an endoscope unit inserted into the observation object S is an observation object S. It is determined from time to time whether the vehicle is moving or stopped.
  • the endoscope unit 103 according to the present embodiment includes, in addition to the configuration shown in FIG. 2A, as shown in FIG. 2B.
  • Various acceleration sensors 121 may be provided.
  • the acceleration sensor 121 is provided in the endoscope unit 103, it is preferably a MEMS (Micro Electro Mechanical Systems) type acceleration sensor that can be downsized.
  • the acceleration detection method of the acceleration sensor is not particularly limited, and an acceleration sensor conforming to various known principles such as a capacitance detection method, a piezoresistive method, and a heat detection method can be used. It is.
  • a general acceleration sensor 121 including a MEMS type acceleration sensor includes a movable part 121a, a detection part 121b, a signal processing part 121c, an output part 121d, a drive mechanism 121e, a self-diagnosis, as schematically shown in FIG.
  • the configuration includes a part 121f and an environment correction part 121g.
  • the weight (mass, mass) of the acceleration sensor is displaced by the balance with the reaction force of an elastic body such as a spring that supports the weight when the inertial force is received (movable part 121a).
  • the displacement of the movable portion 121a is detected by a displacement detection portion attached to the weight or a strain detection portion that detects strain of an elastic body such as a spring (detection portion 121b).
  • the amount of displacement or distortion detected by the detector 121b is converted into an electrical signal by the signal processor 121c.
  • the signal processing unit 121c often includes an electric circuit that amplifies the signal detected by the detection unit 121b or performs analog / digital conversion.
  • the electrical signal generated by the signal processing unit 121c has a voltage proportional to the amount of change detected by the detection unit 121b (in other words, a voltage proportional to the acceleration).
  • Such an electrical signal is output from the output unit 121d to the outside (in the case of the present embodiment, the control unit 101).
  • the acceleration sensor 121 includes a drive mechanism 121e for driving the movable part 121a in the case of having a servo mechanism, a self-diagnosis unit 121f for performing functional diagnosis of the detection unit 121b, and a signal processing unit 121c.
  • an environment correction unit 121g or the like that performs temperature correction of the detected displacement amount or strain amount may be included.
  • the endoscope unit 103 according to the present embodiment has been described in detail above with reference to FIGS. 2A to 3.
  • the configuration of the light source unit 105 according to this embodiment will be described in detail.
  • the light source unit 105 according to this embodiment is particularly limited. It is possible to use a known light source unit. However, when the endoscope unit 103 according to the present embodiment does not have a mechanism for changing the radiation angle of illumination light as described above, the light source unit 105 according to the present embodiment does not have illumination light.
  • the light source unit is required to be capable of changing the radiation angle of the light source. In that case, it is preferable that the light source unit that makes the radiation angle of the illumination light variable has, for example, a configuration described in detail below.
  • FIG. 4 is an explanatory diagram schematically illustrating an example of the configuration of the light source unit included in the endoscope apparatus according to the present embodiment.
  • FIG. 5 illustrates an example of the light source unit included in the light source unit according to the present embodiment. It is explanatory drawing shown typically.
  • 6A and 6B are explanatory diagrams for explaining Etendue.
  • FIG. 7 is an explanatory diagram for explaining the control process of the incident angle of the illumination light to the light guide in the light source unit according to the present embodiment.
  • FIG. 8A to FIG. 8C are explanatory views schematically showing the configuration of the coupling portion of the light source unit according to this embodiment.
  • FIG. 9 is an explanatory diagram schematically illustrating a first specific example of the coupling portion according to the present embodiment
  • FIG. 10 schematically illustrates a second specific example of the coupling portion according to the present embodiment
  • FIG. FIG. 11 is an explanatory diagram schematically illustrating a third specific example of the coupling portion according to the present embodiment
  • FIG. 12 schematically illustrates a fourth specific example of the coupling portion according to the present embodiment
  • FIG. FIG. 13 is an explanatory diagram schematically illustrating a fifth specific example of the coupling portion according to the embodiment
  • FIGS. 14 to 15B are schematic diagrams of a sixth specific example of the coupling portion according to the present embodiment. It is explanatory drawing shown in.
  • the light source unit 105 capable of changing the radiation angle of the illumination light includes a light source unit 131, a coupling unit 133, a multimode optical fiber 135, a drive mechanism 137, as schematically shown in FIG.
  • the control unit 139 and the storage unit 141 are mainly included.
  • the light source unit 131 has at least one solid light source, and emits light from the solid light source as illumination light. Moreover, when the light source part 131 has two or more solid light sources, the light source part 131 can also emit white light by mixing light from each solid light source. The detailed configuration of the light source unit 131 will be described later. The illumination light emitted from the light source unit 131 is guided to the coupling unit 133 described later.
  • the coupling unit 133 is a part provided in the endoscope unit 103 and connected to the light guide 111 that propagates a light beam for connecting to the endoscope unit 103 (that is, a light beam of illumination light).
  • the light guide 111 is provided so as to be connectable. Illumination light emitted from the light source unit 131 is guided to the inside of the endoscope unit 103 through the coupling unit 133. Further, in the light source unit 105 according to the present embodiment, as will be described in detail below, the incident angle of the illumination light incident on the light guide 111 is controlled by the function of the coupling portion 133 as a center. Yes. The detailed configuration of the coupling unit 133 will be described later again.
  • the multimode optical fiber 135 is a multimode optical fiber having a core diameter of 10 ⁇ m or more, and guides the illumination light emitted from the light source unit 131 to the coupling unit 133.
  • the illumination light emitted from the light source unit 131 can be efficiently guided to the coupling unit 133, and The illumination light can be handled easily.
  • the illumination light of the light source unit 105 is connected to the light guide 111 of the endoscope unit 103 by the coupling unit 133. Illumination light is guided to the light guide 111 of the endoscope unit 103 by the coupling optical system present in the coupling unit 133.
  • the drive mechanism 137 is realized by a known drive member such as an actuator or a moving stage.
  • the drive mechanism 137 controls the incident angle adjustment mechanism provided in the coupling unit 133 as described in detail below under the control of the control unit 139 described in detail below, and the endoscope unit in the coupling unit 133 is controlled. It is set so that the incident angle of the light beam (that is, the light beam of illumination light) entering the light guide 111 of 103 becomes an appropriate value.
  • the control unit 139 is realized by various IC chips including a CPU, a ROM, a RAM, and the like, for example.
  • the control unit 139 is a processing unit that comprehensively controls the operation of the light source unit 105 according to the present embodiment. Under the control of the control unit 101, for example, illumination light emission processing from the light source unit 131, and The control mechanism of the coupling unit 133 by the drive mechanism 137 is managed. Accordingly, the control unit 139 can perform control so that the incident angle of the light beam incident on the light guide 111 in the coupling unit 133 is variable.
  • control unit 139 causes the light source unit 131 to emit illumination light by outputting a predetermined control signal to the light source unit 131.
  • the control unit 139 can use various parameters and databases stored in the storage unit 141, various programs, and the like when performing various control processes.
  • the control unit 139 receives light rays that enter the light guide 111 in the coupling unit 133 in accordance with various user operations performed by the operator of the endoscope apparatus 10 under the control of the control unit 101. The angle may be controlled.
  • the storage unit 141 is realized by, for example, a ROM, a RAM, a storage device, or the like.
  • the storage unit 141 stores various parameters and databases, various programs, and the like that can be referred to when the control unit 139 performs various control processes.
  • the storage unit 141 may store temporary data generated when the control unit 139 performs various control processes, various history information, and the like.
  • the storage unit 141 allows the control unit 139 to freely perform data read / write processing.
  • the light source unit 131 When illumination light having a wavelength that belongs to the visible light band is used as illumination light, the light source unit 131 according to the present embodiment has a plurality of solid light sources 143a, 143b, 143c, 143d, 143e... (Hereinafter collectively referred to as solid light source 143) is preferable.
  • Each solid light source 143 emits light having a predetermined wavelength.
  • the combination of the wavelengths of the light emitted by each solid light source 143 is not particularly limited.
  • the light emitted from each solid light source 143 is mixed to obtain white light as a result of color mixing. Preferably there is.
  • any one of the solid light sources 143a to 143e emits red light
  • any one of the solid light sources 143a to 143e emits green light
  • the solid light sources 143a to 143a Any one of 143e preferably emits blue light.
  • any one of the solid light sources 143a to 143e may emit violet light or yellow light
  • any one of the solid light sources 143a to 143e may emit infrared light.
  • each solid light source 143 The light emitted from each solid light source 143 is controlled in its propagation direction by the lens L, mirror M, and optical filter F provided at the subsequent stage of each solid light source 143, and the lens provided at the subsequent stage of the mirror M and the optical filter F. L is finally relayed to the next optical system.
  • the mirror M has an optical characteristic that reflects light emitted from the solid light source 143a
  • each optical filter F includes light from the solid light source 143 provided upstream of each optical filter F.
  • the light after color mixing is emitted to the outside of the light source unit 131 as illumination light.
  • Etendue is another expression of the conservation law of Helmholtz-Lagrange, and is represented by the product of the light emitting area and the solid angle of the light beam.
  • the light emission area of the light source and the solid angle of the light emitted from the light source are respectively S 1 and ⁇ 1
  • the area of the incident surface of the light guide 111 and the light incident on the incident surface The solid angles are S 2 and ⁇ 2 , respectively.
  • the unit of Etendue is [mm 2 ⁇ sr] (square mm ⁇ steradian) when the SI unit system is used.
  • the solid angle [unit: sr] is expressed by the following equation 103 using the plane angle ⁇ [unit: rad] as shown in FIG. 6B.
  • the numerical aperture NA of the light guide can be expressed as the following formula 105 using the plane angle ⁇ . Therefore, the equation 101 that gives the value of Etendue can be expressed as the following equation 107 using the following equations 103 and 105.
  • D is the diameter of the light guide.
  • Etendue uses the radiation angle distribution I ( ⁇ , ⁇ ) ( ⁇ , ⁇ : the radiation angle of the light beam) of the intensity of the light beam emitted from the light source. It can be expressed by the following formula 109.
  • the radiation angle distribution I ( ⁇ , ⁇ ) of such intensity can be expressed by the following formula 111 using the intensity I 0 .
  • Etendue is as shown in Equation 113 below.
  • the Etendue of the Lambertian light source is smaller than that of the light source having no radiation angle distribution.
  • the solid-state light source 143 used in the light source unit 131 according to the present embodiment is a light source having an etendue equal to or lower than that of the light guide 111.
  • a solid light source By using such a solid light source, it is possible to use all of the light emitted from the solid light source, and the utilization efficiency of the light source can be improved.
  • a light source preferable as a solid light source has a very small light emission point, and thus can easily emit parallel light by an optical system (that is, a solid angle becomes almost zero) (for example, a semiconductor light source) It can be seen that this is a laser light source. It is also possible to use a laser-excited phosphor light source that uses such a laser light source as an excitation light source for the phosphor.
  • LED light emitting diode
  • the example of the light source unit 131 according to the present embodiment has been described in detail above with reference to FIGS. 5 to 6B.
  • the configuration of the light source unit 131 illustrated in FIG. 5 is merely an example, and the configuration of the light source unit 131 according to the present embodiment is not limited to the configuration illustrated in FIG.
  • the inventors of the present invention have found that the incident angle of a light beam incident on the light guide (on the optical axis of the light guide). On the other hand, it was found that the radiation angle of the light beam emitted from the light guide can be controlled by changing the angle formed by the incident light beam.
  • a general light guide is an index guide type in which a plurality of multimode optical fibers having a core diameter of about 10 ⁇ m to 80 ⁇ m are bundled (bundled). This is because the light beam is emitted from the exit end face while maintaining the angle.
  • the incident angle of the light beam is preserved, the incident position of the light ray is not preserved. Therefore, the light beam incident at a certain incident angle becomes a ring-shaped light beam while maintaining the angle, and is emitted from the emission end face. Radiated.
  • the incident angle of the light beam guided to the light guide 111 is controlled by controlling the incident angle of the light beam to the light guide as described above, and the illumination light is irradiated.
  • the area size is variable.
  • the coupling unit 133 may control the incident angle of the light beam incident on the light guide into two types, for example, an incident angle close to parallel light and an incident angle close to the numerical aperture NA of the light guide.
  • the incident angle close to the parallel light and the incident angle close to the numerical aperture NA of the light guide may be controlled in multiple steps.
  • the coupling part 133 having such a function preferably has at least a collimator lens 151 and an incident angle adjustment mechanism 153 as shown in FIG. 8A.
  • the collimator lens 151 is an optical element that converts the illumination light from the light source unit 131 incident on the coupling unit 133 into parallel light.
  • the incident angle adjusting mechanism 153 is a mechanism for adjusting the incident angle of the illumination light to the light guide as described with reference to FIG.
  • the incident angle adjusting mechanism 153 changes the state of the incident angle adjusting mechanism 153 by the function of the drive mechanism 137 shown in FIG. 4, for example, changes the beam size and divergence angle of the light incident on the coupling portion 133. By doing so, the incident angle of the illumination light to the light guide 111 changes.
  • a specific example of the incident angle adjusting mechanism 153 will be described later.
  • the coupling unit 133 preferably further includes a coupling optical system 155 at the rear stage of the incident angle adjusting mechanism 153, as shown in FIG. 8B.
  • the coupling optical system 155 is an optical system that couples a light beam whose incident angle to the light guide is controlled to the light guide 111 of the endoscope unit 103.
  • a known optical system such as a fixed magnification optical system can be applied as long as the incident angle of the controlled illumination light is not changed.
  • the coupling optical system 155 may have the function of the incident angle adjustment mechanism 153. That is, by changing the magnification of the coupling optical system 155, the beam size of the illumination light on the incident surface of the light guide 111 can be changed. The change in the beam size changes the incident angle of the illumination light on the incident surface of the light guide 111, so that the illumination area control as described with reference to FIG. 7 can be realized.
  • the illumination area When the illumination area is controlled in this way and the illumination area is narrowed, the amount of illumination light dispersed in the wide area before the change is concentrated in the narrow illumination area after the change. Become. As a result, the illumination area can be made brighter and illumination light can be used more efficiently.
  • a diffusion plate is used as the incident angle adjusting mechanism 153.
  • the divergence angle of light rays that is, illumination light
  • the diffusing plate can be changed, thereby changing the incident angle of the light rays to the light guide 111. be able to.
  • a diffuser plate is provided as the incident angle adjusting mechanism 153 at the rear stage of the collimator lens 151, and fixed magnification optical as an example of the coupling optical system 155 at the rear stage of the diffuser plate.
  • a system is provided.
  • the incident angle of the illumination light on the incident surface of the light guide 111 is a relatively small angle.
  • the illumination light irradiation area becomes relatively narrow.
  • the incident angle of the illumination light on the incident surface of the light guide 111 is a relatively large angle.
  • the illumination light irradiation area is relatively wide.
  • the coupling portion 133 a plurality of diffusion plates having different diffusion angles are prepared, and the functions as described above can be realized by replacing the diffusion plates disposed on the optical path by the driving mechanism 137. It becomes possible. Note that the same effect as described above can be obtained not by replacing a plurality of diffusion plates having different diffusion angles but by increasing or decreasing the number of diffusion plates arranged on the optical path.
  • a diffusion plate is provided as the incident angle adjusting mechanism 153.
  • the incident angle adjusting mechanism 153 a multi-lens having a plurality of lenses arranged in an array.
  • An array (Multi Lens Array: MLA) is provided.
  • the multi-lens array is provided as the incident angle adjusting mechanism 153 at the subsequent stage of the collimator lens 151, and is fixed as an example of the coupling optical system 155 at the subsequent stage of the multi-lens array.
  • a magnification optical system is provided.
  • the incident angle of the illumination light on the incident surface of the light guide 111 becomes a relatively small angle
  • the light irradiation area becomes relatively narrow.
  • the incident angle of the illumination light on the incident surface of the light guide 111 is a relatively large angle.
  • the illumination light irradiation area becomes relatively wide.
  • the above-described function can be realized. Is possible. Note that the same effect as described above can be obtained by increasing or decreasing the number of multi-lens arrays arranged on the optical path instead of replacing a plurality of multi-lens arrays having different focal lengths.
  • the incident angle adjusting mechanism 153 is provided with a lens having a conical surface, a lens having a concave surface corresponding to the conical surface, a separable beam size converting mechanism, and a diffusion plate.
  • This beam size conversion mechanism can convert the beam size of incident illumination light by separating the two lenses and changing the distance between the two lenses. That is, when the two lenses are integrated, the beam size of the incident illumination light is maintained in the incident state, while the incident illumination is separated by separating the lens having the conical surface. The light beam size can be converted to a larger size.
  • this beam size conversion mechanism is an optical element capable of optically creating a virtual light surface.
  • the illumination light transmitted through the beam size conversion mechanism is further diffused by the diffusion plate, and a coupling optical system provided in the subsequent stage of the diffusion plate (in this case, the coupling optical system is configured by a fixed magnification optical system and a reduction optical system). ), The incident angle of the light beam on the light guide 111 can be changed.
  • the incident angle of the illumination light on the incident surface of the light guide 111 is The angle becomes relatively small, and the illumination light irradiation area becomes relatively narrow.
  • the incident angle of the illumination light on the incident surface of the light guide 111 becomes a relatively large angle, and the illumination light The irradiation area is relatively wide.
  • a fourth specific example of the coupling unit 133 will be described with reference to FIG.
  • a reflection optical system such as a mirror is provided as the incident angle adjusting mechanism 153, and the incident angle of the light beam to the light guide 111 is controlled by controlling the incident position to the coupling optical system 155. Can be changed.
  • the light guide 111 is controlled by controlling the position of the reflection optical system so that the illumination light from the light source unit 131 is incident near the optical axis of the coupling optical system 155.
  • the incident angle of the illumination light on the incident surface becomes a relatively small angle, and the illumination light irradiation area becomes relatively narrow.
  • the reflection optical system by controlling the position of the reflection optical system so that the illumination light from the light source unit 131 is incident on a position away from the optical axis of the coupling optical system 155,
  • the incident angle of the illumination light on the incident surface of the light guide 111 is a relatively large angle, and the illumination light irradiation area is relatively wide.
  • the illumination light is incident on the light guide 111 from a certain direction.
  • the light guide 111 composed of a plurality of optical fibers, as described above, Since the incident angle is preserved but the incident position is not preserved, the illumination light incident from one direction is diffracted over the entire circumference, and the entire desired area can be illuminated.
  • the function as described above can be realized by controlling the position of the reflection optical system such as a mirror by the driving mechanism 137 in the coupling portion 133.
  • a reflection optical system such as a divided mirror (hereinafter also simply referred to as “divided mirror”) is provided as the incident angle adjusting mechanism 153.
  • the incident angle of the light beam on the light guide 111 is changed by controlling the incident angle of the illumination light beam on the coupling optical system 155.
  • the reflective optical system which was a single mirror in the fourth specific example, may be divided into two mirrors located on the front side and the back side of the plane on a plane parallel to the plane of the page.
  • the reflection optical system which is a single mirror in the fourth specific example, may be divided into two mirrors positioned on the upper side and the lower side of the drawing plane in a plane perpendicular to the drawing plane.
  • the incident angle of the illumination light on the incident surface of the light guide 111 can be changed.
  • the above function can be realized.
  • FIGS. 14 to 15B a sixth specific example of the coupling unit 133 will be described with reference to FIGS. 14 to 15B.
  • a refractive optical system such as a structural prism is provided as the incident angle adjusting mechanism 153, and the incident angle of the illumination light to the coupling optical system 155 is set. By controlling, the incident angle of the light beam to the light guide 111 can be changed.
  • the structural prism that can be used as the incident angle adjusting mechanism 153 has optical transmission surfaces S1, S2, and S3.
  • the optical transmission surface S1 and the optical transmission surface S3 are parallel to each other. Further, the optical transmission surface S2 and the optical transmission surface S3 are non-parallel, and the optical transmission surface S2 is an inclined surface having a predetermined angle.
  • the optical axis of the light incident on the optical transmission surface S1 and exiting from the optical transmission surface S3 is the optical transmission surface S1 and the optical transmission surface S3.
  • the optical axis of the light incident on the optical transmission surface S2 and emitted from the optical transmission surface S3 is inclined with respect to the optical axis of the optical system in which the structural prism is provided. For this reason, the refraction effect has an angle corresponding to the inclination angle of the optical transmission surface S2.
  • the position of the refractive optical system (structural prism) is controlled so that the illumination light from the light source unit 131 is substantially parallel to the optical axis of the coupling optical system 155.
  • the incident angle of the illumination light on the incident surface of the light guide 111 becomes a relatively small angle, and the irradiation area of the illumination light becomes relatively narrow.
  • the irradiation area of the illumination light becomes relatively narrow.
  • the incident angle of the illumination light on the incident surface of the light guide 111 is a relatively large angle, and the illumination light irradiation area is relatively wide.
  • the illumination light is incident on the light guide 111 from a certain direction.
  • the light guide 111 composed of a plurality of optical fibers, as described above, Since the incident angle is preserved but the incident position is not preserved, the illumination light incident from one direction is diffracted over the entire circumference, and the entire desired area can be illuminated.
  • the above function can be realized.
  • the refractive optical system such as the structural prism is disposed between the collimator lens 151 and the coupling optical system 155, but the refractive optical system such as the structural prism is disposed immediately before the light guide 111 incident surface.
  • the same effect can be obtained.
  • the incident angle adjusting mechanism 153 is provided and the incident angle of the light beam to the light guide 111 is changed.
  • the optical axis of the light guide 111 in the coupled state The incident angle of the illumination light to the light guide 111 can also be changed by changing the angle formed by the optical axis of the coupling portion 133.
  • the coupling unit 133 when the coupling unit 133 is coupled to the light guide 111 so that the optical axis of the coupling unit 133 and the optical axis of the light guide 111 coincide, the incident angle of the illumination light on the incident surface of the light guide 111 is The angle becomes relatively small, and the illumination light irradiation area becomes relatively narrow.
  • the coupling portion 133 when the coupling portion 133 is inclined obliquely with respect to the light guide 111, the incident angle of the illumination light on the incident surface of the light guide 111 becomes a relatively large angle, and the illumination light irradiation area becomes relatively wide. .
  • the light source unit 105 that can change the radiation angle of the illumination light has been specifically described above with reference to FIGS. 4 to 15B.
  • FIG. 16 is a block diagram schematically illustrating an example of a configuration of a control unit included in the endoscope apparatus according to the present embodiment.
  • 17 and 18 are explanatory diagrams for explaining the illumination area control process in the control unit according to the present embodiment.
  • FIG. 19 is a flowchart illustrating an example of the flow of the illumination area control process in the control unit according to the present embodiment.
  • FIG. 20A is a flowchart showing an example of a state determination process of the endoscope unit in the control unit according to the present embodiment, and FIG.
  • FIG. 20B is a state determination of the endoscope unit in the control unit according to the present embodiment. It is the flowchart which showed another example of the flow of a process.
  • FIG. 21 is an explanatory diagram for explaining the state determination process of the endoscope unit in the control unit according to the present embodiment, and FIGS. 22 and 24 explain the image connection process in the control unit according to the present embodiment.
  • FIG. 23 is a block diagram illustrating an example of a configuration of an image connection processing unit included in the control unit according to the present embodiment.
  • the control unit 101 which is an example of a control unit, is a unit that controls the overall functions of the endoscope apparatus 10 as described above, and configures the endoscope apparatus 10.
  • the operating states of the endoscope unit 103, the light source unit 105, the imaging unit 107, and the display unit 109 are collectively controlled.
  • control unit 101 mainly includes an overall control unit 201, and includes an operation information acquisition unit 203, a data acquisition unit 205, an endoscope unit state determination unit 207, an image. It is preferable to further include a connection processing unit 209, an output processing unit 211, a display control unit 213, and a storage unit 215.
  • the overall control unit 201 is realized by, for example, a CPU, ROM, RAM, input device, communication device, and the like.
  • the overall control unit 201 is a processing unit that comprehensively controls operation states of various units included in the endoscope apparatus 10 according to the present embodiment. That is, the overall control unit 201 refers to the operation information corresponding to various user operations performed by the operator of the endoscope apparatus 10 acquired by the operation information acquisition unit 203 at the subsequent stage, and Various functions desired by the operator can be performed on the mirror unit 103, the light source unit 105, the imaging unit 107, and the display unit 109.
  • the endoscope apparatus 10 it is possible to change the radiation angle of the illumination light by appropriately operating the endoscope unit 103 or the light source unit 105 as described above. is there. Thereby, it is possible to realize spot-shaped illumination light in which the amount of light near the optical axis in the insertion portion of the endoscope unit 103 is larger than the amount of light around the optical axis.
  • the overall control unit 201 appropriately controls the endoscope unit 103 or the light source unit 105 to control the radiation angle distribution of the spot-like illumination light in multiple stages so that the illumination area can be made coaxially variable. Is possible. For example, as illustrated in FIGS. 17 and 18, the overall control unit 201 performs illumination in addition to a general state in which illumination light is controlled to illuminate the entire observable region of the endoscope unit 103. A state in which the radiation angle distribution of light is concentrated in the center, a state in which the peripheral region of the observable region is illuminated, and a state in which an intermediate region between the center and the peripheral region is illuminated. It is possible to control in stages.
  • the endoscope apparatus 10 is a part of the endoscope unit 103 inserted into the observation object S by appropriately using such control of the illumination light irradiation area. Depending on whether the insertion unit is moving inside the observation object S or stopped, the radiation angle of the illumination light is changed.
  • the illumination light is irradiated only on the central portion in the observable region of the endoscope unit 103, and after the distal end portion of the endoscope unit 103 is positioned at the target site, the illumination light is irradiated.
  • the illumination area is returned to the normal illumination state.
  • the overall control unit 201 intentionally changes the radiation angle distribution of the illumination light when the endoscope unit 103 is inserted or withdrawn, so that when the endoscope unit 103 is inserted,
  • the endoscope unit 103 can be inserted while easily confirming the front. That is, since the front view can be confirmed, it is possible to further reduce the burden on the subject by further increasing the insertion speed of the endoscope unit 103 while ensuring safety.
  • the overall control unit 201 reduces the radiation angle of the illumination light when the insertion unit of the endoscope unit 103 is moving forward in the observation object S, and When the insertion part of the mirror unit 103 is stopped inside the observation object S or when the insertion part is retracting inside the observation object S, it is preferable to increase the radiation angle of the illumination light.
  • FIG. 1 An example of the flow of the illumination area control processing by the overall control unit 201 as described above is shown in FIG.
  • the overall control unit 201 is configured so that a wide range is illuminated (in other words, the entire observable region of the endoscope unit 103 is illuminated), the endoscope unit 103 or the light source.
  • the unit 105 is controlled (processing 1).
  • the overall control unit 201 determines whether or not acquisition of state information indicating that “the insertion unit of the endoscope unit 103 is moving forward” has continued for 1 second (determination 1). When the forward state continues for 1 second (determination 1-YES), the overall control unit 201 enters a state in which the central portion shown in FIGS. 17 and 18 is illuminated so as to narrow the illumination area. As described above, the endoscope unit 103 or the light source unit 105 is controlled (processing 3).
  • the overall control unit 201 obtains state information indicating that “the insertion unit of the endoscope unit 103 is retracted”. It is determined whether or not it has continued for 2 seconds (determination 2). If the reverse state continues for 2 seconds (determination 2-YES), the overall control unit 201 illuminates the intermediate area or the peripheral area shown in FIGS. 17 and 18 so as to widen the illumination area (for example, The endoscope unit 103 or the light source unit 105 is controlled (process 4) so that the state or the entire observable region is illuminated).
  • the overall control unit 201 acquires state information indicating that the insertion unit of the endoscope unit 103 is stopped. It is determined whether or not it has continued for 3 seconds (determination 3). When the stop state continues for 3 seconds (determination 3-YES), the overall control unit 201 increases the illumination area (for example, illuminates the entire observable area). The endoscope unit 103 or the light source unit 105 is controlled (processing 5).
  • the overall control unit 201 returns to the process 2 while continuing the illumination area control process while maintaining the current illumination state.
  • the endoscope apparatus 10 By performing such processing, the endoscope apparatus 10 according to the present embodiment can more quickly insert the endoscope into the observation object, and the endoscope operator can The burden can be further reduced.
  • Such control of the illumination area is considered to be useful when an operator uses a so-called telemedicine system or the like to remotely observe the living body of a subject existing in a remote place. It is done.
  • the number of seconds in each determination shown in FIG. 19 is merely an example, and is not limited to the value shown in FIG. 19, and can be set to an arbitrary value. Moreover, the state information regarding the state of the endoscope unit output from the endoscope unit state determination unit 207 will be described below again.
  • the illumination area of the illumination light can be obtained by an operator of the endoscope apparatus 10 such as a doctor or a scopist performing a predetermined user operation. It is possible to change with your own will.
  • the overall control unit 201 changes the radiation angle of the illumination light with respect to the same observation site, for example, as shown in FIGS.
  • a plurality of captured images may be generated. By generating a plurality of captured images related to the same observation site, it is possible to generate a connected image as will be described later. Such a linked image generation process will be described later again.
  • the operation information acquisition unit 203 is realized by, for example, a CPU, ROM, RAM, input device, communication device, and the like.
  • the operation information acquisition unit 203 acquires operation information corresponding to various user operations performed on the endoscope apparatus 10 by the operator of the endoscope apparatus 10.
  • the operation information acquisition unit 203 outputs the acquired operation information to the overall control unit 201.
  • the overall control unit 201 implements an operation desired by the operator of the endoscope apparatus 10 by referring to the operation information and performing appropriate control on each unit constituting the endoscope apparatus 10. It becomes possible to do.
  • the operation information acquisition unit 203 acquires operation information corresponding to a user operation performed by the operator of the endoscope apparatus 10 to change the radiation angle of the illumination light
  • the operation information acquisition unit 203 converts the operation information to the overall control unit.
  • the overall control unit 201 changes the radiation angle of the illumination light to a state desired by the operator regardless of the state of the endoscope unit 103.
  • the data acquisition unit 205 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like.
  • the data acquisition unit 205 acquires image data of a captured image generated by the imaging unit 107 of the endoscope apparatus 10 and related to the inside of the observation target (for example, a living body) S.
  • the data acquisition unit 205 notifies the overall control unit 201 that the image data has been acquired, and the endoscope unit state determination unit 207, the image The acquired image data can be output to the connection processing unit 209, the output processing unit 211, and the like.
  • the data acquisition unit 205 may associate time information related to the date and time when the image data is acquired with the image data of the acquired captured image, and record the history information in the storage unit 215 as history information.
  • the data acquisition unit 205 outputs output information related to acceleration output from the acceleration sensor 121 as needed. get.
  • the data acquisition unit 205 outputs the acquired output information related to the acceleration to the endoscope unit state determination unit 207.
  • the data acquisition unit 205 may associate the time information related to the date and time when the data is acquired with the output information data related to the acquired acceleration, and then record it in the storage unit 215 as history information.
  • the endoscope unit state determination unit 207 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the endoscope unit state determination unit 207 uses an output value from the acceleration sensor 121 provided in the endoscope unit 103 or a captured image regarding the inside of the observation target S output from the imaging unit 107, The state of the endoscope unit 103 (that is, whether it is moving forward, moving backward, stopped, etc.) is determined.
  • the endoscope unit state determination unit 207 uses the output value from the acceleration sensor 121 to perform the following process. It becomes possible to determine the state of the endoscope unit 103.
  • the endoscope unit state determination unit 207 acquires acceleration data (that is, data related to the output value of the acceleration sensor 121) from the data acquisition unit 205 (processing 1), the endoscope unit state determination unit 207 is set in advance.
  • the window data is extracted from the acceleration data based on the time window range (process 2).
  • the endoscope unit state determination unit 207 calculates feature values characterizing the data using window data having a predetermined time width (processing 3).
  • the endoscope unit state determination unit 207 can continuously calculate the above-described feature amounts by acting while overlapping such time windows.
  • the feature amount calculated by the endoscope unit state determination unit 207 is not particularly limited, and an average value, a variance value, a maximum value, and a mean square value of acceleration within a predetermined time window range. It is possible to use a known statistic such as a feature amount. In the case of an acceleration sensor that is generally used, even if the sensor is an acceleration sensor specialized in a uniaxial direction or a triaxial direction, minute vibrations or the like are detected. A lot of noise is superimposed. However, it is possible to reduce the influence of such noise and calculate the state of the endoscope unit 103 more accurately by calculating the above-described feature amount using a time window having a predetermined width. It becomes.
  • the endoscope unit state determination unit 207 compares the calculated feature amount with a predetermined threshold value defined in advance (Process 4). Thereby, the endoscope unit state determination unit 207 can determine the state of the endoscope unit 103 (that is, whether the endoscope unit 103 is moving forward, retracting, stopped, etc.) (processing). 5).
  • the endoscope unit state determination unit 207 determines the state of the endoscope unit 103 using a captured image.
  • the endoscope unit state determination unit 207 determines the state of the endoscope unit 103 using a so-called moving body detection technique.
  • the moving object detection technique include a template matching method and a background estimation method.
  • a technique using feature point extraction for form recognition such as template matching or background estimation, can be applied. Have difficulty. Therefore, the endoscope unit state determination unit 27 determines the state of the endoscope unit 103 using a moving object detection technique such as a so-called block matching method or gradient method.
  • the endoscope unit state determination unit 207 uses the moving object detection technique as described above to calculate a matching pattern in the image. Detection is performed (process 12), and optical flow estimation is performed based on the obtained matching pattern (process 13).
  • the endoscope unit state determination unit 207 determines whether the sub-block (template) in the image of interest and another image at another time A region having a high correlation with the sub-block is extracted.
  • the size of the template is increased and the amount of calculation is reduced by considering the premise that the background moves at the same speed as in normal motion detection. Is possible.
  • the moving object detection as described above, it is important that there are many portions having differences from the surroundings as feature points in the image.
  • the moving object speed instead of the moving object speed, the moving object moves. Since the direction or the movement is estimated, it is possible to determine the state of the endoscope unit 103 even when the number of feature points is small.
  • the endoscope unit state determination unit 207 determines the state of the endoscope unit 103 based on the estimated optical flow (processing 14). Specifically, as schematically shown in FIG. 21, when the endoscope unit 103 is moving forward, the direction of the optical flow is a direction from the central portion toward the peripheral portion, When the endoscope unit 103 is retracted, the direction of the optical flow is a direction from the peripheral part to the central part. Further, when the endoscope unit 103 is stopped, there is no significant change in the optical flow. Therefore, the endoscope unit state determination unit 207 can determine the state of the endoscope unit 103 by paying attention to the direction of the optical flow.
  • a dye agent for dye endoscopy it is easy to extract feature points from a captured image obtained by spraying a dye agent for dye endoscopy. That is, by spreading a fluorescent dye having a specific color tone to the observation site, the unevenness of the lesion is emphasized, and specific staining of the tumor or the lesion occurs. Thereby, it becomes easy to obtain the correlation between blocks, and feature point extraction becomes easier.
  • a dye is not particularly limited, for example, Lugol method or toluidine blue staining when observing the esophagus, indigo carmine method or indigo carmine acetate method when observing the stomach, Examples thereof include a crystal violet method, an indigo carmine method, and a methylene blue method for observation.
  • NBI narrowband light observation
  • the state determination process of the endoscope unit 103 in the endoscope unit state determination unit 207 has been specifically described above with reference to FIGS. 20A to 21.
  • the endoscope unit state determination unit 207 determines the state of the endoscope unit 103 at any time as described above, and outputs the obtained determination result to the overall control unit 201.
  • the endoscope unit state determination unit 207 determines the state of the endoscope unit 103 by using each method. Both results may be compared to each other. By comparing the determination result by one method with the determination result by the other method, the state of the endoscope unit 103 can be determined more reliably.
  • the image connection processing unit 209 is realized by a CPU, a ROM, a RAM, and the like, for example.
  • the image connection processing unit 209 uses a plurality of captured images for the same observation site, extracts a partial area in the captured image according to the luminance value for each of the plurality of captured images, A processing unit that generates a connected image in which variations in luminance values such as being too bright and saturated due to the amount of illumination light and being too dark and buried in noise are suppressed by connecting a plurality of extracted images to each other. It is.
  • an image connection process performed by the image connection processing unit 209 according to the present embodiment will be described in detail with reference to FIGS.
  • the following phenomenon may occur when a luminal organ is an observation object. That is, when the distribution of the maximum luminance in the captured image is biased to the peripheral part and the central luminance important as an observation target cannot be obtained, or conversely, when the luminance is reduced to the central part and the central luminance is increased, Even in the central part, the brightness of the area close to the camera may increase, and the amount of light in the peripheral part may be insufficient. In illumination in a general endoscope apparatus, the entire irradiation region and the light amount distribution in the region are not changed. Therefore, if there is a remarkably bright region, the total light amount is reduced by AGC.
  • the image connection processing unit 209 uses a plurality of captured images of the same observation site, and connects a part of each of the plurality of captured images to each other to illuminate.
  • a connected image is generated in which variations in luminance values such as being too bright and saturated due to the amount of light and being too dark and buried in noise are suppressed.
  • the radiation angle of illumination light is variable in three steps from a wide radiation angle to a narrow radiation angle, and three captured images are generated for the same observation site.
  • the hatched area is an area in which imaging is performed in an appropriate illumination light state.
  • the image connection processing unit 209 can generate a single connected image by cutting out regions having appropriate luminance values and connecting them to each other.
  • the generated connected image is suppressed from variations in luminance values such as being too bright and saturated due to the amount of illumination light and being too dark and buried in noise, thereby preventing loss of image information. It becomes possible.
  • the observation object S is a living body
  • the shape of the inside of the living body gradually changes from moment to moment, and camera shake tends to occur because the camera used for imaging is also in the form of an endoscope. For this reason, it is difficult to perform correct connection even if only images having the optimum luminance are collected from a plurality of captured images and arranged in pixels.
  • the image connection processing unit 209 can generate a connected image in consideration of the temporal change of the observation object S and camera shake by performing the processing described below.
  • the image connection processing unit 209 includes an image extraction unit 221, a feature point extraction unit 223, a feature point change estimation unit 225, and an image connection unit 227. ing.
  • the image extraction unit 221 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the image extraction unit 221 compares a plurality of captured images used for generating a connected image, extracts a region having an appropriate luminance value and contrast from each captured image, and uses it as an extracted image.
  • the image extraction unit 221 may perform coordinate conversion on each captured image as necessary, for example, by converting an image including distortion due to the super-wide-angle lens into a planar image.
  • the image extraction unit 221 cuts out each captured image in a range wider than an area having an appropriate state, and generates an extracted image.
  • the extracted image extracted by the image extracting unit 221 is output to the feature point extracting unit 223 and the image connecting unit 227 in the subsequent stage.
  • the feature point extraction unit 223 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the feature point extraction unit 223 specifies a portion (overlap portion) that overlaps each other for each of the generated extracted images, extracts feature points for the specified overlap portion, and associates each feature point with each other. carry out.
  • the feature point extraction unit 223 compares two extracted images and identifies an overlapping portion by a known method.
  • the feature point extraction unit 223 identifies a hatched portion as an overlapping portion, and performs feature point extraction and association for the overlapping portion.
  • the feature point extraction unit 223 performs the identification of overlapping portions and the extraction and association of feature points as described above, the obtained result is sent to the feature point change estimation unit 225 and the image connection unit 227 described later. Output.
  • the feature point change estimation unit 225 is realized by, for example, a CPU, a ROM, a RAM, and the like.
  • the feature point change estimation unit 225 estimates the size of the extracted feature point over time or deformation between the extracted images. That is, the feature point change estimation unit 225 assumes that the feature point has moved or deformed at the imaging interval when the captured image that is the basis of each extracted image is captured. Are estimated respectively.
  • the estimation method of the movement amount and the deformation amount is not particularly limited, and is a known method based on the imaging timing of the imaging unit 107, general knowledge about the pulsation of the observation object S, and the like. Can be estimated.
  • the feature point change estimation unit 225 estimates the temporal change of the feature point as described above, the feature point change estimation unit 225 outputs the obtained estimation result to the image connection unit 227 described later.
  • the image connecting unit 227 is realized by a CPU, a ROM, a RAM, and the like, for example.
  • the image connecting unit 227 is generated by the image extracting unit 221 based on the information on the feature points obtained by the feature point extracting unit 223 and the information on the time change of the feature points obtained by the feature point change estimating unit 225.
  • the connected extracted images are connected.
  • the image connecting unit 227 assumes that the feature point has moved or deformed when the captured image that is the basis of each extracted image is captured, and while correcting the movement amount and the deformation amount, Concatenate the extracted images. As a result, one image is generated from the plurality of extracted images, as shown in the upper right part of FIG.
  • the image connecting unit 227 can perform a correction process using a known camera shake correction technique to remove a camera shake part existing in the connected image.
  • the image connecting unit 227 can also perform other image correction processing such as luminance value and contrast correction processing, and ghost removal of connected portions.
  • the image connecting unit 227 outputs the obtained connected image to the output processing unit 211 when the connected image is generated at any time as described above.
  • the output processing unit 211 is realized by, for example, a CPU, a ROM, a RAM, an output device, a communication device, and the like.
  • the output processing unit 211 outputs the image data of the captured image acquired by the data acquisition unit 205 and the image data of the connected image generated by the image connection processing unit 209 to the operator of the endoscope apparatus 10.
  • the output processing unit 211 displays various acquired image data on the display unit 109 in cooperation with the display control unit 213, thereby allowing the operator of the endoscope apparatus 10 to observe the observation target (for example, a living body) S. It is possible to provide an observation image obtained by observing the inside.
  • the output processing unit 211 outputs the image data of the captured image acquired by the data acquisition unit 205 and the image data of the connected image generated by the image connection processing unit 209 as a printed matter or external information processing as data. It is possible to output to a device or a server.
  • the output processing unit 211 outputs these image data to an external information processing apparatus, server, or the like, whereby various image data captured by the endoscope apparatus 10 is stored in the information processing apparatus, server, or the like. It is possible to automatically associate with an electronic medical record or the like, or to automatically attach an image to the electronic medical record or the like.
  • the output processing unit 211 receives the state determination result of the endoscope unit state determination unit 207 under the control of the overall control unit 201, and “vibrates the endoscope unit 103 moving back and forth.
  • the operator of the endoscope apparatus 10 may be notified of a state determination result such as “is being rotated”. By outputting such notification to the operator, for example, the operator of the endoscope apparatus 10 is alerted so as not to cause blurring or the like when the operator attempts to capture a still image of the observation site. It becomes possible.
  • Such notification is particularly useful when a plurality of captured images are generated for the same observation site for the purpose of generating the above-described connected image.
  • the output processing unit 211 receives a state determination result of the endoscope unit state determination unit 207 under the control of the overall control unit 201, and warns the operator that there is a possibility of thermal damage. May be notified.
  • Such notifications and warnings may be output as character data via the display control unit 213, or may be output as voice data such as voice and warning sounds, or vibrations that do not surprise the operator. May be output.
  • the display control unit 213 is realized by, for example, a CPU, a ROM, a RAM, an output device, a communication device, and the like.
  • the display control unit 213 outputs various results output from the output processing unit 211 to an output device such as a display provided in the display unit 109 of the endoscope device 10 or an output device provided outside the endoscope device 10. Display control when displaying on the screen. Thereby, the operator of the endoscope apparatus 10 can grasp various results on the spot.
  • the storage unit 215 is an example of a storage device provided in the control unit 101 of the endoscope apparatus 10, and is realized by a RAM, a storage device, or the like provided in the control unit 101.
  • the storage unit 215 stores various databases used when the control unit 101 according to the present embodiment performs various processes.
  • Various kinds of history information may be recorded in the storage unit 215.
  • various parameters, the progress of processing, etc. that need to be saved when the control unit 101 according to the present embodiment performs some processing, various databases, programs, and the like are appropriately stored. To be recorded.
  • the storage unit 215 includes a general control unit 201, an operation information acquisition unit 203, a data acquisition unit 205, an endoscope unit state determination unit 207, an image connection processing unit 209, an output processing unit 211, a display control unit 213, and the like. It is possible to perform read / write processing.
  • each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component.
  • the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.
  • a computer program for realizing each function of the control unit according to the present embodiment as described above can be produced and installed in a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the endoscope apparatus 10 it is possible to quickly insert the endoscope unit 103, and the burden on the operator of the endoscope apparatus 10 and the subject's Each burden can be reduced. Moreover, in the endoscope apparatus 10 according to the present embodiment, it is possible to suppress loss of information as much as possible by preventing luminance saturation when acquiring a captured image related to an observation target, and information from the acquired image Can be used to the fullest.
  • FIG. 25 is a block diagram for describing a hardware configuration of the control unit 101 according to the embodiment of the present disclosure.
  • the control unit 101 mainly includes a CPU 901, a ROM 903, and a RAM 905.
  • the control unit 101 further includes a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, and a connection port 923. And a communication device 925.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls the entire operation in the control unit 101 or a part thereof according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a host bus 907 constituted by an internal bus such as a CPU bus.
  • the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 915 is an operation means operated by the user such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 915 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or an external connection device 929 such as a mobile phone or a PDA corresponding to the operation of the control unit 101. It may be.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by a user using the above-described operation means and outputs the input signal to the CPU 901, for example. The user can input various data and instruct processing operations to the control unit 101 by operating the input device 915.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly.
  • Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles.
  • the output device 917 outputs, for example, results obtained by various processes performed by the control unit 101. Specifically, the display device displays results obtained by various processes performed by the control unit 101 as text or images.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the control unit 101.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 921 is a reader / writer for a recording medium, and is built in or externally attached to the control unit 101.
  • the drive 921 reads information recorded on a removable recording medium 927 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905.
  • the drive 921 can also write a record to a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory that is mounted.
  • the removable recording medium 927 is, for example, a DVD medium, an HD-DVD medium, a Blu-ray (registered trademark) medium, or the like.
  • the removable recording medium 927 may be a CompactFlash (registered trademark) (CompactFlash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 927 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.
  • CompactFlash registered trademark
  • SD memory card Secure Digital memory card
  • the connection port 923 is a port for directly connecting a device to the control unit 101.
  • Examples of the connection port 923 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and the like.
  • As another example of the connection port 923 there are an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, and the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
  • the communication device 925 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet or other communication devices.
  • the communication network 931 connected to the communication device 925 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .
  • An endoscope unit that is at least partially inserted into an observation object and propagates an image of the inside of the observation object irradiated with illumination light;
  • a light source unit that emits the illumination light that illuminates the inside of the observation object with respect to the endoscope unit;
  • An imaging unit that captures an image of the inside of the observation object propagated from the endoscope unit and generates a captured image inside the observation object;
  • a control unit that performs drive control of the endoscope unit, the light source unit, and the imaging unit; With The radiation angle of the illumination light is variable,
  • the control unit is configured to determine whether an insertion unit that is a part of the endoscope unit inserted into the observation object is moving inside the observation object or is stopped.
  • An endoscope apparatus that changes a radiation angle of the illumination light.
  • the illumination light is spot-like illumination light in which the light amount in the vicinity of the optical axis in the insertion portion is larger than the light amount in the vicinity of the optical axis,
  • the control unit reduces the radiation angle of the illumination light when the insertion unit is moving forward inside the observation object, and when the insertion unit is stopped inside the observation object, Alternatively, the endoscope apparatus according to (1), wherein when the inside of the observation object is retracted, the radiation angle of the illumination light is increased.
  • the endoscope unit is provided with an acceleration sensor, The endoscope apparatus according to (1) or (2), wherein the control unit determines whether the insertion unit is moving or stopped based on output information from the acceleration sensor.
  • the control unit calculates an optical flow of the captured image output from the imaging unit, and determines whether the insertion unit is moving or stopped based on the calculated optical flow.
  • the endoscope apparatus according to any one of 1) to (3).
  • the controller is When the insertion unit is stopped inside the observation object, the radiation angle of the illumination light is changed with respect to the same observation site, and the imaging unit allows a plurality of the same observation site to be changed.
  • a partial region in the captured image is extracted according to the luminance value to obtain an extracted image, Any one of (1) to (4), wherein a plurality of the extracted images are connected to each other to generate a connected image in which variations in luminance values due to the amount of illumination light are suppressed. Endoscopic device.
  • the controller is Extracting feature points for each of the extracted images, associating the extracted feature points between a plurality of the extracted images, specifying a region that has been imaged redundantly, Estimating temporal changes of feature points due to different imaging timings among the plurality of extracted images, The endoscope apparatus according to (5), wherein the plurality of extracted images are connected to each other in consideration of temporal changes of the feature points.
  • the control unit detects the movement of the insertion unit when generating the plurality of captured images for the same observation site, the control unit outputs a guide to the operator that the insertion unit has moved.
  • the endoscope apparatus according to 5) or (6).
  • the endoscope apparatus changes a radiation angle of the illumination light based on an operation signal corresponding to an operation performed by an operator.
  • An illumination optical system that propagates the illumination light to an observation site is provided inside the endoscope unit.
  • Mirror device The light source unit includes a light source unit that emits the illumination light, and a coupling unit that can be connected to a light guide provided in the endoscope unit.
  • the coupling unit includes a reflective optical system that reflects the illumination light emitted from the light source unit or a refractive optical system that refracts the illumination light, and a coupling optical system that couples the illumination light to the light guide; Is provided, By moving the reflective optical system or the refractive optical system, on the incident surface to the coupling optical system, the separation distance between the optical axis of the coupling optical system and the incident position of the illumination light is changed, The endoscope apparatus according to (10), wherein an incident angle of the illumination light is changed. (13) The endoscope apparatus according to (10), wherein an incident angle of the illumination light is changed by changing an angle formed by an optical axis of the coupling portion and an optical axis of the light guide.
  • An endoscope unit that is at least partially inserted into the observation object and propagates an image inside the observation object irradiated with illumination light; and the observation object with respect to the endoscope unit
  • a light source unit that emits the illumination light that illuminates the interior of the observation object, and an image that captures an image of the inside of the observation object propagated from the endoscope unit to generate a captured image inside the observation object
  • An endoscopic device having a unit and a radiation angle of the illumination light is variable
  • An insertion unit that is a part of the endoscope unit inserted into the observation object by the control unit that performs drive control of the endoscope unit, the light source unit, and the imaging unit is the observation object. Determining whether the object is moving inside or stopped, Changing the radiation angle of the illumination light according to the state of the insertion portion;
  • a control method for an endoscope apparatus including:

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

【課題】観察対象物の内部への内視鏡の挿入をより速やかに実施することが可能であり、内視鏡操作者の負担をより軽減すること。 【解決手段】本開示に係る内視鏡装置は、少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された観察対象物の内部の像を伝播する内視鏡ユニットと、内視鏡ユニットに対して、観察対象物の内部を照明する照明光を射出する光源ユニットと、内視鏡ユニットから伝播された観察対象物の内部の像を撮像して、観察対象物の内部の撮像画像を生成する撮像ユニットと、内視鏡ユニット、光源ユニット及び撮像ユニットの駆動制御を行う制御部とを備え、照明光の放射角度が可変となっており、制御部は、観察対象物の内部へと挿入された内視鏡ユニットの一部である挿入部が、観察対象物の内部を移動しているか、又は、停止しているかに応じて、照明光の放射角度を変更する。

Description

内視鏡装置及び内視鏡装置の制御方法
 本開示は、内視鏡装置及び内視鏡装置の制御方法に関する。
 例えば以下の特許文献1に開示されているような内視鏡装置を利用して、近年、様々な医療行為が行われるようになってきている。
 このような医療行為の一つに、開腹手術や開胸手術に替わる、硬性内視鏡を利用した腹腔鏡手術や胸腔鏡手術がある。硬性内視鏡を利用したこれらの手術は、患者にとっては侵襲性が低いと言われているが、施術者である医師にとっては、視野の狭窄、立体感の欠如、狭い空間での作業による他の手術器具とカメラとの干渉及び照明との干渉等といった、多くの困難がある。しかしながら、近年、撮像素子の微細化及び高精細化及び撮像エリアの広角化に伴い、解像度を維持した状態で撮像対象物までの距離を大きくすることが可能となってきている。これにより、従来と同じ解像度の映像を見ながら、従来よりもはるかに広い空間で作業を実施することができるようになってきた。
 また、内視鏡装置を利用した他の医療行為の一つに、軟性内視鏡を利用した管腔臓器の観察がある。管腔臓器について軟性内視鏡により取得された画像を表示画面に表示させた場合、画面中心部には、奥側に位置する臓器が表示され、画面周辺部には、軟性内視鏡から至近距離にある手前側の臓器が表示されることとなる。
特許第5750422号公報
 ここで、観察、診断、撮像又は治療目的で、体内(すなわち、管腔、体腔、体内腔等)に上記のような内視鏡を挿入する場合、患者の苦痛や負担を低減するために、目的部位まで速やかに内視鏡の先端部を移動させることが肝要である。
 しかしながら、通常の内視鏡照明を用いて観察しながら内視鏡の先端部を挿入する場合、特に、管腔臓器に挿入する場合には、目的部位が管腔の前方に存在して照明光が届きにくいために、挿入すべき部位の画像が相対的に暗くなってしまう。一方、内視鏡挿入時において、目的部位の途中に位置する臓器は、内視鏡の先端部からの距離が近いために、到達する照明光の光量は大きくなり、画像が明るくなる。
 一般的な内視鏡装置において撮像画像が生成される際には、撮像エリア内の輝度の平均値又は最大値を基準として撮像信号の利得が変化するように制御が行われる(Auto Gain Control:AGC)。そのため、撮像に際して撮像領域内に明るい領域が存在する場合、かかる明るい領域の輝度が飽和しないように、画像全体の輝度を下げるように撮像制御が行われてしまう。かかるAGC機能が機能する結果、挿入目的部位である管腔の奥の撮像画像は、より一層暗くなった状態で、内視鏡の操作者に提供されてしまう。
 これにより、内視鏡の操作者は、内視鏡の挿入目的部位の観察がより一層困難となり、体腔内を傷つけてしまう可能性が生じうる。かかる可能性を低減し、出血又は穿孔等の発生を避けるために、内視鏡の挿入速度は更にゆっくりとなり、検査等に要する時間が延びることで、患者の精神的負担及び肉体的負担が増加してしまう可能性がある。
 そこで、本開示では、上記事情に鑑みて、観察対象物の内部への内視鏡の挿入をより速やかに実施することが可能であり、内視鏡操作者の負担をより軽減することが可能な、内視鏡装置及び内視鏡装置の制御方法を提案する。
 本開示によれば、少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された前記観察対象物の内部の像を伝播する内視鏡ユニットと、前記内視鏡ユニットに対して、前記観察対象物の内部を照明する前記照明光を射出する光源ユニットと、前記内視鏡ユニットから伝播された前記観察対象物の内部の像を撮像して、前記観察対象物の内部の撮像画像を生成する撮像ユニットと、前記内視鏡ユニット、前記光源ユニット及び前記撮像ユニットの駆動制御を行う制御部と、を備え、前記照明光の放射角度が可変となっており、前記制御部は、前記観察対象物の内部へと挿入された前記内視鏡ユニットの一部である挿入部が、前記観察対象物の内部を移動しているか、又は、停止しているかに応じて、前記照明光の放射角度を変更する内視鏡装置が提供される。
 また、本開示によれば、少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された前記観察対象物の内部の像を伝播する内視鏡ユニットと、前記内視鏡ユニットに対して、前記観察対象物の内部を照明する前記照明光を射出する光源ユニットと、前記内視鏡ユニットから伝播された前記観察対象物の内部の像を撮像して、前記観察対象物の内部の撮像画像を生成する撮像ユニットと、を有し、前記照明光の放射角度が可変である内視鏡装置について、前記内視鏡ユニット、前記光源ユニット及び前記撮像ユニットの駆動制御を行う制御部により、前記観察対象物の内部へと挿入された前記内視鏡ユニットの一部である挿入部が、前記観察対象物の内部を移動しているか、又は、停止しているかを判断することと、前記挿入部の状態に応じて、前記照明光の放射角度を変更することと、を含む内視鏡装置の制御方法が提供される。
 本開示によれば、内視鏡装置の制御部は、観察対象物の内部へと挿入された内視鏡ユニットの一部である挿入部が、観察対象物の内部を移動しているか、又は、停止しているかを判断し、挿入部の状態に応じて、照明光の放射角度が変更される。
 以上説明したように本開示によれば、観察対象物の内部への内視鏡の挿入をより速やかに実施することが可能となり、内視鏡操作者の負担をより軽減することが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る内視鏡装置の全体構成を模式的に示した説明図である。 同実施形態に係る内視鏡装置が有する内視鏡ユニットの構成の一例を模式的に示した説明図である。 同実施形態に係る内視鏡装置が有する内視鏡ユニットの構成の一例を模式的に示した説明図である。 加速度センサの全体構成の一例を模式的に示したブロック図である。 同実施形態に係る内視鏡装置が有する光源ユニットの構成の一例を模式的に示した説明図である。 同実施形態に係る光源ユニットが有する光源部の一例を模式的に示した説明図である。 Etendueについて説明するための説明図である。 Etendueについて説明するための説明図である。 同実施形態に係る光源ユニットにおけるライトガイドへの照明光の入射角度の制御処理について説明するための説明図である。 同実施形態に係る光源ユニットが有する結合部の構成を模式的に示した説明図である。 同実施形態に係る光源ユニットが有する結合部の構成を模式的に示した説明図である。 同実施形態に係る光源ユニットが有する結合部の構成を模式的に示した説明図である。 同実施形態に係る結合部の第1の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第2の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第3の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第4の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第5の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第6の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第6の具体例を模式的に示した説明図である。 同実施形態に係る結合部の第6の具体例を模式的に示した説明図である。 同実施形態に係る内視鏡装置が備える制御ユニットの構成の一例を模式的に示したブロック図である。 同実施形態に係る制御ユニットにおける照明領域制御処理について説明するための説明図である。 同実施形態に係る制御ユニットにおける照明領域制御処理について説明するための説明図である。 同実施形態に係る制御ユニットにおける照明領域制御処理の流れの一例を示した流れ図である。 同実施形態に係る制御ユニットにおける内視鏡ユニットの状態判定処理の流れの一例を示した流れ図である。 同実施形態に係る制御ユニットにおける内視鏡ユニットの状態判定処理の流れの別の一例を示した流れ図である。 同実施形態に係る制御ユニットにおける内視鏡ユニットの状態判定処理について説明するための説明図である。 同実施形態に係る制御ユニットにおける画像連結処理について説明するための説明図である。 同実施形態に係る制御ユニットが有する画像連結処理部の構成の一例を示したブロック図である。 同実施形態に係る制御ユニットにおける画像連結処理について説明するための説明図である。 同実施形態に係る制御ユニットのハードウェア構成の一例を示したブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.実施形態
  1.1.内視鏡装置の全体構成について
  1.2.内視鏡ユニットの構成について
  1.3.光源ユニットの構成について
  1.4.制御ユニットの構成について
  1.5.制御ユニットのハードウェア構成について
(実施形態)
<内視鏡装置の全体構成について>
 まず、図1を参照しながら、本開示の実施形態に係る内視鏡装置の全体構成について、簡単に説明する。図1は、本実施形態に係る内視鏡装置の全体構成を模式的に示した説明図である。
 本実施形態に係る内視鏡装置10は、その一部が観察対象物Sの内部へと挿入されることで、観察対象物Sの内部を観察可能な装置である。このような内視鏡装置10としては、例えば、硬性内視鏡、軟性内視鏡、関節鏡等といった各種の医療用内視鏡装置や、各種の工業用の内視鏡装置などがある。
 以下では、内視鏡装置10が医療用の内視鏡装置であり、観察対象物Sが生体の内部(例えば、管腔、体腔、体内腔等)である場合を例に挙げて、詳細に説明を行うものとする。
 本実施形態に係る内視鏡装置10は、観察対象とする生体Sの部位に対して所定の照明光を照射するとともに、観察光の照射された生体Sの部位を撮像することで、所定の波長帯域での生体Sの撮像画像を生成する装置である。ここで、照明光の波長帯域は、特に限定するものではないが、可視光帯域(波長380nm~波長780nm程度の範囲に該当する帯域)であることが一般的である。また、照明光の波長帯域を変更することで、例えば、近赤外帯域(波長780nm程度~波長2.5μm程度の範囲に該当する帯域)での撮像画像や、紫外線帯域での撮像画像など、各種の波長帯域での撮像画像を生成することも可能である。
 内視鏡装置10により生成された観察対象物に関する撮像画像は、内視鏡装置10に有線又は無線で接続されたディスプレイ等の表示ユニットに随時表示される。
 かかる機能を有する内視鏡装置10は、図1に模式的に示したように、制御ユニット101と、内視鏡ユニット103と、光源ユニット105と、撮像ユニット107と、表示ユニット109と、を主に有している。
 制御ユニット101は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により実現される。制御ユニット101は、内視鏡装置10の全体的な機能を統括して制御するユニットであり、内視鏡装置10を構成する内視鏡ユニット103、光源ユニット105、撮像ユニット107、及び、表示ユニット109の稼働状態を一括して制御する。かかる制御ユニット101は、例えば、内視鏡装置のカメラコントロールユニット(CCU)に該当するユニットである。
 内視鏡ユニット103は、制御ユニット101による制御のもと、その一部が生体の内部へと挿入されるユニットである。かかる内視鏡ユニット103は、光源ユニット105から射出される照明光を用いて生体Sの内部を観察した像(観察像)を、後段の撮像ユニット107へと結像させる。
 光源ユニット105は、制御ユニット101による制御のもと、生体の内部を観察するための照明光を射出するユニットであり、内視鏡ユニット103に光学的に接続されている。かかる光源ユニット105は、撮像素子を用いて生体の撮像画像を得るための照明光源(例えば、白色光源等)を少なくとも有している。また、かかる光源ユニット105は、かかる光源以外にも、近赤外帯域の生体の撮像画像を得るための近赤外光源や、紫外光源など、特定波長の光を射出する各種のレーザ光源など、公知の様々な光源を有していてもよい。光源ユニット105は、制御ユニット101による制御のもとで、これら様々な光源から射出される照明光の種別を、任意のタイミングで切り替えることが可能である。また、光源ユニット105は、上記のような光源以外にも、例えば、OCT用光源や、測距用光源、PDT(Photodynamic Therapy、光線力学治療)など、特定の機能を実現するための光源を更に有していてもよい。
 撮像ユニット107は、制御ユニット101による制御のもと、光源ユニット105からの照明光による生体の内部の観察像を撮像して、撮像画像の画像データを生成するユニットである。かかる撮像ユニット107は、内視鏡ユニット103に対して光学的に接続されている。
 内視鏡装置10では、可視光帯域の波長に感度のある撮像素子を用いることで、人間の眼で直接観察する状況に近い画像が撮像され、かかる画像が適切に現像された上で、通常観察画像として、表示ユニット109に観察結果が表示される。また、特殊光観察が可能な一般的な内視鏡装置では、可視光帯域の撮像画像を表示する通常観察モードの他に、近赤外帯域の波長にも感度のある撮像素子を用いて、生体内で生じる蛍光を観察する蛍光観察モードや、特定の狭波長を複数組み合わせることによって、皮膚表面からの深さの異なる血管を識別しやすくする狭波長画像(Narrow Band Imaging:NBI)観察モードといった、各種の機能を実現している。
 撮像ユニット107は、以上のようにして生成した撮像画像の画像データを、制御ユニット101の制御のもとで、後段の表示ユニット109に随時出力する。
 表示ユニット109は、制御ユニット101による制御のもと、撮像ユニット107により生成された撮像画像を、内視鏡装置10の操作者に表示するユニットである。かかる表示ユニット109に設けられる表示画面の個数は、特に限定されるものではなく、表示ユニット109は、1つの表示画面のみを有していてもよいし、複数個の表示画面を有していてもよい。かかる表示ユニット109は、特に限定されるものではなく、公知の表示装置を利用することが可能である。
 以上、図1を参照しながら、本実施形態に係る内視鏡装置10の全体構成について、詳細に説明した。なお、本実施形態に係る内視鏡装置10は、以下で詳述するような内視鏡ユニット103又は光源ユニット105の少なくとも何れかを有していることにより、照明光の放射角度が可変となっている。
<内視鏡ユニットの構成について>
 次に、図2A~図3を参照しながら、本実施形態に係る内視鏡装置10が有する内視鏡ユニット103の構成について、詳細に説明する。図2A及び図2Bは、本実施形態に係る内視鏡装置が有する内視鏡ユニットの構成の一例を模式的に示した説明図である。図3は、加速度センサの全体構成の一例を模式的に示したブロック図である。
 本実施形態に係る内視鏡ユニット103は、少なくとも一部が観察対象物Sの内部へと挿入され、照明光の照射された観察対象物Sの内部の像を撮像ユニット107へと伝播するユニットである。
 かかる内視鏡ユニット103は、図2Aに模式的に示したように、リレー光学系111,117と、照明光学系113と、対物光学系115と、結像光学系119と、を主に有している。リレー光学系117としては、内視鏡ユニットが軟性内視鏡の場合には、ライトガイドが用いられるが、内視鏡ユニットが硬性内視鏡の場合には、画質の維持が容易なレンズを用いた光学系が用いられる。照明光学系のリレー光学系111は、通常ライトガイドが用いられる。
 照明用リレー光学系としてのライトガイド111は、通常、インデックスガイド型の10μm~80μm程度のコア径を有する複数のマルチモード光ファイバが束ねられた(バンドルされた)ものである。ライトガイド111は、光源ユニット105に接続されており、光源ユニット105から出射された所定波長を有する照明光(例えば、可視光帯域の照明光)を、内視鏡ユニット103の先端部へと導光する。かかるライトガイド111については、特に限定されるものではなく、公知の様々なライトガイドを利用することが可能である。
 照明光学系113は、ライトガイド111によって伝播された照明光の観察対象物Sへの結像状態を調整する光学系である。かかる照明光学系113については、特に限定されるものではなく、公知の様々な照明光学系を利用することが可能である。
 また、先だって言及したように、本実施形態に係る内視鏡装置10では、照明光の放射角度が可変となるように構成されている。照明光の放射角度を可変とするために、かかる照明光学系113は、例えば、特開平1-185510号公報、又は、特公平6-58458号公報に開示されているような、照明光の放射角度を可変とするための機構を有していることが好ましい。かかる照明光学系113の少なくとも一部の光学素子(例えば、各種のレンズ等)が、内視鏡ユニット103の光軸方向に沿って移動することで、照明光の放射角度を変化させることが可能である。
 なお、本実施形態に係る照明光学系113が上記のような照明光の放射角度を可変とするための機構を有していない場合であっても、光源ユニット105が、以下で詳述するような照明光の放射角度を可変とするための機構を有していればよい。
 対物光学系115は、観察対象物Sの内部に位置する、照明光の照射されている部位の観察像を得るための光学系である。かかる対物光学系115については、特に限定されるものではなく、公知の各種の光学系を利用することが可能である。対物光学系115により伝播された観察像は、リレー光学系として機能するライトガイド117によって、更に結像光学系119へと導光される。
 結像光学系119は、ライドガイド117により導光された観察対象物Sの観察像を、撮像ユニット107に結像させるための光学系であり、後段の撮像ユニット107と光学的に接続されている。かかる結像光学系119については、特に限定されるものではなく、公知の様々な結像光学系を利用することが可能である。
 なお、本実施形態に係る内視鏡装置10では、以下で詳述するように、観察対象物Sの内部へと挿入された内視鏡ユニットの一部である挿入部が、観察対象物Sの内部を移動しているか、又は、停止しているかが随時判断される。内視鏡装置10の制御ユニット101がこのような判断を実施するために、本実施形態に係る内視鏡ユニット103には、図2Bに示したように、図2Aに示した構成に加えて、各種の加速度センサ121が設けられていても良い。
 かかる加速度センサ121は、内視鏡ユニット103に設けられるものであるため、小型化を図ることが可能なMEMS(Micro Electro Mechanical Systems)型の加速度センサであることが好ましい。また、かかる加速度センサの加速度検出方式については特に限定されるものではなく、静電容量検出方式、ピエゾ抵抗方式、熱検知方式等、公知の各種の原理に則した加速度センサを利用することが可能である。
 MEMS型の加速度センサを含め、一般的な加速度センサ121は、図3に模式的に示したように、可動部121a、検出部121b、信号処理部121c、出力部121d、駆動機構121e、自己診断部121f、及び、環境補正部121gという構成を有していることが多い。
 加速度センサが有しているおもり(錘、マス)は、慣性力を受けると、おもりを支持するバネ等の弾性体の反力とのつりあいによって変位する(可動部121a)。可動部121aの変位は、おもりに取り付けられた変位検出部、又は、バネ等の弾性体のひずみを検出するひずみ検出部によって検出される(検出部121b)。検出部121bにより検出された変位量又はひずみ量は、信号処理部121cによって電気信号へと変換される。この信号処理部121cは、検出部121bで検出された信号を増幅したり、アナログ/デジタル変換したりする電気回路を有していることが多い。信号処理部121cによって生成された電気信号は、検出部121bにより検出された変化量に比例した電圧(換言すれば、加速度に比例した電圧)を有している。かかる電気信号は、出力部121dから外部(本実施形態の場合、制御ユニット101)へと出力される。また、かかる加速度センサ121には、サーボ機構を有している場合の可動部121aを駆動させるための駆動機構121eや、検出部121bの機能診断をおこなう自己診断部121fや、信号処理部121cによる電気信号への変換処理に際して、検出された変位量又はひずみ量の温度補正を行う環境補正部121g等を有していても良い。
 以上、図2A~図3を参照しながら、本実施形態に係る内視鏡ユニット103について、詳細に説明した。
<光源ユニットの構成について>
 続いて、本実施形態に係る光源ユニット105の構成について、詳細に説明する。
 本実施形態に係る内視鏡ユニット103が、先だって説明したような照明光の放射角度を可変とするための機構を有している場合には、本実施形態に係る光源ユニット105は特に限定されるものではなく、公知の光源ユニットを利用することが可能である。しかしながら、本実施形態に係る内視鏡ユニット103が、先だって説明したような照明光の放射角度を可変とするための機構を有していない場合、本実施形態に係る光源ユニット105が、照明光の放射角度を可変とすることが可能な光源ユニットであることが求められる。その場合、照明光の放射角度を可変とする光源ユニットとしては、例えば以下で詳述するような構成を有するものであることが好ましい。
 以下では、図4~図15Bを参照しながら、照明光の放射角度を可変とすることが可能な光源ユニットについて、具体的に説明する。
 図4は、本実施形態に係る内視鏡装置が有する光源ユニットの構成の一例を模式的に示した説明図であり、図5は、本実施形態に係る光源ユニットが有する光源部の一例を模式的に示した説明図である。図6A及び図6Bは、Etendueについて説明するための説明図である。図7は、本実施形態に係る光源ユニットにおけるライトガイドへの照明光の入射角度の制御処理について説明するための説明図である。図8A~図8Cは、本実施形態に係る光源ユニットが有する結合部の構成を模式的に示した説明図である。図9は、本実施形態に係る結合部の第1の具体例を模式的に示した説明図であり、図10は、本実施形態に係る結合部の第2の具体例を模式的に示した説明図である。図11は、本実施形態に係る結合部の第3の具体例を模式的に示した説明図であり、図12は、本実施形態に係る結合部の第4の具体例を模式的に示した説明図である。図13は、実施形態に係る結合部の第5の具体例を模式的に示した説明図であり、図14~図15Bは、本実施形態に係る結合部の第6の具体例を模式的に示した説明図である。
 照明光の放射角度を可変とすることが可能な光源ユニット105は、図4に模式的に示したように、光源部131と、結合部133と、マルチモード光ファイバ135と、駆動機構137と、制御部139と、記憶部141と、を主に有している。
 光源部131は、少なくとも1つ以上の固体光源を有しており、かかる固体光源からの光を照明光として射出する。また、光源部131が2つ以上の固体光源を有している場合、光源部131は、各固体光源からの光を混色することで白色光を射出することも可能である。この光源部131の詳細な構成については、以下で改めて説明する。光源部131から射出された照明光は、後述する結合部133へと導光される。
 結合部133は、内視鏡ユニット103に設けられた、内視鏡ユニット103に接続するための光束(すなわち、照明光の光束)を伝搬させるライトガイド111に対して接続される部位であり、かかるライトガイド111と接続可能なように設けられる。光源部131から射出された照明光は、この結合部133を介して内視鏡ユニット103の内部へと導光される。また、本実施形態に係る光源ユニット105では、以下で詳述するように、この結合部133が中心となって機能することにより、ライトガイド111へと入射する照明光の入射角度が制御されている。この結合部133の詳細な構成については、以下で改めて説明する。
 マルチモード光ファイバ135は、10μm以上のコア径を有するマルチモード光ファイバであり、光源部131から射出された照明光を、結合部133まで導光する。光源部131と結合部133とを、マルチモード光ファイバ135を用いて接続することで、光源部131から射出された照明光を効率良く結合部133へと導光することが可能となるとともに、照明光の取り扱いが容易なものとなる。
 なお、図4に示したように、光源ユニット105の照明光は、内視鏡ユニット103のライトガイド111と、結合部133で接続される。かかる結合部133に存在する結合光学系により、照明光が内視鏡ユニット103のライトガイド111へと導光される。
 駆動機構137は、アクチュエータ、移動ステージ等の公知の駆動部材により実現される。駆動機構137は、以下で詳述する制御部139による制御のもとで、結合部133に設けられる入射角度調整機構を以下で詳述するように制御して、結合部133において内視鏡ユニット103のライトガイド111へと入射する光線(すなわち、照明光の光線)の入射角度が適切な値となるように設定する。
 制御部139は、例えば、CPU、ROM、RAM等からなる各種ICチップ等により実現される。制御部139は、本実施形態に係る光源ユニット105の動作を統括的に制御する処理部であり、制御ユニット101による制御のもとで、例えば、光源部131からの照明光の射出処理、及び、駆動機構137による結合部133の制御処理等を管理する。これにより、制御部139は、結合部133においてライトガイド111へと入射する光線の入射角度が可変となるように、制御を行うことが可能となる。
 より詳細には、制御部139は、所定の制御信号を光源部131へと出力することで、光源部131から照明光を射出させる。
 なお、制御部139は、各種制御処理を実施するに際し、記憶部141に格納されている各種のパラメータ及びデータベース、並びに、各種のプログラム等を利用することが可能である。また、制御部139は、制御ユニット101による制御のもとで、内視鏡装置10の操作者が実施した各種のユーザ操作に応じて、結合部133においてライトガイド111へと入射する光線の入射角度を制御してもよい。
 記憶部141は、例えば、ROM、RAM、ストレージ装置等により実現される。記憶部141には、制御部139が各種制御処理を実施するに際して参照可能な、各種のパラメータ及びデータベース、並びに、各種のプログラム等が格納されている。また、かかる記憶部141には、制御部139が各種制御処理を実施する際に生成される一時的なデータや各種の履歴情報等が格納されていてもよい。この記憶部141は、制御部139が自由にデータのリード/ライト処理を実施することが可能である。
 以上、図4を参照しながら、本実施形態に係る光源ユニット105の詳細な全体構成について説明した。
[光源部131の構成について]
 次に、図5~図6Bを参照しながら、本実施形態に係る光源ユニット105が備える光源部131の構成の一例について、詳細に説明する。
 照明光として、可視光帯域に属する波長を有する照明光を用いる場合に、本実施形態に係る光源部131は、例えば図5に示したように、複数の固体光源143a,143b,143c,143d,143e・・・(以下、まとめて、固体光源143ともいう。)を有していることが好ましい。各固体光源143からは、所定波長の光が射出される。ここで、各固体光源143が射出する光の波長の組み合わせは、特に限定されるものではないが、各固体光源143から射出される光を混色させた結果、白色光が得られるような組み合わせであることが好ましい。このような波長の組み合わせとして、例えば、固体光源143a~143eの何れか一つが、赤色光を射出し、固体光源143a~143eの何れか一つが、緑色光を射出し、かつ、固体光源143a~143eの何れか一つが、青色光を射出することが好ましい。また、固体光源143a~143eの何れか一つは、紫色光や黄色光を射出してもよく、固体光源143a~143eの何れか一つは、赤外光を射出してもよい。
 各固体光源143から射出された光は、各固体光源143の後段に設けられたレンズL、ミラーM、光学フィルタFによって伝搬方向が制御され、ミラーM及び光学フィルタFの後段に設けられたレンズLによって最終的に次の光学系へリレーされる。ここで、ミラーMは、固体光源143aから射出された光を反射させるような光学特性を有するものであり、各光学フィルタFは、各光学フィルタFの上流に設けられた固体光源143からの光は反射し、それ以外の波長帯域の光は透過させるような光学特性を有するものである。混色された後の光は、照明光として、光源部131の外部へと射出される。
 ここで、図6A及び図6Bを参照しながら、固体光源143のEtendueと、内視鏡ユニット103のライトガイド111のEtendueとの関係について、具体的に説明する。
 Etendueは、ヘルムホルツ-ラグランジュの保存則の別表現であって、発光面積と光線の立体角との積で表わされる。いま、図6Aに示したように、光源の発光面積及び光源から射出される光の立体角を、それぞれS,Ωとし、ライトガイド111の入射面の面積及び入射面に入射する光の立体角を、それぞれS,Ωとする。このとき、着目する光学系内において、Etendueの値は保存されるため、以下の式101が成立する。ここで、Etendueの単位は、SI単位系を利用した場合、[mm・sr](平方ミリ・ステラジアン)となる。
 また、光軸に対して回転対称に光が放射される場合、立体角[単位:sr]は、図6Bに示したような平面角α[単位:rad]を用いると、以下の式103のように表わすことができ、ライトガイドの開口数NAは、平面角αを利用して、以下の式105のように表わすことができる。従って、Etendueの値を与える式101は、下記式103及び式105を利用して、以下の式107のように表わすことができる。ここで、以下の式107において、Dは、ライトガイドの径である。
Figure JPOXMLDOC01-appb-M000001
 一般化すると、Etendue(以下、値をEと表記する。)は、光源から射出される光線の強度の放射角分布I(θ,φ)(θ,φ:光線の放射角)を用いて、以下の式109で表わすことができる。ここで、着目する光源が、ランバーシアン(Lambertian)光源であるとすると、かかる強度の放射角分布I(θ,φ)は、強度Iを用いて、以下の式111で表わすことができる。その場合、Etendueは、以下の式113のようになる。一方で、以下の式115の関係が成立するため、ランバーシアン光源のEtendueは、放射角分布が無い光源よりも小さくなる。
Figure JPOXMLDOC01-appb-M000002
 ここで、一般的な直径D及び開口数NAを有するライトガイドのEtendueを、強度の放射角分布I(θ,φ)がIで一様であるとして算出すると、以下のことが明らかとなった。すなわち、EtendueよりもEtendueの大きな光源からの光は、その全てをライトガイドに結合させることが出来ない一方で、EtendueよりもEtendueの小さな光源からの光は、その全てをライトガイドに結合させることが可能となることが明らかとなった。
 従って、本実施形態に係る光源部131において用いられる固体光源143は、ライトガイド111のEtendue以下のEtendueを有する光源であることが好ましい。このような固体光源を利用することで、固体光源から射出される光の全てを利用することが可能となり、光源の利用効率を向上させることができる。
 かかる観点において、固体光源として好ましい光源は、発光点が非常に小さいため、光学系によって容易に平行光を射出することが可能な(すなわち、立体角がほぼゼロとなる)レーザ光源(例えば、半導体レーザ光源)であることがわかる。また、かかるレーザ光源を蛍光体の励起光源として利用した、レーザ励起蛍光体光源を利用することも可能である。
 また、近年、発光ダイオード(Light Emitting Diode:LED)素子の開発も盛んであるが、LED素子における発光は面発光であるため発光領域が大きく、レーザ光源よりもEtendueの値は大きくなるものの、その性能によっては、本実施形態に係る固体光源として利用可能である。
 以上、図5~図6Bを参照しながら、本実施形態に係る光源部131の一例について、詳細に説明した。なお、図5に示した光源部131の構成は、あくまでも一例に過ぎず、本実施形態に係る光源部131の構成は、図5に示したものに限定されるものではない。
[結合部133の構成について]
 次に、図7~図15Bを参照しながら、本実施形態に係る光源ユニット105が備える結合部133の構成について、詳細に説明する。
 本発明者らは、照明光が照射される領域の広さを可変とすることが可能な光源ユニットについて鋭意検討を行った結果、ライトガイドに入射する光線の入射角度(ライトガイドの光軸に対して入射光線のなす角度)を変化させることで、ライトガイドから出射する光線の放射角度を制御可能であるとの知見を得た。
 すなわち、図7に模式的に示したように、光線がライトガイドに対して、相対的に小さな入射角度で入射する場合には、ライトガイドから出射する光線の放射角度は小さな値となり(図7上段)、光線がライトガイドに対して、相対的に大きな入射角度で入射する場合には、ライトガイドから出射する光線の放射角度は大きな値となる(図7下段)。一般的なライトガイドは、インデックスガイド型の10μm~80μm程度のコア径を有する複数のマルチモード光ファイバが束ねられた(バンドルされた)ものであり、光ファイバは、入射端面に入射した光線の角度を保存したまま出射端面から光線を放射するという特性を有するからである。ただし、光ファイバでは、光線の入射角度は保存されるものの、光線の入射位置は保存されないため、ある入射角度で入射した光線は、その角度を維持したままリング状の光線となって出射端面から放射される。
 かかる現象により、図7上段に模式的に示したように、ライトガイドへの光線の入射角度を相対的に小さくすることで、ライトガイドからの光線の放射角度が小さくなる結果、ライトガイドから放射された光線の照射領域を小さく絞ることが可能となる。逆に、図7下段に模式的に示したように、ライトガイドへの光線の入射角度を相対的に大きくすることで、ライトガイドからの光線の放射角度が大きくなる結果、ライトガイドから放射された光線の照射領域を大きく広げることが可能となる。
 本実施形態に係る結合部133では、上記のようなライトガイドへの光線の入射角度を制御することで、ライトガイド111へと導光される光線の放射角度を制御し、照明光が照射される領域の広さを可変とする。
 ここで、結合部133は、ライトガイドに入射する光線の入射角度を、例えば、平行光に近い入射角度と、ライトガイドの開口数NAに近い入射角度と、の2種類に制御してもよいし、平行光に近い入射角度からライトガイドの開口数NAに近い入射角度までを、多段階に制御してもよい。
 このような機能を有する結合部133は、図8Aに示したように、コリメータレンズ151と、入射角度調節機構153と、を少なくとも有することが好ましい。コリメータレンズ151は、結合部133へと入射した光源部131からの照明光を、平行光とする光学素子である。また、入射角度調節機構153は、図7を参照しながら説明したような、ライトガイドへの照明光の入射角度を調節する機構である。この入射角度調節機構153は、図4に示した駆動機構137が機能することによって、入射角度調節機構153の状態が変化し、例えば、結合部133に入射した光のビームサイズや発散角を変化させることで、ライトガイド111への照明光の入射角度が変化する。かかる入射角度調節機構153の具体例については、以下で改めて説明する。
 また、本実施形態に係る結合部133は、図8Bに示したように、入射角度調節機構153の後段に、結合光学系155を更に有することが好ましい。結合光学系155は、ライトガイドへの入射角度が制御された光線を、内視鏡ユニット103のライトガイド111へと結合させる光学系である。このような光学系を設けることで、ライトガイド111への入射角度が制御された照明光を、より確実にライトガイド111へと結合させることが可能となる。このような光学系としては、制御された照明光の入射角度を変化させてしまわないものであれば、例えば固定倍率光学系等の公知の光学系を適用することが可能である。
 また、本実施形態に係る結合部133は、図8Cに示したように、結合光学系155が、入射角度調節機構153の機能を兼ね備えていてもよい。すなわち、結合光学系155の倍率を変化させることで、ライトガイド111の入射面における照明光のビームサイズを変化させることができる。このようなビームサイズの変化によって、ライトガイド111の入射面における照明光の入射角度が変化することとなるため、図7を参照しながら説明したような照明領域の制御を実現することができる。
 このようにして照明領域の広さの制御を行い、照明領域を狭くした場合には、変更前は広い領域に分散していた照明光の光量が、変更後の狭い照明領域に集中することとなる。その結果、照明領域をより明るくすることが可能となるとともに、照明光をより効率良く利用することが可能となる。
○結合部103の第1の具体例
 上記のような機能を有する結合部133の第1の具体例について、図9を参照しながら説明する。
 図9に示した結合部133の第1の具体例では、入射角度調節機構153として、拡散板が用いられている。入射角度調節機構153として拡散板を用いることで、拡散板に入射する光線(すなわち、照明光)の発散角を変化させることができ、これにより、ライトガイド111への光線の入射角度を変化させることができる。
 すなわち、第1の具体例における結合部133では、コリメータレンズ151の後段に拡散板が入射角度調節機構153として設けられており、拡散板の後段に、結合光学系155の一例として、固定倍率光学系が設けられている。この場合に、図9上段に示したように、拡散角の小さな拡散板が光路上に配設された場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に小さな角度となり、照明光の照射領域は相対的に狭くなる。一方で、図9下段に示したように、拡散角の大きな拡散板が光路上に配設された場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に大きな角度となり、照明光の照射領域は相対的に広くなる。
 ここで、結合部133において、拡散角度が異なる複数の拡散板を準備しておき、駆動機構137により光路上に配設される拡散板を入れ替えることで、上記のような機能を実現することが可能となる。なお、拡散角度が異なる複数の拡散板を入れ替えるのではなく、光路上に配設される拡散板の個数を増減することでも、上記と同様の効果を得ることが可能である。
○結合部133の第2の具体例
 次に、結合部133の第2の具体例について、図10を参照しながら説明する。
 第1の具体例では、入射角度調節機構153として拡散板を設けるものであったが、第2の具体例では、入射角度調節機構153として、複数のレンズがアレイ状に配設されたマルチレンズアレイ(Multi Lens Array:MLA)が設けられている。光路上に設けられるマルチレンズアレイの焦点距離を変化させることで、マルチレンズアレイに入射する光線(すなわち、照明光)の発散角を変化させることができ、これにより、ライトガイド111への光線の入射角度を変化させることができる。
 すなわち、第2の具体例における結合部133では、コリメータレンズ151の後段にマルチレンズアレイが入射角度調節機構153として設けられており、マルチレンズアレイの後段に、結合光学系155の一例として、固定倍率光学系が設けられている。図10上段に示したように、焦点距離の長いマルチレンズアレイが光路上に配設された場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に小さな角度となり、照明光の照射領域は相対的に狭くなる。一方で、図10下段に示したように、焦点距離の短いマルチレンズアレイが光路上に配設された場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に大きな角度となり、照明光の照射領域は相対的に広くなる。
 従って、結合部133において、焦点距離の異なる複数のマルチレンズアレイを準備しておき、駆動機構137により光路上に配設されるマルチレンズアレイを入れ替えることで、上記のような機能を実現することが可能となる。なお、焦点距離の異なる複数のマルチレンズアレイを入れ替えるのではなく、光路上に配設されるマルチレンズアレイの個数を増減することでも、上記と同様の効果を得ることが可能である。
○結合部133の第3の具体例
 次に、結合部133の第3の具体例について、図11を参照しながら説明する。
 第3の具体例では、入射角度調節機構153として、円錐面を有するレンズと、円錐面に対応する凹面を有するレンズと、に分離可能なビームサイズ変換機構と、拡散板と、が設けられている。このビームサイズ変換機構は、2つのレンズを分離させて、2つのレンズ間の距離を変化させることで、入射する照明光のビームサイズを変換することができる。すなわち、2つのレンズが一体となっている場合には、入射する照明光のビームサイズは、入射した状態のままで維持される一方で、円錐面を有するレンズを離隔させることで、入射する照明光のビームサイズを大きなサイズへと変換することができる。従って、このビームサイズ変換機構は、仮想光面を光学的に作成することが可能な光学素子であるといえる。ビームサイズ変換機構を透過した照明光を拡散板により更に拡散させ、拡散板の後段に設けられた結合光学系(この場合、結合光学系は、固定倍率光学系及び縮小光学系で構成される。)によりライトガイド111の入射面に結合させることで、ライトガイド111への光線の入射角度を変化させることができる。
 すなわち、第3の具体例における結合部133では、図11上段に示したように、ビームサイズ変換機構を2つに分離させない場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に小さな角度となり、照明光の照射領域は相対的に狭くなる。一方で、図11下段に示したように、ビームサイズ変換機構を2つに分離させた場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に大きな角度となり、照明光の照射領域は相対的に広くなる。
 従って、結合部133において、駆動機構137によりビームサイズ変換機構の分離状態を制御することで、上記のような機能を実現することが可能となる。
○結合部133の第4の具体例
 次に、結合部133の第4の具体例について、図12を参照しながら説明する。
 第4の具体例では、入射角度調節機構153として、ミラー等の反射光学系が設けられており、結合光学系155への入射位置を制御することにより、ライトガイド111への光線の入射角度を変化させることができる。
 すなわち、図12上段に示したように、反射光学系の位置を制御して、光源部131からの照明光が結合光学系155の光軸近傍に入射するように制御することで、ライトガイド111の入射面における照明光の入射角度は、相対的に小さな角度となり、照明光の照射領域は相対的に狭くなる。一方、図12下段に示したように、反射光学系の位置を制御して、光源部131からの照明光が結合光学系155の光軸から離れた位置に入射するように制御することで、ライトガイド111の入射面における照明光の入射角度は、相対的に大きな角度となり、照明光の照射領域は相対的に広くなる。なお、図12下段に示した場合には、照明光は、ライトガイド111に対してある一方向から入射することとなるが、複数の光ファイバからなるライトガイド111では、先だって説明したように、入射角度は保存されるが入射位置は保存されないため、一方向から入射した照明光は全周にわたって回折することとなり、所望の領域の全体を照明することが可能となる。
 従って、結合部133において、駆動機構137によりミラー等の反射光学系の位置を制御することで、上記のような機能を実現することが可能となる。
○結合部133の第5の具体例
 次に、結合部133の第5の具体例について、図13を参照しながら説明する。
 第4の具体例では、ミラーの制御方法として、図12に示したような単純な横移動のみを記載したが、ミラーを分割して両方を逆方向に動かす、片方のみを径方向に動かすなどの制御を実施することで、第4の具体例と同様にして入射角度を様々に制御することが可能である。以下では、このようなミラーを分割する具体例について、簡単に説明する。
 本具体例では、図13に模式的に示したように、入射角度調節機構153として、分割されたミラー等の反射光学系(以下、単に「分割ミラー」ともいう。)が設けられており、かかる分割ミラーの少なくとも何れか一方を移動させることで、結合光学系155への照明光の入射角度を制御することにより、ライトガイド111への光線の入射角度を変化させる。
 具体的には、第4の具体例では1枚のミラーであった反射光学系を、紙面と平行な平面で紙面手前側と紙面奥側に位置する2つのミラーへと分割しても良いし、第4の具体例では1枚のミラーであった反射光学系を、紙面と垂直な平面で紙面上側と紙面下側に位置する2つのミラーへと分割しても良い。その上で、何れか一方の分割ミラーを移動させることで、ライトガイド111の入射面における照明光の入射角度を変化させることが可能となる。
 従って、結合部133において、駆動機構137により分割ミラー等の反射光学系の位置を制御することで、上記のような機能を実現することが可能となる。
○結合部133の第6の具体例
 次に、結合部133の第6の具体例について、図14~図15Bを参照しながら説明する。
 第6の具体例では、図14に模式的に示したように、入射角度調節機構153として、構造プリズム等の屈折光学系が設けられており、結合光学系155への照明光の入射角度を制御することにより、ライトガイド111への光線の入射角度を変化させることができる。
 図15A及び図15Bに、構造プリズムの構造の一例を示す。入射角度調節機構153として利用可能な構造プリズムは、図15A及び図15Bに示したように、光学的透過面S1,S2,S3を有している。光学的透過面S1と光学的透過面S3とは、互いに平行である。また、光学的透過面S2と光学的透過面S3とは、非平行であり、光学的透過面S2は、所定の角度の傾斜面となっている。図15Bに示すように、光学的透過面S1に入射し、光学的透過面S3から出射する光の光軸は、光学的透過面S1及び光学的透過面S3が、かかる構造プリズムの設けられる光学系の光軸に対して垂直となっているために、光学系の光軸に対して平行であり、光の進行方向に変化はない。しかしながら、光学的透過面S2に入射し、光学的透過面S3から出射する光の光軸は、光学的透過面S2が、かかる構造プリズムの設けられる光学系の光軸に対して傾斜しているため、屈折の効果により、光学的透過面S2の傾斜角に応じた角度を持つこととなる。
 このような構造プリズムを利用し、図14上段に示したように、屈折光学系(構造プリズム)の位置を制御して、光源部131からの照明光が結合光学系155の光軸に略平行に入射するように制御することで、ライトガイド111の入射面における照明光の入射角度は、相対的に小さな角度となり、照明光の照射領域は相対的に狭くなる。一方、図14下段に示したように、屈折光学系の位置を制御して、光源部131からの照明光が結合光学系155の光軸に角度を持って入射するように制御することで、ライトガイド111の入射面における照明光の入射角度は、相対的に大きな角度となり、照明光の照射領域は相対的に広くなる。
 なお、図14下段に示した場合には、照明光は、ライトガイド111に対してある一方向から入射することとなるが、複数の光ファイバからなるライトガイド111では、先だって説明したように、入射角度は保存されるが入射位置は保存されないため、一方向から入射した照明光は全周にわたって回折することとなり、所望の領域の全体を照明することが可能となる。
 従って、結合部133において、駆動機構137により構造プリズム等の屈折光学系の位置を制御することで、上記のような機能を実現することが可能となる。
 なお、第6の具体例では、構造プリズム等の屈折光学系をコリメータレンズ151と結合光学系155との間に配置したが、構造プリズム等の屈折光学系をライトガイド111入射面直前に配置しても、同様の効果を得ることができる。
 ここで、上記の第1~第6の具体例では、入射角度調節機構153を設け、ライトガイド111への光線の入射角度を変化させていたが、結合状態にあるライトガイド111の光軸と、結合部133の光軸と、のなす角を変化させることでも、ライトガイド111への照明光の入射角度を変化させることができる。
 すなわち、結合部133の光軸とライトガイド111の光軸とが一致するように結合部133をライトガイド111に結合させた場合には、ライトガイド111の入射面における照明光の入射角度は、相対的に小さな角度となり、照明光の照射領域は相対的に狭くなる。一方で、ライトガイド111に対して結合部133を斜めに傾けると、ライトガイド111の入射面における照明光の入射角度は、相対的に大きな角度となり、照明光の照射領域は相対的に広くなる。
 従って、駆動機構137により結合部133の傾斜状態を制御することで、上記のような機能を実現することが可能となる。
 以上、図4~図15Bを参照しながら、照明光の放射角度を可変とすることが可能な光源ユニット105について、具体的に説明した。
<制御ユニットの構成について>
 続いて、上記のような照明光の放射角度を可変とすることが可能な内視鏡装置10を制御する制御ユニット101の構成について、図16~図24を参照しながら、詳細に説明する。
 図16は、本実施形態に係る内視鏡装置が備える制御ユニットの構成の一例を模式的に示したブロック図である。図17及び図18は、本実施形態に係る制御ユニットにおける照明領域制御処理について説明するための説明図である。図19は、本実施形態に係る制御ユニットにおける照明領域制御処理の流れの一例を示した流れ図である。図20Aは、本実施形態に係る制御ユニットにおける内視鏡ユニットの状態判定処理の流れの一例を示した流れ図であり、図20Bは、本実施形態に係る制御ユニットにおける内視鏡ユニットの状態判定処理の流れの別の一例を示した流れ図である。図21は、本実施形態に係る制御ユニットにおける内視鏡ユニットの状態判定処理について説明するための説明図であり、図22及び図24は、本実施形態に係る制御ユニットにおける画像連結処理について説明するための説明図であり、図23は、本実施形態に係る制御ユニットが有する画像連結処理部の構成の一例を示したブロック図である。
 制御部の一例である本実施形態に係る制御ユニット101は、先だって言及したように、内視鏡装置10の全体的な機能を統括して制御するユニットであり、内視鏡装置10を構成する内視鏡ユニット103、光源ユニット105、撮像ユニット107、及び、表示ユニット109の稼働状態を一括して制御する。
 かかる制御ユニット101は、図16に模式的に示したように、統括制御部201を主に有しており、操作情報取得部203、データ取得部205、内視鏡ユニット状態判定部207、画像連結処理部209、出力処理部211、表示制御部213及び記憶部215を更に有していることが好ましい。
 統括制御部201は、例えば、CPU、ROM、RAM、入力装置、通信装置等により実現される。統括制御部201は、本実施形態に係る内視鏡装置10が備える各種のユニットの動作状況を、統括的に制御する処理部である。すなわち、統括制御部201は、後段の操作情報取得部203が取得した、内視鏡装置10の操作者による各種のユーザ操作に対応する操作情報を参照して、内視鏡装置10の内視鏡ユニット103、光源ユニット105、撮像ユニット107及び表示ユニット109に対して、操作者が所望する各種の機能を実施させることが可能である。
 また、本実施形態に係る内視鏡装置10では、内視鏡ユニット103又は光源ユニット105が適切に動作することで、先だって言及したように、照明光の放射角度を可変とすることが可能である。これにより、内視鏡ユニット103の挿入部における光軸の近傍の光量が、かかる光軸の周辺の光量よりも多くなっているスポット状の照明光を実現することができる。
 統括制御部201は、内視鏡ユニット103又は光源ユニット105を適切に制御することで、スポット状の照明光の放射角度分布を多段階に制御して、照明領域を同軸状に可変にすることが可能となる。例えば図17及び図18に示したように、統括制御部201は、照明光を内視鏡ユニット103の観察可能領域を全体的に照明するように制御するという一般的な状態に加えて、照明光の放射角度分布を、中心部に集中させた状態、観察可能領域の周辺領域を照明するようにさせた状態、中心部と周辺領域との中間領域を照明するようにさせた状態、の3段階に制御することが可能である。
 本実施形態に係る内視鏡装置10では、このような照明光の照射領域の制御を適切に利用して、観察対象物Sの内部へと挿入された内視鏡ユニット103の一部である挿入部が、観察対象物Sの内部を移動しているか、又は、停止しているかに応じて、照明光の放射角度を変更する。
 すなわち、内視鏡ユニット103の挿入時には、内視鏡ユニット103の観察可能領域における中心部のみに照明光を照射し、目的部位に内視鏡ユニット103の先端部が位置した後は、照明光の照明領域を、通常の照明状態に戻すようにする。これにより、内視鏡ユニット103の挿入時には、周辺領域の光量が低下し、中心部の管腔内の奥の照明が強くなる。更に、周辺領域の光量が低下することで、「撮像画像全体の輝度が低下してAGCにより全体の輝度が低下し、暗い部分が一層暗くなってしまう」という現象が発生する割合を抑制することが可能となる。
 このように、統括制御部201は、内視鏡ユニット103の挿入時や引き抜き時に、照明光の放射角度分布を意図的に変化させることで、内視鏡ユニット103の挿入時には、生体の内部の前方を容易に確認しながら、内視鏡ユニット103を挿入することが可能となる。すなわち、前方視界が確認できるために、安全を確保しながら内視鏡ユニット103の挿入速度をより一層速めることで、被験者の負担を軽減することが可能となる。
 具体的には、本実施形態に係る統括制御部201は、内視鏡ユニット103の挿入部が観察対象物Sの内部を前進しているときは、照明光の放射角度を小さくし、内視鏡ユニット103の挿入部が観察対象物Sの内部で停止しているとき、又は、観察対象物Sの内部を後退しているときは、照明光の放射角度を大きくすることが好ましい。
 上記のような統括制御部201による照明領域制御処理の流れの一例を、図19に示した。
 統括制御部201は、通常の状態では、広い範囲が照明されるように(換言すれば、内視鏡ユニット103の観察可能領域の全体が照明されるように)、内視鏡ユニット103又は光源ユニット105を制御している(処理1)。
 その後、統括制御部201は、後述する内視鏡ユニット状態判定部207から、内視鏡ユニットの状態に関する状態情報を取得すると(処理2)、取得した状態情報の時間的な推移に応じて、以下のような制御処理を実施する。
 すなわち、統括制御部201は、「内視鏡ユニット103の挿入部が前進している」旨を示す状態情報の取得が、1秒継続したか否かを判定する(判定1)。前進状態が1秒継続している場合には(判定1-YES)、統括制御部201は、照明領域を絞るように(例えば、図17及び図18に示した中心部を照明する状態となるように)、内視鏡ユニット103又は光源ユニット105を制御する(処理3)。
 一方、前進状態が1秒継続していない場合には(判定1-NO)、統括制御部201は、「内視鏡ユニット103の挿入部が後退している」旨を示す状態情報の取得が、2秒継続したか否かを判定する(判定2)。後退状態が2秒継続している場合には(判定2-YES)、統括制御部201は、照明領域を広げるように(例えば、図17及び図18に示した中間領域もしくは周辺領域を照明する状態、又は、観察可能領域の全体を照明する状態となるように)、内視鏡ユニット103又は光源ユニット105を制御する(処理4)。
 一方、後退状態が2秒継続していない場合には(判定2-NO)、統括制御部201は、「内視鏡ユニット103の挿入部が停止している」旨を示す状態情報の取得が、3秒継続したか否かを判定する(判定3)。停止状態が3秒継続している場合には(判定3-YES)、統括制御部201は、照明領域を広げるように(例えば、観察可能領域の全体を照明する状態となるように)、内視鏡ユニット103又は光源ユニット105を制御する(処理5)。
 一方、停止状態が3秒継続していない場合には(判定3-NO)、統括制御部201は、現在の照明状態を維持しつつ、処理2に戻って、照明領域制御処理を継続する。
 このような処理を行うことで、本実施形態に係る内視鏡装置10では、観察対象物の内部への内視鏡の挿入をより速やかに実施することが可能となり、内視鏡操作者の負担をより軽減することが可能となる。このような照明領域の制御は、操作者が、いわゆる遠隔医療システム等を利用して、遠隔地に存在している被験者の生体内を、遠隔操作により観察する際等にも有用であると考えられる。
 なお、図19に示した各判定での秒数は、あくまでも一例であって、図19に示した値に限定されるものではなく、任意の値に設定することが可能である。また、内視鏡ユニット状態判定部207から出力される内視鏡ユニットの状態に関する状態情報については、以下で改めて説明する。
 なお、上記のような統括制御部201による照明領域制御処理に依らず、照明光の照射領域は、医師やスコピスト等といった内視鏡装置10の操作者が所定のユーザ操作を実施することで、自らの意思で変化させることが可能である。
 また、所望の目的部位に内視鏡ユニット103の挿入部が到達し、目的部位の観察が開始される際(換言すれば、内視鏡ユニット103の挿入部が所定の時間以上停止している際)に、統括制御部201は、同一の観察部位に対して、照明光の放射角度を例えば図17及び図18に示したように変化させて、撮像ユニット107により、同一の観察部位についての複数の撮像画像を生成させてもよい。同一の観察部位に関する複数の撮像画像を生成させることで、後段で説明するような連結画像を生成することが可能となる。このような連結画像の生成処理については、以下で改めて説明する。
 操作情報取得部203は、例えば、CPU、ROM、RAM、入力装置、通信装置等により実現される。操作情報取得部203は、内視鏡装置10の操作者が、内視鏡装置10に対して実施した各種のユーザ操作に対応する操作情報を取得する。操作情報取得部203は、内視鏡装置10を構成する各種のユニットに対して操作者が実施したユーザ操作に対応する操作情報を取得すると、取得した操作情報を統括制御部201へと出力する。統括制御部201は、かかる操作情報を参照した上で、内視鏡装置10を構成する各ユニットに対して適切な制御を行うことで、内視鏡装置10の操作者が希望する動作を実現することが可能となる。
 例えば、操作情報取得部203は、内視鏡装置10の操作者が実施した、照明光の放射角度を変化させる旨のユーザ操作に対応する操作情報を取得すると、かかる操作情報を、統括制御部201に出力する。統括制御部201は、かかる操作情報を取得すると、内視鏡ユニット103の状態に依らず、操作者が希望する状態まで照明光の放射角度を変化させる。これにより、本実施形態に係る内視鏡装置10では、内視鏡ユニット103の状態に依らず、操作者の所望する照明状態に、内視鏡装置10の状態を変化させることが可能となる。
 データ取得部205は、例えば、CPU、ROM、RAM、通信装置等により実現される。データ取得部205は、内視鏡装置10の撮像ユニット107が生成した、観察対象物(例えば、生体)Sの内部に関する撮像画像の画像データを取得する。データ取得部205は、撮像ユニット107から出力される上記撮像画像の画像データを取得すると、かかる画像データを取得した旨を統括制御部201に通知するとともに、内視鏡ユニット状態判定部207、画像連結処理部209及び出力処理部211等に、取得した画像データを出力することが可能である。また、データ取得部205は、取得した撮像画像の画像データに、当該画像データを取得した日時等に関する時刻情報を関連付けた上で、記憶部215に履歴情報として記録してもよい。
 また、本実施形態に係る内視鏡装置10の内視鏡ユニット103に加速度センサ121が設けられている場合には、データ取得部205は、加速度センサ121から随時出力される加速度に関する出力情報を取得する。データ取得部205は、かかる加速度に関する出力情報を取得すると、取得した加速度に関する出力情報を、内視鏡ユニット状態判定部207に出力する。また、データ取得部205は、取得した加速度に関する出力情報のデータに、当該データを取得した日時等に関する時刻情報を関連付けた上で、記憶部215に履歴情報として記録してもよい。
 内視鏡ユニット状態判定部207は、例えば、CPU、ROM、RAM等により実現される。内視鏡ユニット状態判定部207は、内視鏡ユニット103に設けられた加速度センサ121からの出力値、又は、撮像ユニット107から出力された観察対象物Sの内部に関する撮像画像を利用して、内視鏡ユニット103の状態(すなわち、前進しているか、後退しているか、停止しているか・・・等)を判定する。
 以下では、まず図20Aを参照しながら、内視鏡ユニット状態判定部207が加速度センサ121からの出力値を用いる場合について、具体的に説明する。
 内視鏡ユニット103が加速度センサ121を実装している場合、内視鏡ユニット状態判定部207は、データ取得部205により取得された加速度センサ121の出力値を用いて、以下のような処理によって内視鏡ユニット103の状態を判定することが可能となる。
 内視鏡ユニット状態判定部207は、データ取得部205から加速度データ(すなわち、加速度センサ121の出力値に関するデータ)を取得すると(処理1)、内視鏡ユニット状態判定部207は、予め設定された時間窓の範囲に基づいて、加速度データから窓データを抽出する(処理2)。その後、内視鏡ユニット状態判定部207は、所定の時間幅を有する窓データを利用して、かかるデータを特徴づける特徴量を算出する(処理3)。内視鏡ユニット状態判定部207は、かかる時間窓をオーバーラップさせながら作用させることで、上記のような特徴量を連続的に算出することが可能となる。
 ここで、内視鏡ユニット状態判定部207が算出する特徴量については、特に限定されるものではなく、所定の時間窓の範囲内での加速度の平均値、分散値、最大値、二乗平均値等といった公知の統計量を、特徴量として利用することが可能である。一般的に用いられる加速度センサでは、そのセンサが1軸方向又は3軸方向に特化した加速度センサのいずれであっても、微細な振動等を検知してしまうために、センサの出力値には多くのノイズが重畳している。しかしながら、所定幅の時間窓を利用して、上記のような特徴量を算出することで、かかるノイズの影響を低減して、より正確な内視鏡ユニット103の状態判定を実施することが可能となる。
 その後、内視鏡ユニット状態判定部207は、算出した特徴量を、予め規定された所定の閾値と比較する(処理4)。これにより、内視鏡ユニット状態判定部207は、内視鏡ユニット103の状態(すなわち、前進しているか、後退しているか、停止しているか・・・等)を判断することができる(処理5)。
 次に、図20Bを参照しながら、内視鏡ユニット状態判定部207が撮像画像を用いて、内視鏡ユニット103の状態判定を行う場合について、具体的に説明する。
 撮像画像を用いて内視鏡ユニット103の状態を判定する場合、内視鏡ユニット状態判定部207は、いわゆる動体検出技術を用いて、内視鏡ユニット103の状態を判定する。動体検出技術には、例えば、テンプレートマッチング法や背景推定法等といった手法が存在する。特に観察対象物が生体内臓器である場合、かかる生体内臓器は特定パターンを有しないことが多いために、テンプレートマッチングや背景推定等といった、形態認識の特徴点抽出を用いる技法は適用することが困難である。そこで、内視鏡ユニット状態判定部27は、いわゆるブロックマッチング法又は勾配法等の動体検出技術を利用して、内視鏡ユニット103の状態判定を行う。
 具体的には、内視鏡ユニット状態判定部207は、データ取得部205から撮像画像の画像データを取得すると(処理11)、上記のような動体検出技術を利用して画像内の一致パターンを検出し(処理12)、得られた一致パターンに基づきオプティカルフロー推定を実施する(処理13)。ここで、上記の何れの手法を用いた場合であっても、内視鏡ユニット状態判定部207は、着目している画像内のサブブロック(テンプレート)と、他の時刻での別画像内のサブブロックと、の相関が高い領域を抽出することとなる。ここで、内視鏡観察下での撮像画像については、通常の動体検出とは異なり背景も同じ速度で動くという前提を考慮することで、テンプレートのサイズを大きくして、計算量を減少させることが可能となる。
 なお、基本的には、上記のような動体検出では、画像内に特徴点として周辺と差分のある部分が多く存在することが重要であるが、本実施形態では、動体の速度ではなく、移動方向又は移動しているか否かを推定するものであるため、特徴点の個数が少ない場合であっても、内視鏡ユニット103の状態を判定することが可能である。
 内視鏡ユニット状態判定部207は、上記のようにしてオプティカルフローを推定すると、推定したオプティカルフローに基づき、内視鏡ユニット103の状態を判断する(処理14)。具体的には、図21に模式的に示したように、内視鏡ユニット103が前進している場合には、オプティカルフローの方向は、中心部から周辺部へと向かう方向となる一方で、内視鏡ユニット103が後退している場合には、オプティカルフローの方向は、周辺部から中心部へと向かう方向となる。また、内視鏡ユニット103が停止している場合には、オプティカルフローに大きな変化は存在しない。従って、内視鏡ユニット状態判定部207は、オプティカルフローの向きに着目することで、内視鏡ユニット103の状態を判定することができる。
 なお、特徴点という観点では、色素内視鏡検査のために色素剤を散布することで得られた撮像画像は、特徴点の抽出が容易となる。すなわち、ある特定の色調の蛍光を発する色素を観察部位に対して散布することで、病変の凹凸が強調され、腫瘍又は病変などへの特異的な染色が生じる。これにより、ブロック間の相関が得やすくなり、特徴点抽出がより容易となる。ここで、このような色素については、特に限定するものではないが、例えば、食道を観察する際のルゴール法又はトルイジンブルー染色、胃を観察する際のインジゴカルミン法又は酢酸インジゴカルミン法、大腸を観察する際のクリスタルバイオレット法、インジゴカルミン法又はメチレンブルー法等を挙げることができる。また、狭帯域光観察(NBI)についても、表面の微細な血管が鮮明に観察できるため、相関が得られやすい。
 以上、図20A~図21を参照しながら、内視鏡ユニット状態判定部207における内視鏡ユニット103の状態判定処理について、具体的に説明した。
 内視鏡ユニット状態判定部207は、以上のようにして内視鏡ユニット103の状態を随時判定し、得られた判定結果を、統括制御部201へと出力する。
 なお、加速度センサ121の出力値と、撮像画像と、の双方を利用可能な場合、内視鏡ユニット状態判定部207は、それぞれの方法で内視鏡ユニット103の状態を判定し、得られた双方の結果を互いに比較してもよい。一方の方法による判定結果と、他方の方法による判定結果と、を互いに比較することで、より確実に内視鏡ユニット103の状態を判定することが可能となる。
 画像連結処理部209は、例えば、CPU、ROM、RAM等により実現される。画像連結処理部209は、同一の観察部位についての複数の撮像画像を利用し、複数の撮像画像のそれぞれについて、輝度値に応じて撮像画像中の一部の領域を抽出して抽出画像とし、複数の抽出画像を互いに連結することで、照明光の光量に起因する明るすぎて飽和している、暗すぎてノイズに埋もれているといった輝度値のばらつきが抑制された連結画像を生成する処理部である。
 以下、図22~図24を参照しながら、本実施形態に係る画像連結処理部209で実施される画像連結処理について、詳細に説明する。
 所望の観察位置へ内視鏡の先端部を配置し、撮像画像を生成した場合であっても、管腔臓器を観察対象物とする場合には、以下のような現象が生じうる。すなわち、撮像画像における最大輝度の分布が周辺部に偏よってしまい、観察対象として重要な中心部の輝度が得られない場合や、逆に照明を中心部に絞って中心部の輝度を高めると、中心部でもカメラから距離の近い領域の輝度が高くなって、周辺部の光量が不足したりする場合が生じうる。一般的な内視鏡装置における照明では、全体の照射領域と領域内の光量分布とが不変であるため、著しく明るい領域があると、AGCにより全体の光量が下げられてしまう。
 このような現象を解決するために、撮影した画像を領域分割して、観察する領域ごとに重み付けをして画像の明るさを演算し、照明の明るさを変えることが考えられる。これにより、観察に不必要な領域の輝度が飽和するほど高い場合であっても、観察を行おうとする領域に重みづけがなされることで、観察に不必要な領域の輝度の影響を小さくすることが可能となると考えられる。しかしながら、上記のような方法では、観察時点で不必要と判断した領域の情報は、飽和していたり欠損していたりして、何にも利用することはできない。しかしながら、上記のようにして照明光の放射角度分布を変化させることが可能となれば、以下のような方法で、観察対象領域内について、より一層多くの情報を取得することが可能となる。
 具体的には、本実施形態に係る画像連結処理部209では、同一の観察部位についての複数の撮像画像を利用し、複数の撮像画像のそれぞれについて、一部分を互いに連結していくことで、照明光の光量に起因する明るすぎて飽和している、暗すぎてノイズに埋もれているといった輝度値のばらつきが抑制された連結画像を生成する。
 例えば図22に模式的に示したように、照明光の放射角度が、広い放射角度から狭い放射角度まで、3段階に可変であり、同一の観察部位について3枚の撮像画像が生成されるものとする。ここで、図22に示した各図において、ハッチング領域は、適切な照明光の状態で、撮像が行われた領域であるとする。この場合に、画像連結処理部209は、適切な輝度値を有している領域を切り出して、互いに連結していくことで、一枚の連結画像を生成することができる。生成される連結画像は、照明光の光量に起因する明るすぎて飽和している、暗すぎてノイズに埋もれているといった輝度値のばらつきが抑制されており、画像情報の欠損を防止することが可能となる。
 しかしながら、観察対象物Sが生体である場合、生体の内部は時々刻々と形状が漸次変化し、また、撮像に用いられるカメラも内視鏡の形態であるために手振れが生じやすい。そのため、単純に複数の撮像画像から輝度の最適な画像だけを集めて画素に配置したとしても、正しい連結を行うことは困難である。
 そこで、本実施形態に係る画像連結処理部209は、以下で説明する処理を実施することで、観察対象物Sの経時変化や手振れを考慮した連結画像の生成を実施することが可能となる。
 本実施形態に係る画像連結処理部209は、図23に示したように、画像抽出部221と、特徴点抽出部223と、特徴点変化推定部225と、画像連結部227と、を有している。
 画像抽出部221は、例えば、CPU、ROM、RAM等により実現される。画像抽出部221は、連結画像の生成に用いられる複数の撮像画像を比較し、適切な輝度値及びコントラストを有している領域を各撮像画像中から抽出して、抽出画像とする。この際、画像抽出部221は、それぞれの撮像画像について、例えば、超広角レンズによるひずみを含む画像を平面画像に変換する等のように、必要に応じて座標変換を実施してもよい。なお、各撮像画像から抽出画像を生成する際には、適切な状態を有している領域よりも広い範囲で、切り出しを行うことが好ましい。
 例えば図24の左側最上段に示したような撮像対象物を撮像する際に、図24に示したような2種類の照明条件での撮像が行われたものとする。照明条件1での撮像画像では、画像の右側部分に輝度値の欠損が生じており、照明条件2での撮像画像では、画像の左側部分に輝度値の欠損が生じているものとする。この場合、画像抽出部221は、それぞれの撮像画像から、適切な状態を有している領域よりも広い範囲で切り出しを行って、抽出画像を生成する。
 画像抽出部221により抽出された抽出画像は、後段の特徴点抽出部223及び画像連結部227へと出力される。
 特徴点抽出部223は、例えば、CPU、ROM、RAM等により実現される。特徴点抽出部223は、生成された抽出画像のそれぞれについて、互いに重複している部分(重複部分)を特定するとともに、特定した重複部分について特徴点を抽出して、各特徴点の対応付けを実施する。
 例えば図24に示した例では、特徴点抽出部223は、2つの抽出画像を比較して、公知の方法により重複部分を特定する。図24の左側最下段に示した例では、特徴点抽出部223は、ハッチングで示した部分を重複部分であると特定し、かかる重複部分について、特徴点の抽出と対応付けとを実施する。
 特徴点抽出部223は、以上のようにして重複部分の特定、並びに、特徴点の抽出及び対応付けを実施すると、得られた結果を、後述する特徴点変化推定部225及び画像連結部227に出力する。
 特徴点変化推定部225は、例えば、CPU、ROM、RAM等により実現される。特徴点変化推定部225は、それぞれの抽出画像間で、抽出した特徴点の経時的な移動や変形などの大きさを推定する。すなわち、特徴点変化推定部225は、それぞれの抽出画像の基となる撮像画像が撮像される際の撮像間隔で、特徴点の移動や変形が生じたものと仮定して、移動量及び変形量をそれぞれ推定する。かかる移動量及び変形量の推定方法は、特に限定されるものではなく、撮像ユニット107での撮像タイミングと、観察対象物Sの脈動等に関する一般的な知見等と、に基づいて、公知の方法により推定することが可能である。
 特徴点変化推定部225は、以上のようにして特徴点の時間変化について推定を行うと、得られた推定結果を、後述する画像連結部227に出力する。
 画像連結部227は、例えば、CPU、ROM、RAM等により実現される。画像連結部227は、特徴点抽出部223により得られた特徴点に関する情報と、特徴点変化推定部225により得られた特徴点の時間変化についての情報と、に基づき、画像抽出部221により生成された抽出画像の連結処理を実施する。
 具体的には、画像連結部227は、各抽出画像の基となる撮像画像が撮像される際に特徴点が動いたり変形したりしたものと仮定し、移動量及び変形量を補正しながら、抽出画像を連結していく。これにより、図24の右側最上段に示したように、複数の抽出画像から1つの画像が生成されることとなる。
 また、生成した連結画像では、図24の右側最上段に示したように、手振れ等に起因して、特徴点が完全に一致しない場合も生じうる。この際、画像連結部227は、公知の手振れ補正技術を用いた補正処理を行って、連結画像中に存在する手振れ部位を除去することが可能である。また、画像連結部227は、輝度値やコントラストの補正処理や、連結部位のゴースト除去等といった、その他の画像補正処理を実施することも可能である。これにより、図24の右側最下段に示したように、観察対象物Sの経時変化や手振れ等が除去された連結画像が生成されることとなる。
 画像連結部227は、以上のようにして連結画像を随時生成すると、得られた連結画像を出力処理部211へと出力する。
 以上、図22~図24を参照しながら、本実施形態に係る画像連結処理部209で実施される画像連結処理について、詳細に説明した。
 出力処理部211は、例えば、CPU、ROM、RAM、出力装置、通信装置等により実現される。出力処理部211は、データ取得部205が取得した撮像画像の画像データ、及び、画像連結処理部209が生成した連結画像の画像データを、内視鏡装置10の操作者に対して出力する。出力処理部211は、取得した各種の画像データを、表示制御部213と連携しながら表示ユニット109に表示させることで、内視鏡装置10の操作者に、観察対象物(例えば、生体)Sの内部を観察した観察画像を提供することが可能となる。
 なお、出力処理部211は、データ取得部205が取得した撮像画像の画像データ、及び、画像連結処理部209が生成した連結画像の画像データを、印刷物として出力したり、データとして外部の情報処理装置やサーバ等に出力したりすることが可能である。出力処理部211が、これらの画像データを外部の情報処理装置やサーバ等に出力することで、内視鏡装置10により撮像された各種の画像データを、上記情報処理装置やサーバ等に格納されている電子カルテ等に自動的に関連付けたり、電子カルテ等に自動的に画像を張り付けたりすることが可能となる。
 また、出力処理部211は、統括制御部201の制御のもとで内視鏡ユニット状態判定部207の状態判定結果を受けて、「内視鏡ユニット103が前後に動いている、振動している、回転している」等といった状態判定結果を、内視鏡装置10の操作者にガイドを通知してもよい。かかる通知を操作者に対して出力することで、例えば内視鏡装置10の操作者が観察部位の静止画像を撮像しようとしている際にブレ等が発生しないように、操作者に注意を喚起することが可能となる。このような通知は、特に、上記のような連結画像を生成することを目的として、同一の観察部位に対して複数の撮像画像を生成している際に有用である。
 また、観察対象物Sが生体である場合、生体の内部は耐熱性が低いため、ある程度の時間同じ位置を高輝度で照明し続けると、観察部位が熱損傷を起こす可能性がある。そこで、出力処理部211は、統括制御部201の制御のもとで内視鏡ユニット状態判定部207の状態判定結果を受けて、「熱損傷の可能性がある」旨の警告を、操作者に対して通知してもよい。
 なお、かかる通知及び警告は、表示制御部213を介して、文字データとして出力されても良いし、音声、警告音等の音声データとして出力されても良いし、操作者を驚かせない程度の振動として出力されてもよい。
 表示制御部213は、例えば、CPU、ROM、RAM、出力装置、通信装置等により実現される。表示制御部213は、出力処理部211から出力された各種の結果を、内視鏡装置10の表示ユニット109が備えるディスプレイ等の出力装置や、内視鏡装置10の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、内視鏡装置10の操作者は、各種の結果を、その場で把握することが可能となる。
 記憶部215は、内視鏡装置10の制御ユニット101が備える記憶装置の一例であり、制御ユニット101が備えるRAMやストレージ装置等により実現される。記憶部215には、本実施形態に係る制御ユニット101が、各種の処理を実施する際に利用する各種のデータベースが記録されている。また、記憶部215には、各種の履歴情報が記録されていてもよい。更に、記憶部215には、本実施形態に係る制御ユニット101が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、又は、各種のデータベースやプログラム等が、適宜記録される。この記憶部215は、統括制御部201、操作情報取得部203、データ取得部205、内視鏡ユニット状態判定部207、画像連結処理部209、出力処理部211、表示制御部213等が、自由にリード/ライト処理を実施することが可能である。
 以上、本実施形態に係る制御ユニット101の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
 なお、上述のような本実施形態に係る制御ユニットの各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
 以上説明したように、本実施形態に係る内視鏡装置10では、内視鏡ユニット103の挿入を速やかに実施することが可能となり、内視鏡装置10の操作者の負担、及び、被験者の負担を、それぞれ低減することが可能となる。また、本実施形態に係る内視鏡装置10では、観察対象物に関する撮像画像を取得する際に、輝度飽和を防ぐことで情報の欠損を極力抑制することが可能であり、取得画像からの情報を最大限活用することができる。
<制御ユニットのハードウェア構成について>
 次に、図25を参照しながら、本実施形態に係る内視鏡装置10が備える制御ユニット101のハードウェア構成について、詳細に説明する。図25は、本開示の実施形態に係る制御ユニット101のハードウェア構成を説明するためのブロック図である。
 制御ユニット101は、主に、CPU901と、ROM903と、RAM905と、を備える。また、制御ユニット101は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
 CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919、又はリムーバブル記録媒体927に記録された各種プログラムに従って、制御ユニット101内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
 ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、制御ユニット101の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、この入力装置915を操作することにより、制御ユニット101に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、制御ユニット101が行った各種処理により得られた結果を出力する。具体的には、表示装置は、制御ユニット101が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置919は、制御ユニット101の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種データなどを格納する。
 ドライブ921は、記録媒体用リーダライタであり、制御ユニット101に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート923は、機器を制御ユニット101に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、制御ユニット101は、外部接続機器929から直接各種データを取得したり、外部接続機器929に各種データを提供したりする。
 通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本開示の実施形態に係る制御ユニット101の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された前記観察対象物の内部の像を伝播する内視鏡ユニットと、
 前記内視鏡ユニットに対して、前記観察対象物の内部を照明する前記照明光を射出する光源ユニットと、
 前記内視鏡ユニットから伝播された前記観察対象物の内部の像を撮像して、前記観察対象物の内部の撮像画像を生成する撮像ユニットと、
 前記内視鏡ユニット、前記光源ユニット及び前記撮像ユニットの駆動制御を行う制御部と、
を備え、
 前記照明光の放射角度が可変となっており、
 前記制御部は、前記観察対象物の内部へと挿入された前記内視鏡ユニットの一部である挿入部が、前記観察対象物の内部を移動しているか、又は、停止しているかに応じて、前記照明光の放射角度を変更する、内視鏡装置。
(2)
 前記照明光は、前記挿入部における光軸の近傍の光量が、当該光軸の周辺の光量よりも多くなっているスポット状の照明光であり、
 前記制御部は、前記挿入部が前記観察対象物の内部を前進しているときは、前記照明光の放射角度を小さくし、前記挿入部が前記観察対象物の内部で停止しているとき、又は、前記観察対象物の内部を後退しているときは、前記照明光の放射角度を大きくする、(1)に記載の内視鏡装置。
(3)
 前記内視鏡ユニットには、加速度センサが設けられており、
 前記制御部は、前記加速度センサからの出力情報に基づき、前記挿入部が移動しているか、又は、停止しているかを判断する、(1)又は(2)に記載の内視鏡装置。
(4)
 前記制御部は、前記撮像ユニットから出力される前記撮像画像のオプティカルフローを算出し、算出した前記オプティカルフローに基づき、前記挿入部が移動しているか、又は、停止しているかを判断する、(1)~(3)の何れか1つに記載の内視鏡装置。
(5)
 前記制御部は、
 前記挿入部が前記観察対象物の内部で停止している際に、同一の観察部位に対して、前記照明光の放射角度を変化させて、前記撮像ユニットにより、同一の観察部位についての複数の前記撮像画像を生成させ、
 前記複数の撮像画像のそれぞれについて、輝度値に応じて撮像画像中の一部の領域を抽出して抽出画像とし、
 複数の前記抽出画像を互いに連結することで、前記照明光の光量に起因する輝度値のばらつきが抑制された連結画像を生成する、(1)~(4)の何れか1つに記載の内視鏡装置。
(6)
 前記制御部は、
 前記抽出画像のそれぞれについて特徴点を抽出し、抽出した前記特徴点を複数の前記抽出画像間で対応付けることで、重複して撮像されている領域を特定し、
 前記複数の抽出画像間での撮像タイミングが異なることに起因する特徴点の時間変化を推定し、
 前記特徴点の時間変化を考慮して、前記複数の抽出画像を互いに連結する、(5)に記載の内視鏡装置。
(7)
 前記制御部は、前記同一の観察部位に対して前記複数の撮像画像を生成する際に前記挿入部の移動を検知した場合、前記挿入部が移動した旨のガイドを操作者に出力する、(5)又は(6)に記載の内視鏡装置。
(8)
 前記制御部は、操作者が実施した操作に対応する操作信号に基づき、前記照明光の放射角度を変化させる、(1)~(7)の何れか1つに記載の内視鏡装置。
(9)
 前記内視鏡ユニットの内部には、前記照明光を観察部位まで伝播する照明光学系が設けられており、
 前記内視鏡ユニットの内部において、前記照明光学系の少なくとも一部が移動することで、前記照明光の放射角度が変化する、(1)~(8)の何れか1つに記載の内視鏡装置。
(10)
 前記光源ユニットは、前記照明光を射出する光源部と、前記内視鏡ユニットに設けられたライトガイドと接続可能な結合部と、を有しており、
 前記結合部における前記ライトガイドへと入射する前記照明光の入射角度が変化することで、前記照明光の放射角度が変化する、(1)~(8)の何れか1つに記載の内視鏡装置。
(11)
 前記結合部には、前記ライトガイドへの入射角度が制御された前記照明光を前記ライトガイドへと結合させる結合光学系が設けられる、(10)に記載の内視鏡装置。
(12)
 前記結合部には、前記光源部から射出された前記照明光を反射させる反射光学系又は前記照明光を屈折させる屈折光学系と、前記照明光を前記ライトガイドへと結合させる結合光学系と、が設けられており、
 前記反射光学系又は前記屈折光学系を移動させることで、前記結合光学系への入射面において、前記結合光学系の光軸と前記照明光の入射位置との間の離隔距離を変化させて、前記照明光の入射角度を変化させる、(10)に記載の内視鏡装置。
(13)
 前記結合部の光軸と、前記ライトガイドの光軸と、のなす角を変化させることで、前記照明光の入射角度を変化させる、(10)に記載の内視鏡装置。
(14)
 前記ライトガイドへの前記照明光の入射面における前記照明光のビームサイズを変化させることで、前記照明光の入射角度を変化させる、(10)に記載の内視鏡装置。
(15)
 前記光源部から射出された前記照明光の発散角を変化させることで、前記照明光の入射角度を変化させる、(10)に記載の内視鏡装置。
(16)
 少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された前記観察対象物の内部の像を伝播する内視鏡ユニットと、前記内視鏡ユニットに対して、前記観察対象物の内部を照明する前記照明光を射出する光源ユニットと、前記内視鏡ユニットから伝播された前記観察対象物の内部の像を撮像して、前記観察対象物の内部の撮像画像を生成する撮像ユニットと、を有し、前記照明光の放射角度が可変である内視鏡装置について、
 前記内視鏡ユニット、前記光源ユニット及び前記撮像ユニットの駆動制御を行う制御部により、前記観察対象物の内部へと挿入された前記内視鏡ユニットの一部である挿入部が、前記観察対象物の内部を移動しているか、又は、停止しているかを判断することと、
 前記挿入部の状態に応じて、前記照明光の放射角度を変更することと、
を含む、内視鏡装置の制御方法。
  10  内視鏡装置
 101  制御ユニット
 103  内視鏡ユニット
 105  光源ユニット
 107  撮像ユニット
 109  表示ユニット
 111,117  ライトガイド
 113  照明光学系
 115  対物光学系
 119  結像光学系
 121  加速度センサ
 131  光源部
 133  結合部
 135  マルチモード光ファイバ
 137  駆動機構
 139  制御部
 141  記憶部
 151  コリメータレンズ
 153  入射角度調節機構
 155  結合光学系
 201  統括制御部
 203  操作情報取得部
 205  データ取得部
 207  内視鏡ユニット状態判定部
 209  画像連結処理部
 211  出力処理部
 213  表示制御部
 215  記憶部
 221  画像抽出部
 223  特徴点抽出部
 225  特徴点変化推定部
 227  画像連結部

Claims (16)

  1.  少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された前記観察対象物の内部の像を伝播する内視鏡ユニットと、
     前記内視鏡ユニットに対して、前記観察対象物の内部を照明する前記照明光を射出する光源ユニットと、
     前記内視鏡ユニットから伝播された前記観察対象物の内部の像を撮像して、前記観察対象物の内部の撮像画像を生成する撮像ユニットと、
     前記内視鏡ユニット、前記光源ユニット及び前記撮像ユニットの駆動制御を行う制御部と、
    を備え、
     前記照明光の放射角度が可変となっており、
     前記制御部は、前記観察対象物の内部へと挿入された前記内視鏡ユニットの一部である挿入部が、前記観察対象物の内部を移動しているか、又は、停止しているかに応じて、前記照明光の放射角度を変更する、内視鏡装置。
  2.  前記照明光は、前記挿入部における光軸の近傍の光量が、当該光軸の周辺の光量よりも多くなっているスポット状の照明光であり、
     前記制御部は、前記挿入部が前記観察対象物の内部を前進しているときは、前記照明光の放射角度を小さくし、前記挿入部が前記観察対象物の内部で停止しているとき、又は、前記観察対象物の内部を後退しているときは、前記照明光の放射角度を大きくする、請求項1に記載の内視鏡装置。
  3.  前記内視鏡ユニットには、加速度センサが設けられており、
     前記制御部は、前記加速度センサからの出力情報に基づき、前記挿入部が移動しているか、又は、停止しているかを判断する、請求項2に記載の内視鏡装置。
  4.  前記制御部は、前記撮像ユニットから出力される前記撮像画像のオプティカルフローを算出し、算出した前記オプティカルフローに基づき、前記挿入部が移動しているか、又は、停止しているかを判断する、請求項2に記載の内視鏡装置。
  5.  前記制御部は、
     前記挿入部が前記観察対象物の内部で停止している際に、同一の観察部位に対して、前記照明光の放射角度を変化させて、前記撮像ユニットにより、同一の観察部位についての複数の前記撮像画像を生成させ、
     前記複数の撮像画像のそれぞれについて、輝度値に応じて撮像画像中の一部の領域を抽出して抽出画像とし、
     複数の前記抽出画像を互いに連結することで、前記照明光の光量に起因する輝度値のばらつきが抑制された連結画像を生成する、請求項1に記載の内視鏡装置。
  6.  前記制御部は、
     前記抽出画像のそれぞれについて特徴点を抽出し、抽出した前記特徴点を複数の前記抽出画像間で対応付けることで、重複して撮像されている領域を特定し、
     前記複数の抽出画像間での撮像タイミングが異なることに起因する特徴点の時間変化を推定し、
     前記特徴点の時間変化を考慮して、前記複数の抽出画像を互いに連結する、請求項5に記載の内視鏡装置。
  7.  前記制御部は、前記同一の観察部位に対して前記複数の撮像画像を生成する際に前記挿入部の移動を検知した場合、前記挿入部が移動した旨のガイドを操作者に出力する、請求項5に記載の内視鏡装置。
  8.  前記制御部は、操作者が実施した操作に対応する操作信号に基づき、前記照明光の放射角度を変化させる、請求項1に記載の内視鏡装置。
  9.  前記内視鏡ユニットの内部には、前記照明光を観察部位まで伝播する照明光学系が設けられており、
     前記内視鏡ユニットの内部において、前記照明光学系の少なくとも一部が移動することで、前記照明光の放射角度が変化する、請求項1に記載の内視鏡装置。
  10.  前記光源ユニットは、前記照明光を射出する光源部と、前記内視鏡ユニットに設けられたライトガイドと接続可能な結合部と、を有しており、
     前記結合部における前記ライトガイドへと入射する前記照明光の入射角度が変化することで、前記照明光の放射角度が変化する、請求項1に記載の内視鏡装置。
  11.  前記結合部には、前記ライトガイドへの入射角度が制御された前記照明光を前記ライトガイドへと結合させる結合光学系が設けられる、請求項10に記載の内視鏡装置。
  12.  前記結合部には、前記光源部から射出された前記照明光を反射させる反射光学系又は前記照明光を屈折させる屈折光学系と、前記照明光を前記ライトガイドへと結合させる結合光学系と、が設けられており、
     前記反射光学系又は前記屈折光学系を移動させることで、前記結合光学系への入射面において、前記結合光学系の光軸と前記照明光の入射位置との間の離隔距離を変化させて、前記照明光の入射角度を変化させる、請求項10に記載の内視鏡装置。
  13.  前記結合部の光軸と、前記ライトガイドの光軸と、のなす角を変化させることで、前記照明光の入射角度を変化させる、請求項10に記載の内視鏡装置。
  14.  前記ライトガイドへの前記照明光の入射面における前記照明光のビームサイズを変化させることで、前記照明光の入射角度を変化させる、請求項10に記載の内視鏡装置。
  15.  前記光源部から射出された前記照明光の発散角を変化させることで、前記照明光の入射角度を変化させる、請求項10に記載の内視鏡装置。
  16.  少なくとも一部が観察対象物の内部へと挿入され、照明光の照射された前記観察対象物の内部の像を伝播する内視鏡ユニットと、前記内視鏡ユニットに対して、前記観察対象物の内部を照明する前記照明光を射出する光源ユニットと、前記内視鏡ユニットから伝播された前記観察対象物の内部の像を撮像して、前記観察対象物の内部の撮像画像を生成する撮像ユニットと、を有し、前記照明光の放射角度が可変である内視鏡装置について、
     前記内視鏡ユニット、前記光源ユニット及び前記撮像ユニットの駆動制御を行う制御部により、前記観察対象物の内部へと挿入された前記内視鏡ユニットの一部である挿入部が、前記観察対象物の内部を移動しているか、又は、停止しているかを判断することと、
     前記挿入部の状態に応じて、前記照明光の放射角度を変更することと、
    を含む、内視鏡装置の制御方法。
PCT/JP2017/020998 2016-08-08 2017-06-06 内視鏡装置及び内視鏡装置の制御方法 WO2018029962A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780048499.5A CN109561819B (zh) 2016-08-08 2017-06-06 内窥镜装置和内窥镜装置的控制方法
US16/311,076 US11266295B2 (en) 2016-08-08 2017-06-06 Endoscope apparatus and control method of endoscope apparatus
EP17839037.3A EP3498148B1 (en) 2016-08-08 2017-06-06 Endoscope device and method for controlling endoscope device
JP2018533439A JP6943246B2 (ja) 2016-08-08 2017-06-06 内視鏡装置及び内視鏡装置の制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-155896 2016-08-08
JP2016155896 2016-08-08

Publications (1)

Publication Number Publication Date
WO2018029962A1 true WO2018029962A1 (ja) 2018-02-15

Family

ID=61162031

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020998 WO2018029962A1 (ja) 2016-08-08 2017-06-06 内視鏡装置及び内視鏡装置の制御方法

Country Status (5)

Country Link
US (1) US11266295B2 (ja)
EP (1) EP3498148B1 (ja)
JP (1) JP6943246B2 (ja)
CN (1) CN109561819B (ja)
WO (1) WO2018029962A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187762A1 (ja) * 2018-03-30 2019-10-03 ソニー株式会社 手術用観察装置、および制御方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112272533A (zh) * 2018-06-22 2021-01-26 奥林巴斯株式会社 照明装置及内窥镜系统
CN110916601A (zh) * 2019-09-06 2020-03-27 上海澳华光电内窥镜有限公司 一种可变照明结构及内窥镜
DE102020116473A1 (de) * 2020-06-23 2021-12-23 Olympus Winter & Ibe Gmbh Verfahren zur endoskopischen Bildgebung, endoskopisches Bildgebungssystem und Softwareprogrammprodukt
CN114587272A (zh) * 2022-02-25 2022-06-07 西安电子科技大学 一种基于深度学习的活体荧光成像去模糊方法
WO2023192129A1 (en) * 2022-03-29 2023-10-05 Noah Medical Corporation Systems and methods for responsive insertion and retraction of robotic endoscope
CN115115545A (zh) * 2022-06-28 2022-09-27 安翰科技(武汉)股份有限公司 内窥镜图像校正方法、系统及计算机存储介质
CN116965751A (zh) * 2022-11-28 2023-10-31 开立生物医疗科技(武汉)有限公司 内窥镜移动速度检测方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055613A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2015136468A (ja) * 2014-01-22 2015-07-30 Hoya株式会社 内視鏡用光源装置
JP2016123825A (ja) * 2015-01-08 2016-07-11 オリンパス株式会社 内視鏡システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0658458B2 (ja) * 1985-07-12 1994-08-03 オリンパス光学工業株式会社 内視鏡装置
US4953937A (en) * 1988-05-17 1990-09-04 Olympus Optical Co., Ltd. Illumination optical system
JPH02148013A (ja) * 1988-11-30 1990-06-06 Olympus Optical Co Ltd 内視鏡
US6413209B1 (en) * 1995-09-15 2002-07-02 Med Images, Inc. Imaging system with condensation control
CN1242082A (zh) * 1996-11-22 2000-01-19 考金特光学技术公司 带有增强的场均匀度及更佳耦合效率的将来自单根光纤的光耦合到多光纤束上的方法
JPH10239740A (ja) 1997-02-28 1998-09-11 Toshiba Corp 内視鏡装置
CN1123874C (zh) * 1997-05-07 2003-10-08 索尼株式会社 光拾取装置
US20080161647A1 (en) * 2006-12-27 2008-07-03 Amit Pascal Device and method for multiple illumination fields of an in-vivo imaging device
WO2008092653A2 (en) * 2007-01-30 2008-08-07 Carl Zeiss Smt Ag Illumination system of a microlithographic projection exposure apparatus
JP2008203093A (ja) * 2007-02-20 2008-09-04 Mitsutoyo Corp 照明装置、画像測定装置
CN101050844A (zh) * 2007-03-23 2007-10-10 潘国平 一种激光发生器的移动变焦装置
DE102008018931A1 (de) 2007-04-17 2008-11-13 Gyrus ACMI, Inc., Southborough Lichtquellenleistung auf der Grundlage einer vorbestimmten erfaßten Bedingung
WO2009034694A1 (ja) * 2007-09-14 2009-03-19 Panasonic Corporation プロジェクタ
WO2010045406A2 (en) 2008-10-15 2010-04-22 The Regents Of The University Of California Camera system with autonomous miniature camera and light source assembly and method for image enhancement
JP2011147595A (ja) * 2010-01-21 2011-08-04 Fujifilm Corp 内視鏡用光照射装置
CN103988114B (zh) * 2011-10-06 2016-09-14 管理前街不同收入阶层的前街投资管理有限公司 三维立体显微镜
JP5973708B2 (ja) * 2011-10-21 2016-08-23 オリンパス株式会社 撮像装置及び内視鏡装置
CN202583663U (zh) * 2012-04-06 2012-12-05 弘凯光电(深圳)有限公司 一种照明装置及包括该照明装置的摄像机
US20140012078A1 (en) * 2012-07-05 2014-01-09 Raymond Coussa Accelorometer Based Endoscopic Light Source Safety System
JP5750422B2 (ja) 2012-11-07 2015-07-22 富士フイルム株式会社 内視鏡装置
US9658456B2 (en) * 2013-01-10 2017-05-23 Sony Corporation Image display apparatus, image generating device, and transmissive spatial light modulating device
CN104968252A (zh) * 2013-02-05 2015-10-07 奥林巴斯株式会社 自动辅助手术系统及其控制方法
CN103519772B (zh) * 2013-10-29 2016-03-16 上海交通大学 单孔腹腔镜微创手术成像系统
CN204044437U (zh) * 2014-08-26 2014-12-24 济南和普威视光电技术有限公司 一种半导体激光匀化照明镜片组

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011055613A1 (ja) * 2009-11-06 2011-05-12 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2015136468A (ja) * 2014-01-22 2015-07-30 Hoya株式会社 内視鏡用光源装置
JP2016123825A (ja) * 2015-01-08 2016-07-11 オリンパス株式会社 内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3498148A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187762A1 (ja) * 2018-03-30 2019-10-03 ソニー株式会社 手術用観察装置、および制御方法

Also Published As

Publication number Publication date
JP6943246B2 (ja) 2021-09-29
EP3498148B1 (en) 2020-12-23
EP3498148A1 (en) 2019-06-19
US11266295B2 (en) 2022-03-08
CN109561819A (zh) 2019-04-02
EP3498148A4 (en) 2019-08-14
US20190328207A1 (en) 2019-10-31
CN109561819B (zh) 2021-10-01
JPWO2018029962A1 (ja) 2019-06-06

Similar Documents

Publication Publication Date Title
WO2018029962A1 (ja) 内視鏡装置及び内視鏡装置の制御方法
US11788966B2 (en) Imaging system
JP2010082040A (ja) 内視鏡システム
US11653824B2 (en) Medical observation system and medical observation device
US11503201B2 (en) Focus detection device and method
JP6996518B2 (ja) 分岐光学系、撮像装置、及び撮像システム
JP2015029841A (ja) 撮像装置および撮像方法
JPWO2018168261A1 (ja) 制御装置、制御方法、及びプログラム
US20230308628A1 (en) Medical imaging system, medical imaging device, and operation method
JP2011062378A (ja) 内視鏡システム
JP2023164610A (ja) 画像処理装置、画像処理方法および画像処理システム
WO2019176253A1 (ja) 医療用観察システム
US20210177284A1 (en) Medical observation system, medical observation apparatus, and method for driving medical observation apparatus
US20230047294A1 (en) Medical image generation apparatus, medical image generation method, and medical image generation program
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
JP2018157918A (ja) 手術用制御装置、制御方法、手術システム、およびプログラム
US20230397801A1 (en) Medical imaging system, medical imaging device, and operation method
WO2022249572A1 (ja) 画像処理装置、画像処理方法及び記録媒体
US20220270243A1 (en) Medical image processing apparatus, method of driving medical image processing apparatus, medical imaging system, and medical signal acquisition system
WO2020184228A1 (ja) 医療用画像処理装置、医療用画像処理装置の駆動方法、及び医療用観察システム
WO2022239339A1 (ja) 医療用情報処理装置、医療用観察システム及び医療用情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17839037

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018533439

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017839037

Country of ref document: EP

Effective date: 20190311