WO2017217498A1 - 内視鏡用拡張装置 - Google Patents

内視鏡用拡張装置 Download PDF

Info

Publication number
WO2017217498A1
WO2017217498A1 PCT/JP2017/022164 JP2017022164W WO2017217498A1 WO 2017217498 A1 WO2017217498 A1 WO 2017217498A1 JP 2017022164 W JP2017022164 W JP 2017022164W WO 2017217498 A1 WO2017217498 A1 WO 2017217498A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
endoscope
optical system
unit
relay optical
Prior art date
Application number
PCT/JP2017/022164
Other languages
English (en)
French (fr)
Inventor
康博 高木
Original Assignee
国立大学法人東京農工大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京農工大学 filed Critical 国立大学法人東京農工大学
Priority to JP2018524002A priority Critical patent/JPWO2017217498A1/ja
Publication of WO2017217498A1 publication Critical patent/WO2017217498A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides

Definitions

  • the disclosed technology relates to an endoscope expansion device.
  • Endoscopes are widely used in which elongated insertion portions are inserted into body cavities and the like to observe parts that cannot be directly seen.
  • a general endoscope has an objective optical system and an image transmission optical system such as a relay lens (in the case of a rigid mirror) and an image guide fiber (in the case of a flexible mirror) inside a long and narrow insertion portion.
  • the endoscope for visual observation is comprised so that the light which passed these optical systems from the observation object may be observed as an observation image via an eyepiece optical system or an imaging optical system.
  • a video endoscope for observing an image is configured to incorporate an objective optical system and an imaging element such as a CCD at the tip.
  • a stereoscopic endoscope apparatus that enables observation of fine irregularities and the like (for example, see Patent Document 1).
  • the disclosed technology has been made in view of these circumstances, and an object thereof is to provide an endoscope expansion device that can expand one endoscope to an endoscope having a plurality of observation functions.
  • An endoscope expansion device includes an incident window through which light is incident, a housing capable of accommodating an optical component therein, and light emitted from an endoscope from the incident window to the housing.
  • An attachment portion for attaching the housing to the exit side of the endoscope so as to be incident on the inside of the endoscope; and a light that is fixedly or detachably attached to the inside of the housing and receives light incident from the entrance window.
  • a relay optical system for relaying a branching unit that is fixedly or detachably attached to the inside of the housing, and branches the light relayed by the relay optical system into a plurality of optical paths, and one of the branching units branched by the branching unit And a light receiving portion fixedly or detachably attached at a position where the light propagating through the optical path can be received.
  • the attachment portion is attached to the eyepiece of the endoscope.
  • the attachment portion includes an attachment adjustment portion that adjusts the positional relationship of the entrance pupil of the relay optical system with respect to the exit pupil of the endoscope.
  • the relay optical system is attached so as to relay the exit pupil of the endoscope with the exit pupil formed by the endoscope as an entrance pupil, and the branch The part is provided in a space from the exit side end of the relay optical system to the exit pupil position of the relay optical system and on the optical path of the relay optical system.
  • At least one of the branching unit and the light receiving unit is positioned to adjust a position of light received by the front light receiving unit with respect to an exit pupil position of the relay optical system.
  • the branching unit includes an optical element that reflects part of the light emitted from the relay optical system and transmits at least part of the remaining light.
  • the branching unit branches light so that a right-eye image and a left-eye image are obtained by pupil division of the light emitted from the relay optical system
  • the light receiving unit is arranged at a position where each of the two lights divided by the branching unit can receive light, and based on the right-eye image and the left-eye image obtained from the light received by each of the light-receiving units,
  • the stereoscopic camera apparatus includes a display unit that displays an image.
  • the branching unit branches the light emitted from the relay optical system so that a plurality of different images separated by predetermined pixels can be obtained, and the light receiving unit A display unit arranged at a position capable of receiving each of the plurality of lights divided by the branch unit, and displaying a high quality image by combining a plurality of images obtained from the light received by each of the light receiving units Is a high-quality camera device.
  • the light receiving unit emits light so as to propagate in one of the optical paths branched by the branching unit in a direction opposite to the light emission direction of the relay optical system. Includes light emitting part.
  • the light emitting unit is a projection apparatus that projects a predetermined pattern image.
  • the branching unit branches light so that light applied to the object and light generated by the light applied to the object are obtained, and the light reception is performed.
  • the unit receives light emitted from the light emitting unit disposed at a position that can propagate in the direction opposite to the light emission direction of the relay optical system, and is an object observed by the endoscope based on the received light
  • a distance measuring device that measures a distance from an object to a tip of the endoscope.
  • the branching unit is configured to obtain irradiation light applied to the object and reflected light obtained by reflecting the irradiation light applied to the object by the object.
  • the light is branched, and the light receiving unit receives reflected light of the irradiated light emitted from the light emitting unit disposed at a position that can propagate in the direction opposite to the light emission direction of the relay optical system, and receives the reflected light.
  • It is a shape measuring device that measures the three-dimensional shape of an object observed by the endoscope based on light.
  • the branching unit branches the light so that excitation light applied to the object and fluorescence excited by the excitation light applied to the object are obtained.
  • the light receiving unit is a fluorescence observation apparatus that receives fluorescence excited by excitation light emitted from the light emitting unit disposed at a position that can propagate in a direction reverse to the light emission direction of the relay optical system.
  • the branching unit is configured to obtain irradiation light irradiated on the object and reflected light obtained by reflecting the irradiation light irradiated on the object by the object.
  • the light receiving unit includes a reference light generating unit that divides light and emits a predetermined reference light, and is disposed at a position where the light can be propagated in a direction opposite to a light emitting direction of the relay optical system. It is an internal structure detection device that detects the internal structure of the surface of an object based on the interference between the reflected light reflected by the object and the reference light and the scanning result of the illumination light.
  • a lens system that acts on all the light receiving portions in common to form an image on the incident side of the relay optical system and in the vicinity of the exit pupil of the endoscope Is provided.
  • the housing includes an incident window through which light is incident, and can accommodate an optical component therein, and the light emitted from the endoscope is transmitted from the incident window to the housing.
  • An attachment portion for attaching the housing to the exit side of the endoscope so as to be incident on the inside of the endoscope; and a light that is fixedly or detachably attached to the inside of the housing and receives light incident from the entrance window.
  • a relay optical system that relays and is fixedly or detachably attached to the inside of the housing, and splits the light relayed by the relay optical system so that a right-eye image and a left-eye image are obtained by pupil division.
  • a three-dimensional display branching unit a branching unit including an irradiation light to irradiate the target object and an internal structure detection branching unit that branches light so that reflected light of the target object is obtained by the irradiation light, and the three-dimensional display
  • the optical path of the light split at the fork A stereoscopic camera device that is fixedly or detachably attached to a position where the sowing light can be received and that is divided into pupils, and forms a right-eye image and a left-eye image, and the internal structure detection branching unit
  • a light-emitting unit that is fixedly or detachably attached to a position where it can receive light propagating through the optical path branched by the light path, and a light-emitting unit that emits the irradiation light, and a reference light dividing unit that uses a part of the irradiation light as reference light
  • a light receiving unit including an internal structure detection device that detects an internal structure of the surface of the object based on an
  • the housing includes an incident window through which light is incident, and can accommodate an optical component therein, and the light emitted from the endoscope is transmitted from the incident window to the housing.
  • An attachment portion for attaching the housing to the exit side of the endoscope so as to be incident on the inside of the endoscope; and a light that is fixedly or detachably attached to the inside of the housing and receives light incident from the entrance window.
  • a relay optical system that relays and is fixedly or detachably attached to the inside of the housing, and splits the light relayed by the relay optical system so that a right-eye image and a left-eye image are obtained by pupil division.
  • a three-dimensional display branching unit a branching unit that splits light emitted from the relay optical system so as to obtain a plurality of different images separated by a predetermined pixel, and the three-dimensional display Light split into pupils at the display branch
  • a stereoscopic camera device for forming a right-eye image and a left-eye image using each of the light that is fixedly or detachably attached to a position where the light propagating through the optical path can be received or is divided into pupils, and the high image quality
  • a high-quality camera device, and a light receiving unit In order to display a high-quality image by synthesizing a plurality of images obtained from the light received at each of the plurality of lights divided by the branching unit so as to be fixed or removable at positions where they can be received.
  • the housing includes an incident window through which light is incident, and can accommodate an optical component therein, and the light emitted from the endoscope is transmitted from the incident window to the housing.
  • An attachment portion for attaching the housing to the exit side of the endoscope so as to be incident on the inside of the endoscope; and a light that is fixedly or detachably attached to the inside of the housing and receives light incident from the entrance window.
  • the relay includes a light emitting unit that is fixedly or detachably attached to a position where the light propagating light can be received, and emits the excitation light, and also propagates an optical path of light branched by the fluorescence branching unit.
  • Fluorescence observation device that receives fluorescence excited by excitation light propagating in the direction opposite to the light emission direction of the optical system, and can project pattern images by propagating the optical path of the light branched by the projection branching unit The pattern image is projected along a direction opposite to the light emission direction of the relay optical system so as to propagate through the optical path of the light that is fixedly or detachably attached at a certain position and is branched by the projection branching unit.
  • a light receiving unit including the projection device.
  • an endoscope expansion device that can expand one endoscope to an endoscope having a plurality of observation functions.
  • FIG. 1 shows an example of the configuration of an endoscope apparatus having a functionalized platform according to the first embodiment.
  • the endoscope apparatus 10 according to the first embodiment is configured by attaching an endoscope expansion apparatus 30 provided with a functionalized platform, the details of which will be described later, to an endoscope 20 for visual observation.
  • the endoscope 20 includes an objective lens 22, a plurality of relay lens systems 24, and an eyepiece 26.
  • the objective lens 22 is connected to the lens barrel 28.
  • a plurality of relay lens systems 24 are provided in the lens barrel 28.
  • the eyepiece 26 is connected to the lens barrel 28.
  • the objective lens 22 includes, for example, a front lens group 22A and a rear lens group 22B so that a wide range can be observed, and forms a real image Rg obtained by reducing the object Ob in the body cavity or the like.
  • each of the plurality of relay lens systems 24 is formed of, for example, a lens group including a combination lens of lenses 24A, 24B, and 24C so that the state of the object Ob in the body cavity or the like can be observed outside the body cavity.
  • An imaging system with a long distance is realized by connecting a plurality of relay lens systems 24.
  • each relay lens system 24 is designed so that the light beam states on the incident side and the output side are the same, and the real image Rg formed by the objective lens 22 is formed by the plurality of relay lens systems 24. Communicate by repeating.
  • the eyepiece 26 includes, for example, an attachment 26B for fixing the eyepiece lens 26A to the lens barrel 28.
  • a real image transmitted by the relay lens system 24 is formed into a virtual image, and the eyepiece 26 is moved to the lens barrel 28 side. Enlarged image is formed backwards.
  • An aperture stop As is formed in the objective lens 22, and an image on the entrance side of the aperture stop As is an entrance pupil (an image formed by the optical system on the entrance side of the aperture stop As) Enp, and the eyepiece 26
  • the image on the side is an exit pupil (an image formed by the optical system on the exit side of the aperture stop As) Exp.
  • the exit pupil Exp is designed so as to be formed in the immediate vicinity of the eyepiece 26 on the side opposite to the lens barrel 28, and the observer puts his eyes here to visually observe the state of the object Ob in the body cavity or the like. Makes it observable.
  • the aperture stop As is located between the front lens group 22A and the rear lens group 22B constituting the objective lens 22.
  • a field stop Fs is provided at a position where a real image Rg reduced by the objective lens 22 is formed on the exit side of the objective lens 22.
  • the distance between the outermost part of the eyepiece 26 and the exit pupil Exp is generally close to several mm. is there.
  • the endoscope 20 is observed in a plurality of ways.
  • An endoscope expansion device that can be expanded to the endoscope device 10 having a function is provided.
  • the endoscope expansion apparatus 30 moves the exit pupil Exp of the endoscope 20 to a position away from the eyepiece 26 using the relay optical system 34.
  • a branching section 36 that branches an optical path into a plurality of optical elements such as a beam splitter and a mirror, and the light relayed by the relay optical system 34 is Then, the light is branched (deflected) by the branching unit 36 and provided to a device that realizes a specific observation function provided at the end of the branched optical path.
  • the light from the endoscope 20, for example, the light indicating the image of the object Ob in the body cavity or the like can be used in a plurality of devices according to the optical path branched by the branching unit 36.
  • the relay optical system 34 and the branching unit 36 form a functionalized platform 31 for extending to the endoscope apparatus 10 having a plurality of observation functions.
  • the relay optical system 34 is configured in accordance with the afocal optical system, and relays the exit pupil Exp at the same magnification or a constant magnification.
  • the endoscope expansion device 30 includes a housing 39 that can store optical components therein, a relay optical system 34, a branching unit 36, and a light receiving unit 38.
  • the housing 39 includes an incident window 39A through which light is incident.
  • the housing portion 39 allows the light emitted from the endoscope 20 to enter the housing 39 through the incident window 39A.
  • the body 39 is attached to the exit side of the endoscope 20.
  • the light incident from the incident window 39A is relayed by the relay optical system 34 that is fixedly or detachably attached to the inside of the housing 39.
  • the optical path formed by the light relayed by the relay optical system 34 is branched into a plurality by a branching section 36 that is fixed or detachably attached to the inside of the housing 39.
  • Light propagated through any of the optical paths branched by the branching unit 36 is received by the light receiving unit 38.
  • the light receiving unit 38 is fixedly or detachably attached at a position where the light propagated through any of the optical paths branched by the branching unit 36 can be received.
  • the endoscope expansion device 30 includes a housing 39 and an attachment portion 32, and the relay optical system 34, the branching portion 36, and the light receiving portion 38 are fixedly or detachably attached to the housing 39.
  • the attachment portion 32 is connected to the housing 39 and attached to the eyepiece 26. That is, the attachment portion 32 includes a fixing portion 32A that is fixed to the eyepiece 26, and an attachment adjustment portion 32B that is an attachment adjustment portion that relatively adjusts the positional relationship between the fixing portion 32A and the housing 39. As shown in FIG. 1, the attachment adjusting portion 32B has a direction along the emission optical axis of the endoscope 20 as a Z axis, and directions perpendicular to the Z axis and perpendicular to each other are defined as an X axis and a Y axis. The position can be adjusted in the dimensional space.
  • the housing 39 includes an incident window 39A through which light is incident at a portion where the attachment portion 32 is attached. By attaching the attachment portion 32 to the eyepiece 26, the light emitted from the endoscope 20 is incident. The light can enter the housing 39 through the window 39A.
  • the mounting adjustment part 32B can adjust the rotational position.
  • the rotation of the image can be adjusted by adjusting the rotation position by making the housing 39 rotatable about the Z axis.
  • tilt adjustment can be performed by adjusting the orientation of the housing 39 with respect to the optical axis CL. Therefore, the attachment adjusting unit 32B can adjust the rotational position by allowing the housing 39 to rotate about at least one of the X, Y, and Z axes.
  • the relay optical system 34 is attached to the housing 39 so as to be positioned on the light exit side of the eyepiece 26 constituting the endoscope 20, and reconnects the exit pupil Exp of the entrance-side endoscope 20 to the exit side. Functions as an optical system for imaging. That is, the relay optical system 34 relays the exit pupil Exp formed by the endoscope 20.
  • the relay optical system 34 includes a lens group 34A for re-imaging the exit pupil Exp of the endoscope 20 on the incident side to the exit side, an attachment 34B that couples the lens group 34A to the housing 39, A position adjustment unit 34C that relatively adjusts the positional relationship between the lens group 34A and the housing 39 connected by the attachment 34B.
  • the lens group 34A is configured according to an afocal optical system in which the first lens system 34A-1 and the second lens system 34A-2 are provided apart from each other, and the first lens system 34A-1 and the second lens system 34A.
  • the exit pupil Exp is relayed at the same magnification or constant magnification from the relationship between the focal length and the interval of -2.
  • the first lens system 34A-1 has a focal length f1
  • the second lens system 34A-2 has a focal length f2
  • the first lens system 34A-1 and the second lens system 34A-2 are set to (f1 + f2).
  • the magnification of the lens group 34A is f2 / f1.
  • the position adjustment unit 34C can adjust the position in a three-dimensional space using the X, Y, and Z axes in the same manner as the attachment adjustment unit 32B for adjusting the position of the exit pupil Exp by the optical axis and the lens group 34A. (Fig. 1).
  • the relay optical system 34 is designed to ensure a predetermined distance to the rear focal position, and is formed by the relay optical system 34 from the last lens surface on the rear side of the lens group 34A of the relay optical system 34.
  • An optical space is formed so that a later-described branch portion 36 can be provided between the exit pupil Exp and the exit pupil Exp.
  • the branching unit 36 is attached to the housing 39 so as to be positioned in an optical space between the lens final surface of the relay optical system 34 formed by the relay optical system 34 and the exit pupil Exp, and is relayed by the relay optical system 34. It functions as an optical system for branching the optical path of the emitted light into a plurality. That is, the branching unit 36 includes a deflection element 36A that branches the light relayed by the relay optical system 34 into a plurality of pieces, an attachment 36B that connects the deflection element 36A to the housing 39, a deflection element 36A that is connected by the attachment 36B, and A position adjustment unit 36C that relatively adjusts the positional relationship between the casings 39.
  • the position adjustment unit 36C in the same manner as the attachment adjustment unit 32B, adjusts the position of the exit pupil Exp deflected by the branch optical path and the deflection element 36A in a three-dimensional space using the X, Y, and Z axes.
  • the position can be adjusted (FIG. 1).
  • an optical system that branches the light path of the light relayed by the relay optical system 34 into three by the deflection element 36A is shown as an example.
  • the number of optical paths branched by the branching unit 36 is not limited to three, and any number may be used as long as there are two or more.
  • the endoscope apparatus 10 when used as a video endoscope for video observation, one optical path may be used, and the branching unit 36 uses an optical path of light relayed by the relay optical system 34. It may be passed or reflected (deflected) as it is.
  • the light receiving unit 38 is attached to the housing 39 so as to receive each light that has passed through the branching unit 36, and receives the light from the endoscope 20 to observe the object Ob in the body cavity or the like. Functions as a device.
  • the light receiving unit 38 is attached at a position where the light propagated through each of the optical paths branched into three by the branching unit 36 can be received by the branching optical system 34. The case was shown.
  • the light receiving unit 38 when the light receiving unit 38 that receives light propagating through each of the three optical paths branched by the branching unit 36 is distinguished, the light receiving unit attached in the direction along the optical axis of the relay optical system 34. 38 will be described as a light receiving unit 38-1.
  • the light receiving unit 38 that receives light propagating through the optical path branched in the arrow Y direction is referred to as a light receiving unit 38-2, and the light receiving unit that receives light propagated through the optical path branched in the direction opposite to the arrow Y direction. 38 will be described as a light receiving section 38-3.
  • each of the relay optical system 34, the branching unit 36, and the light receiving unit 38 is attached to the inside of the housing 39 as an optical component that can be housed in the housing 39.
  • the disclosed technology is not limited to forming all of these optical components so as to be fixed or removable at all times.
  • at least one of the relay optical system 34, the branching unit 36, and the light receiving unit 38 may be fixed to the housing 39.
  • the endoscope expansion device 30 including the relay optical system 34 and the optical system of the endoscope 20 are bidirectional. That is, the endoscope apparatus 10 according to the first embodiment can not only extract light from the body cavity and the like to the outside, but also introduce light from the outside to the body cavity and the like.
  • the device provided in the light receiving unit 38 is not limited to a light receiving type device represented by a camera or the like, but a light emitting type device or a light receiving / emitting type device may be used to introduce light into a body cavity or the like. it can.
  • the endoscope expansion device 30 may be configured such that the light receiving unit 38 functions as a light transmitting unit or functions as a light transmitting / receiving unit.
  • the branching unit 36 may be configured to multiplex the light transmitted from the light transmitting unit or the light transmitting / receiving unit to the optical path toward the relay optical system 34.
  • the deflecting element 36A that branches (deflects) the optical path functions as a light guiding element that propagates the light in the opposite direction, that is, guides the light transmitted from the light transmitting unit or the light transmitting / receiving unit to the relay optical system 34. It may be used as is.
  • the endoscope expansion device 30 is connected to the control device 40, and displays the object Ob in the body cavity or the like using the light received by the light receiving unit 38, or measures the object Ob in the body cavity or the like. Display measurement results.
  • the control device 40 will be described.
  • FIG. 2 shows an example of a computer configuration capable of realizing the control device 40.
  • the control device 40 includes a display unit 42 such as a display, an apparatus main body 44, and an input unit 46 such as a keyboard.
  • the apparatus main body 44 includes a CPU 44A, a RAM 44B, a ROM 44C, and an interface (I / O) 44G, which are connected to each other via a bus 44H.
  • a storage unit 44D that stores a control program 44E such as a stereoscopic image display program is connected to the bus 44H.
  • the interface 44G is also connected to light receiving units 38-1, 38-2, and 38-3.
  • the storage unit 44D can be realized by an HDD (Hard Disk Drive), a non-volatile flash memory, or the like.
  • the CPU 44A reads a control program 44E such as a stereoscopic image display program from the storage unit 44D, develops it in the RAM 44B, and executes processing. Thereby, an expansion function such as display of the object Ob in the body cavity and the measurement of the object Ob in the body cavity based on the light received by the endoscope expansion apparatus 30 is executed.
  • a control program 44E such as a stereoscopic image display program from the storage unit 44D
  • develops it in the RAM 44B and executes processing.
  • an expansion function such as display of the object Ob in the body cavity and the measurement of the object Ob in the body cavity based on the light received by the endoscope expansion apparatus 30 is executed.
  • the exit pupil Exp of the endoscope 20 is moved to a position away from the eyepiece 26 using the relay optical system 34. Then, the optical path is branched into a plurality of parts by the branch part 36 provided between the relay optical system 34 and the moved exit pupil Exp, and the light relayed by the relay optical system 34 is branched by the branch part 36 ( Deflected).
  • a device for realizing a specific observation function is provided at the end of the branched optical path, and the light from the endoscope 20, for example, the light indicating the image of the object Ob in the body cavity or the like is branched by the branching unit 36. It can be used with multiple devices according to the optical path.
  • the functionalized platform 31 is formed while the distance between the outermost part of the eyepiece 26 and the exit pupil Exp is close to several millimeters, so that the endoscope 20 has a plurality of observation functions.
  • An endoscope expansion device 30 that can be expanded to the mirror device 10 can be provided.
  • one endoscope 20 can be used as it is, and can be expanded to the endoscope apparatus 10 having a plurality of observation functions.
  • an endoscope apparatus having a plurality of observation functions with a simple configuration and a simple operation as compared with providing a dedicated connection portion such as a special attachment for attaching an apparatus having a dedicated observation function to the endoscope 20.
  • a dedicated connection portion such as a special attachment for attaching an apparatus having a dedicated observation function to the endoscope 20.
  • FIG. 3 shows an example of the configuration of the endoscope apparatus 12 according to the second embodiment.
  • an endoscope expansion apparatus 302 is attached to the endoscope 20 for visual observation. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 302 constituting the endoscope device 12 uses the relay optical system 34 to connect the exit pupil Exp of the endoscope 20 to the eyepiece 26 as in the first embodiment. Move to a position away from.
  • the light relayed by the relay optical system 34 may be branched into two.
  • an optical element 361 such as a beam splitter or a half mirror is provided in the branching portion 36 located between the relay optical system 34 and the moved exit pupil Exp.
  • the optical path is branched into two optical paths by the optical element 361. That is, the optical element 361 branches into an optical path in the direction along the optical axis CL of the relay optical system 34 and an optical path in the direction opposite to the arrow Y direction.
  • the light receiving unit 38 includes a light receiving unit 38-1 attached in a direction along the optical axis CL of the relay optical system 34, and a light receiving unit 38-3 that receives light propagating through an optical path branched in the direction opposite to the arrow Y direction. Is used. In the second embodiment, the light receiving unit 38-2 is not necessary.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to each of the light receiving unit 38-1 and the light receiving unit 38-3. Further, a camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of each of the light receiving unit 38-1 and the light receiving unit 38-3. Further, the light receiving unit 38-1 and the light receiving unit 38-3 are attached at a predetermined distance Lth from the optical axis CL of the relay optical system 34, that is, at a predetermined camera interval, in order to ensure parallax.
  • the light relayed by the relay optical system 34 is branched by the branching unit 36 and is captured as left and right images in which parallax is ensured.
  • a stereoscopic image can be obtained by attaching the camera device to each optical path branched by the branching unit 36. That is, an optical element 361 such as a beam splitter or a half mirror in which the transmitted light and the reflected light are evenly branched is provided in the branching part 36 constituting the functionalized platform 31, and the light receiving part 38 has a predetermined distance from the optical axis CL.
  • the left and right images for forming a stereoscopic image are captured by securing parallax across Lth and receiving light from the endoscope 20, for example, light indicating an image of the object Ob in the body cavity or the like. be able to.
  • the endoscope expansion device 302 is connected to the control device 40, and uses left and right images having parallax due to light received by the light receiving unit 38-1 and the light receiving unit 38-3.
  • the object Ob in the body cavity or the like is stereoscopically displayed on the display unit 42.
  • the CPU 44A reads a stereoscopic image display program as a control program 44E from the storage unit 44D, develops it in the RAM 44B, and executes a stereoscopic image display process.
  • the expansion function of stereoscopic display of the object Ob in the body cavity or the like based on the light received by the endoscope expansion device 30 is executed.
  • the endoscope expansion device 302 is attached to the eyepiece 26 of the endoscope 20.
  • an optical element 361 for equally branching the transmitted light and the reflected light is provided in the branching part 36 constituting the functionalized platform 31 included in the endoscope expansion apparatus 302, and is separated from the optical axis CL by a predetermined distance Lth.
  • the endoscope device 12 that functions as a stereoscopic display device can be obtained by simply attaching the endoscope expansion device 302 to the eyepiece 26 of the endoscope 20 in a state in which the state of the object Ob in the body cavity or the like is visually observed. Can be provided.
  • the endoscope device 12 that functions as a stereoscopic display device can be provided by simply attaching the endoscope expansion device 302 to the eyepiece 26 of the endoscope 20. That is, a stereoscopic display device can be realized using the existing endoscope 20 having a thin insertion portion (for example, about 5 mm).
  • a stereoscopic display device can be realized using the existing endoscope 20 having a thin insertion portion (for example, about 5 mm).
  • a fixed diameter for example, 10 mm
  • the endoscope 20 that functions as a stereoscopic display device can be provided by expanding the existing endoscope 20, so that the endoscope 20 with a thin insertion portion, which has been difficult until now, can be provided. Even so, it can be expanded to the endoscope apparatus 12 that functions as a stereoscopic display apparatus. This preferably functions to reduce the burden on the subject (for example, patient) who inserts the endoscope.
  • FIG. 4 shows an example of the configuration of the endoscope apparatus 13 according to the third embodiment.
  • the endoscope apparatus 13 according to the third embodiment replaces the optical element 361 such as a beam splitter or half mirror provided in the branching section 36 shown in FIG. 2 with an optical path by surface reflection by a reflecting element 362 such as a prism mirror. Is branched into two optical paths.
  • the optical element 361 such as a beam splitter or half mirror provided in the branching section 36 shown in FIG. 2
  • a reflecting element 362 such as a prism mirror. Is branched into two optical paths.
  • the branch portion 36 is provided with a reflection element 362 such as a prism mirror that is evenly reflected left and right, and the optical path is branched into two optical paths by the reflection element 362.
  • a reflection element 362 such as a prism mirror that is evenly reflected left and right
  • the reflection element 362 is an optical path orthogonal to the optical axis CL of the relay optical system 34 and branches into an optical path in the direction along the arrow Y direction and an optical path in the direction opposite to the arrow Y direction.
  • the reflective element 362 is attached so that the top of the reflective element 362 coincides with the optical axis CL of the relay optical system 34.
  • one of the lights relayed by the relay optical system 34 with the optical axis CL as a boundary is in the direction of the arrow Y perpendicular to the optical axis CL of the relay optical system 34 on one reflecting surface of the reflecting element 362. Is reflected in the optical path.
  • the other light having the optical axis CL as a boundary among the light relayed by the relay optical system 34 is the other reflecting surface of the reflecting element 362 and the direction of the arrow Y perpendicular to the optical axis CL of the relay optical system 34. Reflected in the reverse optical path.
  • the light receiving unit 38 receives the light propagating through the optical path branched in the arrow Y direction as the light receiving unit 38-2, and receives the light propagated through the optical path branched in the direction opposite to the arrow Y direction.
  • Part 38-3 is used.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to each of the light receiving unit 38-2 and the light receiving unit 38-3. Further, a camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of each of the light receiving unit 38-2 and the light receiving unit 38-3.
  • the light relayed by the relay optical system 34 is branched by the branching unit 36 and is captured as left and right images in which parallax is ensured.
  • the branching unit constituting the functionalized platform 31 included in the endoscope expansion device 302 by attaching the endoscope expansion device 302 to the eyepiece 26 of the endoscope 20.
  • the reflection element 362 in 36 and providing the camera device in the light receiving unit 38 so as to ensure parallax it is possible to capture the left and right images for forming a stereoscopic image. Therefore, the endoscope device 13 that functions as a stereoscopic display device can be obtained by simply attaching the endoscope expansion device 302 to the eyepiece 26 of the endoscope 20 in a state in which the state of the object Ob in the body cavity or the like is visually observed. Can be provided.
  • the attenuation of light can be suppressed as compared with the case where the light is transmitted through the optical member.
  • the reflecting element 362 is not limited to the prism mirror, and the reflecting surfaces intersect.
  • the reflection element 362 may be configured by a plurality of reflection mirrors.
  • the reflective element 362 may be configured to reflect at least one light of each of the left and right images by a reflection mirror.
  • the case where the optical path is branched into two optical paths by surface reflection by the reflective element 362 such as a prism mirror is described, but the reflective element 362 may be configured to reflect inside the prism.
  • the light receiving unit 38 for example, a function of measuring a distance is added to a function of observing an object Ob in a body cavity or the like with a camera device.
  • the light receiving unit 38 includes a light emitting unit that emits light so as to propagate in one of the optical paths branched by the branching unit 36 in the direction opposite to the light emission direction of the relay optical system 34.
  • 4th Embodiment is the structure similar to 1st Embodiment, it attaches
  • FIG. 5 shows an example of the configuration of the endoscope apparatus 14 according to the fourth embodiment. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 304 constituting the endoscope device 14 uses the relay optical system 34 to connect the exit pupil Exp of the endoscope 20 to the eyepiece 26. Move to a position away from.
  • the endoscope expansion device 304 includes an imaging lens 381 and an image sensor 382 in the light receiving unit 38-1 in the direction along the optical axis CL of the relay optical system 34 in order to have a function of observing the object Ob.
  • a camera device is attached.
  • the camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of the light receiving unit 38-1.
  • a distance sensor 383 for measuring the distance from the distal end of the endoscope 20 to the object Ob is attached to the light receiving unit 38 in the endoscope expansion device 304.
  • the distance sensor 383 a sensor that measures distance by transmitting and receiving infrared light using a time of flight (TOF) method is used.
  • the light receiving unit 38-3 of the endoscope expansion apparatus 304 includes an infrared distance sensor 383 including an infrared light emitting unit 383T that emits infrared light and an infrared light receiving unit 383R that receives infrared light. It is attached.
  • the exit pupil Exp is made to coincide with the sensor surface of the infrared distance sensor 383.
  • the optical path of the light relayed by the relay optical system 34 is branched into two. That is, the branching unit 36 located between the relay optical system 34 and the moved exit pupil Exp is provided with an infrared reflecting element 363 such as a beam splitter or a dichroic mirror that reflects infrared light.
  • the optical path is branched by the reflective element 363. Therefore, in the fourth embodiment, the infrared reflecting element 363 reflects from the optical path in the direction along the optical axis CL of the relay optical system 34 to the optical path in the direction opposite to the arrow Y direction. Alternatively, the infrared reflecting element 363 reflects from the optical path in the arrow Y direction from the light receiving unit 38-3 to the optical path in the direction along the optical axis CL of the relay optical system 34 (the direction opposite to the arrow Z direction).
  • the light relayed by the relay optical system 34 passes through the infrared reflecting element 363 attached to the branching portion 36, and the camera device includes the imaging lens 381 and the image sensor 382 attached to the light receiving portion 38-1.
  • An image captured by the image sensor 382 is displayed on the display unit 42 of the control device 40, and the object Ob can be observed.
  • infrared light is emitted by the infrared light emitting unit 383T constituting the infrared distance sensor 383, and the infrared light reflected by the object Ob is received by the infrared light receiving unit 383R.
  • the elapsed time is converted into a distance L, and the distance Lz from the distal end of the endoscope 20 to the object Ob is obtained by subtracting the distance Lo from the infrared light emitting portion 383T to the distal end portion of the endoscope 20.
  • This process is processed by the control device 40. That is, in the fourth embodiment, the CPU 44A reads the distance measurement program from the storage unit 44D as the control program 44E, develops it in the RAM 44B, and executes the distance measurement process. As a result, the expansion function for measuring the distance to the object Ob based on the infrared light transmitted and received by the endoscope expansion device 30 is executed.
  • the CPU 44 ⁇ / b> A can display the measurement result on the display unit 42.
  • the endoscope expansion device 304 is attached to the eyepiece 26 of the endoscope 20.
  • the infrared light emitted from the infrared distance sensor 383 attached to the branching part 36 constituting the functionalized platform 31 included in the endoscope expansion device 302 is attached to the light receiving part 38.
  • the endoscope device 14 that functions as a distance measuring device can be obtained simply by attaching the endoscope expansion device 302 to the eyepiece 26 of the endoscope 20 in a state in which the state of the object Ob in the body cavity or the like is visually observed. Can be provided.
  • an infrared distance sensor 383 that transmits and receives infrared light in which visible light is suppressed is used, and an optical path is deflected using an infrared reflecting element 363 having wavelength selectivity. The loss of visible light for observing Ob can be suppressed.
  • the operator when performing an operation using the endoscope 20 such as a laparoscopic operation, the operator can know the distance from the distal end of the endoscope 20 to the organ, thereby improving the safety of the operation. Can be made.
  • the light receiving unit 38 As an example of the light receiving unit 38, a function of projecting a predetermined pattern image (marking pattern) onto the target object Ob is added to the function of observing the target object Ob in the body cavity, for example, with the camera device. Is.
  • the light receiving unit 38 includes a light emitting unit that emits light so as to propagate in one of the optical paths branched by the branching unit 36 in the direction opposite to the light emission direction of the relay optical system 34.
  • 5th Embodiment is the structure similar to 4th Embodiment, the same code
  • FIG. 6 shows an example of the configuration of the endoscope apparatus 15 according to the fifth embodiment. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 305 constituting the endoscope device 15 according to the fifth embodiment has an optical axis of the relay optical system 34 in order to have a function of observing the object Ob as in the fourth embodiment.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1 in the direction along the CL.
  • the endoscope expansion device 305 includes a projection device 384 in order to have a function of projecting a predetermined pattern image (marking pattern) onto the object Ob.
  • the endoscope expansion device 305 constituting the endoscope device 15 uses the relay optical system 34 to set the exit pupil Exp of the endoscope 20 as in the first embodiment. Move to a position away from the eyepiece 26.
  • the optical path in the direction along the optical axis CL of the relay optical system 34 is branched into two. That is, the branching unit 36 located between the relay optical system 34 and the moved exit pupil Exp is provided with an optical element 364 such as a beam splitter or a half mirror that branches into transmitted light and reflected light.
  • the optical path is branched into two optical paths by the optical element 364. Therefore, the optical element 364 is branched into an optical path in the direction along the optical axis CL of the relay optical system 34 and an optical path in the direction opposite to the arrow Y direction.
  • the light receiving unit 38 includes a light receiving unit 38-1 attached in a direction along the optical axis CL of the relay optical system 34, and a light receiving unit 38-3 that receives light propagating through an optical path branched in the direction opposite to the arrow Y direction. Is used. In the fifth embodiment, the light receiving unit 38-2 is not necessary.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1.
  • a projection device 384 is attached to the light receiving unit 38-3. The camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of the light receiving unit 38-1.
  • an apparatus using a MEMS (Micro Electro Mechanical Systems) mirror is used as an example of the projection device 384.
  • a projection device 384 using a MEMS mirror includes a MEMS mirror 384P and one or more laser devices 384L.
  • the projection device 384 includes a minute MEMS mirror 384P, and the reflection surface of the MEMS mirror 384P is irradiated with the laser light emitted from the laser device 384L, and reflected by the MEMS mirror 384P by controlling the tilt of the MEMS mirror 384P.
  • a pattern image corresponding to the scanning is projected onto the object Ob.
  • the exit pupil Exp and the position of the reflection surface of the MEMS mirror 384P are matched. Thereby, a clear pattern image is projected on the object Ob.
  • the projection device 384 using the MEMS mirror 384P does not use a lens system such as an imaging lens, and therefore can project an image with reduced blur.
  • the laser device 384L that irradiates the MEMS mirror 384P with laser light may use the laser device 384L that emits monochromatic laser light when projecting a monochromatic pattern image. Further, when a pattern image is projected with a plurality of colors, a plurality of laser devices 384L may be used. When a color pattern image is projected, the color pattern image can be projected by adjusting each color component using a laser device 384L that emits RGB (red, green, and blue) colors.
  • RGB red, green, and blue
  • the light relayed by the relay optical system 34 passes through the optical element 364 attached to the branching portion 36 and reaches the camera device including the imaging lens 381 and the image sensor 382 attached to the light receiving portion 38-1. .
  • An image captured by the image sensor 382 is displayed on the display unit 42 of the control device 40, and the object Ob can be observed.
  • the pattern image emitted from the projection device 384 is reflected by the optical element 364 and projected onto the object Ob. Then, the reflected light reflected by the object Ob also passes through the optical element 364 attached to the branching part 36 and reaches the camera device including the imaging lens 381 and the image sensor 382 attached to the light receiving part 38-1.
  • the process of projecting a predetermined pattern image is processed by the control device 40. That is, in the fifth embodiment, the CPU 44A reads out the pattern image projection program from the storage unit 44D as the control program 44E, develops it in the RAM 44B, and executes the pattern image projection process.
  • an extended function is executed in which the pattern image emitted by the endoscope expansion device 30 is projected onto the object Ob, and an image in a state where the pattern image is projected onto the object Ob is captured by the camera device.
  • the CPU 44 ⁇ / b> A can display the captured image on the display unit 42.
  • an optical element 364 is attached to the branching part 36 constituting the functionalized platform 31 included in the endoscope expansion apparatus 302, and the projection apparatus 384 attached to the light receiving part 38 is used.
  • the ejected pattern image is projected onto the object Ob, and the object Ob on which the pattern image is projected is imaged. Therefore, when observing the state of the object Ob in the body cavity or the like, there is provided an endoscope apparatus 15 that functions as a projection apparatus that can set a target on the object or grasp a space by a pattern image. be able to.
  • an operator can mark the surgical field with the projection device 384 while referring to an image captured by the endoscope 20. This makes it easy to guide the surgical instrument and specify a notable surgical field, thereby promoting the progress of the treatment and improving the safety.
  • the target object is obtained.
  • the loss of visible light for observing Ob can be suppressed.
  • laser light that emits each color of RGB is used, and the optical path is branched by an optical element 364 that reflects only the wavelength of the laser light of each RGB color. Then, it can suppress by the optical attenuation only of the wavelength of each laser beam, and can suppress the loss of visible light for observing the target object Ob.
  • a function of measuring the three-dimensional shape of the object Ob is added to the function of observing the object Ob in a body cavity or the like with a camera device.
  • a tertiary such as a stereo camera method using the principle of triangulation, a light cutting method, and a moire measurement method In the original measurement method, it is difficult to measure the three-dimensional shape of the object Ob.
  • the three-dimensional shape of the object Ob is measured using the time of flight (TOF) method used in the fourth embodiment.
  • TOF time of flight
  • FIG. 7 shows an example of the configuration of the endoscope apparatus 16 according to the sixth embodiment. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 306 constituting the endoscope device 16 according to the sixth embodiment has a function of observing the object Ob.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1 in the direction along the CL. That is, the endoscope expansion device 306 that constitutes the endoscope device 16 according to the sixth embodiment uses the relay optical system 34 to transfer the exit pupil Exp of the endoscope 20 as in the first embodiment. Move to a position away from the eyepiece 26.
  • the camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of the light receiving unit 38-1.
  • the endoscope expansion device 306 since the endoscope expansion device 306 according to the sixth embodiment has a function of measuring the three-dimensional shape of the object Ob using the time-of-flight (TOF) method, the infrared light source 385 and the TOF.
  • a depth camera 386 is provided.
  • the infrared light source 385 emits infrared light.
  • the TOF depth camera 386 calculates a two-dimensional distance distribution, and includes a lens 386L and a TOF image sensor 386. In other words, the elapsed time measured from when the infrared light source 385 emits infrared light to when the infrared light reflected by the object Ob is received at each position on the sensor surface by the TOF depth camera 386 is converted into a distance.
  • the three-dimensional shape of the object Ob can be obtained from the distance of each position (time difference on the surface of the TOF image sensor 386).
  • the infrared light emitted from the infrared light source 385 is applied to the object Ob, and the reflected light of the object Ob reflected according to the three-dimensional shape by the irradiated infrared light is used as the TOF image sensor.
  • the two-dimensional depth distribution of the object Ob can be obtained by analyzing the time difference of the infrared light received by the 386 and reaching the TOF image sensor 386.
  • the optical path in the direction along the optical axis CL of the relay optical system 34 is branched into two. That is, the branching unit 36 located between the relay optical system 34 and the moved exit pupil Exp is provided with an infrared reflecting element 365 such as a beam splitter or a dichroic mirror that reflects infrared light. The optical path is branched by the reflective element 365.
  • the infrared reflecting element 365 reflects an optical path reflected from the optical path in the direction opposite to the arrow Y direction from the light receiving unit 38-2 to the optical path in the direction along the optical axis CL of the relay optical system 34 (the direction opposite to the arrow Z direction).
  • the optical path in the direction along the optical axis CL of the relay optical system 34 is branched into two in order to detect the reflected light of the object Ob. That is, the branching unit 36 located between the relay optical system 34 and the moved exit pupil Exp is provided with an infrared reflecting element 366 such as a beam splitter or a dichroic mirror that reflects infrared light.
  • the optical path is branched by the reflective element 366. That is, the infrared reflecting element 366 forms an optical path that reflects from the optical path in the direction along the optical axis CL of the relay optical system 34 (arrow Z direction) to the optical path in the direction opposite to the arrow Y direction toward the light receiving unit 38-3. To do.
  • the light receiving unit 38 includes a light receiving unit 38-1 attached in a direction along the optical axis CL of the relay optical system 34, and a light receiving unit 38- functioning as a light emitting unit propagating through an optical path branched in the direction opposite to the arrow Y direction. 2 and a light receiving unit 38-3 that receives light propagated through an optical path branched in the direction opposite to the arrow Y direction.
  • a camera device for normal observation including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1.
  • An infrared light source 385 is attached to the light receiving unit 38-2, and a TOF image sensor 386 is attached to the light receiving unit 38-3.
  • the light relayed by the relay optical system 34 passes through the infrared reflection element 365 and the infrared reflection element 366 attached to the branch part 36, and the image formed on the light receiving part 38-1.
  • the camera apparatus including the lens 381 and the image sensor 382 is reached.
  • the camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of the light receiving unit 38-1.
  • An image captured by the image sensor 382 is displayed on the display unit 42 of the control device 40, and the object Ob can be observed.
  • the infrared light emitted from the infrared light source 385 is reflected by the infrared reflecting element 365 and applied to the object Ob. Then, the reflected light reflected by the object Ob is reflected by the infrared reflecting element 366 attached to the branching part 36 and reaches the TOF image sensor 386 attached to the light receiving part 38-3.
  • the processing for calculating the three-dimensional shape of the object Ob from the detection result of the TOF image sensor 386 is processed by the control device 40. That is, the CPU 44A analyzes the captured image captured by the TOF image sensor 386, and calculates the three-dimensional shape of the object Ob. In this case, the CPU 44A reads the three-dimensional shape calculation program as a control program 44E from the storage unit 44D, develops it in the RAM 44B, and executes a three-dimensional shape calculation process. As a result, the expansion function for obtaining the three-dimensional shape of the object Ob corresponding to the reflected light on the surface of the object Ob by the structured light emitted from the endoscope expansion apparatus 30 is executed. The CPU 44A can cause the display unit 42 to display the calculation result of the three-dimensional shape of the object Ob.
  • the infrared reflecting elements 365 and 366 are attached to the branching part 36 that constitutes the functionalized platform 31 included in the endoscope expansion device 302, and the light receiving part 38 is attached.
  • Infrared light is irradiated onto the object Ob by the infrared light source 385, and the reflected light on the surface of the object Ob is imaged by the TOF image sensor 386. Then, by analyzing the captured image captured by the TOF image sensor 386, the three-dimensional shape of the object Ob is obtained. Therefore, when observing the state of the object Ob in the body cavity or the like, the endoscope apparatus 16 having a function of measuring the three-dimensional shape of the object Ob can be provided.
  • an operator refers to an image captured by the endoscope 20 while performing an operation on an organ that is the object Ob.
  • a three-dimensional shape can be measured.
  • the infrared reflective element 366 is an optical element having wavelength selectivity, that is, an optical element that reflects infrared light with suppressed visible light, the object Ob is observed. Therefore, the loss of visible light can be suppressed.
  • the seventh embodiment As an example of the light receiving unit 38, for example, a fluorescence observation function is added to a normal observation function by a camera device of an object Ob in a body cavity or the like.
  • the light receiving unit 38 includes a light emitting unit that emits light so as to propagate in one of the optical paths branched by the branching unit 36 in the direction opposite to the light emission direction of the relay optical system 34.
  • 7th Embodiment is the structure similar to 6th Embodiment, it attaches
  • an object Ob in a body cavity or the like is irradiated with excitation light from an excitation light source such as ultraviolet light or blue light
  • an excitation light source such as ultraviolet light or blue light
  • specific fluorescent light emission may occur in an affected area having a need for treatment.
  • a wavelength filter that cuts the excitation light to the camera device and taking a picture, it is possible to pick up an image of a site that emits specific fluorescence, and to determine the affected part.
  • FIG. 8 shows an example of the configuration of the endoscope apparatus 17 according to the seventh embodiment. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 307 constituting the endoscope device 17 according to the seventh embodiment has an optical axis of the relay optical system 34 in order to have a function of observing the object Ob as in the sixth embodiment.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1 in the direction along the CL, and the exit pupil Exp of the endoscope 20 is separated from the eyepiece 26 using the relay optical system 34. Moved to position.
  • the endoscope expansion device 307 includes an excitation light source 387 and a fluorescence observation camera device 388 in order to have a fluorescence observation function for the object Ob.
  • the excitation light source 387 emits excitation light such as ultraviolet light and blue light, and the emitted excitation light is applied to the object Ob.
  • the fluorescence observation camera device 388 includes a wavelength filter 388F that cuts the excitation light, an imaging lens 388L, and an image sensor 388S in order to capture an image of the fluorescent light emission site that is excited and emitted by the excitation light.
  • the optical path in the direction along the optical axis CL of the relay optical system 34 is branched into two. That is, the branching unit 36 positioned between the relay optical system 34 and the moved exit pupil Exp is provided with an excitation light reflecting element 367 such as a beam splitter that reflects the excitation light.
  • the optical path is branched.
  • the excitation light reflecting element 367 reflects an optical path reflected from the optical path in the direction opposite to the arrow Y direction from the light receiving unit 38-2 to the optical path in the direction along the optical axis CL of the relay optical system 34 (the direction opposite to the arrow Z direction).
  • the optical path in the direction along the optical axis CL of the relay optical system 34 is branched into two in order to detect the fluorescence emission excited by the excitation light of the object Ob.
  • the branching portion 36 located between the relay optical system 34 and the moved exit pupil Exp is provided with a fluorescence reflecting element 368 such as a beam splitter that reflects fluorescence emission, and the optical path is caused by the fluorescence reflecting element 368.
  • the fluorescence reflecting element 368 reflects an optical path that reflects fluorescence from the optical path in the direction along the optical axis CL of the relay optical system 34 (arrow Z direction) to the optical path in the direction opposite to the arrow Y direction toward the light receiving unit 38-3.
  • the light receiving unit 38 functions as a light receiving unit 38-1 attached in a direction along the optical axis CL of the relay optical system 34, and a light emitting unit for excitation light propagating through an optical path branched in the direction opposite to the arrow Y direction.
  • the unit 38-2 and the light receiving unit 38-3 that receives the fluorescence emitted through the optical path branched in the direction opposite to the arrow Y direction are used.
  • a camera device for normal observation including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1.
  • An excitation light source 387 is attached to the light receiving unit 38-2, and a fluorescence observation camera device 388 is attached to the light receiving unit 38-3.
  • the normal light relayed by the relay optical system 34 passes through the excitation light reflecting element 367 and the fluorescence reflecting element 368 attached to the branching part 36, and forms an image attached to the light receiving part 38-1.
  • the camera apparatus including the lens 381 and the image sensor 382 is reached.
  • the camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of the light receiving unit 38-1.
  • An image captured by the image sensor 382 is displayed on the display unit 42 of the control device 40, and the object Ob can be observed.
  • the excitation light emitted from the excitation light source 387 is reflected by the excitation light reflecting element 367 and applied to the object Ob. Then, the light that is excited by the excitation light by the object Ob and emitted fluorescent light is reflected by the fluorescent reflection element 368 attached to the branching portion 36 and reaches the fluorescence observation camera device 388 attached to the light receiving portion 38-3.
  • the image captured by the normal camera device and the image captured by the fluorescence observation camera device 388 are processed by the control device 40 and displayed on the display unit 42 separately or by performing superimposed image processing.
  • the CPU 44A reads the fluorescence observation program from the storage unit 44D as the control program 44E, develops it in the RAM 44B, and executes the fluorescence observation process.
  • the extended function is displayed in which the fluorescent light excited by the excitation light in the endoscope expansion device 30 is displayed side by side or superimposed on the captured image of the object Ob.
  • the excitation light reflecting element 367 and the fluorescence reflecting element 368 are attached to the branching part 36 constituting the functionalized platform 31 included in the endoscope expansion apparatus 302, and the light receiving part Excitation light emitted from an excitation light source 387 attached to 38 is irradiated onto the object Ob, and the excited fluorescence emission is imaged by the fluorescence observation camera device 388. Therefore, when observing the state of the object Ob in the body cavity or the like, it is possible to image a site where specific fluorescent light emission occurs in the affected part having a need for treatment on the object Ob in the body cavity or the like. It is possible to provide the endoscope apparatus 17 having a function that enables the determination.
  • a malignant tumor can be identified by autofluorescence observation (AFI).
  • AFI autofluorescence observation
  • the light receiving unit 38 for example, a function of measuring tissue information of several millimeters below the tissue surface of the target object Ob is added to the function of observing the target object Ob in the body cavity or the like with a camera device.
  • the light receiving unit 38 includes a light emitting unit that emits light so as to propagate in one of the optical paths branched by the branching unit 36 in the direction opposite to the light emission direction of the relay optical system 34.
  • 8th Embodiment is the structure similar to 4th Embodiment, the same code
  • FIG. 9 shows an example of the configuration of the endoscope apparatus 18 according to the eighth embodiment. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 308 constituting the endoscope device 18 according to the eighth embodiment has a function of observing the object Ob, and thus the optical axis of the relay optical system 34.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1 in the direction along the CL.
  • the camera device including the imaging lens 381 and the image sensor 382 is attached so that the exit pupil Exp is positioned at the entrance pupil of the imaging lens 381 of the light receiving unit 38-1.
  • the endoscope expansion device 308 includes an internal structure measurement device 389 in order to have a function of measuring tissue information of several mm below the tissue surface of the object Ob.
  • an optical coherence tomography (OCT) technique used in fundus tissue examination or the like is used as an example of the internal structure measuring device 389.
  • OCT optical coherence tomography
  • OCT is a technique for measuring the internal structure of a living body about several millimeters from the surface of a living body using low coherence interference between light reflected by an object Ob and reference light. That is, in the case of coherent light such as laser light, interference occurs depending on the optical path difference between the two optical paths when the light branched by the half mirror or the like is returned by the reflection mirror and combined. However, in the case of low-coherent light such as white light, interference occurs when the optical path difference between the two optical paths matches.
  • tissue information below the tissue surface of the object Ob is also known.
  • a technique for obtaining a distribution in the depth direction (depth direction) by using a frequency variable laser as a light source is also known.
  • the endoscope expansion device 308 constituting the endoscope device 18 uses the relay optical system 34 to connect the exit pupil Exp of the endoscope 20 to the eyepiece 26. Move to a position away from.
  • the optical path in the direction along the optical axis CL of the relay optical system 34 is branched into two. That is, the branching unit 36 located between the relay optical system 34 and the moved exit pupil Exp reflects light emitted from the internal structure measuring device 389, which will be described in detail later, and is reflected by the object Ob.
  • An optical element 369 such as a beam splitter that reflects the reflected light is provided, and the optical path is branched into two optical paths by the optical element 369. That is, the optical element 369 is branched into an optical path in the direction along the optical axis CL of the relay optical system 34 and an optical path in the direction opposite to the arrow Y direction.
  • the light receiving unit 38 includes a light receiving unit 38-1 attached in a direction along the optical axis CL of the relay optical system 34, and a light receiving unit 38-3 that receives light propagating through an optical path branched in the direction opposite to the arrow Y direction. Is used. In the eighth embodiment, the light receiving unit 38-2 is not necessary.
  • a camera device including an imaging lens 381 and an image sensor 382 is attached to the light receiving unit 38-1. Further, an internal structure measuring device 389 is attached to the light receiving unit 38-3.
  • an internal structure measuring device 389 using optical coherence tomography includes a low-coherent light source 389A and a spectroscope 389B.
  • a super luminescent diode (SLD) can be used for the low-coherent light source 389A.
  • the low coherent light source 389A is connected to the other end of the fiber 389F-1 having one end connected to the coupler 389C.
  • one end of a fiber 389F-2 is connected to the coupler 389C, and the other end of the fiber 389F-2 is connected to a mirror 389D that guides the optical path in the direction opposite to the arrow Y direction.
  • the mirror 389D uses a MEMS mirror so as to function as a scanner that enables one-dimensional scanning or two-dimensional scanning.
  • a MEMS mirror 389D is disposed so as to coincide with the exit pupil Exp of the relay optical system 34.
  • the spectroscope 389B is connected to the other end of the fiber 389G-1 having one end connected to the coupler 389C.
  • one end of a fiber 389G-2 is also connected to the coupler 389C, and the other end of the fiber 389G-2 is connected to a reference mirror 389E.
  • the length of the fiber 389G-2 is adjusted so as to be a distance that matches the optical path length in the endoscope 20, the endoscope expansion device 308, and the endoscope expansion device.
  • the fibers 389F-1 and F-2 and the fibers 389G-1 and G-2 are connected to the coupler 389C at a position close to the low-coherent light source 389A and the spectroscope 389B.
  • the light relayed by the relay optical system 34 passes through the optical element 369 attached to the branching portion 36 and reaches the camera device including the imaging lens 381 and the image sensor 382 attached to the light receiving portion 38-1. .
  • An image captured by the image sensor 382 is displayed on the display unit 42 of the control device 40, and the object Ob can be observed.
  • the light emitted from the low-coherent light source 389A is reflected by the optical element 369 and applied to the object Ob. Then, the reflected light reflected by the object Ob is reflected by the optical element 369, and the spectral distribution is detected by the spectroscope 389B. By analyzing the detected spectral distribution, tissue information below the tissue surface of the object Ob is obtained. Processing for analyzing the spectral distribution detected by the spectroscope 389B is processed by the control device 40. That is, in the eighth embodiment, the CPU 44A reads the analysis program as the control program 44E from the storage unit 44D, develops it in the RAM 44B, and executes the analysis processing. As a result, an expansion function is performed in which the tissue surface of the object Ob is measured by the low-coherent light emitted from the endoscope expansion device 30. The CPU 44 ⁇ / b> A can display the analysis result on the display unit 42.
  • a tomographic image near the surface of the object Ob can be obtained by scanning the object Ob with the MEMS mirror 389D.
  • two-dimensional information below the tissue surface of the object Ob can be obtained by one-dimensionally scanning light (beam) irradiated to the object Ob. If two-dimensional scanning is performed, three-dimensional information below the tissue surface of the object Ob can be obtained.
  • the internal structure measurement is performed in which the optical element 369 is attached to the branching part 36 constituting the functionalized platform 31 included in the endoscope expansion device 302 and the light receiving part 38 is attached.
  • the device 389 obtains tissue information below the tissue surface of the object Ob. Therefore, when observing the state of the object Ob in the body cavity or the like, the endoscope apparatus 18 that functions as a measurement apparatus that can simultaneously obtain tissue information under the tissue surface of the object Ob by the internal structure measurement apparatus 389. Can be provided.
  • the internal state of the tissue can be examined by irradiation with low-coherent light, so that the number of biopsies that require tissue resection can be reduced.
  • OCT optical coherence tomography
  • 9th Embodiment demonstrates the case where a camera apparatus is attached to each of the light-receiving part 38 as an example of the light-receiving part 38.
  • the ninth embodiment provides, as an example of a camera device, an endoscope expansion device that functions as a camera device (so-called 4K resolution camera device) having a four times higher image quality than a high-definition camera.
  • 4K resolution camera device an endoscope expansion device having a four times higher image quality than a high-definition camera.
  • 9th Embodiment is the structure similar to 1st Embodiment, it attaches
  • FIG. 10 shows an example of the configuration of the endoscope apparatus 19 according to the ninth embodiment.
  • An endoscope apparatus 19 according to the ninth embodiment is obtained by attaching an endoscope expansion apparatus 309 to an endoscope 20 for visual observation. Since the endoscope 20 has the same configuration as that of the first embodiment, detailed description thereof is omitted.
  • the endoscope expansion device 309 constituting the endoscope device 19 uses the relay optical system 34 to connect the exit pupil Exp of the endoscope 20 to the eyepiece 26. Move to a position away from.
  • the light relayed by the relay optical system 34 is branched into four in order to obtain a so-called high-quality image of 4K resolution. That is, the branching unit 36 located between the relay optical system 34 and the moved exit pupil Exp is provided with an optical element such as a beam splitter or a half mirror that branches transmitted light and reflected light.
  • the branching unit 36 includes deflection elements 374, 375, and 376 such as prism mirrors that branch the optical path into two in order to branch the light relayed by the relay optical system 34 into four optical paths. Yes.
  • deflecting elements 374, 375, and 376 branch transmitted light and reflected light so that light is evenly applied to each of the light receiving units described later.
  • the deflection element 374 branches so that the reflected light and the transmitted light are equal. That is, the deflection element 374 branches into an optical path in the direction along the optical axis CL of the relay optical system 34 and an optical path in the direction opposite to the arrow Y direction.
  • the deflecting element 375 branches into an optical path in the direction opposite to the arrow Y direction and an optical path in the arrow Z direction (direction along the optical axis CL). Further, the deflection element 376 branches into an optical path in the direction along the optical axis CL of the relay optical system 34 and an optical path in the arrow Y direction.
  • the light receiving unit 38 includes a light receiving unit 38-1, a light receiving unit 38-2, and a light receiving unit 38-3.
  • the light receiving unit 38-1 is a light receiving unit that receives light transmitted through the deflecting elements 374 and 376 and propagated through the optical path in the direction along the optical axis CL of the relay optical system 34.
  • the light receiving unit 38-2 is a light receiving unit that receives light propagated through the optical path branched in the arrow Y direction by the deflection element 376 after passing through the deflection element 374.
  • the light receiving unit 38-3 is a light receiving unit that receives light that has propagated through the optical path branched in the direction opposite to the arrow Y direction by the deflection element 374.
  • the light receiving unit 38-3 includes a light receiving unit 38-3A and a light receiving unit 38-3B.
  • the light receiving unit 38-3A passes through the deflection element 375 after being reflected by the deflection element 374, and is in a direction opposite to the arrow Y direction. Receives light propagated through the optical path. Further, the light receiving unit 38-3B receives the light that has reflected the deflecting element 374 and the deflecting element 375 and propagated through the optical path in the direction along the optical axis CL of the relay optical system 34.
  • each of the light receiving units 38-1, 38-2, and 38-3 (38-3A and 38-3B) includes a high-definition imaging lens 371 and an image sensor 372. Is attached. Further, a high-definition camera device 370 including an imaging lens 371 and an image sensor 372 is attached so that the exit pupil Exp is positioned at the entrance pupil of each imaging lens 371 of the light receiving unit 38.
  • each of the light receiving units 38-1, 38-2, and 38-3 (38-3A and 38-3B) includes an endoscope expansion device 309 that is four times as high as a high-definition camera.
  • the image sensor 372 is attached while being shifted from the optical axis of the imaging lens 371 by a predetermined amount. Specifically, on the basis of the high-vision camera device of the light receiving unit 38-1, the light receiving unit 38-2 is shifted to the right by half a pixel, the light receiving unit 38-3A is shifted to the upper half pixel, and the light receiving unit 38-3B Then, the half pixel is shifted to the right and the half pixel is shifted to the upper side.
  • the image area of the object Ob is divided into four in the vertical and horizontal directions, and the divided small areas are set as the imaging areas of the high-definition camera device 370, and the high-definition responsible for the upper right, lower right, upper left, and lower left image areas. You may make it image with the camera apparatus 370.
  • FIG. This can be realized by inverting the position of the image sensor 372 with respect to the imaging lens 371 vertically and horizontally with the setting of the imaging region and shifting it to the lower left, upper left, lower right, and upper right. In this case, by connecting the images picked up by the high-definition camera devices 370, it is possible to obtain an image of twice as many pixels vertically and horizontally.
  • the light relayed by the relay optical system 34 is branched by the branching unit 36, and a high-definition camera device 370 is attached to each optical path, so that a high-quality image four times that of the high-definition camera can be obtained.
  • the endoscope expansion device 309 is connected to the control device 40, and each of the light receiving units 38-1, 38-2, and 38-3 (38-3A and 38-3B).
  • the object Ob in the body cavity or the like is displayed on the display unit 42 with high image quality using each of the images captured in.
  • Display processing of the object Ob on the display unit 42 is executed by the control device 40. That is, in the ninth embodiment, the CPU 44A reads out the high image quality display program from the storage unit 44D as the control program 44E, develops it in the RAM 44B, and executes the high image quality display process. Thereby, in the ninth embodiment, an expansion function for high-quality display of the object Ob in the body cavity or the like based on the light received by the endoscope expansion device 309 is executed.
  • a camera with four high-definition camera devices 370 that obtains an image with twice as many pixels vertically and horizontally as a high-definition camera device four times as high as the high-definition camera device.
  • the camera apparatus may be made to function as a doubled image quality in either the vertical or horizontal direction. Further, it may be made to function as a camera device having three or more cameras and having a picture quality three times or more.
  • the endoscope expansion device 309 is attached to the eyepiece 26 of the endoscope 20.
  • deflection elements 374 and 376 for equally branching the transmitted light and the reflected light are provided in the branching part 36 constituting the functionalized platform 31 included in the endoscope expansion device 309, and the high-vision camera device 370 is received by the light receiving part.
  • the endoscope device 19 that functions as a high-quality display device is simply provided by attaching the endoscope expansion device 309 to the eyepiece 26 of the endoscope 20 in a state in which the state of the object Ob in the body cavity or the like is visually observed. Can be provided.
  • FIG. 11 shows an example of the configuration of an endoscope apparatus 12X according to the tenth embodiment.
  • An endoscope apparatus 12X according to the tenth embodiment is obtained by attaching an endoscope expansion apparatus 310 to an endoscope 20 for visual observation.
  • the endoscope expansion device 310 includes main components of the endoscope expansion device 302 (FIG. 3) of the second embodiment and the endoscope expansion device 308 (FIG. 9) of the eighth embodiment. Is included.
  • the light relayed by the relay optical system 34 is branched by the optical element 361 in order to realize the function of expanding the stereoscopic display of the object Ob as the first function.
  • the light receiving unit 38-1 and the light receiving unit 38-3 are configured.
  • Each of the light receiving unit 38-1 and the light receiving unit 38-3 includes an imaging lens 381 and an image sensor 382 as camera devices, and is separated from the optical axis CL by a predetermined distance Lth in order to ensure parallax, that is, a predetermined camera. Installed at intervals. Accordingly, the left and right images for forming a stereoscopic image in which the parallax is secured are captured by the image sensors 382 of the light receiving unit 38-1 and the light receiving unit 38-3. Each image captured by the image sensor 382 is displayed on the display unit 42 of the control device 40, and allows the observer to observe the object Ob as a stereoscopic image.
  • an optical element 369 and an internal structure measuring device 389 as a light receiving unit 38-2 are provided on the downstream side of the relay optical system 34.
  • the optical path is split into two optical paths by the optical element 369 so that light relating to 389 can be used. That is, the optical element 369 branches a part of the optical path in the direction along the optical axis CL of the relay optical system 34 into the optical path in the arrow Y direction.
  • part of the light relayed by the relay optical system 34 is propagated in the arrow Y direction by the optical element 369 and travels toward the internal structure measuring device 389.
  • the light from the internal structure measuring device 389 propagates in the direction opposite to the arrow Y direction and travels toward the relay optical system 34 in the direction along the optical axis CL by the optical element 369.
  • the internal structure measuring device 389 measures tissue information of several mm below the tissue surface of the object Ob. That is, the light emitted from the low-coherent light source 389A is reflected by the optical element 369 and applied to the object Ob, and the reflected light reflected by the object Ob is reflected by the optical element 369, and the spectrum by the spectroscope 389B. Distribution is detected.
  • the control device 40 analyzes the detected spectral distribution to obtain tissue information below the tissue surface of the object Ob.
  • the control device 40 displays the analysis result on the display unit 42 to present the tissue information below the tissue surface of the object Ob to the observer.
  • a tomographic image near the surface of the object Ob can be provided.
  • two-dimensional information below the tissue surface of the object Ob can be obtained by one-dimensional scanning of the irradiation light on the object Ob, and three-dimensional information below the tissue surface of the object Ob can be obtained by two-dimensional scanning. Can do.
  • the tenth embodiment provides the endoscope expansion device 310 that can simultaneously provide the function of forming and providing a stereoscopic image and the tissue surface measurement function by the platform 31. Accordingly, the observer can obtain tissue information below the tissue surface within the visual field range (observed stereoscopic image) of the object Ob while observing the stereoscopic image of the object Ob. Thus, for example, when observing a state such as in a body cavity, a stereoscopic image of a surface part such as in a body cavity is observed. Organization information can be obtained at the same time.
  • the observer performs both a function of observing a stereoscopic image of the object Ob and a function of obtaining tissue information under the tissue surface of the object Ob, and the endoscope apparatus 10 dedicated for each function. There is no need to replace it.
  • the attention part focused by the observer is searched, and the internal structure measuring device 389 outputs tissue information below the tissue surface only for the searched attention part. You may do it.
  • the input unit 46 such as a keyboard may be operated so that the tissue information below the tissue surface is output by the internal structure measuring device 389.
  • the configuration for realizing the function of forming and providing a stereoscopic image can be handled as a so-called 3D (dimension) unit, and includes the configuration for realizing the tissue surface measurement function that can be provided simultaneously. It can be provided as a 4D unit.
  • the tissue surface measurement light is suppressed from being captured as an image for observing a stereoscopic image.
  • the function of forming and providing a stereoscopic image and the function of measuring the tissue surface can coexist.
  • a tomographic image in the vicinity of the surface of the object Ob can be obtained by the tissue surface measurement function for scanning the object Ob.
  • the tissue surface can be image-processed to obtain the three-dimensional coordinates of each position, and the three-dimensional shape of the scan line on the tissue surface can also be determined.
  • the stage image can be displayed in a three-dimensional manner by rendering the scan lines on the left and right images forming the three-dimensional image of the object Ob.
  • overlaying the tomographic image on the stereoscopic image it can be presented to the observer as a 4D image.
  • FIG. 12 shows an example of the configuration of an endoscope apparatus 19X according to the eleventh embodiment.
  • An endoscope apparatus 19X according to the eleventh embodiment is obtained by attaching an endoscope expansion apparatus 311 to an endoscope 20 for visual observation.
  • the endoscope expansion device 311 includes main components of the endoscope expansion device 302 (FIG. 3) of the second embodiment and the endoscope expansion device 309 (FIG. 10) of the ninth embodiment. Is included.
  • the light relayed by the relay optical system 34 is branched by the optical elements 374, 375, and 376 in order to realize a high image quality function as the first function. It is configured to face the unit 38-1, the light receiving unit 38-2, and the light receiving unit 38-3 (the light receiving unit 38-3A and the light receiving unit 38-3B).
  • a high-vision camera device 370 including a high-definition imaging lens 371 and an image sensor 372 is attached to each of the light receiving units.
  • Each of the light receiving units 38-1, 38-2, and 38-3 (38-3A and 38-3B) functions as a camera device with high image quality, as in the ninth embodiment.
  • the image sensor 372 is attached while being shifted from the optical axis of the image lens 371 by a predetermined amount.
  • a part of the high-definition camera device 370 is also used as a camera device for realizing the extended function of the stereoscopic display of the object Ob, which is the second function.
  • the light receiving unit 38-3A is attached at a predetermined distance Lth from the optical axis CL in order to ensure parallax, that is, at a predetermined camera interval.
  • each of the small areas obtained by dividing the image area of the object Ob into four parts in the vertical and horizontal directions is set as an imaging area, and the high-vision camera device 370 is in charge of each of the upper right, lower right, upper left, and lower left image areas. Imaging of an image quality image can be realized.
  • the high-definition camera device 370 (light-receiving unit 38-3A) of the light-receiving unit 38-3A is also used as a camera device for realizing a stereoscopic image observation function which is a second function described later. There may be a deviation from the imaging area of the small area obtained by dividing the image area of the object Ob set in the light receiving unit 38-3A) into four. In this case, when the high-definition camera device 370 (light receiving unit 38-3A) is used as the first function to capture a high-quality image, it extracts an imaging region of a set small region from the imaging region according to the installation position. It may be used. This image processing can be realized by the control device 40.
  • an optical element 361 is provided on the downstream side of the relay optical system 34, and the light relayed by the relay optical system 34 is branched by the optical element 361.
  • the light receiving unit 38-2X (functioning as the light receiving unit 38-1 shown in FIG. 3) and the light receiving unit 38-3A (functioning as the light receiving unit 38-3 shown in FIG. 3) are configured. .
  • Each of the light receiving unit 38-2X and the light receiving unit 38-3A is attached at a predetermined distance Lth from the optical axis CL, that is, at a predetermined camera interval in order to ensure parallax. Therefore, the image sensor 382 of the light receiving unit 38-2X and the image sensor 372 of the light receiving unit 38-3A capture the left and right images for forming a stereoscopic image in which parallax is ensured. Each captured image is displayed on the display unit 42 of the control device 40, and allows the observer to observe the object Ob as a three-dimensional image.
  • the image quality may differ between the image sensor 382 of the light receiving unit 38-2X and the image sensor 372 of the light receiving unit 38-3A. Therefore, when the light receiving unit 38-2X is a camera device with normal image quality, image processing for converting the image quality of the image captured by the light receiving unit 38-3A into normal image quality may be performed. Image processing for converting to normal image quality can be realized by the control device 40. Note that the image quality of the light receiving unit 38-2X may be matched by using a high vision camera device 370 including an imaging lens 371 for high vision and an image sensor 372.
  • the platform 31 provides the endoscope expansion device 311 that can simultaneously provide a stereoscopic image observation function and a high image quality function. Therefore, the observer can observe the object Ob with high image quality while observing the stereoscopic image of the object Ob.
  • a stereoscopic image of a surface part such as in a body cavity is observed. Reference can be made with high image quality for more detailed observation. For this reason, in order to perform both the observation function of the stereoscopic image of the object Ob and the function of observing the object Ob with high image quality, the observer needs to replace the endoscope device 10 with a dedicated function for each function. There is no.
  • both a stereoscopic image of a surface part such as a body cavity and a high-quality image may always be presented, or one of them may be presented.
  • the site of interest that the observer observes while observing the stereoscopic image may be searched, and a high-quality image may be presented only for the searched site of interest.
  • a high-quality image may be displayed by operating the input unit 46 such as a keyboard while the observer is observing a stereoscopic image of the target region.
  • the input unit 46 such as a keyboard
  • the observer is observing a stereoscopic image of the target region.
  • a high-quality image can be provided for a site of interest for which detailed observation is desired.
  • FIG. 13 shows an example of the configuration of an endoscope apparatus 17X according to the twelfth embodiment.
  • An endoscope apparatus 17X according to the twelfth embodiment is obtained by attaching an endoscope expansion apparatus 312 to an endoscope 20 for visual observation.
  • the endoscope expansion device 312 is mainly configured by an endoscope expansion device 305 (FIG. 6) according to the fifth embodiment and an endoscope expansion device 307 (FIG. 8) according to the seventh embodiment. Is included.
  • the endoscope expansion apparatus 312 has, as a first function, an excitation light source 387 provided in the light receiving unit 38-2 and a wavelength filter 388F for cutting the excitation light in order to realize a fluorescence observation function.
  • the endoscope expansion device 312 includes the excitation light reflecting element 367 and is configured to irradiate the object Ob with the excitation light from the excitation light source 387.
  • the light relayed by the relay optical system 34 (fluorescence) Are branched by the optical element 368 and directed to the light receiving unit 38-3.
  • the endoscope expansion device 312 has a function of observing the object Ob in a normal state, so that the imaging lens 381 and the imaging lens 381 are disposed on the light receiving unit 38-1 in the direction along the optical axis CL of the relay optical system 34.
  • a camera device including an image sensor 382 is attached.
  • the image captured by the normal camera device and the image captured by the fluorescence observation camera device 388 are processed by the control device 40 and are displayed on the display unit 42 separately or after being subjected to superimposed image processing. . That is, the captured image by the fluorescence excited by the excitation light by the endoscope expansion device 30 is displayed side by side or superimposed on the captured image of the object Ob. Thereby, a normal captured image and a captured image by fluorescence can be displayed and the observer can observe the object Ob.
  • FIG. 13 shows an example in which an optical element 364 is provided between the excitation light reflecting element 367 and the excitation light source 387.
  • the optical element 364 may be provided at any position downstream of the relay optical system 34 as long as it can irradiate the object Ob with the pattern image from the projection device 384.
  • the pattern image emitted from the projection device 384 is reflected by the optical element 364 and projected onto the object Ob.
  • the pattern image that is the reflected light reflected by the object Ob is captured by at least one of a normal camera device including the imaging lens 381 and the image sensor 382 and a fluorescence observation camera device 388.
  • the wavelength of the light emitted from the laser device 384L includes the wavelength of the fluorescence excited by the excitation light
  • the image can be captured by both the normal camera device and the fluorescence observation camera device 388.
  • the wavelength of the light emitted from the laser device 384L is the wavelength of fluorescence excited by the excitation light, it can be imaged only by the fluorescence observation camera device 388, and if the wavelength does not include fluorescence, Images can be taken only with a normal camera device.
  • the endoscope expansion apparatus 312 that can simultaneously provide the fluorescence observation function and the pattern image projection function by the functionalized platform 31 included in the endoscope expansion apparatus 312. provide. Therefore, the observer can project the pattern image onto the target object Ob that is being fluorescently observed, for example, to the target site while observing the target object Ob.
  • the pattern image can be picked up by at least one of a normal camera device and a fluorescence observation camera device 388 by selecting the wavelength of light emitted from the laser device 384L.
  • the target region can be marked by the pattern image when the object Ob is viewed normally or fluorescently.
  • the exit pupil Exp obtained by duplicating the exit pupil Exp of the endoscope 20 by the relay optical system 34 is not limited to the position of the center of the pupil being located on the optical axis.
  • the pupil center may be set at a different position, and the common part may be the exit pupil Exp.
  • FIG. 14 shows an example of the configuration of the exit pupil Exp.
  • the exit pupil Exp-C in a region common to the two exit pupils Exp-R and Exp-L Exp may also be used. In this way, it is possible to handle a common exit pupil Exp that takes advantage of the optical performance of each of the exit pupil Exp-R and the exit pupil Exp-L.
  • the present invention is not limited to the configuration of the endoscope expansion device using only the functions described in the above embodiments. That is, it goes without saying that the endoscope expansion device can be configured so as to have a plurality of functions by combining a plurality of the above embodiments.
  • the endoscope expansion device is provided using the exit pupil obtained by duplicating the exit pupil Exp of the endoscope 20 by the relay optical system 34.
  • the exit pupil of the endoscope 20 is provided.
  • a lens system that acts in common on all the light receiving units may be arranged in the vicinity of Exp.
  • the vicinity of the exit pupil Exp of the endoscope 20 is the position of the exit pupil Exp or a position at a predetermined distance from the exit pupil Exp in the optical axis CL direction.
  • An example of the predetermined distance can be obtained by optical calculation that commonly acts on the image formation of the light receiving unit when the light receiving unit requires focus adjustment.
  • an endoscope expansion device is attached to the endoscope 20 to provide an endoscope device having various functions.
  • a functionalized platform that has various functions is provided.
  • An endoscope expansion device including 31 may be built in the endoscope 20.
  • at least the functionalized platform 31 is built in the endoscope 20, and the light receiving unit 38 that receives the light propagated through the optical path branched by the branching unit constituting the functionalized platform 31 is configured to be detachable. Also good.
  • the endoscope apparatus which has various exclusive functions can be provided only by attaching the apparatus which implement

Abstract

1つの内視鏡を複数の観察機能を有する内視鏡に拡張できる内視鏡用拡張装置を提供する。 内視鏡(20)は、対物レンズ(22)、複数のリレーレンズ系(24)、アイピース(26)を備え、射出瞳(Exp)がアイピース(26)の直後に形成される。アイピース(26)には取付部(32)により内視鏡用拡張装置の筐体(39)が取り付けられる。筐体(39)には、機能化プラットフォーム(31)を形成するリレー光学系(34)及び分岐部(36)が設けられる。内視鏡用拡張装置(30)は、内視鏡(20)の射出瞳(Exp)を、リレー光学系(34)を用いてアイピース(26)から離れた位置に移動させる。分岐部(36)で分岐された光路を伝播した光は、受光部(38)で受光される。このように構成した内視鏡用拡張装置(30)を用いることで1つの内視鏡(20)を複数の観察機能を有する内視鏡に拡張できる。

Description

内視鏡用拡張装置
 開示の技術は、内視鏡用拡張装置に関する。
 細長の挿入部を体腔内等に挿入して、直接目視できない部位を観察する内視鏡が広く用いられている。一般的な内視鏡は、細長の挿入部の内部に、対物光学系と、リレーレンズ(硬性鏡の場合)やイメージガイドファイバ(軟性鏡の場合)等の像伝送光学系を有している。そして、目視観察用の内視鏡は、観察対象からこれらの光学系を経た光を、接眼光学系や撮像光学系を介して観察像として観察するように構成されている。また、映像観察用のビデオ内視鏡においては、先端に対物光学系とCCD等の撮像素子を内蔵して構成されている。
 ところで、近年、内視鏡の利用は増加しており、体腔内の観察による診断精度の向上及び体腔内における各種処置を可能とするため、様々な観察機能が付加された専用の内視鏡装置が各種提案されている。
 例えば、一般的な内視鏡では、観察部位を遠近感のない平面として提供するようになっているため、例えば体腔壁表面の微細な凹凸等を観察することが困難であった。そこで、複数の観察光学系を並列に設け、これらの光学系の光軸を離して視差を持つように観察光学系を配置して観察部位を立体視できるように構成し、例えば体腔壁表面の微細な凹凸等を観察可能にした立体視内視鏡装置が知られている(例えば、特許文献1参照)。
 また、所定波長の励起光を照明した部位で発光する蛍光成分を観察することで照明した部位における細胞の状態を観察可能にした蛍光観察の内視鏡装置が知られている(例えば、特許文献2参照)。
特開平6-194581号公報 特開2008-289863号公報
 しかしながら、診断精度の向上及び体腔内における各種処置を可能とするためには、所望の観察機能が付加された専用の内視鏡装置を観察機能毎に用意する必要があり、所望の観察機能を得るためには、内視鏡を交換しなければならなかった。
 開示の技術は、これらの事情に鑑みてなされたもので、1つの内視鏡を複数の観察機能を有する内視鏡に拡張できる内視鏡用拡張装置を提供することを目的とする。
 第1態様の内視鏡用拡張装置は、光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされた光を複数の光路に分岐する分岐部と、前記分岐部で分岐された何れかの光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられた受光部と、を備える。
 第2態様の内視鏡用拡張装置では、前記取付部は、前記内視鏡のアイピースに取り付けられる。
 第3態様の内視鏡用拡張装置では、前記取付部は、前記内視鏡の射出瞳に対する前記リレー光学系の入射瞳の位置関係を調整する取付調整部を含む。
 第4態様の内視鏡用拡張装置では、前記リレー光学系は、前記内視鏡により形成される射出瞳を入射瞳として、前記内視鏡の射出瞳をリレーするように取り付けられ、前記分岐部は、前記リレー光学系の射出側の端部から前記リレー光学系の射出瞳位置までの空間で、かつ前記リレー光学系の光路上に設けられる。
 第5態様の内視鏡用拡張装置では、前記分岐部及び前記受光部の少なくとも一方は、前記リレー光学系の射出瞳位置に対して、前受光部で受光する光の位置を調整する位置調整部を含む。
 第6態様の内視鏡用拡張装置では、前記分岐部は、前記リレー光学系から射出された光の一部を反射し残りの少なくとも一部の光を透過する光学素子を含む。
 第7態様の内視鏡用拡張装置では、前記分岐部は、前記リレー光学系から射出された光を瞳分割により、右目用画像と左目用画像とが得られるように光を分岐し、前記受光部は、前記分岐部で瞳分割した2つの光の各々を受光可能な位置に配置され、前記受光部の各々で受光された光から得られる右目用画像と左目用画像とに基づいて立体像を表示する表示部を含む立体カメラ装置である。
 第8態様の内視鏡用拡張装置では、前記分岐部は、前記リレー光学系から射出された光を、所定画素だけ離間した異なる画像が複数得られるように光を分岐し、前記受光部は、前記分岐部で分割した複数の光の各々を受光可能な位置に配置され、前記受光部の各々で受光された光から得られる複数の画像を合成して高画質化画像を表示する表示部を含む高画質カメラ装置である。
 第9態様の内視鏡用拡張装置では、前記受光部は、前記リレー光学系の光の射出方向と逆方向に、前記分岐部で分岐された何れかの光路を伝播するように、発光する発光部を含む。
 第10態様の内視鏡用拡張装置では、前記発光部は、予め定めたパターン画像を投影する投影装置である。
 第11態様の内視鏡用拡張装置では、前記分岐部は、対象物に照射される光と、対象物に照射された光により発生した光とが得られるように光を分岐し、前記受光部は、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された光を受光し、受光した光に基づいて前記内視鏡により観察した対象物から前記内視鏡の先端までの距離を計測する距離計測装置である。
 第12態様の内視鏡用拡張装置では、前記分岐部は、対象物に照射される照射光と、対象物に照射された照射光が対象物で反射された反射光とが得られるように光を分岐し、前記受光部は、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された照射光の反射光を受光し、受光した反射光に基づいて前記内視鏡により観察した対象物の三次元形状を計測する形状計測装置である。
 第13態様の内視鏡用拡張装置では、前記分岐部は、対象物に照射される励起光と、対象物に照射された励起光により励起された蛍光とが得られるように光を分岐し、前記受光部は、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された励起光により励起された蛍光を受光する蛍光観察装置である。
 第14態様の内視鏡用拡張装置では、前記分岐部は、対象物に照射される照射光と、対象物に照射された照射光が対象物で反射された反射光とが得られるように光を分岐し、前記受光部は、予め定めた参照光を発光する参照光発生部を含み、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された照射光が対象物で反射された反射光と、前記参照光との干渉及び前記照明光の走査結果に基づいて対象物表面の内部構造を検出する内部構造検出装置である。
 第15態様の内視鏡用拡張装置では、前記リレー光学系の入射側でかつ、前記内視鏡の射出瞳の近傍に、全ての前記受光部へ光を結像に共通に作用するレンズ系を設けている。
 第16態様の内視鏡用拡張装置では、光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされた光を瞳分割により右目用画像と左目用画像とが得られるように光を分岐する立体表示用分岐部と、対象物に照射する照射光及び前記照射光による対象物の反射光が得られるように光を分岐する内部構造検出用分岐部とを含む分岐部と、前記立体表示用分岐部で瞳分割された光の光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ瞳分割された光の各々を用いて右目用画像及び左目用画像を形成する立体カメラ装置と、前記内部構造検出用分岐部で分岐された光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ前記照射光を発光する発光部及び前記照射光の一部を参照光とする参照光分割部を含み、前記反射光と前記参照光との干渉結果に基づいて対象物表面の内部構造を検出する内部構造検出装置と、を含む受光部と、を備える。
 第17態様の内視鏡用拡張装置では、光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされた光を瞳分割により右目用画像と左目用画像とが得られるように光を分岐する立体表示用分岐部と、前記リレー光学系から射出された光を、所定画素だけ離間した異なる画像が複数得られるように光を分岐する高画質用分岐部とを含む分岐部と、前記立体表示用分岐部で瞳分割された光の光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ瞳分割された光の各々を用いて右目用画像及び左目用画像を形成するための立体カメラ装置と、前記高画質用分岐部で分割された複数の光の各々を受光可能な位置に固定又は取り外し可能に取り付けられ、各々で受光された光から得られる複数の画像を合成して高画質化画像を表示するための高画質カメラ装置と、を含む受光部と、を備える。
 第18態様の内視鏡用拡張装置では、光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされる光として、対象物に照射される励起光と、対象物に照射された励起光により励起された蛍光とが得られるように光を分岐する蛍光用分岐部と、予め定めたパターン画像が対象物に投影されるように光を分岐する投影用分岐部と、を含む分岐部と、前記蛍光用分岐部で分岐された光の光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ前記励起光を発光する発光部を含むと共に、前記蛍光用分岐部で分岐される光の光路を伝播するように前記リレー光学系の光の射出方向と逆方向に伝播された励起光により励起された蛍光を受光する蛍光観察装置と、前記投影用分岐部で分岐された光の光路を伝播させてパターン画像を投影可能な位置に固定又は取り外し可能に取り付けられ、かつ前記投影用分岐部で分岐される光の光路を伝播するように前記リレー光学系の光の射出方向と逆方向に沿って前記パターン画像を投影する投影装置と、を含む受光部と、を備える。
 開示の技術によれば、1つの内視鏡を複数の観察機能を有する内視鏡に拡張できる内視鏡用拡張装置を提供することができる、という効果を奏する。
第1実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 制御部の構成の一例を示すブロック図である。 第2実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第3実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第4実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第5実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第6実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第7実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第8実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第9実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第10実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第11実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 第12実施形態に係る内視鏡装置の構成の一例を示すブロック図である。 射出瞳に関する説明図である。
 以下、図面を参照して開示の技術の実施形態について詳細に説明する。以下の実施形態は、内視鏡として硬性内視鏡を用いた場合を一例として説明する。
[第1実施形態]
 第1実施形態では、1つの内視鏡を複数の観察機能を有する内視鏡に拡張可能な構成として、機能化プラットフォームを提供する。
 図1に、第1実施形態に係る機能化プラットフォームを有する内視鏡装置の構成の一例を示す。第1実施形態に係る内視鏡装置10は、目視観察用の内視鏡20に、詳細を後述する機能化プラットフォームを備えた内視鏡用拡張装置30が取り付けられて構成されている。
 図1に示すように、内視鏡20は、対物レンズ22、複数のリレーレンズ系24、及びアイピース26を備えている。対物レンズ22は、鏡筒28に連結されている。鏡筒28内には複数のリレーレンズ系24が設けられている。また、鏡筒28には、アイピース26が連結されている。
 対物レンズ22は、広範囲を観察できるように、例えば、前側レンズ群22A及び後側レンズ群22Bを備えており、体腔内等の対象物Obを縮小した実像Rgを結像する。また、複数のリレーレンズ系24の各々は、例えば、レンズ24A,24B,24Cの組み合わせレンズによるレンズ群で形成されており、体腔内等の対象物Obの状態を体腔外で観察できるように、複数のリレーレンズ系24を連結して距離の長い結像系を実現している。つまり、それぞれのリレーレンズ系24は、入射側と出射側の光線状態が同一になるように設計されており、複数のリレーレンズ系24によって、対物レンズ22が形成した実像Rgを、結像を繰り返すことで伝達する。そして、アイピース26は、例えば接眼レンズ26Aを鏡筒28に固定するためのアタッチメント26Bを備えており、リレーレンズ系24が伝達した実像を、虚像結像して、アイピース26より鏡筒28側に後方に拡大結像する。
 対物レンズ22内には開口絞りAsが形成されており、開口絞りAsについて入射側の像が入射瞳(開口絞りAsをその入射側にある光学系で結像した像)Enpであり、アイピース26側の像が射出瞳(開口絞りAsをその出射側にある光学系で結像した像)Expである。一般的に、射出瞳Expはアイピース26より鏡筒28と反対側の直近に形成されるように設計されており、観察者がここの目を置いて体腔内等の対象物Obの状態を目視によって観察可能にしている。
 図1の例では、開口絞りAsは、対物レンズ22を構成する前側レンズ群22A及び後側レンズ群22Bの間に位置している。また、図1の例では、対物レンズ22の射出側で、対物レンズ22により縮小された実像Rgが形成された位置に、視野絞りFsが設けられている。
 ここで、内視鏡20は、体腔内等の対象物Obの状態を目視観察するために、アイピース26の最外部と射出瞳Expとの距離は数mmと近接していることが一般的である。このようにアイピース26の最外部と射出瞳Expとの距離が近接している場合、複雑な構成を有するデバイスを取り付けることは困難である。また、複数のデバイスを取り付けることも困難である。
 そこで、第1実施形態では、アイピース26の最外部と射出瞳Expとの距離は数mmと近接している状態を利用し、機能化プラットフォームを形成することにより、内視鏡20を複数の観察機能を有する内視鏡装置10に拡張可能な内視鏡用拡張装置を提供する。
 第1実施形態に係る内視鏡用拡張装置30は、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。リレー光学系34と、移動された射出瞳Expとの間には、ビームスプリッタやミラー等の光学素子により光路を複数に分岐する分岐部36が設けられ、リレー光学系34でリレーされた光は、分岐部36で分岐(偏向)されて、分岐された光路の先に設けられた特定の観察機能を実現するデバイスへ向けて提供される。これによって、内視鏡20からの光、例えば体腔内等の対象物Obの像を示す光を、分岐部36で分岐した光路に応じた複数のデバイスで利用できる。これらのリレー光学系34及び分岐部36は、複数の観察機能を有する内視鏡装置10に拡張するための機能化プラットフォーム31を形成する。リレー光学系34は、アフォーカル光学系に準じた構成とされており、等倍又は一定の倍率で射出瞳Expをリレーするようになっている。
 次に、内視鏡用拡張装置30の各構成を詳細に説明する。
 図1に示すように、内視鏡用拡張装置30は、内部に光学部品を収納可能な筐体39、リレー光学系34、分岐部36及び受光部38を備えている。筐体39は、光が入射される入射窓39Aを備えており、内視鏡20から射出された光が入射窓39Aから筐体39の内部に入射されるように、取付部32によって、筐体39を内視鏡20の出射側に取り付けられる。また、入射窓39Aから入射された光は、筐体39の内部に固定又は取り外し可能に取り付けられたリレー光学系34によってリレーされる。リレー光学系34でリレーされた光により形成された光路は、筐体39の内部に固定又は取り外し可能に取り付けられた分岐部36によって複数に分岐される。分岐部36で分岐された何れかの光路を伝播した光は、受光部38で受光される。受光部38は、分岐部36で分岐された何れかの光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられる。このように構成した内視鏡用拡張装置30を用いることによって、1つの内視鏡20を複数の観察機能を有する内視鏡に拡張できる。
 つまり、内視鏡用拡張装置30は、筐体39及び取付部32を備えており、リレー光学系34、分岐部36、及び受光部38は固定又は着脱可能に筐体39に取り付けられる。
 詳細には、取付部32は、筐体39に連結されてアイピース26に取り付けられる。つまり、取付部32は、アイピース26に固定する固定部32Aと、固定部32A及び筐体39の互いの位置関係を相対的に調整する取付調整部としての取付調整部32Bとを含んでいる。なお、取付調整部32Bは、図1に示すように、内視鏡20の射出光軸に沿う方向をZ軸とし、Z軸に直交しかつ互いに直交する方向をX軸及びY軸とする3次元空間上で位置調整可能になっている。筐体39は、取付部32が取り付けられた部位に、光が入射される入射窓39Aを備えており、取付部32をアイピース26に取り付けることによって、内視鏡20から射出された光を入射窓39Aから筐体39の内部に入射させることができる。
 また、取付調整部32Bは、回転位置も調整することができる。例えば、Z軸を中心として筐体39を回転可能にして回転位置を調整することで、像を回転調整をすることができる。また、X軸及びY軸を中心として筐体39を回転可能にして回転位置を調整することで、光軸CLに対して筐体39の向きを調整する、あおり調整をすることができる。従って、取付調整部32Bは、X軸、Y軸及びZ軸の少なくとも1軸を中心として筐体39を回転可能にして回転位置を調整することができるようになっている。
 リレー光学系34は、内視鏡20を構成するアイピース26の光の射出側に位置するように、筐体39に取り付けられ、入射側の内視鏡20の射出瞳Expを射出側に再結像させる光学系として機能する。つまり、リレー光学系34は、内視鏡20により形成された射出瞳Expを、リレーする。詳細には、リレー光学系34は、入射側の内視鏡20の射出瞳Expを射出側に再結像させるためのレンズ群34Aと、レンズ群34Aを筐体39に連結するアタッチメント34Bと、アタッチメント34Bで連結されたレンズ群34A及び筐体39の互いの位置関係を相対的に調整する位置調整部34Cと、を含んでいる。レンズ群34Aは、第1レンズ系34A-1及び第2レンズ系34A-2を離間して設けたアフォーカル光学系に準じた構成とされ、第1レンズ系34A-1及び第2レンズ系34A-2の焦点距離と間隔の関係から等倍又は一定の倍率で射出瞳Expをリレーする。例えば、第1レンズ系34A-1が焦点距離f1とされ、第2レンズ系34A-2が焦点距離f2とされる場合、第1レンズ系34A-1及び第2レンズ系34A-2を(f1+f2)の距離だけ離間させる。この場合、レンズ群34Aの倍率は、f2/f1になる。
 なお、位置調整部34Cは、光軸及びレンズ群34Aによる射出瞳Expの位置調整のため、前記取付調整部32Bと同様に、X軸、Y軸、Z軸による3次元空間上で位置調整可能になっている(図1)。また、リレー光学系34は、後側焦点位置まで予め定めた距離を確保するように設計されており、リレー光学系34のレンズ群34Aの後側のレンズ最終面から、リレー光学系34により形成される射出瞳Expまでの間に、後述する分岐部36を設けることができるように、光学空間が形成されるようになっている。
 分岐部36は、リレー光学系34により形成されたリレー光学系34のレンズ最終面から射出瞳Expまでの間の光学空間に位置するように、筐体39に取り付けられ、リレー光学系34でリレーされた光の光路を複数に分岐するための光学系として機能する。つまり、分岐部36は、リレー光学系34でリレーされた光を複数に分岐する偏向素子36Aと、偏向素子36Aを筐体39に連結するアタッチメント36Bと、アタッチメント36Bで連結された偏向素子36A及び筐体39の互いの位置関係を相対的に調整する位置調整部36Cと、を含んでいる。なお、位置調整部36Cは、分岐光路及び偏向素子36Aにより偏向された射出瞳Expの位置調整のため、前記取付調整部32Bと同様に、X軸、Y軸、Z軸による3次元空間上で位置調整可能になっている(図1)。また、図1に示す例では、偏向素子36Aにより、リレー光学系34でリレーされた光の光路を3つに分岐する光学系を一例として示した。この分岐部36により分岐する光路は3つに限定されるものではなく、2つ以上あればいくつでもよい。
 なお、第1実施形態に係る内視鏡装置10を、映像観察用のビデオ内視鏡として用いる場合は、1光路でよく、分岐部36は、リレー光学系34でリレーされた光の光路をそのまま通過、または反射(偏向)すればよい。
 受光部38は、分岐部36を通過した各々の光を受光するように、筐体39に取り付けられ、内視鏡20からの光を受光して、体腔内等の対象物Obを観察するためのデバイスとして機能する。なお、図1に示す例では、分岐部36により、リレー光学系34でリレーされた光の光路が3つに分岐された光路の各々を伝播した光を受光可能な位置に受光部38が取り付けられた場合を示した。また、以下の説明では、分岐部36により、3つに分岐された各光路を伝播した光を受光する受光部38を区別する場合、リレー光学系34の光軸に沿う方向に取り付けた受光部38を受光部38-1と表記して説明する。また、矢印Y方向に分岐された光路を伝播した光を受光する受光部38を受光部38-2と表記し、矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部38を受光部38-3と表記して説明する。
 なお、第1実施形態では、筐体39の内部に収納可能な光学部品として、リレー光学系34、分岐部36及び受光部38の各々を筐体39の内部に取り付けた場合を説明するが、開示の技術は、これらの光学部品の全てを常時固定又は取り外し可能に形成することに限定されない。例えば、リレー光学系34、分岐部36及び受光部38の少なくとも1つを筐体39に固定してもよい。
 ところで、リレー光学系34を含めた内視鏡用拡張装置30及び内視鏡20の光学系には双方向性がある。つまり、第1実施形態に係る内視鏡装置10は、体腔内等からその外部へ光を取り出すだけでなく、光を外部から体腔内等へ導入することもできる。このため、受光部38に備えるデバイスは、カメラ等で代表される受光型のデバイスだけではなく、体腔内等へ光を導入するために、発光型のデバイスや受発光型のデバイスを用いることができる。この場合、内視鏡用拡張装置30は、受光部38を、送光部として機能するように構成したり、送受光部として機能するように構成すればよい。また、分岐部36は、送光部や送受光部から送光された光をリレー光学系34へ向かう光路へ合波するように構成すればよい。例えば、光路を分岐(偏向)した偏向素子36Aを、逆方向に光を伝播する、つまり、送光部や送受光部から送光された光をリレー光学系34へ案内する光案内素子として機能するように用いればよい。
 内視鏡用拡張装置30は、制御装置40に接続されており、受光部38で受光した光を用いて体腔内等の対象物Obを表示したり、体腔内等の対象物Obを計測した計測結果を表示したりする。
 次に、制御装置40について説明する。
 図2に、制御装置40を実現可能なコンピュータ構成の一例を示す。制御装置40は、ディスプレイ等の表示部42、装置本体44及びキーボード等の入力部46を備えている。装置本体44は、CPU44A、RAM44B、ROM44C、およびインタフェース(I/O)44Gを備え、これらはバス44Hを介して互いに接続されている。また、バス44Hには、例えば立体像表示プログラム等の制御プログラム44Eを記憶した記憶部44Dが接続されている。また、インタフェース44Gには、受光部38-1、38-2、38-3も接続されている。なお、記憶部44Dは、HDD(Hard Disk Drive)や不揮発性のフラッシュメモリ等によって実現できる。
 CPU44Aは、立体像表示プログラム等の制御プログラム44Eを記憶部44Dから読み出してRAM44Bに展開して処理を実行する。これによって、内視鏡用拡張装置30で受光した光に基づいた体腔内等の対象物Obの表示、体腔内等の対象物Obの計測等の拡張機能が実行される。
 以上説明したように、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。そして、リレー光学系34と、移動された射出瞳Expとの間に設けられた分岐部36によって、光路が複数に分岐され、リレー光学系34でリレーされた光は、分岐部36で分岐(偏向)される。分岐された光路の先には特定の観察機能を実現するデバイスが設けられており、内視鏡20からの光、例えば体腔内等の対象物Obの像を示す光を、分岐部36で分岐した光路に応じた複数のデバイスで利用できる。これによって、アイピース26の最外部と射出瞳Expとの距離は数mmと近接している状態のまま、機能化プラットフォーム31を形成することにより、内視鏡20を複数の観察機能を有する内視鏡装置10に拡張可能な内視鏡用拡張装置30を提供することができる。
 つまり、1つの内視鏡20をそのまま利用して、複数の観察機能を有する内視鏡装置10に拡張することができる。これは、内視鏡20に機能化プラットフォーム31を有する内視鏡用拡張装置30を取り付けるのみで、専用の観察機能を有する専用の内視鏡として作動する内視鏡装置を構築可能なためである。つまり、既存の内視鏡20のアイピース26に、内視鏡用拡張装置30を取り付ける簡単な作業のみで、内視鏡20が、専用の機能を有する内視鏡装置10として扱うことができる。従って、専用の観察機能を有する装置を内視鏡20に取り付ける特別なアタッチメント等の専用接続部を備えることに比べて、簡単な構成及び簡単な作業で、複数の観察機能を有する内視鏡装置10に拡張することができる。
[第2実施形態]
 次に、第2実施形態を説明する。第2実施形態は、受光部38の一例として、内視鏡20から出射された光を瞳分割した左右の各画像から立体像を形成して提供する立体カメラ装置を用いた場合を説明する。つまり、観察機能の一例として、体腔内等の対象物Obについて立体像を形成して提供するために、左右の眼に対応した2台のカメラ装置を用いた2眼式立体表示の原理による立体カメラ装置を用いたものである。なお、第2実施形態は第1実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図3に、第2実施形態に係る内視鏡装置12の構成の一例を示す。第2実施形態に係る内視鏡装置12は、目視観察用の内視鏡20に、内視鏡用拡張装置302が取り付けられたものである。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第2実施形態に係る内視鏡装置12を構成する内視鏡用拡張装置302は、第1実施形態と同様に、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。第2実施形態では、左右の各画像から立体像を形成するため、リレー光学系34でリレーされた光は、2つに分岐すればよい。従って、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、透過光と反射光とが均等に分岐されるビームスプリッタやハーフミラー等の光学素子361が設けられ、光学素子361により光路が2光路に分岐される。つまり、光学素子361は、リレー光学系34の光軸CLに沿う方向の光路と、矢印Y方向と逆方向の光路とに分岐する。
 受光部38は、リレー光学系34の光軸CLに沿う方向に取り付けた受光部38-1と、矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部38-3とを用いる。第2実施形態では、受光部38-2は不要である。受光部38-1及び受光部38-3の各々には、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、これら受光部38-1及び受光部38-3の各々の結像レンズ381の入射瞳に射出瞳Expが位置するように結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。さらに、受光部38-1及び受光部38-3は、視差を確保するため、各々リレー光学系34の光軸CLから所定距離Lthを隔てて、つまり所定のカメラ間隔で取り付けられている。
 従って、リレー光学系34でリレーされた光は、分岐部36で分岐されて、視差が確保された左右の各画像として撮像される。このように、分岐部36で分岐した各光路にカメラ装置を取り付けることで、立体像を得ることができる。つまり、機能化プラットフォーム31を構成する分岐部36に、透過光と反射光とが均等に分岐されるビームスプリッタやハーフミラー等の光学素子361を設け、受光部38で、光軸CLから所定距離Lthを隔てて視差を確保し、内視鏡20からの光、例えば体腔内等の対象物Obの像を示す光を受光することで、立体像を形成するための左右の各画像を撮像することができる。
 第2実施形態に係る内視鏡用拡張装置302は、制御装置40に接続されており、受光部38-1及び受光部38-3で受光した光による視差を有する左右の各画像を用いて体腔内等の対象物Obを、表示部42に立体表示する。
 従って、第2実施形態では、CPU44Aは、立体像表示プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開して立体像表示処理を実行する。これによって、内視鏡用拡張装置30で受光した光に基づいた体腔内等の対象物Obの立体表示の拡張機能が実行される。
 以上説明したように、第2実施形態では、内視鏡20のアイピース26に、内視鏡用拡張装置302を取り付ける。また、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、透過光と反射光とを均等に分岐する光学素子361を設け、光軸CLから所定距離Lthを隔てて視差を確保したカメラ装置を受光部38に設けることで、立体像を形成するための左右の各画像を撮像することができる。従って、体腔内等の対象物Obの状態を目視観察する状態の内視鏡20のアイピース26に、内視鏡用拡張装置302を取り付けるのみで、立体表示装置として機能する内視鏡装置12を提供することができる。
 また、第2実施形態では、内視鏡20のアイピース26に、内視鏡用拡張装置302を取り付けるのみで、立体表示装置として機能する内視鏡装置12を提供することができる。つまり、細い挿入部分(例えば5mm程度)を有する既存の内視鏡20を用いて、立体表示装置を実現できる。一方、これまでは、立体像を形成するための左右の各画像を得るために、独立した光路が要求され、内視鏡の挿入部分には一定の直径(例えば10mm)が必要とされていた。これに対して第2実施形態では、既存の内視鏡20を拡張して立体表示装置として機能する内視鏡装置12を提供できるので、これまで困難であった細い挿入部分の内視鏡20であっても、立体表示装置として機能する内視鏡装置12へ拡張可能である。このことは、内視鏡を挿入する対象者(例えば患者)への負担を軽減することに好ましく機能する。
[第3実施形態]
 次に、第3実施形態を説明する。第3実施形態では、第2実施形態と同様に、観察機能の一例として、体腔内等の対象物Obについて立体像を形成して提供するために、左右の眼に対応した2台のカメラ装置を用いた2眼式立体表示の原理による立体カメラ装置を用いたものである。なお、第3実施形態は第2実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図4に、第3実施形態に係る内視鏡装置13の構成の一例を示す。第3実施形態に係る内視鏡装置13は、図2に示す分岐部36に設けられたビームスプリッタやハーフミラー等の光学素子361に代えて、プリズムミラー等の反射素子362による表面反射で光路を2光路に分岐する。
 分岐部36には、左右に均等に反射されるプリズムミラー等の反射素子362が設けられ、反射素子362により光路が2光路に分岐される。第3実施形態では、反射素子362の一例として、直角プリズムミラーを用いた場合を説明する。反射素子362は、リレー光学系34の光軸CLに直交する光路で、矢印Y方向に沿う方向の光路と、矢印Y方向と逆方向の光路とに分岐する。また、反射素子362は、頭頂部がリレー光学系34の光軸CLに一致するように取り付けられる。これにより、リレー光学系34でリレーされた光のうち光軸CLを境界とした一方の光は、反射素子362の一方の反射面で、リレー光学系34の光軸CLに直交する矢印Y方向の光路に反射される。一方、リレー光学系34でリレーされた光のうち光軸CLを境界とした他方の光は、反射素子362の他方の反射面で、リレー光学系34の光軸CLに直交する矢印Y方向と逆方向の光路に反射される。
 受光部38は、矢印Y方向に分岐された光路を伝播した光を受光する受光部38を受光部38-2と、矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部38-3とを用いる。受光部38-2及び受光部38-3の各々には、第2実施形態と同様に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、これら受光部38-2及び受光部38-3の各々の結像レンズ381の入射瞳に射出瞳Expが位置するように結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。
 従って、リレー光学系34でリレーされた光は、分岐部36で分岐されて、視差が確保された左右の各画像として撮像される。
 以上説明したように、第3実施形態では、内視鏡20のアイピース26に、内視鏡用拡張装置302を取り付け、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、反射素子362を設け、視差を確保するようにカメラ装置を受光部38に設けることで、立体像を形成するための左右の各画像を撮像することができる。従って、体腔内等の対象物Obの状態を目視観察する状態の内視鏡20のアイピース26に、内視鏡用拡張装置302を取り付けるのみで、立体表示装置として機能する内視鏡装置13を提供することができる。
 また、第3実施形態では、リレー光学系34でリレーされた光を反射素子362で反射するので、光を光学部材を透過させた場合に比べて、光の減衰を抑制することができる。
 なお、第3実施形態では、プリズムミラー等の偏向素子362を用いて光路を2光路に分岐する場合を説明したが、反射素子362はプリズムミラーに限定されるものではなく、反射面が交差する複数の反射ミラーにより反射素子362を構成してもよい。また、左右の各画像の少なくとも一方の光を反射ミラーにより反射するように反射素子362を構成してもよい。また、第3実施形態では、プリズムミラー等の反射素子362による表面反射で光路を2光路に分岐する場合を説明したが、反射素子362はプリズムの内部で反射するように構成してもよい。
[第4実施形態]
 次に、第4実施形態を説明する。第4実施形態は、受光部38の一例として、例えば体腔内等の対象物Obをカメラ装置により観察する機能に、距離を計測する機能を追加したものである。第4実施形態では、受光部38が、リレー光学系34の光の射出方向と逆方向に、分岐部36で分岐された何れかの光路を伝播するように、発光する発光部を含む。なお、第4実施形態は第1実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図5に、第4実施形態に係る内視鏡装置14の構成の一例を示す。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第4実施形態に係る内視鏡装置14を構成する内視鏡用拡張装置304は、第1実施形態と同様に、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。内視鏡用拡張装置304は、対象物Obを観察する機能を備えるために、リレー光学系34の光軸CLに沿う方向の受光部38-1に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、結像レンズ381及びイメージセンサ382を含むカメラ装置は、受光部38-1の結像レンズ381の入射瞳に射出瞳Expが位置するように取り付けられる。
 また、内視鏡用拡張装置304には、内視鏡20の先端から対象物Obまでの距離を計測するための距離センサ383が受光部38に取り付けられる。第4実施形態では、距離センサ383の一例としてタイムオブフライト(TOF)法を用いて赤外光を送受光することにより距離を計測するセンサを用いる。つまり、内視鏡用拡張装置304の受光部38-3には、赤外光を発光する赤外発光部383T及び赤外光を受光する赤外受光部383Rを備えた赤外距離センサ383が取り付けられる。また、射出瞳Expは、赤外距離センサ383のセンサ面と一致させる。タイムオブフライト法は、赤外発光部383Tで赤外光を発光してから対象物Obで反射された赤外光を赤外受光部383Rで受光するまでの経過時間を計測し、経過時間を距離Lに換算する。また、赤外発光部383Tから内視鏡20の先端部までの距離Loは予め求めておくことができるので、減算(=L-Lo)することにより、内視鏡20の先端から対象物Obまでの距離Lzを求めることができる。
 そこで、第4実施形態では、赤外光を送受光するために、リレー光学系34でリレーされた光の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、赤外光を反射するビームスプリッタやダイクロイックミラー等の赤外反射素子363が設けられ、赤外反射素子363により光路が分岐される。従って、第4実施形態では、赤外反射素子363は、リレー光学系34の光軸CLに沿う方向の光路から、矢印Y方向と逆方向の光路に反射する。または、赤外反射素子363は、受光部38-3からの矢印Y方向の光路から、リレー光学系34の光軸CLに沿う方向(矢印Z方向と逆方向)の光路に反射する。
 従って、リレー光学系34でリレーされた光は、分岐部36に取り付けられた赤外反射素子363を通過し、受光部38-1に取り付けられた結像レンズ381及びイメージセンサ382を含むカメラ装置へ至る。イメージセンサ382で撮像した画像は、制御装置40の表示部42に表示され、対象物Obを観察させることができる。
 一方、赤外距離センサ383を構成する赤外発光部383Tで赤外光を発光させ、対象物Obで反射した赤外光を赤外受光部383Rで受光する。この経過時間を距離Lに換算し、赤外発光部383Tから内視鏡20の先端部までの距離Loを減算することで、内視鏡20の先端から対象物Obまでの距離Lzを求める。この処理は、制御装置40で処理される。つまり、第4実施形態では、CPU44Aは、距離計測プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開して距離計測処理を実行する。これによって、内視鏡用拡張装置30で送受光した赤外光に基づいて対象物Obまでの距離を計測する拡張機能が実行される。CPU44Aは、計測結果を、表示部42に表示させることができる。
 以上説明したように、第4実施形態では、内視鏡20のアイピース26に、内視鏡用拡張装置304を取り付ける。また、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、赤外反射素子363を取り付け、受光部38に取り付けた赤外距離センサ383で発光された赤外光を対象物Obへ照射し、その反射光を受光し、経過時間から距離Lzを求める。従って、体腔内等の対象物Obの状態を目視観察する状態の内視鏡20のアイピース26に、内視鏡用拡張装置302を取り付けるのみで、距離計測装置として機能する内視鏡装置14を提供することができる。
 また、第4実施形態では、可視光が抑制された赤外光を送受光する赤外距離センサ383を用い、波長選択性を有する赤外反射素子363を用いて光路を偏向するので、対象物Obを観察するための可視光の損失を抑えることができる。
 さらに、例えば腹腔鏡手術のように、内視鏡20を用いて手術を実施する場合に、術者は内視鏡20の先端から臓器までを距離を知ることができ、手術の安全性を向上させることができる。
[第5実施形態]
 次に、第5実施形態を説明する。第5実施形態は、受光部38の一例として、例えば体腔内等の対象物Obをカメラ装置により観察する機能に、対象物Obへ予め定めたパターン画像(マーキングパターン)を投影する機能を追加したものである。第5実施形態では、受光部38が、リレー光学系34の光の射出方向と逆方向に、分岐部36で分岐された何れかの光路を伝播するように、発光する発光部を含む。なお、第5実施形態は第4実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図6に、第5実施形態に係る内視鏡装置15の構成の一例を示す。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第5実施形態に係る内視鏡装置15を構成する内視鏡用拡張装置305は、第4実施形態と同様に、対象物Obを観察する機能を備えるために、リレー光学系34の光軸CLに沿う方向の受光部38-1に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、内視鏡用拡張装置305は、対象物Obへ予め定めたパターン画像(マーキングパターン)を投影する機能を備えるために、投影装置384を備えている。
 つまり、第5実施形態に係る内視鏡装置15を構成する内視鏡用拡張装置305は、第1実施形態と同様に、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。第5実施形態では、投影装置384から射出されたパターン画像を対象物Obへ投影するため、リレー光学系34の光軸CLに沿う方向の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、透過光と反射光とに分岐されるビームスプリッタやハーフミラー等の光学素子364が設けられ、光学素子364により光路が2光路に分岐される。従って、光学素子364は、リレー光学系34の光軸CLに沿う方向の光路と、矢印Y方向と逆方向の光路とに分岐される。
 受光部38は、リレー光学系34の光軸CLに沿う方向に取り付けた受光部38-1と、矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部38-3とを用いる。第5実施形態では、受光部38-2は不要である。受光部38-1には、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、受光部38-3には、投影装置384が取り付けられる。また、結像レンズ381及びイメージセンサ382を含むカメラ装置は、受光部38-1の結像レンズ381の入射瞳に射出瞳Expが位置するように取り付けられる。
 第5実施形態では、投影装置384の一例としてMEMS(Micro Electro Mechanical Systems)ミラーを用いた装置を用いる。MEMSミラーを用いた投影装置384は、MEMSミラー384P及び1又は複数のレーザ装置384Lを備えている。投影装置384は、微小なMEMSミラー384Pを備え、MEMSミラー384Pの反射面にレーザ装置384Lから射出されたレーザ光を照射し、MEMSミラー384Pの傾きを制御することによって、MEMSミラー384Pで反射した反射光を対象物Ob上で走査することで、その走査に応じたパターン画像を対象物Obへ投影する。また、投影装置384では、射出瞳Expと、MEMSミラー384Pの反射面の位置とを一致させる。これにより、対象物Obには、鮮明なパターン画像が投影される。
 なお、MEMSミラー384Pを用いた投影装置384は、結像レンズなどのレンズ系を用いないため、ぼけが抑制された画像を投影することができる。また、MEMSミラー384Pへレーザ光を照射するレーザ装置384Lは、単色のパターン画像を投影する場合は、単色のレーザ光を射出するレーザ装置384Lを用いればよい。また、複数色によってパターン画像を投影する場合は、複数のレーザ装置384Lを用いればよい。なお、カラーのパターン画像を投影する場合、RGB(赤緑青)の各色を射出するレーザ装置384Lを用いて各色成分を調整することで、カラーのパターン画像を投影することができる。
 従って、リレー光学系34でリレーされた光は、分岐部36に取り付けられた光学素子364を通過し、受光部38-1に取り付けられた結像レンズ381及びイメージセンサ382を含むカメラ装置へ至る。イメージセンサ382で撮像した画像は、制御装置40の表示部42に表示され、対象物Obを観察させることができる。
 一方、投影装置384から射出されたパターン画像は、光学素子364で反射されて対象物Obへ投影される。そして、対象物Obで反射された反射光も分岐部36に取り付けられた光学素子364を通過し、受光部38-1に取り付けられた結像レンズ381及びイメージセンサ382を含むカメラ装置へ至る。予め定めたパターン画像を投影する処理は、制御装置40で処理される。つまり、第5実施形態では、CPU44Aは、パターン画像投影プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開してパターン画像投影処理を実行する。これによって、内視鏡用拡張装置30で射出したパターン画像が対象物Obへ投影され、対象物Ob上にパターン画像が投影された状態の画像がカメラ装置で撮像される拡張機能が実行される。CPU44Aは、撮像画像を、表示部42に表示させることができる。
 以上説明したように、第5実施形態では、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、光学素子364を取り付け、受光部38に取り付けた投影装置384で射出されたパターン画像を対象物Obへ投影し、パターン画像が投影された対象物Obを撮像する。従って、体腔内等の対象物Obの状態を観察する場合に、パターン画像により対象物上に目標を定めたり、空間把握したりすることができる投影装置として機能する内視鏡装置15を提供することができる。
 また、例えば腹腔鏡手術のように、内視鏡20を用いて手術を実施する場合に、術者は内視鏡20による撮像画像を参照しつつ、投影装置384で術野をマーキングすることができ、手術器具の誘導や注目すべき術野の指定をすることが容易になり、施術の進行を促進したり安全性を向上させたりすることができる。
 さらに、第5実施形態では、投影装置384で投影する投影光にレーザ光を用いているので、単色のレーザ光を用いて、波長選択性を有する光学素子364により光路を分岐すれば、対象物Obを観察するための可視光の損失を抑えることができる。
 さらにまた、投影装置384でカラーのパターン画像を投影する一例としてRGBの各色を射出するレーザ光を用い、RGB各色のレーザ光の波長のみを反射する波長選択性を有する光学素子364により光路を分岐すれば、各レーザ光の波長のみの光減衰で抑えることができ、対象物Obを観察するための可視光の損失を抑えることができる。
[第6実施形態]
 次に、第6実施形態を説明する。第6実施形態は、受光部38の一例として、例えば体腔内等の対象物Obをカメラ装置により観察する機能に、対象物Obの三次元形状を計測する機能を追加したものである。体腔内等の対象物Obの三次元形状を計測する場合、内視鏡20の先端部の面積が小さいため、三角測量の原理を用いたステレオカメラ法、光切断法及びモアレ計測法等の三次元計測方法では対象物Obの三次元形状を計測することは困難である。そこで、第6実施形態では、第4実施形態で用いたタイムオブフライト(TOF)法を利用して対象物Obの三次元形状を計測する。なお、第6実施形態は第4実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図7に、第6実施形態に係る内視鏡装置16の構成の一例を示す。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第6実施形態に係る内視鏡装置16を構成する内視鏡用拡張装置306は、第4実施形態と同様に、対象物Obを観察する機能を備えるために、リレー光学系34の光軸CLに沿う方向の受光部38-1に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。つまり、第6実施形態に係る内視鏡装置16を構成する内視鏡用拡張装置306は、第1実施形態と同様に、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。また、結像レンズ381及びイメージセンサ382を含むカメラ装置は、受光部38-1の結像レンズ381の入射瞳に射出瞳Expが位置するように取り付けられる。
 また、第6実施形態に係る内視鏡用拡張装置306は、タイムオブフライト(TOF)法を利用して対象物Obの三次元形状を計測する機能を備えるために、赤外光源385及びTOFデプスカメラ386を備えている。赤外光源385は、赤外光を発光するものである。TOFデプスカメラ386は、二次元的な距離分布を求めるものであり、レンズ386L及びTOFイメージセンサ386を備えている。つまり、赤外光源385で赤外光を発光してから対象物Obで反射された赤外光をTOFデプスカメラ386でセンサ面の各位置で受光するまでを計測した経過時間を距離に換算し、各位置の距離(TOFイメージセンサ386面上の時間差)により、対象物Obの三次元形状を求めることができる。言い換えれば、赤外光源385で発光された赤外光は、対象物Obに照射され、照射された赤外光により三次元形状に応じて反射された対象物Obの反射光を、TOFイメージセンサ386により受光し、TOFイメージセンサ386に到達した赤外光の時間差を解析することで、対象物Obの2次元的な奥行き分布を求めることができる。
 そこで、第6実施形態では、赤外光源385から射出された赤外光を対象物Obへ照射するため、リレー光学系34の光軸CLに沿う方向の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、赤外光を反射するビームスプリッタやダイクロイックミラー等の赤外反射素子365が設けられ、赤外反射素子365により光路が分岐される。赤外反射素子365は、受光部38-2からの矢印Y方向と逆方向の光路から、リレー光学系34の光軸CLに沿う方向(矢印Z方向と逆方向)の光路に反射する光路を形成する。
 また、第6実施形態では、対象物Obの反射光を検出するために、リレー光学系34の光軸CLに沿う方向の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、赤外光を反射するビームスプリッタやダイクロイックミラー等の赤外反射素子366が設けられ、赤外反射素子366により光路が分岐される。つまり、赤外反射素子366は、リレー光学系34の光軸CLに沿う方向(矢印Z方向)の光路から、受光部38-3へ向かう矢印Y方向と逆方向の光路に反射する光路を形成する。
 受光部38は、リレー光学系34の光軸CLに沿う方向に取り付けた受光部38-1と、矢印Y方向と逆方向に分岐された光路を伝播される発光部として機能する受光部38-2と、矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部38-3とを用いる。受光部38-1には、結像レンズ381及びイメージセンサ382を含む通常観察用のカメラ装置が取り付けられる。また、受光部38-2には、赤外光源385が取り付けられ、受光部38-3には、TOFイメージセンサ386が取り付けられる。
 第6実施形態では、リレー光学系34でリレーされた光は、分岐部36に取り付けられた赤外反射素子365及び赤外反射素子366を通過し、受光部38-1に取り付けられた結像レンズ381及びイメージセンサ382を含むカメラ装置へ至る。また、結像レンズ381及びイメージセンサ382を含むカメラ装置は、受光部38-1の結像レンズ381の入射瞳に射出瞳Expが位置するように取り付けられる。イメージセンサ382で撮像した画像は、制御装置40の表示部42に表示され、対象物Obを観察させることができる。
 一方、赤外光源385から射出された赤外光は、赤外反射素子365で反射されて対象物Obへ照射される。そして、対象物Obで反射された反射光は分岐部36に取り付けられた赤外反射素子366で反射され、受光部38-3に取り付けられたTOFイメージセンサ386へ至る。
 TOFイメージセンサ386の検出結果から対象物Obの三次元形状を演算する処理は、制御装置40で処理される。つまり、CPU44Aは、TOFイメージセンサ386で撮像された撮像画像を、解析し、対象物Obの三次元形状を演算する。この場合、CPU44Aは、三次元形状演算プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開して三次元形状演算処理を実行する。これによって、内視鏡用拡張装置30で射出した構造光が対象物Ob表面における反射光に応じた対象物Obの三次元形状を求める拡張機能が実行される。なお、CPU44Aは、対象物Obの三次元形状を演算結果を表示部42に表示させることができる。
 以上説明したように、第6実施形態では、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、赤外反射素子365、366を取り付け、受光部38に取り付けた赤外光源385により赤外光を対象物Obへ照射し、対象物Ob表面における反射光をTOFイメージセンサ386で撮像する。そして、TOFイメージセンサ386で撮像した撮像画像を解析することにより、対象物Obの三次元形状を求める。従って、体腔内等の対象物Obの状態を観察する場合に、対象物Obの三次元形状を計測する機能を有した内視鏡装置16を提供することができる。
 また、例えば腹腔鏡手術のように、内視鏡20を用いて手術を実施する場合に、施術中に、術者は内視鏡20による撮像画像を参照しつつ、対象物Obである臓器の三次元形状を計測することができる。
 さらに、第6実施形態では、赤外反射素子366を、波長選択性を有する光学素子、つまり可視光が抑制された赤外光を反射する光学素子を用いているので、対象物Obを観察するための可視光の損失を抑えることができる。
[第7実施形態]
 次に、第7実施形態を説明する。第7実施形態は、受光部38の一例として、例えば体腔内等の対象物Obをカメラ装置による通常の観察機能に、蛍光観察機能を追加したものである。第7実施形態では、受光部38が、リレー光学系34の光の射出方向と逆方向に、分岐部36で分岐された何れかの光路を伝播するように、発光する発光部を含む。なお、第7実施形態は第6実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 例えば、体腔内等の対象物Obに紫外光や青色光の励起光源による励起光を照射した際に、治療の必要性を有する患部で特有の蛍光発光を生じる場合がある。そこで、励起光をカットする波長フィルタをカメラ装置に取り付けて撮影することで、特有の蛍光発光した部位を撮像することができ、患部を判別することが可能になる。第7実施形態は、励起光の照射による患部の蛍光発光を観察可能にしたものである。
 図8に、第7実施形態に係る内視鏡装置17の構成の一例を示す。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第7実施形態に係る内視鏡装置17を構成する内視鏡用拡張装置307は、第6実施形態と同様に、対象物Obを観察する機能を備えるために、リレー光学系34の光軸CLに沿う方向の受光部38-1に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられ、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させている。
 また、第7実施形態に係る内視鏡用拡張装置307は、対象物Obに対する蛍光観察機能を備えるために、励起光源387及び蛍光観察用カメラ装置388を備えている。励起光源387は、紫外光や青色光等の励起光を発光するもので、発光された励起光は、対象物Obに照射される。蛍光観察用カメラ装置388は、励起光により励起され発光した蛍光発光部位を撮像するために、励起光をカットする波長フィルタ388F,結像レンズ388L及びイメージセンサ388Sを含んでいる。
 第7実施形態では、励起光源387から射出された励起光を対象物Obへ照射するため、リレー光学系34の光軸CLに沿う方向の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、励起光を反射するビームスプリッタ等の励起光反射素子367が設けられ、励起光反射素子367により光路が分岐される。励起光反射素子367は、受光部38-2からの矢印Y方向と逆方向の光路から、リレー光学系34の光軸CLに沿う方向(矢印Z方向と逆方向)の光路に反射する光路を形成する。
 また、第7実施形態では、対象物Obの励起光により励起された蛍光発光を検出するために、リレー光学系34の光軸CLに沿う方向の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、蛍光発光を反射するビームスプリッタ等の蛍光反射素子368が設けられ、蛍光反射素子368により光路が分岐される。つまり、蛍光反射素子368は、リレー光学系34の光軸CLに沿う方向(矢印Z方向)の光路から、受光部38-3へ向かう矢印Y方向と逆方向の光路に蛍光を反射する光路を形成する。
 受光部38は、リレー光学系34の光軸CLに沿う方向に取り付けた受光部38-1と、矢印Y方向と逆方向に分岐された光路を伝播される励起光の発光部として機能する受光部38-2と、矢印Y方向と逆方向に分岐された光路を伝播した蛍光発光を受光する受光部38-3とを用いる。受光部38-1には、結像レンズ381及びイメージセンサ382を含む通常観察用のカメラ装置が取り付けられる。また、受光部38-2には、励起光源387が取り付けられ、受光部38-3には、蛍光観察用カメラ装置388が取り付けられる。
 第7実施形態では、リレー光学系34でリレーされた通常光は、分岐部36に取り付けられた励起光反射素子367及び蛍光反射素子368を通過し、受光部38-1に取り付けられた結像レンズ381及びイメージセンサ382を含むカメラ装置へ至る。また、結像レンズ381及びイメージセンサ382を含むカメラ装置は、受光部38-1の結像レンズ381の入射瞳に射出瞳Expが位置するように取り付けられる。イメージセンサ382で撮像した画像は、制御装置40の表示部42に表示され、対象物Obを観察させることができる。
 一方、励起光源387から射出された励起光は、励起光反射素子367で反射されて対象物Obへ照射される。そして、対象物Obで励起光により励起されて蛍光発光した光は分岐部36に取り付けられた蛍光反射素子368で反射され、受光部38-3に取り付けられた蛍光観察用カメラ装置388へ至る。通常のカメラ装置による撮像画像と蛍光観察用カメラ装置388による撮像画像とは、制御装置40で処理され、表示部42に、各々別々に、または重ね合わせた画像処理が施されて表示される。つまり、第7実施形態では、CPU44Aは、蛍光観察プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開して蛍光観察処理を実行する。これによって、内視鏡用拡張装置30で励起光により励起された蛍光光が対象物Obの撮像画像と並べて、または重ね合わされて表示される拡張機能が実行される。
 以上説明したように、第7実施形態では、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、励起光反射素子367、及び蛍光反射素子368を取り付け、受光部38に取り付けた励起光源387で射出された励起光を対象物Obへ照射し、励起された蛍光発光が蛍光観察用カメラ装置388で撮像される。従って、体腔内等の対象物Obの状態を観察する場合に、体腔内等の対象物Obに、治療の必要性を有する患部で特有の蛍光発光を生じる部位を撮像することができ、患部を判別する支援を可能ににする機能を有した内視鏡装置17を提供することができる。
 また、例えば腹腔鏡手術のように、内視鏡20を用いて患部を観察する場合に、自家蛍光観察(AFI)により悪性腫瘍を判別することができる。
[第8実施形態]
 次に、第8実施形態を説明する。第8実施形態は、受光部38の一例として、例えば体腔内等の対象物Obをカメラ装置により観察する機能に、対象物Obの組織表面下の数mmの組織情報を測定する機能を追加したものである。第8実施形態では、受光部38が、リレー光学系34の光の射出方向と逆方向に、分岐部36で分岐された何れかの光路を伝播するように、発光する発光部を含む。なお、第8実施形態は第4実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図9に、第8実施形態に係る内視鏡装置18の構成の一例を示す。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第8実施形態に係る内視鏡装置18を構成する内視鏡用拡張装置308は、第4実施形態と同様に、対象物Obを観察する機能を備えるために、リレー光学系34の光軸CLに沿う方向の受光部38-1に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、結像レンズ381及びイメージセンサ382を含むカメラ装置は、受光部38-1の結像レンズ381の入射瞳に射出瞳Expが位置するように取り付けられる。また、内視鏡用拡張装置308は、対象物Obの組織表面下の数mmの組織情報を測定する機能を備えるために、内部構造測定装置389を備えている。
 第8実施形態では、内部構造測定装置389の一例として眼底の組織検査などで利用されている光コヒーレンストモグラフィ(OCT)の技術を用いる。光コヒーレンストモグラフィ(OCT)は、対象物Obで反射した光と参照光の低コヒーレンス干渉を用いて、生体表面から数mm程度の生体内部の構造を測定する技術である。つまり、レーザ光等のコヒーレント光では、ハーフミラー等で分岐した光を反射ミラーで戻し、合波させた場合、2光路の光路差に応じて干渉が生じる。ところが、白色光のような低コヒーレント光では、2光路の光路差が一致した場合に干渉が生じる。そこで、2光路の一方の光路の反射ミラーを光軸方向に移動させると、他方の光路上で同一距離にある情報を得ることができる。従って、他方の光路を対象物表面の法線方向に設定すれば、対象物Obの組織表面下の組織情報を測定することが可能になる。なお、反射ミラーの移動に代えて、分光器で検出されるスペクトル分布を解析することで、奥行き方向(深さ方向)の分布を得る技術も知られている。また、光源に周波数可変レーザを用いて、奥行き方向(深さ方向)の分布を得る技術も知られている。第8実施形態では、反射ミラーの移動に代えて、分光器であられるスペクトル分布を解析することで、対象物Obの組織表面下の数mmの組織情報を測定する場合を一例として説明する。
 第8実施形態に係る内視鏡装置18を構成する内視鏡用拡張装置308は、第1実施形態と同様に、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。第8実施形態では、対象物Obの組織表面下の組織情報を測定するため、リレー光学系34の光軸CLに沿う方向の光路を2つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、詳細を後述する、内部構造測定装置389から射出された光を反射すると共に、対象物Obでの反射光を反射するビームスプリッタ等の光学素子369が設けられ、光学素子369により光路が2光路に分岐される。つまり、光学素子369は、リレー光学系34の光軸CLに沿う方向の光路と、矢印Y方向と逆方向の光路とに分岐される。
 受光部38は、リレー光学系34の光軸CLに沿う方向に取り付けた受光部38-1と、矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部38-3とを用いる。第8実施形態では、受光部38-2は不要である。受光部38-1には、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられる。また、受光部38-3には、内部構造測定装置389が取り付けられる。
 第8実施形態では、光コヒーレンストモグラフィ(OCT)を一例として用いる内部構造測定装置389は、低コヒーレント光源389A、及び分光器389Bを備えている。低コヒーレント光源389Aには、スーパールミネッセントダイオード(SLD)を用いることができる。低コヒーレント光源389Aは、一端がカプラ389Cに接続されたファイバ389F-1の他端に接続される。また、カプラ389Cにはファイバ389F-2の一端も接続されており、ファイバ389F-2の他端は、矢印Y方向と逆方向の光路へ案内するミラー389Dへ接続される。第8実施形態では、ミラー389Dは、1次元走査又は2次元走査を可能とするスキャナとして機能するようにMEMSミラーを用いている。以下、MEMSミラー389Dと表記する。MEMSミラー389Dはリレー光学系34の射出瞳Expと一致するように配置されている。一方、分光器389Bは、一端がカプラ389Cに接続されたファイバ389G-1の他端に接続される。また、カプラ389Cにはファイバ389G-2の一端も接続されており、ファイバ389G-2の他端は、参照ミラー389Eに接続される。なお、ファイバ389G-2は、内視鏡20、内視鏡用拡張装置308、及び内視鏡用拡張装置内の光路長に合わせた距離となるように長さが調整される。また、ファイバ389F-1及びF-2並びにファイバ389G-1及びG-2は、低コヒーレント光源389A、及び分光器389Bに近い位置で、カプラ389Cに接続される。
 従って、リレー光学系34でリレーされた光は、分岐部36に取り付けられた光学素子369を通過し、受光部38-1に取り付けられた結像レンズ381及びイメージセンサ382を含むカメラ装置へ至る。イメージセンサ382で撮像した画像は、制御装置40の表示部42に表示され、対象物Obを観察させることができる。
 一方、低コヒーレント光源389Aから射出された光は、光学素子369で反射されて対象物Obへ照射される。そして、対象物Obで反射された反射光が光学素子369で反射され、分光器389Bによりスペクトル分布が検出される。検出されたスペクトル分布を解析することで、対象物Obの組織表面下の組織情報を得る。分光器389Bで検出されるスペクトル分布を解析する処理は、制御装置40で処理される。つまり、第8実施形態では、CPU44Aは、解析プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開して解析処理を実行する。これによって、内視鏡用拡張装置30で射出した低コヒーレント光による対象物Obの組織表面下が測定される拡張機能が実行される。CPU44Aは、解析結果を、表示部42に表示させることができる。
 これによって、MEMSミラー389Dで対象物Obをスキャンすることにより、対象物Obの表面近傍の断層画像を得ることができる。例えば、対象物Obへ照射する光(ビーム)を1次元走査すれば対象物Obの組織表面下の2次元情報を得ることができる。また、2次元走査すれば対象物Obの組織表面下の3次元情報を得ることができる。
 以上説明したように、第8実施形態では、内視鏡用拡張装置302に含まれる機能化プラットフォーム31を構成する分岐部36に、光学素子369を取り付け、受光部38に取り付けた、内部構造測定装置389で対象物Obの組織表面下の組織情報を得る。従って、体腔内等の対象物Obの状態を観察する場合に、内部構造測定装置389で同時に対象物Obの組織表面下の組織情報を得ることができる測定装置として機能する内視鏡装置18を提供することができる。
 また、例えば腹腔鏡手術のような施術中に、低コヒーレント光の照射によって、組織の内部状態を検査できるため、組織の切除を必要とする生検の回数を減らすことができる。
 さらに、第8実施形態では、光コヒーレンストモグラフィ(OCT)では、人体に対する透過性が高い赤外光を利用することができるため、波長選択性のあるビームスプリッタを用いることで、光の損失を抑えることができる。
[第9実施形態]
 次に、第9実施形態を説明する。第9実施形態は、受光部38の一例として、受光部38の各々にカメラ装置を取り付けた場合を説明する。また、第9実施形態は、カメラ装置の一例として、ハイビジョンカメラの4倍の高画質化したカメラ装置(所謂、4K解像度のカメラ装置)として機能する内視鏡用拡張装置を提供するものである。なお、第9実施形態は第1実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図10に、第9実施形態に係る内視鏡装置19の構成の一例を示す。第9実施形態に係る内視鏡装置19は、目視観察用の内視鏡20に、内視鏡用拡張装置309が取り付けられたものである。なお、内視鏡20は、第1実施形態と同様の構成のため、詳細な説明を省略する。
 第9実施形態に係る内視鏡装置19を構成する内視鏡用拡張装置309は、第1実施形態と同様に、内視鏡20の射出瞳Expを、リレー光学系34を用いてアイピース26から離れた位置に移動させる。第9実施形態では、所謂4K解像度の高画質化画像を得るために、リレー光学系34でリレーされた光は、4つに分岐する。つまり、リレー光学系34と、移動された射出瞳Expとの間に位置する分岐部36には、透過光と反射光とを分岐されるビームスプリッタやハーフミラー等の光学素子が設けられる。
 図10に示す例では、分岐部36は、リレー光学系34でリレーされた光を4光路に分岐するために、各々光路を2分岐するプリズムミラーなどの偏向素子374、375、376を含んでいる。これらの偏向素子374、375、376は、後述する受光部の各々に均等に光が照射されるように透過光と反射光とを分岐する。例えば、偏向素子374は、反射光と透過光とが均等になるように分岐する。つまり、偏向素子374は、リレー光学系34の光軸CLに沿う方向の光路と、矢印Y方向と逆方向の光路とに分岐する。また、偏向素子375は、矢印Y方向と逆方向の光路と、矢印Z方向(光軸CLに沿う方向)の光路とに分岐する。さらに、偏向素子376は、リレー光学系34の光軸CLに沿う方向の光路と、矢印Y方向の光路とに分岐する。
 受光部38は、受光部38-1と、受光部38-2と、受光部38-3とを含む。受光部38-1は、偏向素子374、376を透過し、リレー光学系34の光軸CLに沿う方向の光路を伝播した光を受光する受光部である。また、受光部38-2は、偏向素子374の透過後に偏向素子376により矢印Y方向に分岐された光路を伝播した光を受光する受光部である。さらに、受光部38-3は、偏向素子374により矢印Y方向と逆方向に分岐された光路を伝播した光を受光する受光部である。受光部38-3は、受光部38-3A及び受光部38-3Bを含んでおり、受光部38-3Aは、偏向素子374の反射後に偏向素子375を透過し、矢印Y方向と逆方向の光路を伝播した光を受光する。また、受光部38-3Bは、偏向素子374及び偏向素子375を反射し、リレー光学系34の光軸CLに沿う方向の光路を伝播した光を受光する。
 第9実施形態では、受光部38-1、38-2及び38-3(38-3Aと38-3B)の各々には、ハイビジョン用の結像レンズ371及びイメージセンサ372を含むハイビジョンカメラ装置370が取り付けられる。また、これら受光部38の各々の結像レンズ371の入射瞳に射出瞳Expが位置するように結像レンズ371及びイメージセンサ372を含むハイビジョンカメラ装置370が取り付けられる。また、第9実施形態では、受光部38-1、38-2及び38-3(38-3Aと38-3B)の各々には、内視鏡用拡張装置309をハイビジョンカメラの4倍の高画質化したカメラ装置として機能させるため、例えば、結像レンズ371の光軸から所定量だけずらしてイメージセンサ372を取り付ける。具体的には、受光部38-1のハイビジョンカメラ装置を基準にして、受光部38-2では右側に半画素分ずらし、受光部38-3Aでは上側に半画素分ずらし、受光部38-3Bでは右側に半画素分と上側に半画素分ずらす。
 また、例えば、対象物Obの画像領域を縦横に4分割し、分割した小領域をハイビジョンカメラ装置370の撮像領域に設定し、右上、右下、左上、及び左下の各画像領域を担当するハイビジョンカメラ装置370で撮像するようにしてもよい。これは、結像レンズ371に対してイメージセンサ372の位置を、撮像領域の設定と上下左右に反転して、左下、左上、右下、および右上にずらすことで実現できる。この場合、各ハイビジョンカメラ装置370で撮像された画像を連結することにより、縦横の各々に2倍の画素の画像を得ることができる。
 従って、リレー光学系34でリレーされた光は、分岐部36で分岐されて、各光路にハイビジョンカメラ装置370を取り付けることで、ハイビジョンカメラの4倍の高画質画像を得ることができる。
 なお、第9実施形態に係る内視鏡用拡張装置309は、制御装置40に接続されており、受光部38-1、38-2及び38-3(38-3Aと38-3B)の各々で撮像した各画像を用いて体腔内等の対象物Obを、高画質して表示部42に表示する。表示部42への対象物Obの表示処理は、制御装置40により実行される。つまり、第9実施形態では、CPU44Aは、高画質表示プログラムを制御プログラム44Eとして記憶部44Dから読み出してRAM44Bに展開して高画質表示処理を実行する。これによって、第9実施形態では、内視鏡用拡張装置309で受光した光に基づいた体腔内等の対象物Obの高画質表示の拡張機能が実行される。
 また、第9実施形態では、高画質化画像の一例として、4つのハイビジョンカメラ装置370によって、縦横の各々に2倍の画素の画像を得て、ハイビジョンカメラ装置の4倍に高画質化したカメラ装置として機能させる場合を説明したが、縦横の何れか一方に2倍の画素の画像を得て、縦横の何れか一方の方向に2倍に高画質化したカメラ装置として機能させてもよい。また、3台以上のカメラを備えて3倍以上に高画質化したカメラ装置として機能させてもよい。
 以上説明したように、第9実施形態では、内視鏡20のアイピース26に、内視鏡用拡張装置309を取り付ける。また、内視鏡用拡張装置309に含まれる機能化プラットフォーム31を構成する分岐部36に、透過光と反射光とを均等に分岐する偏向素子374、376を設け、ハイビジョンカメラ装置370を受光部38の各々に設けることで、上下左右の各画像を撮像することができる。従って、体腔内等の対象物Obの状態を目視観察する状態の内視鏡20のアイピース26に、内視鏡用拡張装置309を取り付けるのみで、高画質表示装置として機能する内視鏡装置19を提供することができる。
[第10実施形態]
 次に、第10実施形態を説明する。第10実施形態は、受光部38の一例として、立体像を提供する立体カメラ装置、及び対象物Obの組織表面下の組織情報を測定する測定装置を含む場合を説明する。なお、第10実施形態は、第2実施形態及び第8実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図11に、第10実施形態に係る内視鏡装置12Xの構成の一例を示す。第10実施形態に係る内視鏡装置12Xは、目視観察用の内視鏡20に、内視鏡用拡張装置310が取り付けられたものである。内視鏡用拡張装置310は、第2実施形態の内視鏡用拡張装置302(図3)と、第8実施形態の内視鏡用拡張装置308(図9)との各々の主要な構成を含んでいる。
 詳細には、内視鏡用拡張装置310では、第1機能として、対象物Obの立体表示の拡張機能を実現するために、リレー光学系34でリレーされた光が、光学素子361により分岐され、受光部38-1と、受光部38-3とに向うように構成される。
 受光部38-1及び受光部38-3の各々は、カメラ装置として結像レンズ381及びイメージセンサ382を含み、視差を確保するために光軸CLから所定距離Lthを隔てて、つまり所定のカメラ間隔で取り付けられる。従って、受光部38-1及び受光部38-3の各々のイメージセンサ382で、視差が確保された立体像を形成するための左右の各画像が撮像される。イメージセンサ382で撮像した画像各々は、制御装置40の表示部42に表示され、対象物Obを立体像として観察者に観察させることができる。
 次に、第2機能として、組織表面測定機能を実現するために、リレー光学系34の下流側に光学素子369及び受光部38-2としての内部構造測定装置389が設けられ、内部構造測定装置389に関する光を利用可能に光学素子369で光路が2光路に分岐される。つまり、光学素子369は、リレー光学系34の光軸CLに沿う方向の光路の一部を、矢印Y方向の光路に分岐する。これにより、リレー光学系34でリレーされた光の一部は、光学素子369により矢印Y方向へ伝播され、内部構造測定装置389へ向かう。一方、内部構造測定装置389からの光は、矢印Y方向と逆方向に伝播され、光学素子369により光軸CLに沿う方向にリレー光学系34へ向かう。
 内部構造測定装置389は、第8実施形態で説明したように、対象物Obの組織表面下の数mmの組織情報を測定する。つまり、低コヒーレント光源389Aから射出された光は、光学素子369で反射されて対象物Obへ照射されて、対象物Obで反射された反射光が光学素子369で反射され、分光器389Bによりスペクトル分布が検出される。制御装置40は、検出されたスペクトル分布を解析して、対象物Obの組織表面下の組織情報を得る。制御装置40は、解析結果を、表示部42に表示させることにより、対象物Obの組織表面下の組織情報を観察者に提示する。つまり、MEMSミラー389Dで対象物Obをスキャンすることにより、対象物Obの表面近傍の断層画像を提供することができる。例えば、対象物Obへの照射光の1次元走査により対象物Obの組織表面下の2次元情報を得ることができ、2次元走査すれば対象物Obの組織表面下の3次元情報を得ることができる。
 以上説明したように、第10実施形態では、プラットフォーム31によって、立体像を形成して提供する機能と組織表面測定機能とを同時に提供可能な内視鏡用拡張装置310を提供する。従って、観察者は、対象物Obの立体像を観察しつつ、対象物Obの視野範囲内(観察している立体像)における組織表面下の組織情報を得ることができる。これによって、例えば体腔内等の状態を観察する場合に、体腔内等の表面部位の立体像を観察し、観察者が注目する注目部位を観察している際に、注目部位の組織表面下の組織情報を同時に得ることができる。このため、観察者は、対象物Obの立体像を観察する機能と、対象物Obの組織表面下の組織情報を得る機能の双方を実行するために、機能毎の専用の内視鏡装置10に交換する必要はない。
 なお、体腔内等の表面部位の立体像を観察しながら、観察者が注目する注目部位を探索して、探索した注目部位についてのみ、内部構造測定装置389が組織表面下の組織情報を出力するようにしてもよい。この場合、観察者が注目部位の立体像を観察しているときにキーボード等の入力部46を操作して内部構造測定装置389により組織表面下の組織情報が出力されるようにすればよい。このようにすることで、常時、組織表面下の組織情報を得る場合と比較して、観察者が注目したい部位のみの組織表面下の組織情報を得ることができる。
 また、第10実施形態では、立体像を形成して提供する機能を実現する構成は、所謂3D(ディメンジョン)ユニットとして扱いことができ、同時に提供可能な組織表面測定機能を実現する構成を含めて4Dユニットとして提供することができる。この組織表面測定機能を実現する構成として、赤外波長域の光(赤外光)を用いることで、組織表面測定するための光が立体像を観察するための画像として撮像されることを抑制して、立体像を形成して提供する機能と、組織表面測定機能とを共存させることができる。また、立体像を形成して提供する機能と、組織表面測定機能とについて光損失を抑制した射出瞳の多重化を実現することができる。
 さらに、第10実施形態では、対象物Obをスキャンする組織表面測定機能により、対象物Obの表面近傍の断層画像を得ることができる。この対象物Obの表面近傍の断層画像から、組織表面を画像処理して各位置の3次元座標を求めることができ、組織表面におけるスキャンラインの3次元形状を決定することもできる。これによって、対象物Obの立体像を形成する左右の画像にスキャンラインをレンダリングすることで、段像画像を立体的に表示することもできる。また、断層画像を立体像にオーバレイすることによって、4D画像として観察者に提示することができる。
[第11実施形態]
 次に、第11実施形態を説明する。第11実施形態は、受光部38の一例として、立体像を提供する立体カメラ装置と、高画質カメラ装置とを含む場合を説明する。なお、第11実施形態は第2実施形態及び第9実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図12に、第11実施形態に係る内視鏡装置19Xの構成の一例を示す。第11実施形態に係る内視鏡装置19Xは、目視観察用の内視鏡20に、内視鏡用拡張装置311が取り付けられたものである。内視鏡用拡張装置311は、第2実施形態の内視鏡用拡張装置302(図3)と、第9実施形態の内視鏡用拡張装置309(図10)との各々の主要な構成を含んでいる。
 詳細には、内視鏡用拡張装置311では、第1機能として、高画質機能を実現するために、リレー光学系34でリレーされた光が、光学素子374、375、376により分岐され、受光部38-1、受光部38-2、及び受光部38-3(受光部38-3Aと受光部38-3B)に向うように構成される。
 受光部の各々には、ハイビジョン用の結像レンズ371及びイメージセンサ372を含むハイビジョンカメラ装置370が取り付けられる。また、受光部38-1、38-2及び38-3(38-3Aと38-3B)の各々は、第9実施形態と同様に、高画質化したカメラ装置として機能させるため、例えば、結像レンズ371の光軸から所定量だけずらしてイメージセンサ372を取り付ける。
 また、第11実施形態では、一部のハイビジョンカメラ装置370を、第2機能である対象物Obの立体表示の拡張機能を実現するためのカメラ装置と兼用させている。図12に示す例では、受光部38-3Aを、視差を確保するために光軸CLから所定距離Lthを隔てて、つまり所定のカメラ間隔で取り付けられる。例えば、対象物Obの画像領域を縦横に4分割した小領域の各々を撮像領域に設定し、ハイビジョンカメラ装置370で右上、右下、左上、及び左下の各画像領域を担当させることで、高画質画像の撮像を実現させることができる。
 受光部38-3Aのハイビジョンカメラ装置370(受光部38-3A)は、後述する第2機能である立体像の観察機能を実現するためのカメラ装置と兼用させるので、兼用するハイビジョンカメラ装置370(受光部38-3A)に設定された対象物Obの画像領域を4分割した小領域の撮像領域からずれが生じる場合がある。この場合、兼用するハイビジョンカメラ装置370(受光部38-3A)は、第1機能として高画質画像を撮像する場合には設置位置による撮像領域から、設定された小領域の撮像領域を抽出して用いるようにすればよい。この画像処理は制御装置40によって実現することができる。
 次に、第2機能として、立体像の観察機能を実現するために、リレー光学系34の下流側に光学素子361が設けられ、リレー光学系34でリレーされた光が、光学素子361により分岐され、受光部38-2X(図3に示す受光部38-1として機能する)と、受光部38-3A(図3に示す受光部38-3として機能する)とに向うように構成される。
 受光部38-2X及び受光部38-3Aの各々は、視差を確保するために光軸CLから所定距離Lthを隔てて、つまり所定のカメラ間隔で取り付けられる。従って、受光部38-2Xのイメージセンサ382と、受光部38-3Aのイメージセンサ372とにより、視差が確保された立体像を形成するための左右の各画像が撮像される。撮像した画像各々は、制御装置40の表示部42に表示され、対象物Obを立体像として観察者に観察させることができる。
 ところで、受光部38-2Xのイメージセンサ382と、受光部38-3Aのイメージセンサ372とでは、画質が相違する場合がある。そこで、受光部38-2Xが通常画質のカメラ装置である場合、受光部38-3Aによる撮像画像の画質を、通常画質に変換する画像処理を施してもよい。通常画質に変換する画像処理は制御装置40によって実現することができる。なお、受光部38-2Xをハイビジョン用の結像レンズ371及びイメージセンサ372を含むハイビジョンカメラ装置370を用いて画質を一致させてもよい。
 以上説明したように、第11実施形態では、プラットフォーム31によって、立体像の観察機能と高画質機能とを同時に提供可能な内視鏡用拡張装置311を提供する。従って、観察者は、対象物Obの立体像を観察しつつ、対象物Obを高画質で観察することができる。これによって、例えば体腔内等の状態を観察する場合に、体腔内等の表面部位の立体像を観察し、観察者が注目する注目部位の立体像を観察している際に、注目部位を、より詳細に観察するために高画質で参照することができる。このため、観察者は、対象物Obの立体像の観察機能と、対象物Obを高画質で観察する機能の双方を実行するために、機能毎の専用の内視鏡装置10に交換する必要はない。
 なお、体腔内等の表面部位の立体像の画像と、高画質の画像とは、常時双方の画像を提示してもよく、何れか一方を提示してもよい。なお、観察者が立体像を観察しつつ注目する注目部位を探索して、探索した注目部位についてのみ、高画質の画像を提示するようにしてもよい。この場合、観察者が注目部位の立体像を観察しているときにキーボード等の入力部46を操作して高画質画像が表示されるようにすればよい。このようにすることで、常時、立体像の画像と、高画質の画像とを共に提示する場合と比較して、観察者は視線を変更せずに同じ画面で観察すればよく、観察者に対して詳細な観察を希望する注目部位について高画質の画像を提供することができる。
[第12実施形態]
 次に、第12実施形態を説明する。第12実施形態は、受光部38の一例として、蛍光観察機能を提供する蛍光観察装置と、対象物Obへパターン画像を投影する機能を提供する投影装置を含む場合を説明する。なお、第12実施形態は第5実施形態及び第7実施形態と同様の構成であるため、同一部分には同一符号を付して詳細な説明を省略する。
 図13に、第12実施形態に係る内視鏡装置17Xの構成の一例を示す。第12実施形態に係る内視鏡装置17Xは、目視観察用の内視鏡20に、内視鏡用拡張装置312が取り付けられたものである。内視鏡用拡張装置312は、第5実施形態の内視鏡用拡張装置305(図6)と、第7実施形態の内視鏡用拡張装置307(図8)との各々の主要な構成を含んでいる。
 詳細には、内視鏡用拡張装置312は、第1機能として、蛍光観察機能を実現するために、受光部38-2に設けられた励起光源387と、励起光をカットする波長フィルタ388F、結像レンズ388L、及びイメージセンサ388Sを含む受光部38-3に設けられた蛍光観察用カメラ装置388と、を備えている。つまり、内視鏡用拡張装置312は、励起光反射素子367を備えて励起光源387からの励起光が対象物Obに照射されるように構成され、リレー光学系34でリレーされた光(蛍光)が、光学素子368により分岐され、受光部38-3に向うように構成される。
 なお、内視鏡用拡張装置312は、対象物Obを通常状態で観察する機能を備えるために、リレー光学系34の光軸CLに沿う方向の受光部38-1に、結像レンズ381及びイメージセンサ382を含むカメラ装置が取り付けられている。
 通常のカメラ装置による撮像画像と、蛍光観察用カメラ装置388による撮像画像とは、制御装置40で処理され、表示部42に、各々別々に、または重ね合わせた画像処理が施されて表示される。つまり、内視鏡用拡張装置30で励起光により励起された蛍光による撮像画像が対象物Obの撮像画像と並べて、または重ね合わされて表示される。これにより、通常の撮像画像と、蛍光による撮像画像とを表示して、観察者に対象物Obを観察させることができる。
 次に、第2機能として、対象物Obへパターン画像を投影する機能を実現するために、MEMSミラー384P及びレーザ装置384Lを含む投影装置384からのパターン画像が対象物Obに照射されるように構成される。図13では、励起光反射素子367と励起光源387との間に光学素子364を設けた場合を一例として示す。なお、光学素子364は、投影装置384からのパターン画像を対象物Obに照射できる位置であれば、リレー光学系34の下流側の何れの位置に設けてもよい。
 従って、投影装置384から射出されたパターン画像は、光学素子364で反射されて対象物Obへ投影される。そして、対象物Obで反射された反射光であるパターン画像は、結像レンズ381及びイメージセンサ382を含む通常のカメラ装置、及び蛍光観察用カメラ装置388の少なくとも一方で撮像される。つまり、レーザ装置384Lから射出される光の波長を、励起光により励起された蛍光の波長を含むようにすれば、通常のカメラ装置、及び蛍光観察用カメラ装置388の双方で撮像することができる。また、レーザ装置384Lからの射出光の波長を、励起光により励起された蛍光の波長とすれば、通蛍光観察用カメラ装置388のみで撮像することができ、蛍光を含まない波長とすれば、通常のカメラ装置のみで撮像することができる。
 以上説明したように、第12実施形態は、内視鏡用拡張装置312に含まれる機能化プラットフォーム31によって、蛍光観察機能とパターン画像投影機能とを同時に提供可能な内視鏡用拡張装置312を提供する。従って、観察者は、対象物Obを蛍光観察しつつ、蛍光観察している対象物Obへ、例えば注目部位へパターン画像を投影することができる。また、パターン画像は、レーザ装置384Lから射出される光の波長を選択することによって、通常のカメラ装置、及び蛍光観察用カメラ装置388の少なくとも一方で撮像させることができる。これによって、対象物Obを観察する場合に、対象物Obを通常視、または蛍光視している際に、パターン画像により注目部位へのマーキングを実施することができる。このため、観察者は、例えば体腔内等の状態を観察する場合に、体腔内を通常視または蛍光視している場合に、注目部位へのマーキングを実施する機能を有する専用の内視鏡装置10に交換する必要はない。
 なお、前記各実施形態では、内視鏡20の射出瞳Expをリレー光学系34によって複製した射出瞳Expは、瞳中心の位置が光軸上に位置されることに限定されるものではない。例えば、瞳中心が相違する位置に設定し、共通部分を射出瞳Expとしてもよい。
 図14に、射出瞳Expの構成の一例を示す。左右に所定距離Lthを隔てた位置に2つの射出瞳Exp-R、Exp-Lとなる場合、2つの射出瞳Exp-R、Exp-Lに共通する領域の射出瞳Exp-Cを、射出瞳Expとしてもよい。このようにすることで、射出瞳Exp-R、及び射出瞳Exp-Lの各々による光学性能を活かした共通の射出瞳Expを扱うことができる。
 なお、開示の技術を実施形態を用いて説明したが、前記各実施形態で説明した機能のみで内視鏡用拡張装置を構成することに限定されない。つまり、前記各実施形態を複数組み合わせて複数の機能を有するように、内視鏡用拡張装置を構成することが可能なことは勿論である。
 また、前記各実施形態では内視鏡20の射出瞳Expをリレー光学系34によって複製した射出瞳を用いて内視鏡用拡張装置を提供する場合を説明したが、内視鏡20の射出瞳Expの近傍にすべての受光部に共通に作用するレンズ系を配置して構成してもよい。内視鏡20の射出瞳Expの近傍とは、射出瞳Expの位置または、射出瞳Expから光軸CL方向に所定距離の位置である。この所定距離の一例は、受光部にピント調整が要求される場合、受光部の結像に共通に作用を与える光学計算によって求めることができる。このレンズ系を用いるとすべての受光部のピント調整を共通に行えるようになり個々の受光部でのピント調整が不要になるなど、すべての受光部の結像に共通の作用を与えることが可能になる。
 さらに、前記各実施形態では、内視鏡20に内視鏡用拡張装置を取り付けて各種の機能を有する内視鏡装置を提供する場合を説明したが、各種の機能を有するように機能化プラットフォーム31を備えた内視鏡用拡張装置を、内視鏡20に内蔵するようにしてもよい。この場合、少なくとも機能化プラットフォーム31を内視鏡20に内蔵させて、機能化プラットフォーム31を構成する分岐部で分岐された光路を伝播した光を受光する受光部38を、着脱可能に構成してもよい。このようにすることで、受光部38に専用の機能を実現する装置を取り付けるのみで、各種の専用機能を有する内視鏡装置を提供することができる。
 また、開示の技術を実施の形態を用いて説明したが、開示の技術の技術的範囲は上記実施形態に記載の範囲には限定されない。開示の技術の要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も開示の技術の技術的範囲に含まれる。

Claims (18)

  1.  光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、
     内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされた光を複数の光路に分岐する分岐部と、
     前記分岐部で分岐された何れかの光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられた受光部と、
     を備えた内視鏡用拡張装置。
  2.  前記取付部は、前記内視鏡のアイピースに取り付けられる
     請求項1に記載の内視鏡用拡張装置。
  3.  前記取付部は、前記内視鏡の射出瞳に対する前記リレー光学系の入射瞳の位置関係を調整する取付調整部を含む
     請求項1又は請求項2に記載の内視鏡用拡張装置。
  4.  前記リレー光学系は、前記内視鏡により形成される射出瞳を入射瞳として、前記内視鏡の射出瞳をリレーするように取り付けられ、
     前記分岐部は、前記リレー光学系の射出側の端部から前記リレー光学系の射出瞳位置までの空間で、かつ前記リレー光学系の光路上に設けられる
     請求項1~請求項3の何れか1項に記載の内視鏡用拡張装置。
  5.  前記分岐部及び前記受光部の少なくとも一方は、前記リレー光学系の射出瞳位置に対して、前受光部で受光する光の位置を調整する位置調整部を含む
     請求項1~請求項4の何れか1項に記載の内視鏡用拡張装置。
  6.  前記分岐部は、前記リレー光学系から射出された光の一部を反射し残りの少なくとも一部の光を透過する光学素子を含む
     請求項1~請求項5の何れか1項に記載の内視鏡用拡張装置。
  7.  前記分岐部は、前記リレー光学系から射出された光を瞳分割により、右目用画像と左目用画像とが得られるように光を分岐し、
     前記受光部は、前記分岐部で瞳分割した2つの光の各々を受光可能な位置に配置され、
     前記受光部の各々で受光された光から得られる右目用画像と左目用画像とに基づいて立体像を表示する表示部を含む立体カメラ装置である
     請求項1~請求項6の何れか1項に記載の内視鏡用拡張装置。
  8.  前記分岐部は、前記リレー光学系から射出された光を、所定画素だけ離間した異なる画像が複数得られるように光を分岐し、
     前記受光部は、前記分岐部で分割した複数の光の各々を受光可能な位置に配置され、
     前記受光部の各々で受光された光から得られる複数の画像を合成して高画質化画像を表示する表示部を含む高画質カメラ装置である
     請求項1~請求項6の何れか1項に記載の内視鏡用拡張装置。
  9.  前記受光部は、前記リレー光学系の光の射出方向と逆方向に、前記分岐部で分岐された何れかの光路を伝播するように、発光する発光部を含む
     請求項1~請求項8の何れか1項に記載の内視鏡用拡張装置。
  10.  前記発光部は、予め定めたパターン画像を投影する投影装置である
     請求項9に記載の内視鏡用拡張装置。
  11.  前記分岐部は、対象物に照射される光と、対象物に照射された光により発生した光とが得られるように光を分岐し、
     前記受光部は、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された光を受光し、受光した光に基づいて前記内視鏡により観察した対象物から前記内視鏡の先端までの距離を計測する距離計測装置である
     請求項9に記載の内視鏡用拡張装置。
  12.  前記分岐部は、対象物に照射される照射光と、対象物に照射された照射光が対象物で反射された反射光とが得られるように光を分岐し、
     前記受光部は、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された照射光の反射光を受光し、受光した反射光に基づいて前記内視鏡により観察した対象物の三次元形状を計測する形状計測装置である
     請求項9に記載の内視鏡用拡張装置。
  13.  前記分岐部は、対象物に照射される励起光と、対象物に照射された励起光により励起された蛍光とが得られるように光を分岐し、
     前記受光部は、前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された励起光により励起された蛍光を受光する蛍光観察装置である
     請求項9に記載の内視鏡用拡張装置。
  14.  前記分岐部は、対象物に照射される照射光と、対象物に照射された照射光が対象物で反射された反射光とが得られるように光を分岐し、
     前記受光部は、前記照射光を分割して参照光を得る参照光分割部を含み、
     前記リレー光学系の光の射出方向と逆方向に伝播可能な位置に配置された前記発光部で発光された照射光が対象物で反射された反射光と、前記参照光との干渉及び前記照射光の走査結果に基づいて対象物表面の内部構造を検出する内部構造検出装置である
     請求項9に記載の内視鏡用拡張装置。
  15.  前記リレー光学系の入射側でかつ、前記内視鏡の射出瞳の近傍に、全ての前記受光部へ光を結像に共通に作用するレンズ系を設けた
     請求項1~請求項14の何れか1項に記載の内視鏡用拡張装置。
  16.  光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、
     内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされた光を瞳分割により右目用画像と左目用画像とが得られるように光を分岐する立体表示用分岐部と、対象物に照射する照射光及び前記照射光による対象物の反射光が得られるように光を分岐する内部構造検出用分岐部とを含む分岐部と、
     前記立体表示用分岐部で瞳分割された光の光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ瞳分割された光の各々を用いて右目用画像及び左目用画像を形成する立体カメラ装置と、前記内部構造検出用分岐部で分岐された光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ前記照射光を発光する発光部及び前記照射光の一部を参照光とする参照光分割部を含み、前記反射光と前記参照光との干渉結果に基づいて対象物表面の内部構造を検出する内部構造検出装置と、を含む受光部と、
     を備えた内視鏡用拡張装置。
  17.  光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、
     内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされた光を瞳分割により右目用画像と左目用画像とが得られるように光を分岐する立体表示用分岐部と、前記リレー光学系から射出された光を、所定画素だけ離間した異なる画像が複数得られるように光を分岐する高画質用分岐部とを含む分岐部と、
     前記立体表示用分岐部で瞳分割された光の光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ瞳分割された光の各々を用いて右目用画像及び左目用画像を形成するための立体カメラ装置と、前記高画質用分岐部で分割された複数の光の各々を受光可能な位置に固定又は取り外し可能に取り付けられ、各々で受光された光から得られる複数の画像を合成して高画質化画像を表示するための高画質カメラ装置と、を含む受光部と、
     を備えた内視鏡用拡張装置。
  18.  光が入射される入射窓を備え、内部に光学部品を収納可能な筐体と、
     内視鏡から射出された光が前記入射窓から前記筐体の内部に入射されるように前記筐体を前記内視鏡の出射側に取り付けるための取付部と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記入射窓から入射された光をリレーするリレー光学系と、
     前記筐体の内部に固定又は取り外し可能に取り付けられ、前記リレー光学系でリレーされる光として、対象物に照射される励起光と、対象物に照射された励起光により励起された蛍光とが得られるように光を分岐する蛍光用分岐部と、予め定めたパターン画像が対象物に投影されるように光を分岐する投影用分岐部と、を含む分岐部と、
     前記蛍光用分岐部で分岐された光の光路を伝播した光を受光可能な位置に固定又は取り外し可能に取り付けられ、かつ前記励起光を発光する発光部を含むと共に、前記蛍光用分岐部で分岐される光の光路を伝播するように前記リレー光学系の光の射出方向と逆方向に伝播された励起光により励起された蛍光を受光する蛍光観察装置と、前記投影用分岐部で分岐された光の光路を伝播させてパターン画像を投影可能な位置に固定又は取り外し可能に取り付けられ、かつ前記投影用分岐部で分岐される光の光路を伝播するように前記リレー光学系の光の射出方向と逆方向に沿って前記パターン画像を投影する投影装置と、を含む受光部と、
     を備えた内視鏡用拡張装置。
PCT/JP2017/022164 2016-06-16 2017-06-15 内視鏡用拡張装置 WO2017217498A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018524002A JPWO2017217498A1 (ja) 2016-06-16 2017-06-15 内視鏡用拡張装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016119832 2016-06-16
JP2016-119832 2016-06-16

Publications (1)

Publication Number Publication Date
WO2017217498A1 true WO2017217498A1 (ja) 2017-12-21

Family

ID=60663761

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022164 WO2017217498A1 (ja) 2016-06-16 2017-06-15 内視鏡用拡張装置

Country Status (2)

Country Link
JP (1) JPWO2017217498A1 (ja)
WO (1) WO2017217498A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187874A1 (ja) * 2018-03-28 2019-10-03 ソニー株式会社 硬性鏡用光学系、撮像装置及び内視鏡システム
WO2020170621A1 (ja) * 2019-02-19 2020-08-27 ソニー株式会社 医療用観察システム、医療用システム及び距離測定方法
US20210368080A1 (en) * 2018-08-09 2021-11-25 Corephotonics Ltd. Multi-cameras with shared camera apertures

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58121008A (ja) * 1982-01-14 1983-07-19 Olympus Optical Co Ltd 合焦検出装置及び合焦設定装置
JPS60140916U (ja) * 1984-02-29 1985-09-18 オリンパス光学工業株式会社 内視鏡用双眼接眼アダプタ
JPH0735989A (ja) * 1993-07-26 1995-02-07 Olympus Optical Co Ltd 立体視内視鏡
JP2004040480A (ja) * 2002-07-03 2004-02-05 Olympus Corp 撮像装置
US20090259098A1 (en) * 2008-04-11 2009-10-15 Beat Krattiger Apparatus and method for endoscopic 3D data collection
WO2015182995A1 (ko) * 2014-05-27 2015-12-03 주식회사 고영테크놀러지 착탈식 oct 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58121008A (ja) * 1982-01-14 1983-07-19 Olympus Optical Co Ltd 合焦検出装置及び合焦設定装置
JPS60140916U (ja) * 1984-02-29 1985-09-18 オリンパス光学工業株式会社 内視鏡用双眼接眼アダプタ
JPH0735989A (ja) * 1993-07-26 1995-02-07 Olympus Optical Co Ltd 立体視内視鏡
JP2004040480A (ja) * 2002-07-03 2004-02-05 Olympus Corp 撮像装置
US20090259098A1 (en) * 2008-04-11 2009-10-15 Beat Krattiger Apparatus and method for endoscopic 3D data collection
WO2015182995A1 (ko) * 2014-05-27 2015-12-03 주식회사 고영테크놀러지 착탈식 oct 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187874A1 (ja) * 2018-03-28 2019-10-03 ソニー株式会社 硬性鏡用光学系、撮像装置及び内視鏡システム
JPWO2019187874A1 (ja) * 2018-03-28 2021-05-20 ソニーグループ株式会社 硬性鏡用光学系、撮像装置及び内視鏡システム
JP7205537B2 (ja) 2018-03-28 2023-01-17 ソニーグループ株式会社 硬性鏡用光学系、撮像装置及び内視鏡システム
US11675204B2 (en) 2018-03-28 2023-06-13 Sony Corporation Scope optical system, imaging apparatus, and endoscope system
US20210368080A1 (en) * 2018-08-09 2021-11-25 Corephotonics Ltd. Multi-cameras with shared camera apertures
WO2020170621A1 (ja) * 2019-02-19 2020-08-27 ソニー株式会社 医療用観察システム、医療用システム及び距離測定方法
EP3916463A4 (en) * 2019-02-19 2022-03-16 Sony Group Corporation MEDICAL OBSERVATION SYSTEM, MEDICAL SYSTEM AND DISTANCE MEASUREMENT METHOD

Also Published As

Publication number Publication date
JPWO2017217498A1 (ja) 2019-04-11

Similar Documents

Publication Publication Date Title
US6456769B1 (en) Fiber bundle and endoscope apparatus
US8262559B2 (en) Apparatus and method for endoscopic 3D data collection
JP5044126B2 (ja) 内視鏡観察装置および画像形成を行う内視鏡の作動方法
US9119552B2 (en) Apparatus and method for endoscopic 3D data collection
JP4799109B2 (ja) 電子内視鏡装置
US9241615B2 (en) Image acquisition and display method and image capturing and display apparatus
JP2016028682A (ja) 眼球計測装置、眼球計測方法
EP3241481B1 (en) Dual path endoscope
WO2017217498A1 (ja) 内視鏡用拡張装置
JP5298352B2 (ja) 光構造像観察装置及び内視鏡装置
JP2017169671A (ja) 眼科撮影装置
JP2015225346A (ja) 深さプレビューを有する顕微鏡システム
CN113812929A (zh) 一种多模态成像装置
US11871994B2 (en) Ophthalmologic microscope and function expansion unit
JP7049147B2 (ja) 眼科用顕微鏡及び機能拡張ユニット
JP6609688B2 (ja) 光走査型撮影投影装置および内視鏡システム
JP2006026015A (ja) 光断層画像取得システム
US20220087515A1 (en) Endoscope system
EP3636137B1 (en) Ophthalmic microscope and function expansion unit
JP2010046216A (ja) 光断層画像取得装置及び光断層画像取得方法
JP5802869B1 (ja) 外科用デバイス
JP2019041833A (ja) 顕微鏡及び機能拡張ユニット
KR102007361B1 (ko) 다채널 형광 내시경 장치 및 이를 이용한 영상 획득 제어 방법
EP2995238A2 (en) Compact stereoscopic lens system for medical or industrial imaging device
JP7098370B2 (ja) 眼科用顕微鏡及び機能拡張ユニット

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018524002

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17813392

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17813392

Country of ref document: EP

Kind code of ref document: A1