WO2020144901A1 - 内視鏡 - Google Patents

内視鏡 Download PDF

Info

Publication number
WO2020144901A1
WO2020144901A1 PCT/JP2019/038046 JP2019038046W WO2020144901A1 WO 2020144901 A1 WO2020144901 A1 WO 2020144901A1 JP 2019038046 W JP2019038046 W JP 2019038046W WO 2020144901 A1 WO2020144901 A1 WO 2020144901A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
image
eye camera
camera
virtual line
Prior art date
Application number
PCT/JP2019/038046
Other languages
English (en)
French (fr)
Inventor
河野 治彦
里紗 小松
Original Assignee
パナソニックi-PROセンシングソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックi-PROセンシングソリューションズ株式会社 filed Critical パナソニックi-PROセンシングソリューションズ株式会社
Priority to DE112019006606.4T priority Critical patent/DE112019006606T5/de
Publication of WO2020144901A1 publication Critical patent/WO2020144901A1/ja
Priority to US17/369,444 priority patent/US20210330177A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00195Optical arrangements with eyepieces
    • A61B1/00197Optical arrangements with eyepieces characterised by multiple eyepieces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00018Operational features of endoscopes characterised by signal transmission using electrical cables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00174Optical arrangements characterised by the viewing angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides

Definitions

  • the present disclosure relates to an endoscope.
  • This endoscope is a prism in which a first prism and a second prism are joined, a first prism and a first prism so that the incident light that has passed through an objective optical system is split into two optical paths and emitted.
  • a first solid-state imaging device that receives the light emitted from the prism by being reflected on the joint surface with the second prism, and a second solid-state image sensor that receives the light emitted from the prism through the first and second prisms. And a solid-state image sensor.
  • the endoscope is provided on one side surface side of the first solid-state image sensor, and has a first connecting portion that connects the first solid-state image sensor and the first substrate, and one side surface of the second solid-state image sensor. And a second connection portion that is provided on the side and that connects the second solid-state imaging device and the second substrate.
  • the first solid-state image pickup device and the second solid-state image pickup device are arranged close to each other such that side surface portions having no first connecting portion and second connecting portion face each other.
  • a stereoscopic image is generated from an image signal obtained by an imaging optical system while minimizing the expansion of the outer diameter of the insertion tip. Need to be transmitted to an external device such as a video processor.
  • an image sensor is mounted on the insertion tip to realize a multi-lens endoscope, a space for arranging a cable for transmitting a video signal from the image sensor is required at the insertion tip, and the endoscope outer diameter
  • the above-mentioned Patent Document 1 does not consider a technical measure for solving this cause.
  • the present disclosure has been devised in view of the conventional situation described above, and an object thereof is to provide an endoscope capable of suppressing the enlargement of the outer diameter in an endoscope having two or more eyes.
  • the present disclosure provides a rigid portion that is provided at the distal end of a scope and is formed into a substantially cylindrical shape, and has a substantially circular tip surface, and the hardness that sandwiches a first virtual line that is orthogonal to the axis of the rigid portion on the distal surface.
  • a plurality of cameras arranged on the left and right of the unit, wherein the plurality of cameras include a first camera, and the first camera has an imaging axis orthogonal to each of the axis and the first virtual line.
  • an endoscope which is displaced from two virtual lines in a direction along the first virtual line.
  • FIG. 3 is a block diagram showing a hardware configuration example of the endoscope system according to the first embodiment.
  • FIG. 1 is a diagram showing an example of an outline of the endoscope system 11 according to the first embodiment.
  • “upper”, “lower”, “right”, “left”, “front”, and “rear” follow the respective directions shown in FIG. 1.
  • the upward and downward directions of the video processor 13 placed on a horizontal plane are referred to as “upper” and “lower”, respectively, and the side on which the endoscope 15 captures an observation target is referred to as “front” and the endoscope 15
  • the side connected to the video processor 13 is called "rear”.
  • the front side of the endoscope 15 in the insertion direction faces forward, the right-hand side corresponds to “right”, and the left-hand side corresponds to “left”.
  • the endoscope system 11 is configured to include an endoscope 15, a video processor 13, and a 3D monitor 17.
  • the endoscope 15 is, for example, a flexible endoscope for medical use.
  • the video processor 13 captures an image (for example, a still image or a moving image) obtained by imaging with the endoscope 15 inserted into an observation target (for example, blood vessel, skin, organ wall inside the human body) in the subject. Then, predetermined image processing is performed on the image data and output to the 3D monitor 17.
  • the 3D monitor 17 outputs, from the video processor 13, a captured image having left and right parallax after image processing (for example, an RGB (Red Green Blue) image to be described later, and a fluorescent image fluorescently emitted in the IR (Infrared Ray) band).
  • a synthetic image in which the fluorescent portion therein is superimposed on a corresponding portion (that is, coordinates in the image) in the RGB image is input and displayed three-dimensionally (3D).
  • the 3D monitor 17 inputs the captured image for the left eye and the captured image for the right eye output from the video processor 13, and determines the left and right parallax. After being formed, it can be displayed three-dimensionally (3D).
  • the 3D monitor 17 may display the combined image in 2D.
  • the image processing corresponds to, for example, color tone correction processing, gradation correction processing, and gain adjustment processing, but is not limited to these processing.
  • the endoscope 15 can be inserted into a subject, which is a human body, for example, and can capture a 3D image of an observation target.
  • the endoscope 15 includes a plurality of cameras, and each of the cameras captures a left-eye image and a right-eye image for forming a 3D image.
  • the endoscope 15 uses the right-eye camera 19 (see FIG. 5) for capturing one image (for example, the image for the right eye) and the other image (for example, the left image) forming the 3D image. It has two cameras, a left-eye camera 21 (see FIG. 5) for capturing an (eye image).
  • the plurality of cameras is the right-eye camera 19 and the left-eye camera 21
  • the number of cameras is not limited to this, and a plurality of cameras, for example, three or more, three. It may be four, four or the like.
  • the endoscope 15 includes a scope 23 that constitutes an insertion tip and is inserted into an observation target, and a plug portion 25 to which the rear end of the scope 23 is connected.
  • the scope 23 includes a flexible portion 27 having a relatively long flexibility and a rigid rigid portion 29 provided at the tip of the flexible portion 27. The structure of the scope 23 will be described later.
  • the video processor 13 has a housing 31, performs image processing on the image captured by the endoscope 15, and outputs the image after image processing to the 3D monitor 17 as display data.
  • a socket portion 35 into which the base end portion 33 of the plug portion 25 is inserted is arranged on the front surface of the housing 31.
  • the proximal end portion 33 of the plug portion 25 is inserted into the socket portion 35, and the endoscope 15 and the video processor 13 are electrically connected to each other, so that electric power and various types of electricity are exchanged between the endoscope 15 and the video processor 13. It is possible to transmit and receive the data or information (for example, the data of the captured image or various control information).
  • the electric power and various data or information are transmitted from the plug portion 25 to the flexible portion side via the transmission cable 37 (see FIG.
  • the data of the captured image output from the image sensor 39 (see FIG. 3) provided inside the rigid portion 29 is transmitted from the plug portion 25 to the video processor 13 via the transmission cable 37.
  • the flexible portion 27 is movable (for example, bent) in response to an input operation on the hand operation portion 41 (see FIG. 5) of the endoscope 15.
  • the hand operation unit 41 of the endoscope 15 is arranged, for example, on the proximal end side of the endoscope 15 near the video processor 13.
  • the video processor 13 performs predetermined image processing (see above) on the image data transmitted via the transmission cable 37, generates and converts the image data after the image processing as display data, and the 3D monitor 17 Output to.
  • the 3D monitor 17 is configured using a display device such as an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube), or an organic (Electroluminescence), for example.
  • the 3D monitor 17 displays the data of the image after the image processing is performed by the video processor 13 (that is, the image of the observation target captured by the endoscope 15).
  • the image displayed on the 3D monitor 17 is visually recognized by a doctor or the like during surgery using the endoscope 15, for example.
  • the 3D monitor 17 can display the image of the observation target as a 3D image.
  • FIG. 2 is a perspective view showing the outer appearance of the tip of the scope 23.
  • a right-eye imaging window 43 At the tip of the scope 23, a right-eye imaging window 43, a left-eye imaging window 45, a right-eye white light irradiation window 47, a left-eye white light irradiation window 49, a right-eye excitation light irradiation window 51, and a left eye.
  • An eye excitation light irradiation window 53 is arranged.
  • the white light irradiation window 47 for the right eye and the white light irradiation window 49 for the left eye, and the excitation light irradiation window 51 for the right eye and the excitation light irradiation window 53 for the left eye are arranged so as to be vertically interchanged with each other. Good.
  • the white light illuminating window 47 for the right eye and the white light illuminating window 49 for the left eye are provided with a white light illuminating section 55 for illuminating an observation target with white light (that is, normal RGB (Red Green Blue) visible light). (See FIG. 3) are arranged so as to abut each other.
  • White light emitted from a visible light source 59 (see FIG. 5) on the proximal end side is guided to each of the white light illuminators 55 by an optical fiber 57 (see FIG. 3).
  • the visible light source 59 may not be arranged on the base end side, and, for example, white LEDs (not shown) capable of irradiating the white light illumination section 55 with white light may be directly arranged. In this case, the white light emitted from each of the white LEDs is emitted to the observation target from the white light irradiation window 47 for the right eye and the white light irradiation window 49 for the left eye via the white light illumination unit 55.
  • Excitation for irradiating the observation target with excitation light in the IR band that is, IR region
  • IR excitation light Excitation light in the IR band
  • the light illumination units 61 are in contact with each other.
  • the IR excitation light emitted from the IR excitation light source 65 (see FIG. 5) on the base end side is guided to the excitation light illuminating section 61 by the optical fiber 63 (see FIG. 3).
  • the IR excitation light source 65 may not be arranged on the base end side, and for example, IR-LEDs (not shown) capable of irradiating the excitation light illuminating section 61 with excitation light in the IR band may be arranged directly.
  • the excitation light in the IR band emitted from each IR-LED is emitted to the observation target from the excitation light irradiation window 51 for the right eye and the excitation light irradiation window 53 for the left eye via the excitation light illumination unit 61. ..
  • the IR excitation light is irradiated to a fluorescent drug (one mode of the fluorescent substance) such as ICG (indocyanine green) having a characteristic of being administered to a subject, which is a human body, and accumulating in an affected area, and It has a role of emitting fluorescence when excited.
  • the IR excitation light is near infrared light having a wavelength band of about 690 nm to 820 nm, for example.
  • the right-eye camera 19 for imaging the observation target is arranged on the back side (that is, the back side) of the right-eye imaging window 43.
  • the left-eye camera 21 for imaging the observation target is arranged on the back side (that is, the back side) of the left-eye imaging window 45.
  • white light and IR excitation light are illustrated as the types of light to be emitted, but white light and other special light may be emitted.
  • excitation light in the ultraviolet region for exciting a fluorescent agent such as 5-ALA (aminolevulinic acid) may be used.
  • FIG. 3 is a vertical cross-sectional view showing the configuration of the right-eye camera 19 arranged in the scope.
  • the negative lens 67, the IR cut filter 69, the objective cover glass 71, the diaphragm 73, the first lens 75, the spacer 77, and the second lens are sequentially arranged along the optical axis from the observation target side (that is, the objective side).
  • the lens 79, the third lens 81, and the fourth lens 83 are arranged.
  • the IR cut filter 69 cuts (blocks) the transmission of light in the IR band (that is, a wavelength band of 700 nm or more) incident on the right-eye camera 19. That is, the IR cut filter 69 does not image the light in the IR band on the image sensor 39 disposed on the rear side (that is, the rear side) of the fourth lens 83, and transmits white light in a wavelength band of 700 nm or less. Light (that is, visible light) is focused on the image sensor 39.
  • the IR cut filter 69, the objective cover glass 71, the diaphragm 73, the first lens 75, the spacer 77, the second lens 79, the third lens 81, and the fourth lens 83 are located inside the cylindrical lens holder 85.
  • the lens unit 87 which is an optical system, is configured by being housed.
  • the lens unit 87 is held in a holding hole of a tip flange portion 89 provided at the tip of the rigid portion 29.
  • the tip flange portion 89 is formed of a metal such as stainless steel into a substantially disc shape.
  • the front end flange portion 89 holds not only the lens units 87 of the right-eye camera 19 and the left-eye camera 21, but also the white-light illumination section 55 and the excitation-light illumination section 61 in their respective holding holes.
  • a tubular image sensor holding member 91 is fixed to the outer periphery of the lens holder 85 at the rear portion of the lens unit 87 whose front portion is held by the front flange portion 89.
  • the image sensor holding member 91 is made of metal such as stainless steel.
  • a sensor holding portion 95 that holds the sensor cover glass 93 and the image sensor 39 is formed on the inner periphery of the rear portion of the image sensor holding member 91.
  • the image sensor holding member 91 fixes the image sensor 39 to the sensor holding portion 95 to position and fix the lens unit 87 and the image sensor 39.
  • a band cut filter 97 is provided on the front surface of the sensor cover glass 93.
  • the band cut filter 97 blocks the transmission of light having a wavelength of 700 nm to 830 nm including the wavelength band of IR excitation light for exciting a fluorescent agent such as ICG (indocyanine green) administered to a subject to emit fluorescence. Cut (cut off).
  • the band cut filter 97 is formed on the front surface of the sensor cover glass 93 by vapor deposition, for example.
  • the lens unit 87 collects light from the observation target (for example, white light reflected by the affected area or the like, fluorescence generated by fluorescence emission of a fluorescent drug in the affected area or the like), and forms an image on the imaging surface of the image sensor 39.
  • the spacer 77 is arranged so as to be interposed between the first lens 75 and the second lens 79, and stabilizes these positions.
  • the objective cover glass 71 protects the lens unit 87 from the outside.
  • the image sensor holding member 91 positions and fixes the lens unit 87 and the sensor cover glass 93.
  • the sensor cover glass 93 is disposed on the image pickup surface of the image sensor 39 and protects the image pickup surface.
  • the image sensor 39 is, for example, a single-plate solid-state image sensor capable of simultaneously receiving IR light, red light, blue light, and green light.
  • the image sensor 39 has a sensor substrate 99 on the back surface.
  • the left-eye camera 21 has the same configuration as the right-eye camera 19 shown in FIG. 3 except that it does not have the IR cut filter 69 shown in FIG. That is, in the left-eye camera 21, the negative lens 67, the objective cover glass 71, the aperture 73, the first lens 75, the spacer 77, the second lens 79, the second lens 79
  • the third lens 81 and the fourth lens 83 are housed in the lens holder 85 to form a lens unit 87.
  • the front portion of the lens unit 87 is fixed to the front flange portion 89, and the sensor holding portion 95 is fixed to the rear portion.
  • the sensor holder 95 holds the sensor cover glass 93 and the image sensor 39.
  • a band cut filter 97 is provided on the front surface of the sensor cover glass 93.
  • band cut filters 97 are formed on the front surface of the sensor cover glass 93 in FIG. 3, they may be formed on the back surface of the objective cover glass 71.
  • FIG. 4 is a front view of the rigid portion 29 as seen from the subject side.
  • the distal end surface 101 of the rigid portion 29 has a substantially circular shape.
  • a first imaginary line 105 orthogonal to the axis 103 (see FIG. 3) of the rigid portion 29 is set on the tip end surface 101 of the rigid portion 29.
  • a second virtual line 107 orthogonal to the axis 103 and the first virtual line 105 is set on the tip surface 101 of the rigid portion 29.
  • a plurality of cameras (a right-eye camera 19 and a left-eye camera 21) are arranged on the left and right of the rigid portion 29 sandwiching the first virtual line 105.
  • the plurality of cameras are arranged so that their imaging centers 109 are displaced from each other in the direction along the first virtual line 105 with respect to the second virtual line 107.
  • the imaging center 109 is a point on the imaging axis. Further, the imaging center 109 may be the imaging axis itself.
  • the right eye camera 19 and the left eye camera 21 are displaced to the lower side in FIG.
  • the image pickup axis is an axis line passing through the center of the image pickup surface (light receiving surface) of the image sensor 39 mounted on each of the right eye camera 19 and the left eye camera 21.
  • the image pickup center 109 may be the center of the image pickup surface (light receiving surface) of the image sensor 39 mounted on each of the right eye camera 19 and the left eye camera 21, or may be an axis line passing through the center.
  • the imaging axis passes through the imaging center 109. ..
  • the imaging center 109 may or may not coincide with the center of the negative lens 67 on the tip surface 101 (that is, the imaging window center).
  • the line segment 111 connecting the centers of the respective imaging windows is parallel to the second virtual line 107 on the tip end surface 101. Becomes Therefore, the midpoint 113 of this line segment 111 is arranged at a distance d from the axis 103 (offset).
  • each of the right-eye camera 19 and the left-eye camera 21 includes a lens unit 87 coaxial with the imaging center 109.
  • the image sensor holding member 91 shown in FIG. 3 above positions and fixes the image sensor 39 with respect to the lens unit 87.
  • the image sensor holding member 91 has a cable housing portion 115 that houses the transmission cable 37 connected to the image sensor 39.
  • a flexible substrate can be used for the transmission cable 37.
  • an FFC flexible flat cable
  • an FPC flexible/printed/wiring board
  • the respective flexible substrates electrically connected to the right-eye camera 19 and the left-eye camera 21 are housed in the cable housing 115.
  • the circuit conductors are gathered in the transmission cable 37 and inserted into the scope 23.
  • the cable accommodating portion 115 has a projecting portion 117.
  • the projecting portion 117 accommodates the bent portion 119 of the transmission cable 37 protruding from the outer shape of the image sensor 39 in the direction orthogonal to the axis 103.
  • the projecting portion 117 is formed by thinning the wall portion of the cable housing portion 115 formed in the imaging element holding member 91 in a cylindrical shape.
  • the imaging element holding member 91 has a side on which the projecting portion 117 is located that projects outward from the imaging center 109 in the radial direction. In the first embodiment, as shown in FIG. 4, the projecting portion 117 projects upward from the upper side of the image sensor holding member 91 of each of the right-eye camera 19 and the left-eye camera 21.
  • the imaging centers 109 coaxial with the lens units 87 of the right-eye camera 19 and the left-eye camera 21 are opposite to the projecting direction (upward direction) of the projecting portion 117,
  • the first virtual line 105 and the second virtual line 105 are arranged so as to be offset from each other (downward).
  • the bent portion 119 housed in the projecting portion 117 is bent at an acute angle ⁇ .
  • the transmission cable 37 is arranged near the axis 103 by being bent at an acute angle ⁇ immediately after being connected to the image sensor 39, and can be inserted along the vicinity of the axis of the scope 23.
  • the protruding portion 117 is filled with the adhesive material 121.
  • the bent portion 119 housed in the projecting portion 117 is embedded in the adhesive material 121, so that it is fixed and held integrally with the image pickup element holding member 91.
  • FIG. 5 is a block diagram showing a hardware configuration example of the endoscope system 11 according to the first embodiment.
  • the right eye camera 19 and the left eye camera 21 provided in the rigid portion 29 include the first drive circuit 123.
  • the first drive circuit 123 operates as a drive unit and switches ON/OFF of the electronic shutter of the image sensor 39.
  • the first drive circuit 123 may be arranged in the video processor 13 without being arranged in either the right-eye camera 19 or the left-eye camera 21.
  • the image sensor 39 photoelectrically converts the optical image formed on the imaging surface and outputs an image signal. In photoelectric conversion, exposure of an optical image and generation and reading of an image signal are performed.
  • the IR cut filter 69 is disposed on the light receiving side of the image sensor 39, blocks the IR excitation light reflected by the object among the light passing through the lens, and emits the fluorescent light and the visible light excited by the IR excitation light. Make it transparent.
  • the IR cut filter 69 is provided only on either one (for example, the right eye camera 19), but the IR cut filter 69 is provided on both (that is, the right eye camera 19 and the left eye camera 21). May be provided, or both may not be provided.
  • the video processor 13 includes a controller 125, a second drive circuit 127, an IR excitation light source 65, a visible light source 59, an image processor 129, and a display processor 131.
  • the controller 125 has a processor configured by using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array), and this processor allows various types of imaging processing by the endoscope 15. Controls the execution of all operations.
  • the controller 125 controls the second drive circuit 127 whether to emit light.
  • the controller 125 executes drive control for switching on/off of the electronic shutter with respect to the first drive circuit 123 provided in each of the right-eye camera 19 and the left-eye camera 21.
  • the second drive circuit 127 is, for example, a light source drive circuit, and drives the IR excitation light source 65 under the control of the controller 125 to continuously emit the IR excitation light.
  • the IR excitation light source 65 is continuously turned on (continuously turned on) during the imaging period, and continuously irradiates the subject with the IR excitation light.
  • the second drive circuit 127 may drive the IR excitation light source 65 to cause the IR excitation light to emit pulsed light at predetermined intervals.
  • the IR excitation light source 65 intermittently lights up (pulse lighting) during the imaging period, and irradiates the subject with the IR excitation light in a pulsed manner.
  • the timing at which the IR excitation light is emitted and the visible light is not emitted is the timing at which the fluorescence emission image is captured.
  • the IR excitation light source 65 has an LD (not shown: Laser Diode) and emits laser light (an example of IR excitation light) having a wavelength in the wavelength band of 690 to 820 nm guided from the LD by the optical fiber 57. .. Since the mode of fluorescence emission changes depending on the concentration of drugs such as ICG and the physical condition of the patient as a subject, a plurality of laser beams (eg, 780 nm and 808 nm) having wavelengths in the wavelength band of 690 to 820 nm are simultaneously emitted. May be.
  • the second drive circuit 127 drives the visible light source 59 to emit a pulse of visible light (for example, white light).
  • the visible light source 59 irradiates the subject with pulsed visible light at the timing of capturing a visible light image during the imaging period.
  • fluorescent light has a weak brightness.
  • visible light can be intense even with a short pulse.
  • the light source device of the endoscope system 11 alternately outputs visible light and excitation light.
  • the irradiation timing of visible light and the imaging timing of the fluorescence image generated by the excitation light do not overlap.
  • the image processor 129 performs image processing on the fluorescent light emission image and the visible light image alternately output from the image sensor 39, and outputs the image data after the image processing.
  • the image processor 129 adjusts the gain as a gain controller so as to increase the gain of the fluorescence emission image.
  • the image processor 129 may adjust the gain by decreasing the gain of the visible light image instead of increasing the gain of the fluorescence emission image.
  • the image processor 129 may adjust the gain by increasing the gain of the fluorescence emission image and decreasing the gain of the visible light image.
  • the image processor 129 may adjust the gain by increasing the gain of the fluorescence emission image larger than that of the visible light image and by increasing the gain of the visible light image.
  • the display processor 131 converts the image data output from the image processor 129 into a display signal such as an NTSC (National Television System Committee) signal suitable for video display and outputs the signal to the 3D monitor 17.
  • NTSC National Television System Committee
  • the 3D monitor 17 displays the fluorescence emission image and the visible light image in the same area, for example, according to the display signal output from the display processor 131.
  • the 3D monitor 17 displays the visible light image and the fluorescence image on the same screen in a superimposed or separate manner. Accordingly, the user can confirm the observation target with high accuracy by superimposing the fluorescence emission image and the visible light image displayed on the 3D monitor 17 on the same captured image or individually.
  • the video processor 13 (for example, the image processor 129), which is an example of a processor, captures a plurality of images of different wavelength characteristics, which are captured by the pair of right-eye camera 19 and left-eye camera 21 that are interlocked with each other.
  • the images may be image-processed to generate a composite image in which the difference between the captured images is extracted and displayed on the 3D monitor 17.
  • the right-eye camera 19 and the left-eye camera 21 can be cameras having the same specifications. Further, each of the right-eye camera 19 and the left-eye camera 21 can be cameras with different specifications.
  • the IR cut filter 69 can be omitted in the visible light camera.
  • the video processor 13 (for example, the image processor 129) as an example of the processor uses the endoscope 15 due to the parallax appearing in the pair of captured images captured by each of the pair of cameras in conjunction with each other. It is possible to measure the distance from the subject to the subject.
  • the right-eye camera 19 and the left-eye camera 21 are cameras having the same specifications.
  • the parallax means that the appearance of the mutual positions of objects in the space changes depending on the observation position.
  • the distance to the subject can be measured by triangulation using the distance (known) of two cameras, for example.
  • the specifications of the two cameras are completely the same.
  • the optical axes of the two cameras are parallel.
  • the two cameras are separated by a fixed distance only in the optical axis.
  • the image capturing surfaces of the two cameras should be coplanar.
  • a plane passing through the two optical axes and the same point on the subject becomes an epipolar plane.
  • the intersection line between the epipolar plane and the image plane is an epipolar line.
  • the parallax is the deviation (difference) in the coordinates of the image of the same point on the same subject on the two captured images.
  • the two cameras are placed in parallel and parallel positions so that the same point can be searched in one dimension in the linear direction. This is because there is an epipolar constraint condition between the images captured by the two cameras.
  • Epipolar constraint is a phenomenon in which a point reflected on one camera is projected on the epipolar line of the other camera.
  • the distance to the subject can be obtained from the positional deviation (that is, parallax) of the same point in the captured images captured by the two cameras in this way. It should be noted that specific mathematical formulas and the like for calculating the distance to the subject based on the parallax are well known and will not be described here.
  • the video processor 13 (for example, the image processor 129) as an example of a processor images each of a pair of captured images with parallax captured by each of a pair of interlocking cameras. It is possible to process and generate a stereoscopic image in which the depth information is reflected and display the stereoscopic image on the 3D monitor 17.
  • the right-eye camera 19 and the left-eye camera 21 are cameras having the same specifications.
  • the video processor 13 (for example, the image processor 129) as an example of a processor performs image processing on a pair of captured images having different focal lengths captured by each of a pair of interlocking cameras, It is possible to generate a composite image with a deep depth of field (depth composite image) and display it on the 3D monitor 17.
  • the right-eye camera 19 and the left-eye camera 21 are cameras with different specifications.
  • the video processor 13 (for example, the image processor 129) as an example of a processor performs image processing on a plurality of captured images captured by respective ones of a pair of interlocking cameras and having different view angles or magnifications. Then, it is possible to generate a composite image in which different fields of view are simultaneously captured and display the composite image on the 3D monitor 17.
  • a so-called bird's eye camera (zoom and pan simultaneously) is possible.
  • the right-eye camera 19 and the left-eye camera 21 are cameras with different specifications.
  • the endoscope system 11 can be configured such that one camera is provided with a monochrome image sensor 39 and the other camera is provided with a color image sensor 39.
  • the monochrome image sensor 39 has a higher ISO sensitivity than the color image sensor 39.
  • the endoscope 15 is provided at the distal end of the scope 23, is formed into a substantially cylindrical shape (including a cylindrical shape, and the same applies to the following), and has a distal end surface 101 having a substantially circular shape (including a circular shape). The same applies hereinafter).
  • the endoscope 15 has a plurality of cameras arranged on the left and right sides of the rigid portion 29 sandwiching a first virtual line 105 orthogonal to the axis 103 of the rigid portion 29 on the distal end surface 101.
  • the plurality of cameras include a first camera (for example, the right-eye camera 19 or the left-eye camera 21), and the first camera has a second virtual image whose imaging center 109 is orthogonal to each of the axis 103 and the first virtual line 105.
  • the line 107 is displaced from the line 107 in the direction along the first virtual line 105.
  • a plurality of cameras are arranged inside the rigid portion 29 formed in a cylindrical shape.
  • the right-eye camera 19 and the left-eye camera 21 take in imaging light from an imaging window and obtain subject information as image data.
  • there is one camera and the projection shape in the direction along the imaging center 109 of the camera is substantially circular.
  • the imaging window integrated with the camera needs to secure the largest occupied area on the tip surface 101 of the rigid portion 29 as compared with other members.
  • a plurality of other members for example, a light irradiation window
  • a first virtual line 105 orthogonal to the axis 103 of the rigid portion 29 is set on the tip end surface 101 of the rigid portion 29.
  • a second virtual line 107 orthogonal to the axis 103 and the first virtual line 105 is set on the tip surface 101 of the rigid portion 29. That is, the first virtual line 105 and the second virtual line 107 are orthogonal to each other in the XY coordinate axes at the axial position of the tip surface 101.
  • the plurality of other members are arranged above and below the second virtual line 107, the plurality of cameras (the right-eye camera 19 and the left-eye camera 21) are arranged along the second virtual line 107 among these other members. By arranging them side by side in the direction, interference with other members can be easily avoided. That is, the right-eye camera 19 and the left-eye camera 21 are arranged so that the imaging center 109 is on the second virtual line.
  • the external shape of the camera may not be a substantially circular shape. That is, the shape is such that a part of the substantially circular shape centering on the imaging center 109 is offset and protrudes.
  • the imaging center 109 is arranged on the second imaginary line, and the projecting portion 117 is in either one of the directions along the first imaginary line 105 (one of the up and down directions in the above example), The protruding portion 117 easily interferes with other members inside the housing of the endoscope 15.
  • the imaging center 109 is the first virtual line with respect to the second virtual line 107. It is displaced in the direction along 105.
  • This shift amount is, for example, half of the overhanging dimension of the overhanging portion 117.
  • the imaging center 109 is displaced from the second virtual line 107 passing through the axis 103 of the rigid portion 29.
  • the imaging center 109 is separated from the axis 103, such an offset arrangement makes it possible to realize high-density arrangement of parts in a limited accommodation space of the rigid portion 29, and thus the rigidity is high. A great effect of suppressing the expansion of the outer diameter of the portion 29 can be obtained.
  • the transmission cable 37 is not left-right handed.
  • the endoscope 15 arranges the right-eye camera 19 and the left-eye camera 21 in the rigid portion 29 in the offset manner as described above, thereby making the transmission cable 37 a common component while maintaining the rigidity of the rigid portion 29. It is possible to suppress expansion of the outer diameter.
  • the endoscope 15 according to the first embodiment it is possible to suppress the enlargement of the outer diameter in the endoscope 15 having two or more eyes.
  • the plurality of cameras include a second camera (for example, the left-eye camera 21 or the right-eye camera 19), and the first camera (for example, the right-eye camera 19 or the left-eye camera 21) and
  • the second camera for example, the left-eye camera 21 or the right-eye camera 19
  • the line segment 111 that connects the centers of the respective imaging windows on the tip surface 101 is parallel to the second virtual line 107, and the line segment 111
  • the midpoint 113 is arranged apart from the axis 103.
  • a line segment 111 connecting the centers of the imaging windows of the right eye camera 19 and the left eye camera 21 is parallel to the second virtual line 107.
  • the midpoint 113 of this line segment 111 is separated from the axis 103.
  • the direction in which the line segment 111 is separated is on the side opposite to the projecting portion 117. That is, the imaging center 109 located on the line segment 111 moves and is arranged on the side opposite to the projecting portion 117 with respect to the second virtual line 107.
  • the two cameras are arranged with the second virtual line 107 sandwiched between them so that they are shifted upside down (that is, in the case of FIG. 6), it is necessary to reverse the acquired images of the respective cameras upside down. That is, the overhang portion 117 of one camera is on the upper side, and the overhang portion 117 of the other camera is on the lower side. In this case, image processing of rotating one image data by 180° is required.
  • the endoscope 15 in which the right-eye camera 19 and the left-eye camera 21 are arranged such that the line segment 111 connecting the two imaging centers 109 is parallel to the second virtual line 107, the left and right cameras are Since the upper and lower image pickup directions of are not reversed, unnecessary image processing can be omitted. As a result, the endoscope 15 causes the right-eye camera 19 and the left-eye camera 21 to offset the imaging center 109 in the same direction (downward in the above example) in order to save useless space. It is possible to suppress expansion of the outer diameter of the rigid portion 29 and prevent complicated image processing while using 37 as a common component.
  • the first camera (for example, the right-eye camera 19 or the left-eye camera 21) positions the image sensor 39 with respect to the lens unit 87 coaxial with the imaging center 109. And an image pickup element holding member 91 to be fixed.
  • a lens unit 87 is arranged coaxially with the imaging center 109.
  • the tip side of each lens unit 87 is fixed and supported by a metal tip flange portion 89 provided at the tip of the rigid portion 29.
  • the image sensor holding member 91 is fixed by inserting the inner circumference of the holding hole into the outer circumference of the rear end side of each lens unit 87.
  • An image sensor 39 having a light receiving surface arranged on the image forming side of the lens unit 87 is fixed to the image sensor holding member 91 fixed to the lens unit 87. That is, the image sensor holding member 91 fixes and holds the image sensor 39 while positioning the lens unit 87 and the image sensor 39 in the right eye camera 19 and the left eye camera 21.
  • the right-eye camera 19 and the left-eye camera 21 have a simple structure (a small number of parts) and suppress the enlargement of the outer diameter of the rigid portion 29, while the high-strength tip flange portion 89 is imaged with the lens unit 87.
  • the sensor 39 and the sensor 39 can be integrally positioned and fixed.
  • the image pickup element holding member 91 has a cable housing portion 115 that houses the transmission cable 37 connected to the image sensor 39.
  • the transmission cable 37 for drawing out an electric signal from the image sensor 39 can be secured in the imaging element holding member 91 in the limited internal space of the rigid portion 29. Since the transmission cable 37 is passed from the hard portion 29 of the scope 23 to the plug portion 25, external stress acts due to the bending of the soft portion 27. In the transmission cable 37, the cable conductor in the flexible substrate portion 133 at the tip is electrically connected to the plurality of bumps 135 (see FIG. 3) provided on the sensor substrate 99 by soldering or the like. The external stress acting on the transmission cable 37 may adversely affect the minute cable connection portion (the soldering portion with the bump 135) between the transmission cable 37 and the image sensor 39.
  • the image sensor holding member 91 that fixes the image sensor 39 is provided with the cable housing 115 that can fix the end of the transmission cable 37 together with the image sensor 39, so that the rigid portion 29 can be used without using another fixing member. It is possible to block the external stress that adversely affects the cable connection portion while suppressing the expansion of the outer diameter of the cable.
  • the cable housing portion 115 has a projecting portion 117 for housing the bent portion 119 of the transmission cable 37 protruding from the outer shape of the image sensor 39 in the direction orthogonal to the axis 103.
  • a protruding portion 117 that accommodates the bent portion 119 of the transmission cable 37 is formed in the cable connection portion of the image sensor holding member 91.
  • a large number of bumps 135 for connecting to the transmission cable 37 are arranged vertically and horizontally on the back surface of a rectangular sensor substrate 99.
  • the bumps 135 are connected by a rectangular flexible substrate or the like arranged in parallel with the sensor substrate 99. This flexible substrate may be the same as or a part of the end of the transmission cable 37.
  • the flexible substrate of the transmission cable 37 formed in substantially the same area as the sensor substrate 99 needs to be bent at any one side of the quadrangle to form the transmission cable 37.
  • this bent portion becomes the bent portion 119 and sticks out from the outer shape of the sensor substrate 99 in the direction orthogonal to the axis 103.
  • a projecting portion 117 that accommodates the bent portion 119 is provided in the cable accommodation portion 115.
  • the image pickup element holding member 91 can protect the bent portion 119 from interfering with other members by providing the projecting portion 117 in the cable housing portion 115.
  • the imaging center 109 is arranged in the direction opposite to the projecting direction of the projecting portion 117 and displaced in the direction along the first virtual line 105.
  • the projecting portion 117 which accommodates the bent portion 119, extends beyond the outer shape of the imaging window on the distal end surface 101 of the rigid portion 29.
  • the protruding portion 117 is a necessary portion for protecting the bent portion 119.
  • the projecting portion 117 of the image sensor holding member 91 projects from the outer shape. Therefore, in the endoscope 15, the right eye camera 19 and the left eye camera 21 are offset so that the imaging center 109 is displaced in the direction opposite to the projecting direction of the projecting portion 117, thereby creating a wasteful space. I omit it.
  • the bent portion 119 is bent at an acute angle.
  • the bent portion 119 which protrudes from the outer shape of the imaging window, can be returned to the vicinity of the center of the imaging window. Thereby, the endoscope 15 can suppress the expansion of the outer diameter of the rigid portion 29 due to the transmission cable 37 interfering with other members.
  • the bent portion 119 is embedded in the adhesive material 121 filled in the protruding portion 117.
  • the bent portion 119 is embedded in the adhesive material 121 filled in the protruding portion 117, so that the bent portion 119 is integrally fixed to the image pickup element holding member 91.
  • the projecting portion 117 of the image pickup element holding member 91 can reinforce and protect the bent portion 119, which has already been internally stressed by being bent, so as not to be further displaced by external stress.
  • FIG. 6 is a front view of a first modification of the endoscope 15 according to the first embodiment.
  • the protruding portion 117 of the right-eye camera 19 is arranged on the upper side
  • the protruding portion 117 of the left-eye camera 21 is arranged on the lower side.
  • the midpoint 113 of the line segment 111 connecting the two imaging centers 109 coincides with the axis 103, but each imaging center 109 is offset from the second virtual line 107.
  • the same transmission cable 37 can be used.
  • the layout may be advantageous depending on the shape of the transmission cable 37.
  • FIG. 7 is a front view of the second modification of the endoscope 15 according to the first embodiment.
  • the protruding portion 117 of the right-eye camera 19 is arranged on the upper side
  • the protruding portion 117 of the left-eye camera 21 is arranged on the left side.
  • the endoscope 15 there are two types of flexible substrates, but the right-eye camera 19 and the left-eye camera 21 can be easily attached to the rigid portion 29, respectively.
  • the projecting portion 117 of the left-eye camera 21 is arranged on the left side, and the space between the white light irradiation window 49 for the left eye and the excitation light irradiation window 53 for the left eye is not used. Therefore, the left-eye camera 21 does not have to be arranged such that the imaging center 109 thereof is displaced downward with respect to the second virtual line 107 along the first virtual line 105. That is, the imaging center 109 of the left-eye camera 21 may be arranged above the second virtual line 107 or may be arranged on the second virtual line 107.
  • FIG. 8 is a front view of a third modified example of the endoscope 15 according to the first embodiment.
  • the protruding portion 117 of the right eye camera 19 is arranged on the upper side
  • the protruding portion 117 of the left eye camera 21 is arranged on the right side.
  • the endoscope 15 there are two types of flexible substrates, but the right-eye camera 19 and the left-eye camera 21 can be easily attached to the rigid portion 29, respectively.
  • the projecting portion 117 of the left-eye camera 21 is arranged on the right side, and the space between the white light irradiation window 49 for the left eye and the excitation light irradiation window 53 for the left eye is not used. Therefore, the left-eye camera 21 does not have to be arranged such that the imaging center 109 thereof is displaced downward with respect to the second virtual line 107 along the first virtual line 105. That is, the imaging center 109 of the left-eye camera 21 may be arranged above the second virtual line 107 or may be arranged on the second virtual line 107.
  • FIG. 9 is a front view of a fourth modified example of the endoscope 15 according to the first embodiment.
  • the protruding portion 117 of the right eye camera 19 is arranged on the right side
  • the protruding portion 117 of the left eye camera 21 is arranged on the left side.
  • the endoscope 15 there are two types of flexible substrates, but the right-eye camera 19 and the left-eye camera 21 can be easily assembled to the rigid portion 29, and the endoscope is easy.
  • the vertical space of 15 can be maximized.
  • the projecting portion 117 of the right-eye camera 19 is arranged on the right side, and the space between the right-eye white light irradiation window 47 and the right-eye excitation light irradiation window 51 is not used. Therefore, the imaging center 109 of the right-eye camera 19 does not need to be arranged with the second imaginary line 107 being displaced downward along the first imaginary line 105. That is, the imaging center 109 of the right-eye camera 19 may be arranged above the second virtual line 107 or on the second virtual line 107.
  • the left-eye camera 21 takes its image.
  • the center 109 does not have to be displaced downward with respect to the second virtual line 107 along the first virtual line 105. That is, the imaging center 109 of the left-eye camera 21 may be arranged above the second virtual line 107 or may be arranged on the second virtual line 107.
  • FIG. 10 is a front view of a fifth modified example of the endoscope 15 according to the first embodiment.
  • the protruding portion 117 of the right eye camera 19 is arranged on the left side
  • the protruding portion 117 of the left eye camera 21 is arranged on the right side.
  • the convergence angle at the time of capturing a 3D image by the right-eye camera 19 and the left-eye camera 21 can be maximized. it can.
  • the projecting portion 117 of the right-eye camera 19 is arranged on the left side, and the space between the right-eye white light irradiation window 47 and the right-eye excitation light irradiation window 51 is not used. Therefore, the imaging center 109 of the right-eye camera 19 does not have to be arranged so as to be displaced downward along the first virtual line 105 with respect to the second virtual line 107. That is, the imaging center 109 of the right-eye camera 19 may be arranged above the second virtual line 107 or on the second virtual line 107.
  • the left-eye camera 21 takes its image.
  • the center 109 does not have to be displaced downward with respect to the second virtual line 107 along the first virtual line 105. That is, the imaging center 109 of the left-eye camera 21 may be arranged above the second virtual line 107 or may be arranged on the second virtual line 107.
  • FIG. 11 is a front view of a sixth modified example of the endoscope 15 according to the first embodiment.
  • the protruding portion 117 of the right eye camera 19 is arranged on the left side
  • the protruding portion 117 of the left eye camera 21 is arranged on the left side.
  • the flexible substrate having the same shape can be used, and the cost of parts at the time of manufacturing can be reduced.
  • the projecting portion 117 of the right-eye camera 19 is arranged on the left side, and the space between the right-eye white light irradiation window 47 and the right-eye excitation light irradiation window 51 is not used. Therefore, the imaging center 109 of the right-eye camera 19 does not have to be arranged so as to be displaced downward along the first virtual line 105 with respect to the second virtual line 107. That is, the imaging center 109 of the right-eye camera 19 may be arranged above the second virtual line 107 or on the second virtual line 107.
  • the left-eye camera 21 takes its image.
  • the center 109 does not have to be displaced downward with respect to the second virtual line 107 along the first virtual line 105. That is, the imaging center 109 of the left-eye camera 21 may be arranged above the second virtual line 107 or may be arranged on the second virtual line 107.
  • the present disclosure is useful as an endoscope capable of suppressing enlargement of the outer diameter in an endoscope having two or more eyes.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡は、スコープの先端に設けられ、略円筒状に形成されて先端面が略円形状となる硬性部と、先端面において硬性部の軸線に直交する第一仮想線を挟む硬性部の左右に配置される複数のカメラと、を備える。複数のカメラは第1のカメラを含む。第1のカメラは、撮像軸が軸線および第一仮想線のそれぞれに直交する第二仮想線から第一仮想線に沿う方向にずれて配置される。

Description

内視鏡
 本開示は、内視鏡に関する。
 挿入先端部の小型化を図る内視鏡が提案されている(例えば特許文献1参照)。この内視鏡は、対物光学系を通過した入射光を二つの光路に分割して出射するように、第1のプリズムと第2のプリズムとが接合されたプリズムと、第1のプリズムと第2のプリズムとの接合面で反射されてプリズムから出射された光を受光する第1の固体撮像素子と、第1および第2のプリズムを透過してプリズムから出射された光を受光する第2の固体撮像素子とを備えた撮像装置を有する。内視鏡は、第1の固体撮像素子の一側面側に設けられ、第1の固体撮像素子と第1の基板とを接続する第1の接続部と、第2の固体撮像素子の一側面側に設けられ、第2の固体撮像素子と第2の基板とを接続する第2の接続部と、を備える。第1の固体撮像素子と第2の固体撮像素子とは、第1の接続部および第2の接続部を有していない側面部が互いに向かい合うように近接させて配置されている。
日本国特開2008-99746号公報
 しかしながら、2眼以上の視差から立体視などの映像を得る内視鏡では、挿入先端部の外径の拡大を最小にとどめつつ、撮像光学系で得られた映像信号を、立体映像を生成するためのビデオプロセッサなどの外部装置に伝送する必要がある。特にイメージセンサを挿入先端部に実装して多眼内視鏡を実現する場合、イメージセンサからの映像信号を伝送するためのケーブルを取り回しする空間が挿入先端部に必要となり、内視鏡外径の拡大を招く原因となっているが、上述した特許文献1においてもこの原因を解決する技術的な策は考慮されていない。
 本開示は、上述した従来の状況に鑑みて案出され、2眼以上の内視鏡において外径の拡大を抑制することができる内視鏡を提供することを目的とする。
 本開示は、スコープの先端に設けられ、略円筒状に形成されて先端面が略円形状となる硬性部と、前記先端面において前記硬性部の軸線に直交する第一仮想線を挟む前記硬性部の左右に配置される複数のカメラと、を備え、前記複数のカメラは第1のカメラを含み、前記第1のカメラは撮像軸が前記軸線および前記第一仮想線のそれぞれに直交する第二仮想線から前記第一仮想線に沿う方向にずれて配置される、内視鏡を提供する。
 本開示によれば、2眼以上の内視鏡において外径の拡大を抑制することができる。
実施の形態1に係る内視鏡システムの概要の一例を示す図 スコープの先端の外観を示す斜視図 スコープ内に配置される右眼カメラの構成を示す縦断面図 硬性部を被写体側から見た正面図 実施の形態1に係る内視鏡システムのハードウェア構成例を示すブロック図 実施の形態1に係る内視鏡の第1変形例の正面図 実施の形態1に係る内視鏡の第2変形例の正面図 実施の形態1に係る内視鏡の第3変形例の正面図 実施の形態1に係る内視鏡の第4変形例の正面図 実施の形態1に係る内視鏡の第5変形例の正面図 実施の形態1に係る内視鏡の第6変形例の正面図
 以下、適宜図面を参照しながら、本開示に係る内視鏡の構成および作用を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 図1は、実施の形態1に係る内視鏡システム11の概要の一例を示す図である。以下の説明において、「上」、「下」、「右」、「左」、「前」、「後」は、図1に示すそれぞれの方向に従う。例えば、水平面に置かれたビデオプロセッサ13の上方向,下方向をそれぞれ「上」、「下」と称し、内視鏡15が観察対象を撮像する側を「前」と称し、内視鏡15がビデオプロセッサ13に接続される側を「後」と称する。また、内視鏡15の挿入方向先端から前方を向き、右手側が「右」に対応し、左手側が「左」に対応する。
 内視鏡システム11は、内視鏡15と、ビデオプロセッサ13と、3Dモニタ17とを含む構成である。内視鏡15は、例えば医療用の軟性鏡である。ビデオプロセッサ13は、被検体内の観察対象(例えば、血管、皮膚、人体内部の臓器壁等)に挿入された内視鏡15により撮像されて得られた撮像画像(例えば、静止画もしくは動画)に対して所定の画像処理を施して3Dモニタ17に出力する。3Dモニタ17は、ビデオプロセッサ13から出力された、画像処理後の左右の視差を有する撮像画像(例えば、後述するRGB(Red Green Blue)画像に、IR(Infrared Ray)帯で蛍光発光した蛍光画像中の蛍光部分をRGB画像中の対応箇所(つまり、画像中の座標)に重畳した合成画像)を入力して立体的(3D)に表示する。また、内視鏡システム11においてサイマル方式が使用される場合、3Dモニタ17は、ビデオプロセッサ13から出力された左眼用の撮像画像と右眼用の撮像画像とを入力し、左右の視差を形成した上で立体的(3D)に表示することが可能である。なお、3Dモニタ17は、ビデオプロセッサ13から画像処理後の合成画像(上述参照)を一方のみ入力した場合には、その合成画像を2D表示してよい。画像処理は、例えば、色調補正、階調補正およびゲイン調整の各処理が該当するが、これらの処理に限定されない。
 内視鏡15は、例えば人体である被検体内に挿入され、観察対象の3D映像を撮像することができる。内視鏡15は、複数のカメラを備え、それぞれのカメラにおいて、3D映像を構成するための左眼用映像、右眼用映像をそれぞれ撮像する。具体的には、内視鏡15は、一方の映像(例えば、右眼用映像)を撮像するための右眼カメラ19(図5参照)と、3D映像を構成する他方の映像(例えば、左眼用映像)を撮像するための左眼カメラ21(図5参照)との2つのカメラを有する。なお、実施の形態1では、複数のカメラが右眼カメラ19、左眼カメラ21の2つである場合を説明するが、カメラの数はこれに限定されず、2つ以上の複数、例えば3つ、4つなどであってもよい。
 内視鏡15は、挿入先端部を構成して観察対象の内部に挿入されるスコープ23と、スコープ23の後端部が接続されるプラグ部25とを含む。スコープ23は、比較的長い可撓性を有する軟性部27と、軟性部27の先端に設けられた剛性を有する硬性部29とを含む。スコープ23の構造については後述する。
 ビデオプロセッサ13は、筐体31を有し、内視鏡15により撮像された画像に対して画像処理を施し、画像処理後の画像を表示データとして3Dモニタ17に出力する。筐体31の前面には、プラグ部25の基端部33が挿入されるソケット部35が配置される。プラグ部25の基端部33がソケット部35に挿入され、内視鏡15とビデオプロセッサ13とが電気的に接続されることで、内視鏡15とビデオプロセッサ13との間で電力および各種のデータもしくは情報(例えば、撮像された映像のデータもしくは各種の制御情報)の送受信が可能となる。これらの電力および各種のデータもしくは情報は、スコープ23の内部に挿通された伝送ケーブル37(図3参照)を介して、プラグ部25から軟性部側に伝送される。また、硬性部29の内側に設けられたイメージセンサ39(図3参照)から出力される撮像画像のデータは、伝送ケーブル37を介して、プラグ部25からビデオプロセッサ13に伝送される。また、軟性部27は、内視鏡15の手元操作部41(図5参照)への入力操作に応じて、可動(例えば屈曲)する。内視鏡15の手元操作部41は、例えばビデオプロセッサ13に近い内視鏡15の基端側に配置される。
 ビデオプロセッサ13は、伝送ケーブル37を介して伝送された画像のデータに対し、所定の画像処理(上述参照)を施し、画像処理後の画像のデータを表示データとして生成変換して、3Dモニタ17に出力する。
 3Dモニタ17は、例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)もしくは有機(Electroluminescence)等の表示デバイスを用いて構成される。3Dモニタ17は、ビデオプロセッサ13により画像処理が施された後の画像(つまり、内視鏡15によって撮像された観察対象の画像)のデータを表示する。3Dモニタ17に表示された画像は、例えば内視鏡15を用いた手術中に医者等によって視認される。実施の形態1では、3Dモニタ17は、上述したように、観察対象が撮像された画像を3D映像で表示可能である。
 図2は、スコープ23の先端の外観を示す斜視図である。スコープ23の先端には、右眼用撮像窓43、左眼用撮像窓45、右眼用白色光照射窓47、左眼用白色光照射窓49、右眼用励起光照射窓51、および左眼用励起光照射窓53が配置される。なお、右眼用白色光照射窓47および左眼用白色光照射窓49と、右眼用励起光照射窓51および左眼用励起光照射窓53とは互いに上下で入れ替わるようにそれぞれ配置されてもよい。
 右眼用白色光照射窓47、左眼用白色光照射窓49には、観察対象を白色光(つまり、通常のRGB(Red Green Blue)の可視光)で照射するための白色光照明部55(図3参照)がそれぞれ当接するように配置される。白色光照明部55には、それぞれ光ファイバ57(図3参照)によって基端側の可視光源59(図5参照)から照射された白色光が導光される。なお、基端側に可視光源59が配置されず、例えば白色光照明部55に白色光を照射可能な白色LED(図示略)がそれぞれ直接に配置されてもよい。この場合、それぞれの白色LEDから照射された白色光が白色光照明部55を介して右眼用白色光照射窓47、左眼用白色光照射窓49から観察対象に照射される。
 右眼用励起光照射窓51、左眼用励起光照射窓53には、観察対象をIR帯(つまり、IR領域)の励起光(以下、「IR励起光」という)で照射するための励起光照明部61(図3参照)がそれぞれ当接する。励起光照明部61には、それぞれ光ファイバ63(図3参照)によって基端側のIR励起光源65(図5参照)から照射されたIR励起光が導光される。なお、基端側にIR励起光源65が配置されず、例えば励起光照明部61にIR帯の励起光を照射可能なIR-LED(図示略)がそれぞれ直接に配置されてもよい。この場合、それぞれのIR-LEDから照射されたIR帯の励起光が励起光照明部61を介して右眼用励起光照射窓51、左眼用励起光照射窓53から観察対象に照射される。
 ここで、IR励起光は、人体である被検体に投与されて患部に集積する特性を有するICG(インドシアニングリーン)などの蛍光薬剤(蛍光物質の一態様)を照射することでその蛍光薬剤を励起させて蛍光を発光させる役割を有する。IR励起光は、例えば690nm~820nm程度の波長帯域を有する近赤外光である。右眼用撮像窓43の裏側(つまり、背面側)には、観察対象を撮像するための右眼カメラ19(図5参照)が配置される。同様に、左眼用撮像窓45の裏側(つまり、背面側)には、観察対象を撮像するための左眼カメラ21(図5参照)が配置される。なお、実施の形態1では、照射される光の種類として、白色光とIR励起光とを例示しているが、白色光と他の特殊光が照射されてもよい。他の特殊光としては、例えば5-ALA(アミノレブリン酸)などの蛍光薬剤(蛍光物質の一態様)を励起するための紫外領域の励起光を用いてもよい。
 図3は、スコープ内に配置される右眼カメラ19の構成を示す縦断面図である。右眼カメラ19では、観察対象側(つまり、対物側)から順に光軸に沿って、負レンズ67、IRカットフィルタ69、対物カバーガラス71、絞り73、第1レンズ75、スペーサ77、第2レンズ79、第3レンズ81、および第4レンズ83が配置される。
 IRカットフィルタ69は、右眼カメラ19に入射するIR帯(つまり、波長700nm以上の波長帯域)の光の透過をカット(遮断)する。つまり、IRカットフィルタ69は、第4レンズ83よりも後段側(つまり、後側)に配置されるイメージセンサ39にIR帯の光を結像させず、透過する波長700nm未満の波長帯域の白色光(つまり、可視光)をイメージセンサ39に結像させる。
 IRカットフィルタ69、対物カバーガラス71、絞り73、第1レンズ75、スペーサ77、第2レンズ79、第3レンズ81、および第4レンズ83は、筒状となったレンズホルダ85の内方に収容されることにより、光学系であるレンズユニット87を構成する。レンズユニット87は、硬性部29の先端に設けられる先端フランジ部89の保持穴に保持される。先端フランジ部89は、例えばステンレスなどの金属により略円板状に形成される。先端フランジ部89は、右眼カメラ19および左眼カメラ21の各レンズユニット87の他、白色光照明部55、励起光照明部61もそれぞれの保持穴で保持する。
 前部が先端フランジ部89に保持されたレンズユニット87の後部には、筒状の撮像素子保持部材91がレンズホルダ85の外周に固定される。撮像素子保持部材91は、例えばステンレスなどの金属からなる。撮像素子保持部材91の後部には、センサカバーガラス93およびイメージセンサ39を保持するセンサ保持部95が内周に形成される。撮像素子保持部材91は、センサ保持部95にイメージセンサ39を固定することで、レンズユニット87とイメージセンサ39とを位置決め固定する。センサカバーガラス93の前面には、バンドカットフィルタ97が設けられる。
 バンドカットフィルタ97は、例えば、被検体に投与されるICG(インドシアニングリーン)等の蛍光薬剤を励起させて蛍光発光させるためのIR励起光の波長帯域を含む波長700nm~830nmの光の透過をカット(遮断)する。バンドカットフィルタ97は、例えば蒸着によりセンサカバーガラス93の前面に形成される。
 レンズユニット87は、観察対象からの光(例えば、患部等で反射した白色光、患部等の蛍光薬剤の蛍光発光により生じた蛍光)を集光し、イメージセンサ39の撮像面に結像させる。スペーサ77は、第1レンズ75と第2レンズ79の間に介在して配置され、これらの位置を安定させる。対物カバーガラス71は、レンズユニット87を外部から保護する。
 撮像素子保持部材91は、レンズユニット87とセンサカバーガラス93とを位置決め固定する。センサカバーガラス93は、イメージセンサ39の撮像面に配置され、撮像面を保護する。イメージセンサ39は、例えばIR光、赤色光、青色光および緑色光を同時に受光可能な単板式の固体撮像素子である。イメージセンサ39は、背面にセンサ基板99を有する。
 左眼カメラ21は、図3に示すIRカットフィルタ69を有しない点を除き、図3に示した右眼カメラ19と同一の構成を有する。即ち、左眼カメラ21では、観察対象側(つまり、対物側)から光軸に沿って、負レンズ67、対物カバーガラス71、絞り73、第1レンズ75、スペーサ77、第2レンズ79、第3レンズ81、および第4レンズ83がレンズホルダ85に収容され、レンズユニット87を構成する。レンズユニット87は、前部が先端フランジ部89に固定されるとともに、後部にセンサ保持部95が固定される。センサ保持部95は、センサカバーガラス93およびイメージセンサ39を保持する。センサカバーガラス93の前面には、バンドカットフィルタ97が設けられている。
 なお、図3では、バンドカットフィルタ97は、それぞれセンサカバーガラス93の前面に形成されるが、対物カバーガラス71の裏面に形成されてもよい。
 図4は、硬性部29を被写体側から見た正面図である。ところで、内視鏡15は、硬性部29の先端面101が略円形状となる。ここで、硬性部29の先端面101において、硬性部29の軸線103(図3参照)に直交する第一仮想線105を設定する。また、硬性部29の先端面101において、軸線103および第一仮想線105に直交する第二仮想線107を設定する。この場合に、内視鏡15では、複数のカメラ(右眼カメラ19、左眼カメラ21)が、第一仮想線105を挟む硬性部29の左右に配置される。
 複数のカメラ(右眼カメラ19、左眼カメラ21)は、それぞれの撮像中心109が第二仮想線107に対して第一仮想線105に沿う方向にずれて配置される。撮像中心109は、撮像軸上の一点である。また、撮像中心109は、撮像軸そのものであってもよい。実施の形態1の内視鏡15では、右眼カメラ19、左眼カメラ21が図4の下側にずれている。
 ここで、撮像軸とは、右眼カメラ19および左眼カメラ21のそれぞれに搭載されるイメージセンサ39の撮像面(受光面)の中心を通る軸線である。撮像中心109は、右眼カメラ19および左眼カメラ21のそれぞれに搭載されるイメージセンサ39の撮像面(受光面)の中心であってもよいし、その中心を通る軸線であってもよい。例えば、右眼カメラ19および左眼カメラ21のそれぞれにおけるレンズユニット87およびイメージセンサ39がともに軸線103と平行に配置されている場合には(図3参照)、撮像軸は撮像中心109を通過する。なお、撮像中心109は、先端面101の負レンズ67の中心(つまり撮像窓中心)と一致してもよいし、一致しなくてもよい。
 また、実施の形態1の内視鏡15では、2つの右眼カメラ19、左眼カメラ21は、先端面101において、それぞれの撮像窓中心同士を結ぶ線分111が第二仮想線107と平行となる。従って、この線分111の中点113は、軸線103に対して距離dで離間(オフセット)して配置されている。
 内視鏡15では、右眼カメラ19、左眼カメラ21のそれぞれが、撮像中心109と同軸のレンズユニット87を備える。上記の図3に示した撮像素子保持部材91は、このレンズユニット87に対してイメージセンサ39を位置決め固定している。
 図3に示すように、撮像素子保持部材91は、イメージセンサ39に接続された伝送ケーブル37を収容するケーブル収容部115を有する。伝送ケーブル37には、可撓基板を使用することができる。
 可撓基板としては、複数の帯状薄板からなる導体を絶縁シート材で覆って、可撓性を有する帯状ケーブルに形成したFFC(フレキシブル・フラット・ケーブル)や、可撓性を有する絶縁基板に線状導体をパターン印刷したFPC(フレキシブル・プリント・配線板)等を用いることができる。
 右眼カメラ19および左眼カメラ21のそれぞれに導通接続されたそれぞれの可撓基板は、ケーブル収容部115に収容される。この可撓基板は、伝送ケーブル37に各回路導体が集約され、スコープ23の内部に挿通される。
 ケーブル収容部115は、張り出し部117を有する。張り出し部117は、イメージセンサ39の外形から軸線103に直交する方向にはみ出した伝送ケーブル37の屈曲部119を収容する。張り出し部117は、撮像素子保持部材91に円筒状で形成したケーブル収容部115の壁部を薄厚とすることで形成される。撮像素子保持部材91は、この張り出し部117の位置する側が、撮像中心109から半径方向外側に張り出している。実施の形態1では、図4に示すように、張り出し部117は、右眼カメラ19、左眼カメラ21におけるそれぞれの撮像素子保持部材91の上側から上方に向かって張り出している。
 実施の形態1に係る内視鏡15では、右眼カメラ19、左眼カメラ21におけるそれぞれのレンズユニット87と同軸の撮像中心109が、張り出し部117の張り出し方向(上方向)と反対方向で、第一仮想線105に沿う方向(下方向)にずれて配置されている。
 張り出し部117に収容される屈曲部119は、鋭角αで屈曲される。伝送ケーブル37は、イメージセンサ39との接続直後が鋭角αに曲げられることにより、軸線103の近傍に配置されて、スコープ23の軸線近傍に沿って挿通可能となっている。
 張り出し部117には、接着材121が充填される。張り出し部117に収容された屈曲部119は、この接着材121に埋入されることで、撮像素子保持部材91と一体に固定されて保持される。
 次に、実施の形態1に係る内視鏡システム11のハードウェア構成例を説明する。
 図5は、実施の形態1に係る内視鏡システム11のハードウェア構成例を示すブロック図である。内視鏡15は、硬性部29に設けられた右眼カメラ19、左眼カメラ21が、第1駆動回路123を備える。
 第1駆動回路123は、駆動部として動作し、イメージセンサ39の電子シャッタのオンオフを切り替える。なお、第1駆動回路123は、右眼カメラ19および左眼カメラ21のいずれにも配置されず、ビデオプロセッサ13に配置されてもよい。イメージセンサ39は、第1駆動回路123によって電子シャッタがオンにされた場合、撮像面に結像した光学像を光電変換し、画像信号を出力する。光電変換では、光学像の露光および画像信号の生成および読み出しが行われる。
 IRカットフィルタ69は、イメージセンサ39の受光側に配置され、レンズを通る光のうち、被写体で反射されたIR励起光を遮光し、IR励起光により励起された蛍光発光の光および可視光を透過させる。なお、図5ではIRカットフィルタ69はいずれか一方(例えば右眼カメラ19)のみに設けられているが、IRカットフィルタ69は両方(つまり右眼カメラ19および左眼カメラ21)に設けられてもよいし、その両方に設けられなくてもよい。
 ビデオプロセッサ13は、コントローラ125、第2駆動回路127、IR励起光源65、可視光源59、イメージプロセッサ129、およびディスプレイプロセッサ131を備える。
 コントローラ125は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)あるいはFPGA(Field Programmable Gate Array)を用いて構成されるプロセッサを有し、このプロセッサにより、内視鏡15による撮像処理に関する各種の動作の実行を統括的に制御する。コントローラ125は、第2駆動回路127に対して発光の有無を制御する。また、コントローラ125は、右眼カメラ19および左眼カメラ21のそれぞれに設けられた第1駆動回路123に対して電子シャッタのオンオフを切り替えるための駆動制御を実行する。
 第2駆動回路127は、例えば光源駆動回路であり、コントローラ125の制御の下で、IR励起光源65を駆動し、IR励起光を連続発光させる。IR励起光源65は、撮像期間において、継続して点灯(連続点灯)し、IR励起光を被写体に連続して照射する。
 この撮像期間は、観察部位を内視鏡15で撮像する期間を示す。撮像期間は、例えば、内視鏡システム11が、ビデオプロセッサ13あるいは内視鏡15に設けられたスイッチをオンにするユーザ操作を受け付けてから、オフにするユーザ操作を受け付けるまでの期間である。
 第2駆動回路127は、IR励起光源65を駆動し、IR励起光を所定間隔でパルス発光させてもよい。この場合、IR励起光源65は、撮像期間において、断続的に点灯(パルス点灯)し、IR励起光を被写体にパルス照射する。なお、撮像期間において、IR励起光が発光され、可視光が発光されないタイミングが、蛍光発光画像を撮像するタイミングとなる。
 IR励起光源65は、LD(図示略:Laser Diode)を有し、LDから光ファイバ57により導光された690~820nmの波長帯域の波長を有するレーザ光(IR励起光の一例)を出射する。なお、ICG等の薬品の濃度や被写体となる患者の体調に応じて蛍光発光の態様が変わるので、690~820nmの波長帯域の波長を有するレーザ光が複数(例えば、780nm,808nm)同時に出射されてもよい。
 第2駆動回路127は、可視光源59を駆動し、可視光(例えば白色光)をパルス発光させる。可視光源59は、撮像期間において、可視光画像を撮像するタイミングで、可視光を被写体にパルス照射する。なお、一般に、蛍光発光の光は微弱な明るさである。一方、可視光は短いパルスでも強い光が得られる。
 内視鏡システム11の光源装置は、可視光と励起光とを交互に出力する。内視鏡システム11では、可視光の照射タイミングと、励起光により発生した蛍光画像の撮像タイミングが重複しないようになされている。
 イメージプロセッサ129は、イメージセンサ39から交互に出力される蛍光発光画像と可視光画像とに対して画像処理し、画像処理後の画像データを出力する。
 例えば、イメージプロセッサ129は、蛍光発光画像の輝度が可視光画像の輝度と比べて低い場合、蛍光発光画像のゲインを上げるように、ゲインコントローラとして、ゲイン調整する。イメージプロセッサ129は、蛍光発光画像のゲインを上げる代わりに、可視光画像のゲインを下げることで、ゲイン調整してもよい。イメージプロセッサ129は、蛍光発光画像のゲインを上げ、かつ、可視光画像のゲインを下げることで、ゲイン調整してもよい。イメージプロセッサ129は、蛍光発光画像のゲインを可視光画像よりも大きく上げ、かつ、可視光画像のゲインを上げることで、ゲイン調整してもよい。
 ディスプレイプロセッサ131は、イメージプロセッサ129から出力される画像データを、映像表示に適したNTSC(National Television System Committee)信号等の表示用信号に変換して3Dモニタ17に出力する。
 3Dモニタ17は、ディスプレイプロセッサ131から出力される表示用信号に従い、蛍光発光画像と可視光画像とを、例えば同一の領域に表示する。3Dモニタ17は、可視光画像および蛍光画像を同一の画面上に、重畳又は個別に表示する。これにより、ユーザは、3Dモニタ17に表示された蛍光発光画像と可視光画像とを、同一撮像画像に重ねて、或いは個別に見ながら、観察対象を高精度に確認できる。
 次に、上記した蛍光発光画像と可視光画像とを表示する画像処理の他に、内視鏡15の複眼化により、内視鏡システム11が可能となる拡張機能の概略について説明する。
(波長特性強調処理)
 内視鏡システム11では、プロセッサの一例としてのビデオプロセッサ13(例えばイメージプロセッサ129)は、連動する一対の右眼カメラ19、左眼カメラ21のそれぞれにより撮像された、異なる波長特性の複数の撮像画像を画像処理し、それぞれの撮像画像の差異を抽出した合成画像を生成して3Dモニタ17に表示してよい。この場合、右眼カメラ19および左眼カメラ21のそれぞれは、同一仕様のカメラとすることができる。また、右眼カメラ19および左眼カメラ21のそれぞれは、異なる仕様のカメラとすることもできる。この場合、可視光用のカメラは、IRカットフィルタ69を省略することができる。
(距離測定処理)
 また、内視鏡システム11は、プロセッサの一例としてのビデオプロセッサ13(例えばイメージプロセッサ129)は、連動する一対のカメラのそれぞれにより撮像された、一対の撮像画像に現れる視差により、内視鏡15から被写体までの距離を測距することが可能となる。この場合、右眼カメラ19および左眼カメラ21のそれぞれは、同一仕様のカメラとなる。ここで、視差とは、観察位置によって空間内の物体相互位置の見え方が変化することをいう。被写体までの距離は、例えば二つのカメラの距離(既知)を用いた三角測量で測距できる。
 この場合の条件として、二つのカメラは、仕様を完全に一致させる。二つのカメラの光軸を平行とする。二つのカメラは、光軸だけが一定距離で離れている。これらの撮像条件の下、二つのカメラの撮像面が同一平面となるようにする。このとき、二つの光軸と被写体における同一点を通る平面は、エピポーラ面(Epipolar plane)となる。エピポーラ面と画像面との交差線は、エピポーラ線(Epipolar Line)となる。
 以上のような条件下において、2つの撮像画像上の同じ被写体における同一点の像の座標のずれ(差)が視差となる。視差を求める際には、二つのカメラを平行等位に置くことにより、同一点の探索が直線方向の一次元で済む。これは二つのカメラの撮像画像間にエピポーラ拘束という条件が存在するためである。エピポーラ拘束は、一方のカメラに映った点は、他方のカメラのエピポーラ線上に投影されるという現象である。被写体までの距離は、このようにして二つのカメラで捉えた撮像画像における同一点の位置ずれ(即ち、視差)により求めることができる。なお、視差により被写体までの距離を算出する具体的な数式等は周知であるのでここでは省略する。
(立体画像処理)
 また、内視鏡システム11は、プロセッサの一例としてのビデオプロセッサ13(例えばイメージプロセッサ129)は、連動する一対のカメラのそれぞれにより撮像された、視差が形成された一対の撮像画像のそれぞれを画像処理し、奥行き情報を反映させた立体画像を生成して3Dモニタ17に表示することが可能となる。この場合、右眼カメラ19および左眼カメラ21のそれぞれは、同一仕様のカメラとなる。
(被写界深度強調処理)
 また、内視鏡システム11は、プロセッサの一例としてのビデオプロセッサ13(例えばイメージプロセッサ129)は、連動する一対のカメラのそれぞれにより撮像された、焦点距離の異なる一対の撮像画像を画像処理し、被写界深度の深い合成画像(深度合成画像)を生成して3Dモニタ17に表示することが可能となる。この場合、右眼カメラ19および左眼カメラ21のそれぞれは、仕様の異なるカメラとなる。
(ハイブリットズーム処理)
 また、内視鏡システム11は、プロセッサの一例としてのビデオプロセッサ13(例えばイメージプロセッサ129)は、連動する一対のカメラのそれぞれにより撮像された、異なる画角または倍率の複数の撮像画像を画像処理し、異なる視野を同時に撮像した合成画像を生成して3Dモニタ17に表示することが可能となる。いわゆる、鳥の眼カメラ(ズームとパンが同時)が可能となる。この場合、右眼カメラ19および左眼カメラ21のそれぞれは、仕様の異なるカメラとなる。
(高感度化処理)
 また、内視鏡システム11は、一方のカメラにモノクロ用のイメージセンサ39を設け、他方のカメラにカラー用のイメージセンサ39を設けた構成とすることができる。一般的に、モノクロ用のイメージセンサ39は、カラー用のイメージセンサ39に比べ高いISO感度を有する。内視鏡システム11は、カラー用のイメージセンサ39では光量が不足して撮像できない部分を、モノクロ用のイメージセンサ39で撮像した画像情報で補完し、より精細な合成画像とすることが可能となる。
 次に、上記した実施の形態1に係る内視鏡15の作用を説明する。
 実施の形態1に係る内視鏡15は、スコープ23の先端に設けられ、略円筒状(円筒状を含む。以下同様。)に形成されて先端面101が略円形状(円形状を含む。以下同様。)となる硬性部29を有する。内視鏡15は、先端面101において硬性部29の軸線103に直交する第一仮想線105を挟む硬性部29の左右に配置される複数のカメラを有する。この複数のカメラは第1のカメラ(例えば右眼カメラ19、あるいは左眼カメラ21)を含み、第1のカメラは撮像中心109が軸線103および第一仮想線105のそれぞれに直交する第二仮想線107から第一仮想線105に沿う方向にずれて配置される。
 実施の形態1に係る内視鏡15では、円筒状に形成される硬性部29の内方に、複数のカメラ(例えば、右眼カメラ19、左眼カメラ21)が配置される。右眼カメラ19、左眼カメラ21は、撮像窓からの撮像光を取り入れて被写体の情報を画像データとして得る。ここで仮にカメラは、1つとし、カメラの撮像中心109に沿う方向の投影形状が略円形状であるとする。また、カメラと一体となる撮像窓は、硬性部29の先端面101で他部材に比べ最も大きな占有面積の確保が必要であるとする。更に、先端面101には、複数の他部材(例えば光照射窓)が点対称で配置されているとする。この場合、カメラは、硬性部29の軸線103に撮像中心109を一致させて設けることが、周囲に配置される他部材との干渉を回避しやすい配置となる。
 一方、カメラが複数である場合を考える。ここで、硬性部29の先端面101において、硬性部29の軸線103に直交する第一仮想線105を設定する。また、硬性部29の先端面101において、軸線103および第一仮想線105に直交する第二仮想線107を設定する。つまり、第一仮想線105および第二仮想線107は、先端面101の軸線位置でXY座標軸状となって直交する。複数の他部材が第二仮想線107を挟む上下で配置されている場合、複数のカメラ(右眼カメラ19、左眼カメラ21)は、これら他部材の間で、第二仮想線107に沿う方向で横並びに配置することが、他部材との干渉を回避しやすくできる。即ち、右眼カメラ19、左眼カメラ21は、撮像中心109が第二仮想線上となる配置となる。
 ところが、カメラは、外形状が、略円形状と限らない場合がある。即ち、撮像中心109を中心とした略円形状から一部分が片寄って張り出すような形状である。この場合、カメラは、撮像中心109を第二仮想線上に配置し、張り出し部117が第一仮想線105に沿う方向のいずれか一方(上記の例では上下方向のいずれか一方)にあると、この張り出し部117が内視鏡15の筐体内の他部材と干渉しやすくなる。
 これに対し、張り出し部117を、第二仮想線107に沿う方向の左右両側に配置することで、張り出し部117の配置空間を捻出する配置(カメラ側部の空間を利用する配置)もあるが、この方式では例えばカメラが2つの場合、左右のカメラ毎に異形状の伝送ケーブル37を準備しなければならなくなる。複数のカメラ毎に、異なる種類の伝送ケーブル37を揃えることは、部品管理が煩雑になるとともに、部品コスト上昇の要因ともなる。
 そこで、実施の形態1に係る内視鏡15では、硬性部29の左右に配置された右眼カメラ19、左眼カメラ21は、撮像中心109が第二仮想線107に対して第一仮想線105に沿う方向にずれて配置される。このずれ量は、例えば張り出し部117の張り出し寸法の半分となる。これにより、円形の内側で他部材に包囲された限られたスペースにおいて、内視鏡15の筐体内の他部材の配置面積も確保(光照射窓も最大限に確保)できる。
 即ち、上下の他部材により挟まれた空きスペースの中心に、カメラ最大外径の中心を一致させて、無駄な空きスペースが生じないレイアウトが可能となる。この場合、撮像中心109は、硬性部29の軸線103を通る第二仮想線107からずれる。撮像中心109は、軸線103から離れることになるが、このようなオフセットさせた配置によれば、硬性部29の限られた収容スペースでの高密度な部品の配置を実現させることができ、硬性部29の外径拡大を抑制する大きな効果が得られる。この場合、伝送ケーブル37は、左右勝手が生じない。その結果、内視鏡15は、硬性部29において、右眼カメラ19、左眼カメラ21を上記のようなオフセットさせた配置とすることにより、伝送ケーブル37を共通部品としながら、硬性部29の外径拡大を抑制することが可能となる。
 従って、実施の形態1に係る内視鏡15によれば、2眼以上の内視鏡15において外径の拡大を抑制することができる。
 また、内視鏡15では、複数のカメラは第2のカメラ(例えば左眼カメラ21、あるいは右眼カメラ19)を含み、第1のカメラ(例えば右眼カメラ19、あるいは左眼カメラ21)および第2のカメラ(例えば左眼カメラ21、あるいは右眼カメラ19)は、先端面101においてそれぞれの撮像窓中心同士を結ぶ線分111が第二仮想線107と平行となり、かつこの線分111の中点113が軸線103に対して離間して配置される。
 この内視鏡15では、右眼カメラ19、左眼カメラ21の撮像窓中心同士を結ぶ線分111が第二仮想線107と平行となる。この線分111の中点113は、軸線103に対して離間する。線分111の離間する方向は、張り出し部117と反対側となる。即ち、線分111に位置する撮像中心109が、第二仮想線107に対して張り出し部117と反対側に移動して配置される。この構成では、2つの撮像中心109を結ぶ線分111が、第二仮想線107と平行となるので、2つのカメラが、第二仮想線107を挟んで上下にずれて配置されるレイアウト(例えば図6参照)が排除されることになる。
 なお、2つのカメラは、第二仮想線107を挟んで双方を上下逆にずらして配置する場合(即ち、図6の場合)、それぞれのカメラの取得画像の上下を逆とする必要がある。つまり、一方のカメラの張り出し部117が上側、他方のカメラの張り出し部117が下側となる。この場合、一方の画像データを180°回転する画像処理が必要となる。
 これに対し、2つの撮像中心109を結ぶ線分111が第二仮想線107と平行となる向きで右眼カメラ19、左眼カメラ21を配置した内視鏡15では、左右のカメラは、被写体の上下撮像方向が反転しないので、不要な画像処理を省くことができる。その結果、内視鏡15は、右眼カメラ19、左眼カメラ21を、無駄な空間を省くために、撮像中心109が同方向(上記の例では下方向)にオフセットすることで、伝送ケーブル37を共通部品としながら、硬性部29の外径拡大を抑制し、且つ煩雑な画像処理が生じないようにできる。
 また、内視鏡15では、第1のカメラ(例えば右眼カメラ19、あるいは左眼カメラ21)は、撮像中心109と同軸のレンズユニット87と、このレンズユニット87に対してイメージセンサ39を位置決め固定する撮像素子保持部材91と、を有する。
 この内視鏡15では、撮像中心109と同軸にレンズユニット87が配置される。この場合、それぞれのレンズユニット87は、先端側が、硬性部29の先端に設けられる金属製の先端フランジ部89に固定されて支持される。撮像素子保持部材91は、それぞれのレンズユニット87の後端側の外周に、保持穴の内周を挿入して固定される。レンズユニット87に固定された撮像素子保持部材91には、レンズユニット87の結像側に受光面を配置したイメージセンサ39が固定される。つまり、撮像素子保持部材91は、右眼カメラ19、左眼カメラ21において、レンズユニット87とイメージセンサ39とを位置決めしながら、イメージセンサ39を固定保持する。これにより、右眼カメラ19、左眼カメラ21は、簡素な構造(少ない部品点数)で、硬性部29の外径拡大を抑制しながら、高強度の先端フランジ部89に、レンズユニット87とイメージセンサ39とを一体に位置決め固定することができる。
 また、内視鏡15では、撮像素子保持部材91は、イメージセンサ39に接続された伝送ケーブル37を収容するケーブル収容部115を有する。
 この内視鏡15では、イメージセンサ39からの電気信号を引き出すための伝送ケーブル37を、限られた硬性部29の内部空間で、撮像素子保持部材91に確保することができる。伝送ケーブル37は、スコープ23の硬性部29からプラグ部25にわたって通されているため、軟性部27の湾曲により外部応力が作用する。伝送ケーブル37は、先端の可撓基板部分133におけるケーブル導体が、センサ基板99に設けられた複数のバンプ135(図3参照)と半田付けなどにより導通接続される。伝送ケーブル37に作用した外部応力は、伝送ケーブル37とイメージセンサ39の微細なケーブル接続部(バンプ135との半田付け部)に悪影響を及ぼす可能性がある。そこで、イメージセンサ39を固定する撮像素子保持部材91に、イメージセンサ39とともに伝送ケーブル37の端部を固定できるケーブル収容部115を設けることにより、他の固定部材を使用せずに、硬性部29の外径拡大を抑制しながら、ケーブル接続部に悪影響を及ぼす外部応力を遮断することができる。
 また、内視鏡15では、ケーブル収容部115は、イメージセンサ39の外形から軸線103に直交する方向にはみ出した伝送ケーブル37の屈曲部119を収容する張り出し部117を有する。
 この内視鏡15では、伝送ケーブル37の屈曲部119を収容する張り出し部117が、撮像素子保持部材91のケーブル接続部に形成されている。イメージセンサ39は、四角形のセンサ基板99の背面に、伝送ケーブル37との接続のための多数のバンプ135が縦横に配列されている。このバンプ135は、情報量の増加に伴って数が増えると、センサ基板99とほぼ同じ面積で配列されることになる。この場合、バンプ135は、センサ基板99と平行に配置される四角形の可撓基板などにより接続される。この可撓基板は、伝送ケーブル37の末端と同一またはその一部分とされる場合もある。従って、センサ基板99と略同一面積で形成された伝送ケーブル37の可撓基板は、四角形のいずれか一つの辺部で折り曲げられて伝送ケーブル37とする必要が生じる。その結果、伝送ケーブル37は、この折り曲げ部が、屈曲部119となって、センサ基板99の外形から軸線103に直交する方向にはみ出すことになる。撮像素子保持部材91は、この屈曲部119を収容する張り出し部117が、ケーブル収容部115に設けられている。撮像素子保持部材91は、この張り出し部117をケーブル収容部115に設けることにより、屈曲部119が他部材と干渉しないように保護することができる。
 また、内視鏡15では、撮像中心109は、張り出し部117の張り出し方向と反対方向で、第一仮想線105に沿う方向にずれて配置される。
 この内視鏡15では、硬性部29の先端面101において、屈曲部119を収容した張り出し部117は、撮像窓の外形よりもはみ出している。この張り出し部117は、屈曲部119を保護する上での必要な部分となる。撮像素子保持部材91は、この張り出し部117が外形から張り出すこととなる。そこで、内視鏡15では、撮像中心109は、張り出し部117の張り出し方向と反対方向にずれて配置されるように、右眼カメラ19、左眼カメラ21をオフセットさせることにより、無駄な空間を省いている。
 また、内視鏡15では、屈曲部119は、鋭角に屈曲されている。
 この内視鏡15では、一旦、撮像窓の外形よりもはみ出した屈曲部119を、撮像窓中心付近に戻すことができる。これにより、内視鏡15は、伝送ケーブル37が他部材と干渉することによる硬性部29の外径拡大を抑制することができる。
 また、内視鏡15では、屈曲部119は、張り出し部117に充填された接着材121に埋入されている。
 この内視鏡15では、屈曲部119が、張り出し部117に充填された接着材121に埋入されることにより、撮像素子保持部材91と一体に固定される。これにより、撮像素子保持部材91の張り出し部117は、曲げられることにより既に内部応力が生じている屈曲部119を、外部応力によってそれ以上の変位が生じないように補強および保護することができる。
 次に、上記した実施の形態1に係る内視鏡15の変形例を説明する。以下では、それぞれの変形例において内視鏡に用いる符号は実施の形態1に係る内視鏡15と同一の符号を用いることとする。
 図6は、実施の形態1に係る内視鏡15の第1変形例の正面図である。第1変形例に係る内視鏡15では、右眼カメラ19の張り出し部117が上側に配置され、左眼カメラ21の張り出し部117が下側に配置される。この場合、二つの撮像中心109を結ぶ線分111の中点113は、軸線103と一致するが、それぞれの撮像中心109は、第二仮想線107からオフセットされる。
 この第1変形例に係る内視鏡15によれば、同一の伝送ケーブル37を用いることができる。この場合、伝送ケーブル37の形状によってはレイアウトに有利となる場合がある。
 図7は、実施の形態1に係る内視鏡15の第2変形例の正面図である。第2変形例に係る内視鏡15では、右眼カメラ19の張り出し部117が上側に配置され、左眼カメラ21の張り出し部117が左側に配置される。
 この第2変形例に係る内視鏡15によれば、可撓基板が二種類となるが、右眼カメラ19、左眼カメラ21をそれぞれ硬性部29に組付けやすくすることができる。
 なお、図7の第2の変形例の場合、左眼カメラ21の張り出し部117は左側に配置され、左眼用白色光照射窓49および左眼用励起光照射窓53間のスペースを使用しないため、左眼カメラ21は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、左眼カメラ21の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。
 図8は、実施の形態1に係る内視鏡15の第3変形例の正面図である。第3変形例に係る内視鏡15では、右眼カメラ19の張り出し部117が上側に配置され、左眼カメラ21の張り出し部117が右側に配置される。
 この第3変形例に係る内視鏡15によれば、可撓基板が二種類となるが、右眼カメラ19、左眼カメラ21をそれぞれ硬性部29に組付けやすくすることができる。
 なお、図8の第3の変形例の場合、左眼カメラ21の張り出し部117は右側に配置され、左眼用白色光照射窓49および左眼用励起光照射窓53間のスペースを使用しないため、左眼カメラ21は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、左眼カメラ21の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。
 図9は、実施の形態1に係る内視鏡15の第4変形例の正面図である。第4変形例に係る内視鏡15では、右眼カメラ19の張り出し部117が右側に配置され、左眼カメラ21の張り出し部117が左側に配置される。
 この第4変形例に係る内視鏡15によれば、可撓基板が二種類となるが、右眼カメラ19、左眼カメラ21を硬性部29に組付けやすくすることができ、内視鏡15の上下方向のスペースを最大化できる。
 なお、図9の第4の変形例の場合、右眼カメラ19の張り出し部117は右側に配置され、右眼用白色光照射窓47および右眼用励起光照射窓51間のスペースを使用しないため、右眼カメラ19は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、右眼カメラ19の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。同様に、左眼カメラ21の張り出し部117は左側に配置され、左眼用白色光照射窓49および左眼用励起光照射窓53間のスペースを使用しないため、左眼カメラ21は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、左眼カメラ21の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。
 図10は、実施の形態1に係る内視鏡15の第5変形例の正面図である。第5変形例に係る内視鏡15では、右眼カメラ19の張り出し部117が左側に配置され、左眼カメラ21の張り出し部117が右側に配置される。
 この第5変形例に係る内視鏡15によれば、可撓基板が二種類となるが、右眼カメラ19、左眼カメラ21により3D映像を撮像する時の輻輳角を最大とすることができる。
 なお、図10の第5の変形例の場合、右眼カメラ19の張り出し部117は左側に配置され、右眼用白色光照射窓47および右眼用励起光照射窓51間のスペースを使用しないため、右眼カメラ19は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、右眼カメラ19の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。同様に、左眼カメラ21の張り出し部117は右側に配置され、左眼用白色光照射窓49および左眼用励起光照射窓53間のスペースを使用しないため、左眼カメラ21は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、左眼カメラ21の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。
 図11は、実施の形態1に係る内視鏡15の第6変形例の正面図である。第6変形例に係る内視鏡15では、右眼カメラ19の張り出し部117が左側に配置され、左眼カメラ21の張り出し部117が左側に配置される。
 この第6変形例に係る内視鏡15によれば、同形状の可撓基板を使用でき、製造時の部品コストを低減できる。
 なお、図11の第6の変形例の場合、右眼カメラ19の張り出し部117は左側に配置され、右眼用白色光照射窓47および右眼用励起光照射窓51間のスペースを使用しないため、右眼カメラ19は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、右眼カメラ19の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。同様に、左眼カメラ21の張り出し部117は左側に配置され、左眼用白色光照射窓49および左眼用励起光照射窓53間のスペースを使用しないため、左眼カメラ21は、その撮像中心109が第二仮想線107に対して第一仮想線105に沿って下側にずれて配置されなくてもよい。すなわち、左眼カメラ21の撮像中心109は、第二仮想線107に対して上側に配置されてもよく、第二仮想線107上に配置されてもよい。
 以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2019年1月9日出願の日本特許出願(特願2019-002004)に基づくものであり、その内容は本出願の中に参照として援用される。
 本開示は、2眼以上の内視鏡において外径の拡大を抑制することができる内視鏡として有用である。
15 内視鏡
19 右眼カメラ
21 左眼カメラ
23 スコープ
29 硬性部
37 伝送ケーブル
39 イメージセンサ
87 レンズユニット
91 撮像素子保持部材
101 先端面
103 軸線
105 第一仮想線
107 第二仮想線
109 撮像中心
111 線分
113 中点
115 ケーブル収容部
117 張り出し部
119 屈曲部
121 接着材

Claims (8)

  1.  スコープの先端に設けられ、略円筒状に形成されて先端面が略円形状となる硬性部と、
     前記先端面において前記硬性部の軸線に直交する第一仮想線を挟む前記硬性部の左右に配置される複数のカメラと、を備え、
     前記複数のカメラは第1のカメラを含み、前記第1のカメラは撮像軸が前記軸線および前記第一仮想線のそれぞれに直交する第二仮想線から前記第一仮想線に沿う方向にずれて配置される、
     内視鏡。
  2.  前記複数のカメラは第2のカメラを含み、
     前記第1のカメラおよび第2のカメラは、前記先端面においてそれぞれの前記撮像軸を結ぶ線分が前記第二仮想線と平行となり、かつこの線分の中点が前記軸線に対して離間して配置される、
     請求項1に記載の内視鏡。
  3.  前記第1のカメラは、前記撮像軸と同軸のレンズユニットと、このレンズユニットに対してイメージセンサを位置決め固定する撮像素子保持部材と、を有する、
     請求項1または2に記載の内視鏡。
  4.  前記撮像素子保持部材は、前記イメージセンサに接続された伝送ケーブルを収容するケーブル収容部を有する、
     請求項3に記載の内視鏡。
  5.  前記ケーブル収容部は、前記イメージセンサの外形から前記軸線に直交する方向にはみ出した前記伝送ケーブルの屈曲部を収容する張り出し部を有する、
     請求項4に記載の内視鏡。
  6.  前記撮像軸は、前記張り出し部の張り出し方向と反対方向で、前記第一仮想線に沿う方向にずれて配置される、
     請求項5に記載の内視鏡。
  7.  前記屈曲部は、鋭角に屈曲されている、
     請求項5または6に記載の内視鏡。
  8.  前記屈曲部は、前記張り出し部に充填された接着材に埋入されている、
     請求項5~7のうちいずれか一項に記載の内視鏡。
PCT/JP2019/038046 2019-01-09 2019-09-26 内視鏡 WO2020144901A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112019006606.4T DE112019006606T5 (de) 2019-01-09 2019-09-26 Endoskop
US17/369,444 US20210330177A1 (en) 2019-01-09 2021-07-07 Endoscope

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-002004 2019-01-09
JP2019002004A JP7227011B2 (ja) 2019-01-09 2019-01-09 内視鏡

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/369,444 Continuation US20210330177A1 (en) 2019-01-09 2021-07-07 Endoscope

Publications (1)

Publication Number Publication Date
WO2020144901A1 true WO2020144901A1 (ja) 2020-07-16

Family

ID=71521224

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/038046 WO2020144901A1 (ja) 2019-01-09 2019-09-26 内視鏡

Country Status (4)

Country Link
US (1) US20210330177A1 (ja)
JP (1) JP7227011B2 (ja)
DE (1) DE112019006606T5 (ja)
WO (1) WO2020144901A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112155497A (zh) * 2020-09-30 2021-01-01 山东威高手术机器人有限公司 一种光学三维内窥镜摄像模块
WO2022185957A1 (ja) * 2021-03-03 2022-09-09 パナソニックIpマネジメント株式会社 撮像装置および実装機
WO2022257946A1 (zh) * 2021-06-07 2022-12-15 上海微觅医疗器械有限公司 多光谱成像系统、成像方法和存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11903557B2 (en) * 2019-04-30 2024-02-20 Psip2 Llc Endoscope for imaging in nonvisible light
JP6993491B1 (ja) * 2020-06-29 2022-01-13 パナソニックi-PROセンシングソリューションズ株式会社 内視鏡製造方法およびカメラデバイスの製造方法
TWI803065B (zh) * 2021-11-23 2023-05-21 醫電鼎眾股份有限公司 方便組裝的內視鏡鏡頭組合
CN114326090B (zh) * 2022-02-28 2023-12-15 山东威高手术机器人有限公司 一种具有拓展景深的双目内窥镜、系统及成像方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60221719A (ja) * 1984-03-29 1985-11-06 Olympus Optical Co Ltd 固体撮像素子内蔵の内視鏡
JPH01307719A (ja) * 1988-06-07 1989-12-12 Olympus Optical Co Ltd 立体視内視鏡
JPH11290269A (ja) * 1998-04-09 1999-10-26 Olympus Optical Co Ltd 固体撮像装置
JP2014087483A (ja) * 2012-10-30 2014-05-15 Panasonic Corp 内視鏡
WO2014122843A1 (ja) * 2013-02-06 2014-08-14 オリンパスメディカルシステムズ株式会社 立体内視鏡
JP2017018415A (ja) * 2015-07-13 2017-01-26 株式会社フジクラ 撮像モジュール及び内視鏡

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4841391B2 (ja) 2006-10-17 2011-12-21 オリンパスメディカルシステムズ株式会社 内視鏡
JP7259218B2 (ja) 2017-06-16 2023-04-18 凸版印刷株式会社 光熱変換材料、光熱変換組成物、および光熱変換成形体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60221719A (ja) * 1984-03-29 1985-11-06 Olympus Optical Co Ltd 固体撮像素子内蔵の内視鏡
JPH01307719A (ja) * 1988-06-07 1989-12-12 Olympus Optical Co Ltd 立体視内視鏡
JPH11290269A (ja) * 1998-04-09 1999-10-26 Olympus Optical Co Ltd 固体撮像装置
JP2014087483A (ja) * 2012-10-30 2014-05-15 Panasonic Corp 内視鏡
WO2014122843A1 (ja) * 2013-02-06 2014-08-14 オリンパスメディカルシステムズ株式会社 立体内視鏡
JP2017018415A (ja) * 2015-07-13 2017-01-26 株式会社フジクラ 撮像モジュール及び内視鏡

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112155497A (zh) * 2020-09-30 2021-01-01 山东威高手术机器人有限公司 一种光学三维内窥镜摄像模块
WO2022185957A1 (ja) * 2021-03-03 2022-09-09 パナソニックIpマネジメント株式会社 撮像装置および実装機
WO2022257946A1 (zh) * 2021-06-07 2022-12-15 上海微觅医疗器械有限公司 多光谱成像系统、成像方法和存储介质

Also Published As

Publication number Publication date
JP2020110258A (ja) 2020-07-27
DE112019006606T5 (de) 2021-09-16
US20210330177A1 (en) 2021-10-28
JP7227011B2 (ja) 2023-02-21

Similar Documents

Publication Publication Date Title
WO2020144901A1 (ja) 内視鏡
US20210204803A1 (en) Image capture unit in a surgical instrument
US10809519B2 (en) Increased resolution and dynamic range image capture unit in a surgical instrument and method
US9254076B2 (en) Feature differentiation image capture unit and method in a surgical instrument
US9782056B2 (en) Image capture unit and method with an extended depth of field
US8684914B2 (en) Image capture unit and an imaging pipeline with enhanced color performance in a surgical instrument and method
JP2020168569A (ja) 外科手術器具の画像取込み装置
US8295693B2 (en) Dual optical path prism and camera in a minimally invasive surgical system
WO2012003230A1 (en) Surgical illuminator with dual spectrum fluorescence
JP2008514304A (ja) 内視鏡検査用の固体照明
TWI480017B (zh) 立體影像內視鏡、包含其之系統、及醫學立體影像之顯示方法
JP6461411B1 (ja) 内視鏡システム
JP6853403B1 (ja) 内視鏡モジュール、内視鏡、および内視鏡製造方法
JP6993491B1 (ja) 内視鏡製造方法およびカメラデバイスの製造方法
KR20200079617A (ko) 수술 동영상 생성 시스템
JP7251940B2 (ja) 斜視内視鏡
CN117615694A (zh) 多折光路成像系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19908188

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19908188

Country of ref document: EP

Kind code of ref document: A1