WO2021210089A1 - 撮像装置、内視鏡、内視鏡先端部 - Google Patents

撮像装置、内視鏡、内視鏡先端部 Download PDF

Info

Publication number
WO2021210089A1
WO2021210089A1 PCT/JP2020/016542 JP2020016542W WO2021210089A1 WO 2021210089 A1 WO2021210089 A1 WO 2021210089A1 JP 2020016542 W JP2020016542 W JP 2020016542W WO 2021210089 A1 WO2021210089 A1 WO 2021210089A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image sensor
signal line
lens
optical
Prior art date
Application number
PCT/JP2020/016542
Other languages
English (en)
French (fr)
Inventor
健夫 鈴木
鈴木 明
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2020/016542 priority Critical patent/WO2021210089A1/ja
Publication of WO2021210089A1 publication Critical patent/WO2021210089A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances

Definitions

  • the present invention relates to an image pickup device (image acquisition device), an endoscope, and an endoscope tip portion that generate a plurality of image pickup signals by a plurality of image pickup elements provided separately.
  • an image pickup device is provided with a plurality of separately provided image pickup elements in order to acquire, for example, a depth-enlarged image.
  • Japanese Patent Application Laid-Open No. 2017-148657 provides two CCDs for one objective lens, and combines two images obtained by the two CCDs to generate a depth-enlarged image.
  • An image capture device for surgical instruments is described.
  • the image capturing device described in the publication is used, for example, by being attached to a robot operating arm in a surgical robot.
  • a first signal line composed of a plurality of signal lines is connected to the first image sensor, and a second signal line composed of a plurality of signal lines is connected to the second image sensor. do.
  • the connection position of the first signal line and the connection position of the second signal line are close to each other, and the extension direction of the first signal line and the extension direction of the second signal line are the same.
  • the first signal line and the second signal line may be arranged in a confused manner, and excessive force may be applied to reduce the durability of the signal line. .. If the signal lines are designed to have a margin in the arrangement interval in order to avoid this, the diameter of the shaft will be increased.
  • Japanese Patent Application Laid-Open No. 2017-148657 does not describe a device for arranging a plurality of signal lines extending from a plurality of image pickup devices as described above.
  • the present invention has been made in view of the above circumstances, and is an imaging device, an endoscope, which can prevent confusion of a plurality of signal lines connected to a plurality of imaging elements and suppress an increase in the diameter of the shaft. It is intended to provide an endoscope tip.
  • the imaging device is a first imaging that generates a first imaging signal by imaging a lens that forms an optical image of a subject and a first optical image that is imaged by the lens.
  • a second image pickup element provided separately from the first image pickup element, which images the element and a second optical image formed by the lens to generate a second image pickup signal, and the first image pickup element.
  • a first signal line connected to the first imaging element and transmitting the first imaging signal, and a second signal line connected to the second imaging element and transmitting the second imaging signal.
  • the first image pickup element, the second image pickup element, the first signal line, and a tubular shaft along the optical axis direction of the lens for accommodating the second signal line are provided.
  • the first signal line is connected to the first image pickup element so as to extend from the first image pickup element in the first direction
  • the second signal line is from the second image pickup element. It is connected to the second image pickup element so as to extend in a second direction different from the first direction.
  • the endoscope is a first lens that images an optical image of a subject and a first optical image imaged by the lens to generate a first image pickup signal.
  • a first signal line connected to the first image sensor and transmitting the first image sensor, and a second signal line connected to the second image sensor and transmitting the second image sensor.
  • the first signal line is connected to the first image sensor so as to extend in the first direction from the first image sensor
  • the second signal line is , Is connected to the second image sensor so as to extend from the second image sensor in a second direction different from the first direction.
  • the tip of the endoscope is provided at the tip of the endoscope to be inserted into the subject, and has a lens for forming an optical image of the subject and a first optical image formed by the lens.
  • the first image pickup which captures an image and generates a first image pickup signal, and a second optical image image formed by the lens to generate a second image pickup signal.
  • a second image sensor provided separately from the element, a first signal line connected to the first image sensor and transmitting the first image sensor, and a second image sensor connected to the second image sensor.
  • the second signal line for transmitting the second image pickup signal, the first image pickup element, the second image pickup element, the first signal line, and the second signal line are housed.
  • a storage component along the optical axis direction of the lens is provided, and the first signal line is connected to the first image sensor so as to extend in the first direction from the first image sensor.
  • the second signal line is connected to the second image sensor so as to extend from the second image sensor in a second direction different from the first direction.
  • FIG. 5 is a cross-sectional view perpendicular to the insertion axis showing an example of arrangement of internal objects at the tip of the insertion portion of the endoscope according to the first embodiment.
  • the perspective view which shows the arrangement example of the beam splitter, the first image pickup element, and the second image pickup element at the tip part of the insertion part of the endoscope which concerns on the 1st Embodiment.
  • the figure which shows the modification of the beam splitter and the optical path length changing member in the 1st Embodiment above.
  • FIG. 5 is a chart showing various arrangement examples of a first signal line extending from the first image sensor and a second signal line extending from the second image sensor in the first embodiment.
  • the figure which shows the example of the image processing which aligns the up-down-left-right direction of a 1st image and a 2nd image performed by a processor in the 1st Embodiment above.
  • the figure which shows the example of the generation process of the depth-enlarged image by a processor in the 1st Embodiment above.
  • the first signal line extending from the first image sensor, the second signal line extending from the second image sensor, and the third signal line extending from the actuator.
  • the perspective view which shows an example of the arrangement of.
  • FIG. 5 is a perspective view showing a configuration example in which an actuator to which a third signal line is connected drives an NBI optical member in an optical path so as to be removable in the first embodiment.
  • FIG. 1 to 9 show the first embodiment of the present invention
  • FIG. 1 is a perspective view showing a configuration example of the endoscope device 1.
  • an imaging device image acquisition device
  • the endoscope device 1 of the present embodiment includes an endoscope 2, a light source device 3, a processor 4, a monitor 5, and a keyboard 6.
  • the endoscope 2 may be a rigid mirror.
  • the endoscope 2 may be for industrial use.
  • the endoscope 2 includes an insertion unit 11, an operation unit 15, and a universal cable 16.
  • the insertion portion 11 is an elongated portion to be inserted into a subject such as the body of a living body.
  • the insertion portion 11 includes a flexible tube portion (serpentine tube) 12, a curved portion 13, and a tip portion 14 from the proximal end side to the distal end side.
  • the flexible pipe portion 12 is a flexible pipe portion provided so as to extend from the tip end side of the operation portion 15.
  • the curved portion 13 is provided on the tip end side of the flexible pipe portion 12, and can be curved by operating the operating portion 15. By bending the curved portion 13, the direction in which the tip portion 14 faces, that is, the direction observed by the endoscope 2 can be changed.
  • the tip portion 14 is provided on the tip end side of the curved portion 13, includes an illumination lens 24a, and has a configuration related to imaging (first image pickup element 34) as described later with reference to FIGS. 2 and 3 and the like. And a configuration including the second image sensor 35).
  • the operation unit 15 is a portion to be gripped and operated by the user, and is provided with input devices such as a bending operation knob for bending the bending unit 13 and various scope switches including a switch for performing an imaging operation. There is.
  • the universal cable 16 extends from the operation unit 15 and is connected to the light source device 3 by the connector 17.
  • a light guide 24 for transmitting the illumination light generated by the light source device 3 and a first image sensor 34 are connected to the inside of the endoscope 2.
  • a first signal line 36 (see FIGS. 3, 5, etc.) and a second signal line 37 (see FIGS. 3, 5, etc.) connected to the second image sensor 35 are arranged. ing.
  • the light source device 3 includes a light source, and the illumination light emitted from the light source is incident on the incident end of the light guide 24 and transmitted to the exit end of the light guide 24 located in the tip portion 14 of the insertion portion 11. ..
  • the illumination light emitted from the exit end of the light guide 24 is irradiated to the subject by the illumination lens 24a that also serves as an illumination window.
  • the signal cable 18 is provided with a first signal line 36 branched from the connector 17 and connected to the first image sensor 34 and a second signal line 37 connected to the second image sensor 35. Has been postponed.
  • An electric connector 19 is provided at the tip of the signal cable 18, and the electric connector 19 is connected to the processor 4.
  • the first signal line 36 connected to the first image sensor 34 and the second signal line 37 connected to the second image sensor 35 are electrically connected to the processor 4.
  • a signal line (not shown) for the processor 4 and the light source device 3 to communicate with each other is also provided in the signal cable 18.
  • the connector 17 and the electric connector 19 may not be provided separately, and the function of the electric connector 19 may be integrally incorporated in the connector 17.
  • the first signal line 36 from the first image sensor 34 and the second signal from the second image sensor 35 are obtained.
  • the wire 37 is electrically connected to the processor 4 via the light source device 3.
  • the processor 4 includes an ASIC (Application Specific Integrated Circuit) including a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), and a storage device (or recording medium) such as a memory. ), By reading and executing the processing program stored in), it is assumed that the function of each part is fulfilled.
  • ASIC Application Specific Integrated Circuit
  • CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • storage device or recording medium
  • the present invention is not limited to this, and the processor 4 may be configured as, for example, a dedicated electronic circuit that fulfills the functions of each part.
  • the processor 4 supplies electric power to the first image sensor 34 and the second image sensor 35 and transmits a control signal to cause image pickup.
  • the first image pickup signal generated by the first image pickup element 34 performing an image pickup is transmitted to the processor 4 by the first signal line 36.
  • the second image pickup signal generated by the second image pickup element 35 performing the image pickup is transmitted to the processor 4 by the second signal line 37.
  • the processor 4 performs image processing on the first imaging signal to generate a first image, and performs image processing on the second imaging signal to generate a second image. Further, the processor 4 generates a display image from the generated first image and the second image.
  • the processor 4 generates a video signal for display from the display image and outputs the video signal to the monitor 5. Further, the processor 4 is a light source so that the brightness of the subject is appropriate based on the display image (or the first and / or the second image pickup signal, or the first and / or the second image). The amount of illumination light emitted by the device 3 is also controlled.
  • the monitor 5 is a display device that receives a video signal from the processor 4 and displays an endoscopic image.
  • the keyboard 6 is connected to the processor 4 and is an input device for inputting commands and data according to the user's operation to the processor 4.
  • various devices such as a mouse, a trackball, and a foot switch may be further provided as input devices.
  • FIG. 2 is a cross-sectional view perpendicular to the insertion axis showing an example of arrangement of internal objects at the tip portion 14 of the insertion portion 11 of the endoscope 2
  • FIG. 3 is a cross-sectional view at the tip portion 14 of the insertion portion 11 of the endoscope 2.
  • the direction from the tip 14 of the endoscope 2 toward the subject is the z direction, and the two directions orthogonal to the plane perpendicular to the z direction are x.
  • the direction and the y direction are the directions of the insertion axis at the tip portion 14 .
  • the light beam from the subject is incident on the lens 31 in the ⁇ z direction.
  • the x-direction and the y-direction are, for example, parallel to the directions of two sides of the image pickup device 34 arranged perpendicular to the optical axis O.
  • the tip portion 14 of the insertion portion 11 includes a tip portion main body 22 as a tip component portion inside the outer skin 21.
  • the tip body 22 extends along the direction of the optical axis O of the lens 31, and the insertion portion 11 including the tip body 22 is a cylindrical shaft having a central axis in the z direction.
  • the insertion portion 11 including the tip portion main body 22 houses a channel 23, a light guide 24, a light guide 25, an air supply / water supply channel 26, and an electric cable 27 such as a signal cable or a power supply cable. There is. Each of these members is inserted in the z direction.
  • the above-mentioned illumination lens 24a is located on the tip side of the light guide 24, the objective window 31d is located on the tip side of the lens 31, and the tip side opening 23a of the channel 23 is formed. , Each is arranged.
  • the illumination lens of the light guide 25 and the opening of the air supply / water supply channel 26 are not shown in FIG.
  • a lens 31, a prism 32 constituting a beam splitter, an optical path length changing filter 33, a first imaging element 34, and a second imaging element are included. 35 is stored.
  • a first signal line 36 and a second signal line 37 are housed in the tip main body 22. That is, the tip main body 22 as the tip component of the insertion portion 11 of the endoscope 2 functions as a storage component for accommodating the lens, prism, optical path length changing filter, image sensor, signal line, and the like.
  • the lens 31 In the lens 31, light (light rays) from the subject is incident through the objective window 31d, and the light rays from the subject are imaged as an optical image.
  • the prism 32 is arranged behind the lens 31 ( ⁇ z direction) along the optical axis O.
  • the prism 32 is configured as, for example, a composite prism in which a first prism 32a and a second prism 32b are bonded together on a beam split surface 32s.
  • the prism 32 functioning as a beam splitter splits the light rays from the lens 31 into a first light ray and a second light ray by the beam split surface 32s.
  • the optical path length changing filter 33 has an optical path length that makes the optical path length of the first ray imaged as the first optical image different from the optical path length of the second ray imaged as the second optical image. It is a changing member.
  • the optical path length changing filter 33 is provided, for example, in the optical path between the prism 32 and the second image pickup device 35.
  • an optical filter formed of a transparent optical material (glass, optical plastic, etc.) having a refractive index larger than that of the lens 31 so as to have a thickness corresponding to the changed optical path length is used.
  • a transparent optical material glass, optical plastic, etc.
  • the optical path length changing filter 33 has a second optical path length from the lens 31 to the second image sensor 35 so as to be different from the optical path length from the lens 31 to the first image sensor 34. Transmits light rays.
  • the first image sensor 34 is positioned at a position where a light ray from the lens 31 is formed as a first optical image after passing through the beam split surface 32s of the prism 32 (that is, becoming the first light ray). Have been placed.
  • the first image sensor 34 images the first optical image and generates the first image pickup signal.
  • the second image sensor 35 is provided separately from the first image sensor 34, and the light beam from the lens 31 is reflected by the beam split surface 32s of the prism 32 (that is, becomes the second light beam). It is arranged at a position where it is imaged as a second optical image after passing through the optical path length changing filter 33.
  • the second image sensor 35 acquires a second optical image and generates a second image pickup signal.
  • the first signal line 36 is connected to the first image sensor 34 so as to extend from the first image sensor 34 in the first direction, and transmits the first image sensor.
  • the second signal line 37 is connected to the second image pickup element 35 so as to extend from the second image pickup element 35 in a second direction different from the first direction, and transmits the second image pickup signal. do.
  • the first signal line 36 extends from the + y side surface of the first image sensor 34, and the first signal line 36 is inserted into the empty space 28.
  • the second signal line 37 extends from the surface on the ⁇ x side of the second image sensor 35, and the second signal line 37 is inserted into the empty space 29.
  • One is in the direction toward the empty space in the insertion portion 11 which is the shaft.
  • FIG. 4 is a diagram showing a modification of the beam splitter and the optical path length changing member.
  • the first prism 32a and the second prism 32c form a beam splitter, and the mirror 38 constitutes an optical path length changing member.
  • the first prism 32a and the second prism 32c are bonded to each other on the beam split surface 32s.
  • the mirror 38 is arranged so as to face the surface of the first prism 32a on the y-direction side at a predetermined distance. Further, the oblique surface of the second prism 32c in the ⁇ z direction (the surface forming an angle of 45 ° with respect to the xy plane) is configured as the mirror surface 32r.
  • a first image sensor 34 is arranged on the ⁇ z side and a second image sensor 35 is arranged on the + z side on the surface of the second prism 32c on the ⁇ y direction side.
  • the light beam emitted from the lens 31 along the optical axis O is divided into a first light ray and a second light ray by the beam split surface 32s.
  • the first light beam transmitted through the beam split surface 32s is reflected by the mirror surface 32r and is incident on the first image sensor 34.
  • the second light beam reflected in the + y direction on the beam split surface 32s is emitted from the first prism 32a, reflected in the ⁇ y direction by the mirror 38, and re-enters the first prism 32a.
  • the second light ray then passes through the beam split surface 32s and enters the second image sensor 35.
  • the mirror 38 makes the optical path length of the second ray imaged as the second optical image different from the optical path length of the first ray imaged as the first optical image. It is designed to function as an optical path length changing member. The difference in the optical path length at this time can be set as desired by changing the distance between the surface of the first prism 32a on the + y direction side and the mirror 38.
  • the optical path length changing member is not limited to the optical path length changing filter 33, and a mirror 38 may be used, or another configuration may be adopted.
  • the mirror 38 is configured to reflect the second light ray into the prism 32, but instead of this, the mirror 38 may be configured to reflect the first light ray into the prism 32.
  • the first signal line 36 when the second signal line 37 extends from the second image sensor 35 in the + x direction, the first signal line 36 is extended from the first image sensor 34 to ⁇ x. It may extend in the direction or the ⁇ z direction.
  • the second signal line 37 when the second signal line 37 extends from the second image sensor 35 in the ⁇ x direction, the first signal line 36 extends from the first image sensor 34 in the + x direction or the ⁇ z direction. do it.
  • the first direction and the second direction can be set to different directions.
  • FIG. 5 is a chart showing various arrangement examples of the first signal line 36 extending from the first image sensor 34 and the second signal line 37 extending from the second image sensor 35.
  • the first column of FIG. 5 shows an example when the second direction in which the second signal line 37 extends from the second image sensor 35 is the + x direction.
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the ⁇ x direction, which is substantially opposite to the first direction. ..
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the + y direction, which is substantially orthogonal to the first direction. ..
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the ⁇ y direction, which is substantially orthogonal to the first direction. There is.
  • the second column of FIG. 5 shows an example when the second direction in which the second signal line 37 extends from the second image sensor 35 is the ⁇ x direction.
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the + x direction, which is substantially opposite to the first direction.
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the + y direction, which is substantially orthogonal to the first direction. ..
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the ⁇ y direction, which is substantially orthogonal to the first direction. There is.
  • the arrangements shown in the second columns A to C are symmetrical with respect to the arrangement shown in the first columns A to C and the yz plane.
  • the third column of FIG. 5 shows an example when the second direction in which the second signal line 37 extends from the second image sensor 35 is the ⁇ z direction.
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the + y direction, which is substantially orthogonal to the first direction. ..
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the + x direction, which is substantially orthogonal to the first direction. ..
  • the first direction in which the first signal line 36 extends from the first image sensor 34 is the ⁇ x direction, which is substantially orthogonal to the first direction. There is.
  • the first direction and the second direction are both different directions.
  • the first position where the first signal line 36 extends from the first image sensor 34 and the second signal line 37 from the second image sensor 35 are located. It is configured so that the position projected on the xy plane is different from the extending second position.
  • the second signal line extends in a second direction different from the first direction in which the first signal line extends
  • the present invention is not limited to the illustrated form itself and the mirror-inverted form itself, and broadly includes the case where the first direction and the second direction are clearly different directions.
  • a first direction in which the first signal line 36 extends from the first image sensor 34 and a second direction in which the second signal line 37 extends from the second image sensor 35 If and is designed to be in a desired direction, the first image and the second image may have a rotated relationship. Further, depending on the combination of the reflection by the beam split surface 32s, the reflection by the mirror 38, the reflection by the mirror surface 32r, and the like, the first image and the second image may have a mirror-inverted relationship. In such a case, the processor 4 performs image processing for aligning the vertical and horizontal directions of the first image and the second image.
  • FIG. 6 is a chart showing an example of image processing performed by the processor 4 for aligning the vertical and horizontal directions of the first image and the second image.
  • Example 1 column of FIG. 6 the first image I1 acquired by the first image sensor 34 is correct in the vertical and horizontal directions, but the second image I2 acquired by the second image sensor 35 is 90 clockwise.
  • An example is shown in which the image is rotated by °.
  • the processor 4 aligns the first image I1 and the second image I2 in the vertical and horizontal directions by performing image processing in which the second image I2 is rotated 90 ° counterclockwise.
  • the first image I1 acquired by the first image sensor 34 is correct in the vertical and horizontal directions, but the second image I2 acquired by the second image sensor 35 is on the right.
  • An example is shown in which the image is rotated 180 ° in a clockwise direction (or counterclockwise) and is horizontally inverted (mirror surface inverted).
  • the processor 4 rotates the second image I2 counterclockwise (or clockwise) by 180 °, and further performs image processing for left-right reversal (mirror surface reversal) to perform image processing on the first image I1 and the second image I1. Align the vertical and horizontal directions with the image I2.
  • the rotation process is performed first and the reversal process is performed later, but conversely, the reversal process may be performed first and the rotation process may be performed later.
  • the processor 4 When the vertical and horizontal directions of the first image I1 and the second image I2 are aligned in this way, the processor 4 performs a process of synthesizing the first image I1 and the second image I2.
  • the processor 4 displays the first image I1 acquired at the same time as the second image I2 until the inversion or rotation process is completed. It is preferable that the first image I1 and the second image I2 acquired at the same timing are temporarily stored in a memory or the like, and the subsequent compositing process is performed.
  • the processor 4 determines. For at least one of the first image I1 and the second image I2, the peripheral region of the image in which the subject images are not common is cut out, and then the regions in which the subject images are common are combined. You may do so.
  • FIG. 7 is a chart showing an example of a depth-enlarged image generation process by the processor 4.
  • the focusing region in the first image I1 and the focusing region in the second image I2 are different.
  • the processor 4 sets a region in which the contrast of the first image I1 is higher than that of the second image I2 as the first focusing region P1, and the second image is higher than the first image I1.
  • the region where the contrast of I2 is higher is set as the second focusing region P2.
  • the processor 4 extracts the first focusing region P1 from the first image I1 and extracts the second focusing region P2 from the second image I2. Then, the processor 4 combines the first focusing region P1 and the second focusing region P2 to form the combined focusing region PS, which has a deeper depth of focus than the first image I1 and the second image I2. Generate a composite image IS.
  • this boundary is inconspicuous near the boundary between the first focusing region P1 and the second focusing region P2.
  • a known boundary image processing such as the above may be performed.
  • a third signal line connected to other electronic devices may be disposed.
  • an actuator that drives a member arranged on an optical path through which at least one of a first ray imaged as a first optical image and a second ray imaged as a second optical image is transmitted.
  • a third signal line that is connected to the actuator and transmits the drive signal of the actuator is arranged.
  • the third direction is a direction different from the first direction and a direction different from the second direction. It is preferable to configure so as to be.
  • FIG. 8 shows a first signal line 36 extending from the first image sensor 34, a second signal line 37 extending from the second image sensor 35, and a third signal extending from the actuator 41. It is a perspective view which shows an example of the arrangement of line 43.
  • the actuator 41 for example, a VCM (Voice Coil Motor) capable of precise control is used.
  • VCM Vehicle Coil Motor
  • an actuator having another configuration may be used as the actuator 41.
  • the rail 42 is fixed to, for example, the tip body 22 so as to be parallel to the direction of the optical axis O (z direction).
  • the actuator 41 can move in the direction of the optical axis O (z direction) along the rail 42.
  • the prism 32 is fixed to the actuator 41 and moves in the direction of the optical axis O as the actuator 41 moves (see arrow A1). As a result, the first image sensor 34 and the second image sensor 35 fixed to the prism 32 move in the direction of the optical axis O.
  • the distance to the subject in focus on the first image sensor 34 and the second image sensor 35 is, for example, a near point. It changes with the apogee. In this way, it is possible to switch between a near-point observation mode in which the subject is observed in a super-close state and a far-point observation mode in which the subject is observed at a distance.
  • the ⁇ z direction which is the extending direction (third direction) of the third signal line 43 connected to the actuator 41, is the first extending direction of the first signal line 36. It is different from both the ⁇ x direction, which is the direction, and the + x direction, which is the second direction in which the second signal line 37 extends.
  • the lens 31 may be driven instead.
  • the lens 31 includes a first lens group 31a, a second lens group 31b, and a third lens group 31c, and the third lens group 31c is a focus lens group. That is, the focal position of the lens 31 is variable.
  • the focal position can be changed. Thereby, for example, it is possible to switch between a near-point observation mode in which the subject at a near point as viewed from the tip portion 14 is focused and a far-point observation mode in which the subject at a far point as viewed from the tip portion 14 is focused. It will be possible.
  • FIG. 9 is a perspective view showing a configuration example in which the actuator 46 to which the third signal line 47 is connected drives the NBI optical member 45 so as to be removable in the optical path.
  • Narrow-band imaging which irradiates light with a narrowed wavelength that is easily absorbed by hemoglobin in the blood, emphasizes blood vessels. It is known. For example, observation of capillaries on the mucosal surface layer by narrow band light having a wavelength of 390 to 445 nm, observation of thick deep blood vessels by narrow band light having a wavelength of 530 to 550 nm, and contrast enhancement with capillaries on the mucosal surface layer.
  • the NBI optical member 45 is a special optical observation optical member composed of an optical filter or the like that limits the wavelength band of transmitted light to such an NBI wavelength band.
  • the actuator 46 drives the NBI optical member 45 to be inserted between the prism 32 and the first image sensor 34, or to be inserted and removed from between the prism 32 and the first image sensor 34.
  • the NBI optical member 45 is inserted between the prism 32 and the first image sensor 34, the first light ray transmitted through the NBI optical member 45 becomes a narrow band light ray, and the first It is possible to perform NBI observation by the image of. On the other hand, the white light image can be observed by the second image.
  • the first signal line 36 extends in the ⁇ z direction, which is the extension direction (third direction) of the third signal line 46 connected to the actuator 46. It is different from both the + x direction, which is the first direction, and the ⁇ x direction, which is the second direction in which the second signal line 37 extends.
  • the NBI optical member 45 is provided so as to be inserted and removed between the prism 32 and the first image sensor 34, but it is inserted and removed between the prism 32 and the second image sensor 35. It may be provided in. Further, the NBI optical member 45 is inserted and removed in at least one of the optical path between the lens 31 and the first image sensor 34 and the optical path between the lens 31 and the second image sensor 35. It may be provided so as to do so.
  • the optical member 45 for NBI has been mentioned as an example of the optical member for special light observation, but the type of the optical member is not limited to this, and for example, the optical member for fluorescence observation (excitation light cut filter). Etc.), an optical member for observing infrared light (infrared light transmission filter, etc.) may be used.
  • the members arranged on the optical path to be driven by the actuator 41 or the actuator 46 include, for example, a lens 31, a first image pickup element 34, a second image pickup element 35, and a beam splitter.
  • a special optical observation member (NBI optical member 45, etc.) that makes the prism 32 different from the spectral band of the first optical image (first light ray) and the spectral band of the second optical image (second light ray). ) And at least one of them.
  • the insertion portion 11 is taken as an example of the shaft, but the present invention is not limited to this, and the shaft is connected to the first image sensor 34 with the first signal line and the second signal line. It may be a cable shaft that collectively houses the second signal line 37 connected to the image sensor 35.
  • the first image sensor 34 and the first signal line 36 are connected so as to extend from the first image sensor 34 in the first direction, and the second image sensor 34 is connected. Since the second image sensor 35 and the second signal line 37 are connected so as to extend from the image sensor 35 in a second direction different from the first direction, the first signal line 36 and the second signal line 36 and the second signal line 37 are connected. The confusion of the signal line 37 can be prevented, and the resistance of the first signal line 36 and the second signal line 37 is not impaired.
  • first signal line 36 and the second signal line 37 are separated from each other, it is possible to prevent the signal lines from being entangled with each other, and the first signal line 36 and the second signal line 37 Crosstalk can be reduced to prevent deterioration of image quality due to noise.
  • the first position where the first signal line 36 extends from the first image sensor 34 and the second position where the second signal line 37 extends from the second image sensor 35 are xy. Effectively avoiding confusion between the first signal line 36 and the second signal line 37 even at the extension position because the positions projected on the plane (the plane perpendicular to the optical axis O of the lens 31) are different. Can be done.
  • the first direction and the second direction is directed toward the empty spaces 28 and 29 in the insertion portion 11 which is the shaft, the first direction is provided in the empty spaces 28 and 29.
  • the first image sensor 34 and the second image sensor 35 receive the first ray and the second ray divided by the beam splitter, respectively, the first image and the second image relating to the same subject are received. You can get an image. As a result, it is possible to obtain images of the same subject, for example, having different optical characteristics.
  • the processor 4 performs image processing for aligning the vertical and horizontal directions of the first image and the second image
  • the first image sensor 34 and the second image sensor 35 are subjected to the first signal line. It is possible to arrange the first direction in which the 36 is extended and the second direction in which the second signal line 37 is extended so as to be a desired direction. As a result, the degree of freedom in design is increased, and the empty spaces 28 and 29 in the insertion portion 11 can be used more effectively.
  • the processor 4 synthesizes the first image and the second image having different optical characteristics, it becomes possible to obtain a composite image more suitable for diagnosis.
  • the optical path length changing member such as the optical path length changing filter 33 and the mirror 38 is further provided, the first image and the second image having different focal positions can be obtained.
  • the subject is placed in a super-close state without the need to move the endoscope 2 closer to or further from the subject. It is possible to perform near-point observation to observe and far-point observation to observe at a distance from the subject.
  • the processor 4 focuses from the near point to the far point by synthesizing the first focusing area in the first image and the second focusing area in the second image. It is possible to observe an image having a depth of focus deeper than that of the first image and the second image.
  • a special optical observation member such as an optical member 45 for NBI
  • a first optical image (first ray) and a second optical image (second ray) having different spectral bands are provided. Special light observation is possible.
  • the third direction in which the third signal lines 43 and 47 extend from the actuators 41 and 46 is set to a direction different from the first direction and the second direction, the first to third signal lines Confusion can be effectively prevented.
  • the actuator 41 drives the first image sensor 34, the second image sensor 35, and the prism 32, or by driving the lens 31, for example, depth enlargement observation at a near point and depth enlargement at a far point. Observation is possible.
  • the optical member for example, the optical member 45 for NBI
  • the actuator 41 by driving the optical member (for example, the optical member 45 for NBI) by the actuator 41, it becomes possible to simultaneously acquire a normal light observation image and a special light observation image (for example, a white light image and an NBI observation image). ..
  • the present invention is not limited to the above-described embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof.
  • various aspects of the invention can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate. As described above, it goes without saying that various modifications and applications are possible within a range that does not deviate from the gist of the invention.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

撮像装置は、別個に設けられた第1、第2の撮像素子(34、35)と、第1、第2の撮像素子(34、35)に各接続された第1、第2の信号線(36、37)と、第1、第2の撮像素子(34、35)および第1、第2の信号線(36、37)を収納する筒状のシャフト(11)と、を備える。第1の信号線(36)は、第1の撮像素子(34)から第1の方向に延出し、第2の信号線(37)は、第2の撮像素子(35)から第1の方向とは異なる第2の方向に延出する。

Description

撮像装置、内視鏡、内視鏡先端部
 本発明は、別個に設けられた複数の撮像素子により複数の撮像信号を生成する撮像装置(画像取得機器)、内視鏡、内視鏡先端部に関する。
 従来より、撮像装置において、例えば深度拡大画像を取得するために、別個に設けられた複数の撮像素子を備える構成が提案されている。
 一例として、日本国特開2017-148657号公報には、1つの対物レンズに対して2つのCCDを備え、2つのCCDにより得られた2つの画像を合成して、深度拡大画像を生成する外科手術器具の画像取込み装置が記載されている。該公報に記載の画像取込み装置は、例えば、外科手術ロボットにおけるロボット操作アームに取り付けて用いられる。
 ところで、撮像装置としての内視鏡は、被検体内への挿入性を向上するために、挿入部の細径化が求められている。従って、シャフトである挿入部の先端部に複数の撮像素子を配置する場合には、レイアウトを工夫して、シャフトの太径化をできるだけ抑制する必要がある。このとき、複数の撮像素子に接続する複数の信号線については特に工夫が必要となる。
 例えば、第1の撮像素子に複数の信号線で構成される第1の信号線が接続され、第2の撮像素子に複数の信号線で構成される第2の信号線が接続されるものとする。このとき、第1の信号線の接続位置と第2の信号線の接続位置とが近接していて、第1の信号線の延出方向と第2の信号線の延出方向とが同じである場合、接続作業が困難になるだけでなく、第1の信号線と第2の信号線とが混乱して配置され、無理な力が加わって信号線の耐久性が低下する可能性がある。これを避けるために信号線同士の配置間隔に余裕を持たせるように設計すると、シャフトが太径化してしまうことにつながる。
 そして、上述した日本国特開2017-148657号公報には、上述したような、複数の撮像素子から延出する複数の信号線の配置の工夫について記載されていない。
 本発明は上記事情に鑑みてなされたものであり、複数の撮像素子に接続される複数の信号線の混乱を防いで、シャフトの太径化を抑制することができる撮像装置、内視鏡、内視鏡先端部を提供することを目的としている。
 本発明の一態様による撮像装置は、被検体の光学像を結像するレンズと、前記レンズにより結像される第1の光学像を撮像して第1の撮像信号を生成する第1の撮像素子と、前記レンズにより結像される第2の光学像を撮像して第2の撮像信号を生成する、前記第1の撮像素子とは別個に設けられた第2の撮像素子と、前記第1の撮像素子と接続され、前記第1の撮像信号を伝送する第1の信号線と、前記第2の撮像素子と接続され、前記第2の撮像信号を伝送する第2の信号線と、前記第1の撮像素子、前記第2の撮像素子、前記第1の信号線、および前記第2の信号線を収納する、前記レンズの光軸方向に沿った筒状のシャフトと、を備え、前記第1の信号線は、前記第1の撮像素子から第1の方向に延出するように前記第1の撮像素子と接続され、前記第2の信号線は、前記第2の撮像素子から前記第1の方向とは異なる第2の方向に延出するように前記第2の撮像素子と接続されている。
 本発明の一態様による内視鏡は、被検体の光学像を結像するレンズと、前記レンズにより結像される第1の光学像を撮像して第1の撮像信号を生成する第1の撮像素子と、前記レンズにより結像される第2の光学像を撮像して第2の撮像信号を生成する、前記第1の撮像素子とは別個に設けられた第2の撮像素子と、前記第1の撮像素子と接続され、前記第1の撮像信号を伝送する第1の信号線と、前記第2の撮像素子と接続され、前記第2の撮像信号を伝送する第2の信号線と、前記第1の撮像素子、前記第2の撮像素子、前記第1の信号線、および前記第2の信号線を収納する、前記レンズの光軸方向に沿った、被検体内に挿入するための挿入部と、を備え、前記第1の信号線は、前記第1の撮像素子から第1の方向に延出するように前記第1の撮像素子と接続され、前記第2の信号線は、前記第2の撮像素子から前記第1の方向とは異なる第2の方向に延出するように前記第2の撮像素子と接続されている。
 本発明の一態様による内視鏡先端部は、被検体に挿入する内視鏡の先端に設けられ、被検体の光学像を結像するレンズと、前記レンズにより結像される第1の光学像を撮像して第1の撮像信号を生成する第1の撮像素子と、前記レンズにより結像される第2の光学像を撮像して第2の撮像信号を生成する、前記第1の撮像素子とは別個に設けられた第2の撮像素子と、前記第1の撮像素子と接続され、前記第1の撮像信号を伝送する第1の信号線と、前記第2の撮像素子と接続され、前記第2の撮像信号を伝送する第2の信号線と、前記第1の撮像素子、前記第2の撮像素子、前記第1の信号線、および前記第2の信号線を収納する、前記レンズの光軸方向に沿った収納部品と、を備え、前記第1の信号線は、前記第1の撮像素子から第1の方向に延出するように前記第1の撮像素子と接続され、前記第2の信号線は、前記第2の撮像素子から前記第1の方向とは異なる第2の方向に延出するように前記第2の撮像素子と接続されている。
本発明の第1の実施形態における内視鏡装置の構成例を示す斜視図。 上記第1の実施形態に係る内視鏡の挿入部の先端部における内蔵物の配置例を示す挿入軸に垂直な断面図。 上記第1の実施形態に係る内視鏡の挿入部の先端部における、ビームスプリッタ、第1の撮像素子、および第2の撮像素子の配置例を示す透視斜視図。 上記第1の実施形態における、ビームスプリッタおよび光路長変更部材の変形例を示す図。 上記第1の実施形態において、第1の撮像素子から延出される第1の信号線、および第2の撮像素子から延出される第2の信号線の各種の配置例を示す図表。 上記第1の実施形態において、プロセッサにより行われる第1の画像と第2の画像との上下左右方向を揃える画像処理の例を示す図表。 上記第1の実施形態において、プロセッサによる深度拡大画像の生成処理の例を示す図表。 上記第1の実施形態において、第1の撮像素子から延出される第1の信号線と、第2の撮像素子から延出される第2の信号線と、アクチュエータから延出される第3の信号線の配置の一例を示す斜視図。 上記第1の実施形態において、第3の信号線が接続されるアクチュエータがNBI用光学部材を光路中に挿脱可能に駆動する構成例を示す斜視図。
 以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態により本発明が限定されるものではない。
 なお、図面の記載において、同一または対応する要素には、適宜、同一の符号を付している。また、図面は模式的なものであり、1つの図面内における、各要素の長さの関係、各要素の長さの比率などは、現実と異なる場合があることに留意する必要がある。さらに、複数の図面の相互間においても、互いの長さの関係や比率が異なる部分が含まれている場合がある。
[第1の実施形態]
 図1から図9は本発明の第1の実施形態を示したものであり、図1は内視鏡装置1の構成例を示す斜視図である。本実施形態は、撮像装置(画像取得機器)を内視鏡装置1に適用したものとなっている。
 図1に示すように、本実施形態の内視鏡装置1は、内視鏡2と、光源装置3と、プロセッサ4と、モニタ5と、キーボード6と、を備えている。
 なお、以下では内視鏡2が軟性鏡である場合を例に挙げて説明するが、内視鏡2は硬性鏡であっても構わない。また、以下では内視鏡2が医療用である場合を例に挙げて説明するが、内視鏡2が工業用であっても構わない。
 内視鏡2は、挿入部11と、操作部15と、ユニバーサルケーブル16と、を備えている。
 挿入部11は、例えば、生体の体内などの被検体内に挿入される細長の部位である。挿入部11は、基端側から先端側に向かって、可撓管部(蛇管)12と、湾曲部13と、先端部14と、を備えている。
 可撓管部12は、操作部15の先端側から細長に延びて設けられた可撓性を有する管部である。
 湾曲部13は、可撓管部12の先端側に設けられ、操作部15の操作により湾曲可能となっている。湾曲部13を湾曲することで、先端部14が向く方向、つまり内視鏡2により観察する方向を変化させることができるようになっている。
 先端部14は、湾曲部13の先端側に設けられ、照明レンズ24aを備えると共に、後で図2および図3等を参照して説明するような撮像に関連する構成(第1の撮像素子34および第2の撮像素子35を含む構成)を収納する。
 操作部15は、ユーザが把持して操作する部位であり、湾曲部13を湾曲動作させるための湾曲操作ノブ、撮像動作を行うためのスイッチを含む各種のスコープスイッチなどの入力デバイスが設けられている。
 ユニバーサルケーブル16は、操作部15から延出されており、コネクタ17により光源装置3と接続されるようになっている。
 挿入部11、操作部15、およびユニバーサルケーブル16を含む内視鏡2の内部には、光源装置3により発生された照明光を伝送するためのライトガイド24と、第1の撮像素子34に接続される第1の信号線36(図3、図5等参照)と、第2の撮像素子35に接続される第2の信号線37(図3、図5等参照)と、が配設されている。
 光源装置3は光源を備えており、光源から発光された照明光が、ライトガイド24の入射端に入射され、挿入部11の先端部14内に位置するライトガイド24の出射端へ伝送される。ライトガイド24の出射端から出射された照明光は、照明窓を兼ねた照明レンズ24aにより被検体へ照射される。
 また、コネクタ17から分岐して、第1の撮像素子34に接続される第1の信号線36および第2の撮像素子35に接続される第2の信号線37が配設された信号ケーブル18が延出されている。信号ケーブル18の先端部には電気コネクタ19が設けられていて、電気コネクタ19がプロセッサ4に接続される。これにより、第1の撮像素子34に接続される第1の信号線36および第2の撮像素子35に接続される第2の信号線37は、プロセッサ4に電気的に接続される。さらに、信号ケーブル18内には、プロセッサ4と光源装置3とが通信を行うための信号線(不図示)も配設されている。
 なお、コネクタ17と電気コネクタ19とを別体で設けることなく、コネクタ17に電気コネクタ19の機能を一体的に内蔵する形態としてもよい。この場合には、光源装置3とプロセッサ4とを別途に電気的に接続することで、第1の撮像素子34からの第1の信号線36および第2の撮像素子35からの第2の信号線37が光源装置3を経由してプロセッサ4に電気的に接続されることとなる。
 プロセッサ4は、CPU(Central Processing Unit:中央処理装置)等を含むASIC(Application Specific Integrated Circuit:特定用途向け集積回路)、FPGA(Field Programmable Gate Array)等が、メモリ等の記憶装置(または記録媒体)に記憶された処理プログラムを読み込んで実行することにより、各部の機能を果たす構成であるものとする。ただし、これに限定されるものではなく、プロセッサ4は、例えば、各部の機能を果たす専用の電子回路として構成されていても構わない。
 プロセッサ4は、第1の撮像素子34および第2の撮像素子35へ電力を供給すると共に制御信号を送信し、撮像を行わせる。第1の撮像素子34が撮像を行って生成された第1の撮像信号は、第1の信号線36によりプロセッサ4へ伝送される。第2の撮像素子35が撮像を行って生成された第2の撮像信号は、第2の信号線37によりプロセッサ4へ伝送される。
 プロセッサ4は、第1の撮像信号に画像処理を行って第1の画像を生成し、第2の撮像信号に画像処理を行って第2の画像を生成する。さらに、プロセッサ4は、生成した第1の画像および第2の画像から、表示用画像を生成する。
 そして、プロセッサ4は、表示用画像から表示用の映像信号を生成して、モニタ5へ映像信号を出力する。また、プロセッサ4は、表示用画像(または、第1および/または第2の撮像信号、もしくは第1および/または第2の画像)に基づき、被検体の明るさが適正となるように、光源装置3により発光する照明光の光量も制御するようになっている。
 モニタ5は、プロセッサ4から映像信号を受信して、内視鏡画像を表示する表示デバイスである。
 キーボード6は、プロセッサ4と接続されており、ユーザの操作に応じたコマンドおよびデータをプロセッサ4に入力するための入力デバイスである。なお、入力デバイスとして、マウス、トラックボール、フットスイッチなどの各種デバイスがさらに設けられていても構わない。
 次に、図2は内視鏡2の挿入部11の先端部14における内蔵物の配置例を示す挿入軸に垂直な断面図、図3は内視鏡2の挿入部11の先端部14における、ビームスプリッタ、第1の撮像素子34、および第2の撮像素子35の配置例を示す透視斜視図である。
 まず、図3に示すように、レンズ31の光軸Oに平行で、内視鏡2の先端部14から被検体を向く方向をz方向、z方向に垂直な面における直交する2方向をx方向およびy方向とする。このとき、先端部14における挿入軸の方向は+z方向となり、被検体からの光線は-z方向にレンズ31に入射する。また、x方向およびy方向は、例えば、光軸Oに垂直に配置された撮像素子34の2辺の方向にそれぞれ平行であるものとする。
 図2に示すように、挿入部11の先端部14は、外皮21内に先端構成部としての先端部本体22を備えている。先端部本体22はレンズ31の光軸Oの方向に沿って延出し、この先端部本体22を含む挿入部11は、z方向の中心軸をもつ円筒状のシャフトである。
 先端部本体22を含む挿入部11には、チャンネル23と、ライトガイド24と、ライトガイド25と、送気送水チャンネル26と、例えば信号ケーブルや給電ケーブル等である電気ケーブル27とが収納されている。これらの各部材は、z方向に挿通されている。
 先端部14の先端面には、図3に示すように、ライトガイド24の先端側に上述した照明レンズ24aが、レンズ31の先端側に対物窓31dが、さらにチャンネル23の先端側開口23aが、それぞれ配置されている。なお、ライトガイド25の照明レンズと、送気送水チャンネル26の開口とは図3において図示を省略している。
 さらに、先端部本体22内には、撮像に関連する構成として、レンズ31と、ビームスプリッタを構成するプリズム32と、光路長変更フィルタ33と、第1の撮像素子34と、第2の撮像素子35とが収納されている。加えて、図3に示すように、先端部本体22内には、第1の信号線36と、第2の信号線37と、が収納されている。つまり、内視鏡2の挿入部11における先端構成部としての先端部本体22は、レンズ、プリズム、光路長変更フィルタ、撮像素子、信号線等を収納する収納部品として機能する。
 レンズ31は、被検体からの光(光線)が対物窓31dを経由して入射され、この被検体からの光線を光学像として結像する。
 プリズム32は、図3に示すように、光軸Oに沿ったレンズ31の後方(-z方向)に配設されている。プリズム32は、例えば、第1プリズム32aと第2プリズム32bとをビームスプリット面32sで貼り合わせた複合プリズムとして構成されている。
 ビームスプリッタとして機能するプリズム32は、ビームスプリット面32sにより、レンズ31からの光線を、第1の光線と第2の光線とに分割する。
 光路長変更フィルタ33は、第1の光学像として結像される第1の光線の光路長と、第2の光学像として結像される第2の光線の光路長と、を異ならせる光路長変更部材である。光路長変更フィルタ33は、例えば、プリズム32と第2の撮像素子35との間の光路中に設けられている。
 光路長変更フィルタ33の具体例としては、レンズ31よりも大きい屈折率の透明な光学材料(ガラス、光学プラスチックなど)により、変更する光路長に応じた厚みとなるように形成された光学フィルタが挙げられる。
 このような構成により、光路長変更フィルタ33は、レンズ31から第2の撮像素子35までの光路長を、レンズ31から第1の撮像素子34までの光路長と異ならせるように、第2の光線を透過する。
 第1の撮像素子34は、レンズ31からの光線が、プリズム32のビームスプリット面32sを透過した(つまり、第1の光線となった)後に、第1の光学像として結像される位置に配置されている。第1の撮像素子34は、第1の光学像を撮像して第1の撮像信号を生成する。
 第2の撮像素子35は、第1の撮像素子34とは別個に設けられていて、レンズ31からの光線が、プリズム32のビームスプリット面32sにより反射され(つまり、第2の光線となり)、光路長変更フィルタ33を透過した後に、第2の光学像として結像される位置に配置されている。第2の撮像素子35は、第2の光学像を撮像して第2の撮像信号を生成する。
 第1の信号線36は、第1の撮像素子34から第1の方向に延出するように第1の撮像素子34と接続され、第1の撮像信号を伝送する。
 第2の信号線37は、第2の撮像素子35から第1の方向とは異なる第2の方向に延出するように、第2の撮像素子35と接続され、第2の撮像信号を伝送する。
 図2に示す内蔵物の配置例では、第1の撮像素子34から見て概略(-x,+y)方向の、送気送水チャンネル26と電気ケーブル27の間に空きスペース28が存在する。そこで、例えば図3に示すように第1の撮像素子34の+y側の面から第1の信号線36を延出して、空きスペース28内へ第1の信号線36を挿通させる。
 また、第1の撮像素子34から見て概略(-x,-y)方向の、チャンネル23とライトガイド25の間に空きスペース29が存在する。そこで、例えば図3に示すように第2の撮像素子35の-x側の面から第2の信号線37を延出して、空きスペース29内へ第2の信号線37を挿通させる。
 すなわち、第1の撮像素子34から第1の信号線36が延出する第1の方向と、第2の撮像素子35から第2の信号線37が延出する第2の方向と、の少なくとも一方は、シャフトである挿入部11内の空きスペースに向かう方向となっている。
 図4は、ビームスプリッタおよび光路長変更部材の変形例を示す図である。
 図4に示す例では、第1プリズム32aおよび第2プリズム32cがビームスプリッタを構成し、ミラー38が光路長変更部材を構成している。
 第1プリズム32aと第2プリズム32cとは、ビームスプリット面32sで貼り合わされている。第1プリズム32aのy方向側の面と所定の距離をおいて対向するように、ミラー38が配設されている。また、第2プリズム32cの-z方向の斜めの面(xy平面に対して45°の角度をなす面)は、ミラー面32rとして構成されている。第2プリズム32cのーy方向側の面には、-z側に第1の撮像素子34が、+z側に第2の撮像素子35が、それぞれ配設されている。
 レンズ31から光軸Oに沿って出射された光線は、ビームスプリット面32sにより、第1の光線と第2の光線とに分割される。
 ビームスプリット面32sを透過した第1の光線は、ミラー面32rで反射され、第1の撮像素子34に入射する。
 ビームスプリット面32sで+y方向に反射された第2の光線は、第1プリズム32aから出射されてミラー38で-y方向に反射され、第1プリズム32aに再び入射する。第2の光線は、その後ビームスプリット面32sを透過して、第2の撮像素子35に入射する。
 このような構成において、ミラー38は、第2の光学像として結像される第2の光線の光路長と、第1の光学像として結像される第1の光線の光路長とを異ならせる光路長変更部材として機能するようになっている。このときの光路長の違いは、第1プリズム32aの+y方向側の面とミラー38との間の距離を変更することで、所望に設定することができる。
 このように、光路長変更部材は、光路長変更フィルタ33に限らず、ミラー38を用いてもよいし、その他の構成を採用しても構わない。
 なお、図4ではミラー38が第2の光線をプリズム32内に反射するように構成したが、これに代えて、第1の光線をプリズム32内に反射するように構成しても構わない。
 そして、図4に示す構成例において、第2の撮像素子35から第2の信号線37を+x方向に延出する場合には、第1の撮像素子34から第1の信号線36を-x方向または-z方向に延出すればよい。一方、第2の撮像素子35から第2の信号線37を-x方向に延出する場合には、第1の撮像素子34から第1の信号線36を+x方向または-z方向に延出すればよい。これにより、第1の方向と第2の方向とを異なる方向とすることができる。
 図5は、第1の撮像素子34から延出される第1の信号線36、および第2の撮像素子35から延出される第2の信号線37の各種の配置例を示す図表である。
 図5の第1欄は、第2の撮像素子35から第2の信号線37が延出する第2の方向が、+x方向であるときの例を示している。
 第1A欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、-x方向となっていて、第1の方向と実質的に反対方向となっている。
 第1B欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、+y方向となっていて、第1の方向と実質的に直交する方向となっている。
 第1C欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、-y方向となっていて、第1の方向と実質的に直交する方向となっている。
 図5の第2欄は、第2の撮像素子35から第2の信号線37が延出する第2の方向が、-x方向であるときの例を示している。
 第2A欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、+x方向となっていて、第1の方向と実質的に反対方向となっている。
 第2B欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、+y方向となっていて、第1の方向と実質的に直交する方向となっている。
 第2C欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、-y方向となっていて、第1の方向と実質的に直交する方向となっている。
 これら第2A~C欄に示す配置は、第1A~C欄に示す配置と、yz平面に対してそれぞれ対称となっている。
 図5の第3欄は、第2の撮像素子35から第2の信号線37が延出する第2の方向が、-z方向であるときの例を示している。
 第3A欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、+y方向となっていて、第1の方向と実質的に直交する方向となっている。
 第3B欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、+x方向となっていて、第1の方向と実質的に直交する方向となっている。
 第3C欄では、第1の撮像素子34から第1の信号線36が延出する第1の方向が、-x方向となっていて、第1の方向と実質的に直交する方向となっている。
 こうして、第1の方向と第2の方向とは、何れも異なる方向となっている。
 さらに、各欄に示した何れの構成においても、第1の撮像素子34から第1の信号線36が延出する第1の位置と、第2の撮像素子35から第2の信号線37が延出する第2の位置とは、xy平面に投影した位置が異なるように構成されている。
 なお、本発明における「第2の信号線は、第1の信号線が延出する第1の方向とは異なる第2の方向に延出する」ことは、図5の1A欄~3C欄に例示した形態そのもの、およびその鏡面反転した形態そのものに限定されるものではなく、第1の方向と第2の方向とが明らかに異なる方向となっている場合を広く含んでいる。
 このような構成において、第1の撮像素子34から第1の信号線36が延出する第1の方向と、第2の撮像素子35から第2の信号線37が延出する第2の方向とが所望の方向になるように設計すると、第1の画像と第2の画像とが回転した関係になることがある。さらに、ビームスプリット面32sによる反射、ミラー38による反射、ミラー面32rによる反射などの組み合わせによっては、第1の画像と第2の画像とが鏡面反転した関係になることがある。このような場合には、プロセッサ4が、第1の画像と第2の画像との上下左右方向を揃える画像処理を行うようになっている。
 図6は、プロセッサ4により行われる第1の画像と第2の画像との上下左右方向を揃える画像処理の例を示す図表である。
 図6の例1欄には、第1の撮像素子34により取得した第1の画像I1は上下左右方向が正しいが、第2の撮像素子35により取得した第2の画像I2は右回りに90°回転した画像となる例を示している。
 この場合、プロセッサ4は、第2の画像I2を左回りに90°回転する画像処理を行うことで、第1の画像I1と第2の画像I2との上下左右方向を揃える。
 次に、図6の例2欄には、第1の撮像素子34により取得した第1の画像I1は上下左右方向が正しいが、第2の撮像素子35により取得した第2の画像I2は右回り(または左回り)に180°回転し、かつ左右反転(鏡面反転)した画像となる例を示している。
 この場合、プロセッサ4は、第2の画像I2を左回り(または右回り)に180°回転し、さらに左右反転(鏡面反転)する画像処理を行うことで、第1の画像I1と第2の画像I2との上下左右方向を揃える。なお、ここでは先に回転処理を行って後に反転処理を行ったが、これとは逆に、先に反転処理を行って後に回転処理を行っても構わない。
 こうして第1の画像I1と第2の画像I2との上下左右方向が揃ったら、プロセッサ4は、第1の画像I1と第2の画像I2とを合成する処理を行う。
 なお、このように第2の画像I2を反転処理または回転処理する場合、プロセッサ4は、反転処理または回転処理が終了するまで、当該第2の画像I2と同時に取得された第1の画像I1をメモリ等に一時的に保存しておき、同一のタイミングで取得された第1の画像I1と第2の画像I2とに対して、その後の合成処理を行うように構成されていることが好ましい。
 また、第1の撮像素子34と第2の撮像素子35の向きの関係で、第1の撮像素子34の撮像範囲と第2の撮像素子35の撮像範囲とがやや異なる場合、プロセッサ4は、第1の画像I1と第2の画像I2との少なくとも一方に対して、被検体像が共通していない画像の周辺領域等を切り取ってから、被検体像が共通している領域同士を合成するようにしてもよい。
 図7は、プロセッサ4による深度拡大画像の生成処理の例を示す図表である。
 上述したような光路長変更部材を設けたことにより、第1の画像I1における合焦領域と、第2の画像I2における合焦領域とは異なる。
 そこで、プロセッサ4は、例えば、第2の画像I2よりも第1の画像I1の方がコントラストが高い領域を第1の合焦領域P1として設定し、第1の画像I1よりも第2の画像I2の方がコントラストが高い領域を第2の合焦領域P2として設定する。
 次に、プロセッサ4は、第1の画像I1から第1の合焦領域P1を抽出し、第2の画像I2から第2の合焦領域P2を抽出する。そして、プロセッサ4は、第1の合焦領域P1と第2の合焦領域P2とを合成して合成合焦領域PSとし、第1の画像I1および第2の画像I2よりも焦点深度が深い合成画像ISを生成する。
 なお、第1の合焦領域P1と第2の合焦領域P2とを合成する際に、第1の合焦領域P1と第2の合焦領域P2との境界付近に、この境界を目立たなくするような公知の境界画像処理を行うようにしてもよい。
 ところで、内視鏡2の先端部14内には、第1の撮像素子34に接続される第1の信号線36および第2の撮像素子35に接続される第2の信号線37以外に、その他の電子デバイスに接続される第3の信号線が配設されることがある。
 例えば、第1の光学像として結像される第1の光線と第2の光学像として結像される第2の光線との少なくとも一方が伝送される光路上に配置された部材を駆動するアクチュエータを設けた場合、アクチュエータと接続され、アクチュエータの駆動信号を伝送する第3の信号線を配設することになる。
 この場合に、アクチュエータから第3の信号線が延出する方向を第3の方向とすると、第3の方向は、第1の方向と異なる方向であって、かつ第2の方向と異なる方向となるように構成するとよい。
 図8は、第1の撮像素子34から延出される第1の信号線36と、第2の撮像素子35から延出される第2の信号線37と、アクチュエータ41から延出される第3の信号線43の配置の一例を示す斜視図である。
 アクチュエータ41は、例えば、精密な制御が可能なVCM(Voice Coil Motor:ヴォイス・コイル・モータ)が用いられる。ただし、アクチュエータ41として、その他の構成のアクチュエータを用いても構わない。
 レール42は、光軸Oの方向(z方向)に平行となるように、例えば先端部本体22に固定されている。そして、アクチュエータ41は、レール42に沿って光軸Oの方向(z方向)に移動可能となっている。
 プリズム32は、アクチュエータ41に固定されており、アクチュエータ41の移動に伴って光軸Oの方向に移動する(矢印A1参照)。これにより、プリズム32に固定された第1の撮像素子34および第2の撮像素子35が光軸Oの方向に移動する。
 すると、第1の撮像素子34および第2の撮像素子35の移動量に応じて、第1の撮像素子34および第2の撮像素子35に合焦する被検体までの距離が、例えば近点と遠点との間で変化する。こうして、被検体を超接近状態で観察する近点観察モードと、被検体に対して距離を有して観察する遠点観察モードと、を切り換えることが可能となる。
 そして、このようなアクチュエータ41の動作を、上述したような光路長変更部材が設けられている構成において行えば、近点観察モードと遠点観察モードとのそれぞれにおいて、深度拡大観察を行うことができる。
 図8に示す構成例において、アクチュエータ41に接続される第3の信号線43の延出方向(第3の方向)である-z方向は、第1の信号線36が延出する第1の方向である-x方向、および第2の信号線37が延出する第2の方向である+x方向の何れとも異なる。
 なお、図8ではアクチュエータ41によりプリズム32、第1の撮像素子34、および第2の撮像素子35を駆動するようにしたが、これに代えて、レンズ31を駆動するようにしても構わない。
 例えば、レンズ31が第1レンズ群31a、第2レンズ群31b、および第3レンズ群31cを備えており、第3レンズ群31cがフォーカスレンズ群であるものとする。すなわち、レンズ31は、焦点位置が可変である。
 このとき、第3レンズ群31cをアクチュエータ41に固定して、アクチュエータ41により矢印A2に示すように第3レンズ群31cを駆動すれば、焦点位置を変更することができる。これにより例えば、先端部14からみて近点にある被検体に合焦する近点観察モードと、先端部14からみて遠点にある被検体に合焦する遠点観察モードと、を切り換えることが可能となる。
 また、図9は、第3の信号線47が接続されるアクチュエータ46がNBI用光学部材45を光路中に挿脱可能に駆動する構成例を示す斜視図である。
 血液中のヘモグロビンに吸収され易い狭帯域化された波長の光を照射する狭帯域光観察(NBI(登録商標):Narrow Band Imaging(登録商標))を行うと、血管が強調して観察されることが知られている。例えば390~445nmの波長の狭帯域光による粘膜表層の毛細血管の観察、および530~550nmの波長の狭帯域光による深部の太い血管観察と粘膜表層の毛細血管とのコントラスト強調などである。
 NBI用光学部材45は、透過光の波長帯域を、こうしたNBIの波長帯域に制限する光学フィルタ等で構成された特殊光観察用光学部材である。
 アクチュエータ46は、NBI用光学部材45を駆動して、プリズム32と第1の撮像素子34との間に挿入し、またはプリズム32と第1の撮像素子34との間から抜脱する。
 このような構成により、NBI用光学部材45をプリズム32と第1の撮像素子34との間に挿入すれば、NBI用光学部材45を透過した第1の光線は狭帯域の光線となり、第1の画像によってNBI観察を行うことが可能となる。一方、第2の画像により白色光画像の観察を行うことができる。
 このような図9に示す構成例において、アクチュエータ46に接続される第3の信号線46の延出方向(第3の方向)である-z方向は、第1の信号線36が延出する第1の方向である+x方向、および第2の信号線37が延出する第2の方向である-x方向の何れとも異なる。
 なお、ここではNBI用光学部材45を、プリズム32と第1の撮像素子34との間に挿脱するように設けたが、プリズム32と第2の撮像素子35との間に挿脱するように設けてもよい。さらには、レンズ31と第1の撮像素子34との間の光路中と、レンズ31と第2の撮像素子35との間の光路中と、の少なくとも一方に、NBI用光学部材45を挿脱するように設ければよい。
 また、上述では特殊光観察用光学部材としてNBI用光学部材45を例に挙げたが、光学部材の種類はこれに限定されるものではなく、例えば、蛍光観察用の光学部材(励起光カットフィルタなど)、赤外光観察用の光学部材(赤外光透過フィルタなど)であっても構わない。
 こうして、アクチュエータ41またはアクチュエータ46が駆動する対象となる光路上に配置された部材としては、例えば、レンズ31と、第1の撮像素子34と、第2の撮像素子35と、ビームスプリッタを構成するプリズム32と、第1の光学像(第1の光線)のスペクトル帯域と第2の光学像(第2の光線)のスペクトル帯域とを異ならせる特殊光観察用光学部材(NBI用光学部材45など)と、の内の少なくとも1つが挙げられる。
 なお、上述ではシャフトの例として挿入部11を例に挙げたが、これに限定されるものではなく、シャフトが、第1の撮像素子34に接続される第1の信号線と、第2の撮像素子35に接続される第2の信号線37と、をまとめて収納するケーブルシャフトであっても構わない。
 このような第1の実施形態によれば、第1の撮像素子34から第1の方向に延出するように第1の撮像素子34と第1の信号線36とを接続し、第2の撮像素子35から第1の方向とは異なる第2の方向に延出するように第2の撮像素子35と第2の信号線37とを接続したために、第1の信号線36と第2の信号線37の混乱を防ぐことができ、かつ第1の信号線36と第2の信号線37の耐性を損なうことがない。
 また、第1の信号線36と第2の信号線37とが離れているために、信号線同士が絡み合うのを防止することができ、第1の信号線36と第2の信号線37とのクロストークを軽減して、ノイズによる画質の低下を防ぐことができる。
 特に、第1の撮像素子34から第1の信号線36が延出する第1の位置と、第2の撮像素子35から第2の信号線37が延出する第2の位置とは、xy平面(レンズ31の光軸Oに垂直な面)に投影した位置が異なるために、延出位置においても第1の信号線36と第2の信号線37が混乱するのを効果的に避けることができる。
 さらに、第1の方向と第2の方向との少なくとも一方が、シャフトである挿入部11内の空きスペース28,29に向かう方向となるようにしたために、空きスペース28,29内に第1の信号線36と第2の信号線37とが配置されることで、挿入部11(特に、先端部14と湾曲部13との接続部分)の太径化を抑制することができる。
 ビームスプリッタにより分割した第1の光線および第2の光線を第1の撮像素子34および第2の撮像素子35がそれぞれ受光するようにしたために、同一被検体に係る第1の画像と第2の画像とを得ることができる。その結果、同一の被検体に対する、例えば光学特性が異なる画像を得ることも可能となる。
 また、プロセッサ4により第1の画像と第2の画像との上下左右方向を揃える画像処理を行うようにしたために、第1の撮像素子34および第2の撮像素子35を、第1の信号線36が延出される第1の方向と、第2の信号線37が延出される第2の方向とが所望の方向となるように配置することが可能となる。これにより、設計の自由度が高まり、挿入部11内の空きスペース28,29をさらに有効に利用することができる。
 そして、例えば光学特性が異なる第1の画像と第2の画像とをプロセッサ4が合成することにより、より診断に適した合成画像を得ることが可能となる。
 光路長変更フィルタ33、ミラー38などの光路長変更部材をさらに備えたために、焦点位置が異なる第1の画像および第2の画像を得ることができる。これにより、例えば第1の画像または第2の画像を選択して表示するだけで、被検体に対して内視鏡2を近付けたり遠ざけたりする操作を要することなく、被検体を超接近状態で観察する近点観察と、被検体に対して距離を有して観察する遠点観察と、を行うことが可能となる。
 このとき、プロセッサ4が、第1の画像における第1の合焦領域と、第2の画像における第2の合焦領域とを合成することにより、近点から遠点まで合焦した、第1の画像および第2の画像よりも焦点深度が深い画像を観察することが可能となる。
 また、例えばNBI用光学部材45などの特殊光観察用光学部材を設けた場合には、スペクトル帯域が異なる第1の光学像(第1の光線)と第2の光学像(第2の光線)による特殊光観察が可能となる。
 さらに、アクチュエータ41,46から第3の信号線43,47が延出する第3の方向を、第1の方向および第2の方向と異なる方向としたために、第1~第3の信号線の混乱を効果的に防止することができる。
 アクチュエータ41が、第1の撮像素子34、第2の撮像素子35、およびプリズム32を駆動するか、またはレンズ31を駆動することにより、例えば、近点における深度拡大観察と、遠点における深度拡大観察とが可能となる。
 また、アクチュエータ41が、光学部材(例えばNBI用光学部材45)を駆動することにより、通常光観察画像と特殊光観察画像(例えば白色光画像とNBI観察画像)を同時に取得することが可能となる。
 なお、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。

Claims (16)

  1.  被検体の光学像を結像するレンズと、
     前記レンズにより結像される第1の光学像を撮像して第1の撮像信号を生成する第1の撮像素子と、
     前記レンズにより結像される第2の光学像を撮像して第2の撮像信号を生成する、前記第1の撮像素子とは別個に設けられた第2の撮像素子と、
     前記第1の撮像素子と接続され、前記第1の撮像信号を伝送する第1の信号線と、
     前記第2の撮像素子と接続され、前記第2の撮像信号を伝送する第2の信号線と、
     前記第1の撮像素子、前記第2の撮像素子、前記第1の信号線、および前記第2の信号線を収納する、前記レンズの光軸方向に沿った筒状のシャフトと、
     を備え、
     前記第1の信号線は、前記第1の撮像素子から第1の方向に延出するように前記第1の撮像素子と接続され、前記第2の信号線は、前記第2の撮像素子から前記第1の方向とは異なる第2の方向に延出するように前記第2の撮像素子と接続されていることを特徴とする撮像装置。
  2.  前記第1の撮像素子から前記第1の信号線が延出する第1の位置と、前記第2の撮像素子から前記第2の信号線が延出する第2の位置とは、前記レンズの光軸に垂直な面に投影した位置が異なることを特徴とする請求項1に記載の撮像装置。
  3.  前記第1の方向と前記第2の方向との少なくとも一方は、前記シャフト内の空きスペースに向かう方向であることを特徴とする請求項1に記載の撮像装置。
  4.  前記レンズに入射する前記被検体からの光線を、第1の光線と第2の光線とに分割するビームスプリッタをさらに備え、
     前記第1の撮像素子は、前記第1の光線が前記第1の光学像として結像される位置に配置され、
     前記第2の撮像素子は、前記第2の光線が前記第2の光学像として結像される位置に配置されていることを特徴とする請求項1に記載の撮像装置。
  5.  プロセッサをさらに備え、
     前記プロセッサは、
      前記第1の撮像信号に基づき第1の画像を生成し、
      前記第2の撮像信号に基づき第2の画像を生成し、
      前記第1の画像と前記第2の画像との上下左右方向を揃える画像処理を行うように構成されていることを特徴とする請求項4に記載の撮像装置。
  6.  プロセッサをさらに備え、
     前記プロセッサは、
      前記第1の撮像信号に基づき第1の画像を生成し、
      前記第2の撮像信号に基づき第2の画像を生成し、
      前記第1の画像と前記第2の画像とを合成するように構成されていることを特徴とする請求項4に記載の撮像装置。
  7.  前記第1の光線の光路長と前記第2の光線の光路長とを異ならせる光路長変更部材をさらに備えることを特徴とする請求項6に記載の撮像装置。
  8.  前記プロセッサは、前記第1の画像における第1の合焦領域と、前記第2の画像における第2の合焦領域とを合成することにより、前記第1の画像および前記第2の画像よりも焦点深度が深い画像を生成するように構成されていることを特徴とする請求項7に記載の撮像装置。
  9.  前記ビームスプリッタはプリズムを有し、
     前記光路長変更部材は、前記ビームスプリッタにより分割された前記第1の光線または前記第2の光線を、前記プリズム内に反射するミラーを有することを特徴とする請求項7に記載の撮像装置。
  10.  前記第1の光線のスペクトル帯域と、前記第2の光線のスペクトル帯域と、を異ならせる特殊光観察用光学部材を、前記レンズと前記第1の撮像素子との間の光路中と、前記レンズと前記第2の撮像素子との間の光路中と、の少なくとも一方に、さらに設けたことを特徴とする請求項7に記載の撮像装置。
  11.  前記第1の光学像として結像される第1の光線と前記第2の光学像として結像される第2の光線との少なくとも一方が伝送される光路上に配置された部材を駆動するアクチュエータと、
     前記アクチュエータと接続され、前記アクチュエータの駆動信号を伝送する第3の信号線と、
     をさらに備え、
     前記第3の信号線は、前記アクチュエータから第3の方向に延出するように前記アクチュエータと接続され、前記第3の方向は、前記第1の方向と異なる方向であって、かつ前記第2の方向と異なる方向であることを特徴とする請求項1に記載の撮像装置。
  12.  前記光路上に配置された部材は、前記レンズと、前記第1の撮像素子と、前記第2の撮像素子と、前記レンズに入射する前記被検体からの光線を第1の光線と第2の光線とに分割するビームスプリッタと、前記第1の光線のスペクトル帯域と前記第2の光線のスペクトル帯域とを異ならせる特殊光観察用光学部材と、の内の少なくとも1つであることを特徴とする請求項11に記載の撮像装置。
  13.  前記レンズは、焦点位置が可変であり、
     前記アクチュエータは、前記レンズを駆動して焦点位置を変更することを特徴とする請求項11に記載の撮像装置。
  14.  前記シャフトは、先端側に前記レンズが配置され、前記被検体内に挿入される内視鏡の挿入部であることを特徴とする請求項1に記載の撮像装置。
  15.  被検体の光学像を結像するレンズと、
     前記レンズにより結像される第1の光学像を撮像して第1の撮像信号を生成する第1の撮像素子と、
     前記レンズにより結像される第2の光学像を撮像して第2の撮像信号を生成する、前記第1の撮像素子とは別個に設けられた第2の撮像素子と、
     前記第1の撮像素子と接続され、前記第1の撮像信号を伝送する第1の信号線と、
     前記第2の撮像素子と接続され、前記第2の撮像信号を伝送する第2の信号線と、
     前記第1の撮像素子、前記第2の撮像素子、前記第1の信号線、および前記第2の信号線を収納する、前記レンズの光軸方向に沿った、被検体内に挿入するための挿入部と、
     を備え、
     前記第1の信号線は、前記第1の撮像素子から第1の方向に延出するように前記第1の撮像素子と接続され、前記第2の信号線は、前記第2の撮像素子から前記第1の方向とは異なる第2の方向に延出するように前記第2の撮像素子と接続されていることを特徴とする内視鏡。
  16.  被検体の光学像を結像するレンズと、
     前記レンズにより結像される第1の光学像を撮像して第1の撮像信号を生成する第1の撮像素子と、
     前記レンズにより結像される第2の光学像を撮像して第2の撮像信号を生成する、前記第1の撮像素子とは別個に設けられた第2の撮像素子と、
     前記第1の撮像素子と接続され、前記第1の撮像信号を伝送する第1の信号線と、
     前記第2の撮像素子と接続され、前記第2の撮像信号を伝送する第2の信号線と、
     前記第1の撮像素子、前記第2の撮像素子、前記第1の信号線、および前記第2の信号線を収納する、前記レンズの光軸方向に沿った収納部品と、
     を備え、
     前記第1の信号線は、前記第1の撮像素子から第1の方向に延出するように前記第1の撮像素子と接続され、前記第2の信号線は、前記第2の撮像素子から前記第1の方向とは異なる第2の方向に延出するように前記第2の撮像素子と接続されていることを特徴とする、被検体に挿入する内視鏡の先端に設けられる、内視鏡先端部。
PCT/JP2020/016542 2020-04-15 2020-04-15 撮像装置、内視鏡、内視鏡先端部 WO2021210089A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/016542 WO2021210089A1 (ja) 2020-04-15 2020-04-15 撮像装置、内視鏡、内視鏡先端部

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/016542 WO2021210089A1 (ja) 2020-04-15 2020-04-15 撮像装置、内視鏡、内視鏡先端部

Publications (1)

Publication Number Publication Date
WO2021210089A1 true WO2021210089A1 (ja) 2021-10-21

Family

ID=78083821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/016542 WO2021210089A1 (ja) 2020-04-15 2020-04-15 撮像装置、内視鏡、内視鏡先端部

Country Status (1)

Country Link
WO (1) WO2021210089A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10192233A (ja) * 1997-01-07 1998-07-28 Olympus Optical Co Ltd 立体電子内視鏡
JP2008099746A (ja) * 2006-10-17 2008-05-01 Olympus Medical Systems Corp 内視鏡
JP2012045053A (ja) * 2010-08-24 2012-03-08 Fujifilm Corp 撮像装置および内視鏡システム
WO2013061819A1 (ja) * 2011-10-27 2013-05-02 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2015002805A (ja) * 2013-06-19 2015-01-08 オリンパス株式会社 内視鏡
WO2015019671A1 (ja) * 2013-08-05 2015-02-12 オリンパスメディカルシステムズ株式会社 内視鏡用撮像ユニット
WO2015045467A1 (ja) * 2013-09-25 2015-04-02 オリンパスメディカルシステムズ株式会社 電気ユニット、及びこれを搭載した内視鏡

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10192233A (ja) * 1997-01-07 1998-07-28 Olympus Optical Co Ltd 立体電子内視鏡
JP2008099746A (ja) * 2006-10-17 2008-05-01 Olympus Medical Systems Corp 内視鏡
JP2012045053A (ja) * 2010-08-24 2012-03-08 Fujifilm Corp 撮像装置および内視鏡システム
WO2013061819A1 (ja) * 2011-10-27 2013-05-02 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2015002805A (ja) * 2013-06-19 2015-01-08 オリンパス株式会社 内視鏡
WO2015019671A1 (ja) * 2013-08-05 2015-02-12 オリンパスメディカルシステムズ株式会社 内視鏡用撮像ユニット
WO2015045467A1 (ja) * 2013-09-25 2015-04-02 オリンパスメディカルシステムズ株式会社 電気ユニット、及びこれを搭載した内視鏡

Similar Documents

Publication Publication Date Title
US8602980B2 (en) Folding endoscope and method of using the same
JP5318142B2 (ja) 電子内視鏡
JP6076492B2 (ja) 立体視内視鏡
US7108657B2 (en) Endoscopic visualization apparatus with different imaging systems
KR100556232B1 (ko) 이격조절이 가능한 양안구조 복강경
US20050027164A1 (en) Vision catheter
US20050027163A1 (en) Vision catheter
JP2008529669A (ja) 光学コヒーレンス断層撮影法の装置及び方法
JP2007075604A (ja) 視野方向可変式内視鏡
WO2009014895A1 (en) Endoscope assembly and method of viewing an area inside a cavity
JP6594151B2 (ja) 超音波内視鏡
JP6116780B1 (ja) 内視鏡
US10437040B2 (en) Imaging device and endoscope device
JP3934578B2 (ja) 走査ミラー、ビーム走査型プローブ
JP4845824B2 (ja) 内視鏡
US20180098688A1 (en) Lens unit and endoscope
WO2021210089A1 (ja) 撮像装置、内視鏡、内視鏡先端部
WO2014188787A1 (ja) 内視鏡先端構造および内視鏡
JP2000166860A (ja) 内視鏡装置
JP4996153B2 (ja) 拡大観察用内視鏡装置
JP4261216B2 (ja) 走査型共焦点プローブ
WO2021176717A1 (ja) 内視鏡装置、内視鏡画像用プロセッサ、内視鏡画像の生成方法
JP4538297B2 (ja) 内視鏡
WO2019235006A1 (ja) 内視鏡
JP2001340286A (ja) 内視鏡

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20931494

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20931494

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP