WO2016194178A1 - 撮像装置、内視鏡装置及び撮像方法 - Google Patents

撮像装置、内視鏡装置及び撮像方法 Download PDF

Info

Publication number
WO2016194178A1
WO2016194178A1 PCT/JP2015/066073 JP2015066073W WO2016194178A1 WO 2016194178 A1 WO2016194178 A1 WO 2016194178A1 JP 2015066073 W JP2015066073 W JP 2015066073W WO 2016194178 A1 WO2016194178 A1 WO 2016194178A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical path
imaging
movable mask
wavelength band
Prior art date
Application number
PCT/JP2015/066073
Other languages
English (en)
French (fr)
Inventor
愼一 今出
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201580080607.8A priority Critical patent/CN107636533A/zh
Priority to JP2017521430A priority patent/JPWO2016194178A1/ja
Priority to PCT/JP2015/066073 priority patent/WO2016194178A1/ja
Publication of WO2016194178A1 publication Critical patent/WO2016194178A1/ja
Priority to US15/827,598 priority patent/US20180098053A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B11/00Filters or other obturators specially adapted for photographic purposes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Definitions

  • the present invention relates to an imaging device, an endoscope device, an imaging method, and the like.
  • a technique for optically measuring a three-dimensional shape is known.
  • various methods have been proposed, such as a stereo imaging method based on stereoscopic viewing of both left and right eyes, a phase shift method using pattern illumination such as a sine pattern, and a TOF (Time-of-Flight) method based on time measurement of reflected light.
  • a stereo imaging method based on stereoscopic viewing of both left and right eyes
  • a phase shift method using pattern illumination such as a sine pattern
  • TOF Time-of-Flight
  • the stereo imaging method can be a simple mechanism that simply changes the imaging system to a stereo optical system, and does not require special illumination mechanisms, illumination control, or advanced signal processing. Considering it is suitable for mounting in a small space. For example, there are many needs such as mounting at the tip of an endoscope apparatus and a visual sensor of a small robot. These often require not only high-precision measurement functions but also high-quality normal observation functions at the same time, and instead of using separate left and right image sensors, parallax images are formed on a common image sensor to ensure resolution. The form to take is taken.
  • the distance to the subject is basically obtained from the amount of parallax between the left and right images, the amount of parallax cannot be detected unless the left and right images formed on the common image sensor can be separated, and distance information can be obtained. Can not.
  • Patent Document 1 discloses a technique for switching the left and right imaging light paths with a mechanical shutter in time to acquire the left and right images in a time-sharing manner.
  • Patent Document 2 discloses a technique in which an RG filter is inserted in the left half of a single imaging optical path and a GB filter is inserted in the right half, and the left and right images are separated from the R image and the B image of the captured image. ing.
  • the RG filter and the GB filter are retracted from the imaging optical path, and an observation image is acquired.
  • Patent Document 1 since the right image and the left image are taken in a time-sharing manner, when the imaging system or the subject moves, the phase difference including the blur is detected, and the blur and the true phase difference are separated from the phase difference. Measurement error occurs because it is difficult to do.
  • Patent Document 2 the imaging of the observation image and the imaging of the parallax image are switched. However, it is assumed that autofocusing is performed, and high-speed switching is not assumed. In order to match the observation image and the parallax image in the three-dimensional shape measurement, high-speed switching is required. However, since the configuration of Patent Document 2 has two movable parts, the drive mechanism becomes large and the probability of failure is high. There are problems such as high.
  • the relative blur between the imaging system and the subject is likely to be a problem.
  • an imaging apparatus an endoscope apparatus, an imaging method, and the like that can perform stereo measurement and observation image capturing while suppressing the influence of the imaging system or subject movement.
  • One embodiment of the present invention includes an imaging element, a first optical path, an imaging optical system that forms an image of a subject on the imaging element in a second optical path having a parallax with respect to the first optical path, and a first optical path.
  • the first filter and the light-shielding portion that pass through the wavelength band, and a movable mask that is movable with respect to the imaging optical system, provided in the second optical path, and the first wavelength band
  • the present invention relates to an imaging device that includes a second filter that passes a different second wavelength band.
  • the movable mask is configured to be movable with respect to the imaging optical system, stereo measurement and observation image capturing can be performed by switching the position of the movable mask.
  • stereo measurement and observation image capturing can be performed by switching the position of the movable mask.
  • non-time-division stereo photography is possible with two optical paths, and there is only one movable mask as a movable part, so that the influence of the movement of the imaging system or subject can be suppressed. Become.
  • an imaging device a first optical path, and an imaging optical system that forms an image of a subject on the imaging device in a second optical path having a parallax with respect to the first optical path; A first filter that passes the first wavelength band; a second filter that passes a second wavelength band different from the first wavelength band; and a light-shielding unit.
  • the present invention relates to an imaging device that includes a movable mask that is movable.
  • Still another aspect of the present invention relates to an endoscope apparatus including the imaging apparatus described in any of the above.
  • the movable mask having the first filter that passes the first wavelength band and the light-shielding portion is set to the first state, thereby forming the imaging optical system.
  • the first filter is not inserted into the first optical path, and the light shielding unit is inserted into the second optical path of the imaging optical system having parallax with respect to the first optical path.
  • the present invention relates to an imaging method in which the first filter is inserted into the first optical path and the light-shielding portion is not inserted into the second optical path by setting the movable mask to the second state. .
  • FIG. 1 shows a basic configuration example of the present embodiment.
  • FIG. 2 shows a basic configuration example of the present embodiment.
  • FIG. 3 is a detailed configuration example of a fixed mask and a movable mask.
  • FIG. 4 is a detailed configuration example of a fixed mask and a movable mask.
  • FIG. 5 shows spectral characteristics of the left eye optical path of the fixed mask, spectral characteristics of the right eye optical path of the fixed mask, and spectral characteristics of the left eye optical path of the movable mask.
  • FIG. 6 shows spectral characteristics of the captured image in the observation mode.
  • FIG. 7 shows spectral characteristics of a captured image in the stereo measurement mode.
  • FIG. 8 shows a modification of the fixed mask and the movable mask.
  • FIG. 1 shows a basic configuration example of the present embodiment.
  • FIG. 2 shows a basic configuration example of the present embodiment.
  • FIG. 3 is a detailed configuration example of a fixed mask and a movable mask.
  • FIG. 4 is
  • FIG. 9 shows a modification of the fixed mask and the movable mask.
  • FIG. 10 shows a modification of the imaging optical system.
  • FIG. 11 shows a modification of the imaging optical system.
  • FIG. 12 is a diagram for explaining the principle of stereo measurement.
  • FIG. 13 is a configuration example of the endoscope apparatus of the present embodiment.
  • FIG. 14 is a sequence for switching between the observation mode and the stereo measurement mode.
  • FIG. 15 is a diagram for explaining the correspondence between the subject or the imaging system.
  • FIG. 16 is a second configuration example of the endoscope apparatus according to the present embodiment.
  • an industrial endoscope apparatus will be described below as an application example of the present invention.
  • the present invention is not limited to application to an industrial endoscope apparatus, and a stereo shooting method (with an imaging system having parallax).
  • a method of detecting the phase difference between the two images and acquiring subject distance information), a three-dimensional measuring device that measures a three-dimensional shape, and an imaging device having a three-dimensional measuring function for example, a medical endoscope device, Microscopes, industrial cameras, robot vision functions, etc. are applicable.
  • a scope In an inspection with an endoscopic device, for example, a scope is inserted into the inspection object and a normal image is taken to check for abnormalities. Measure the three-dimensional shape and examine whether further inspection is necessary. Thus, a normal observation image is taken with white light.
  • a method of achieving both such shooting with white light and stereo measurement for example, performing stereo shooting with white light can be considered.
  • the image sensor is divided into left and right parts, and the left image and the right image need to be imaged in the respective regions.
  • there is a color phase difference method As a method for forming the left image and the right image in the same area of the image sensor, there is a color phase difference method. However, since the captured image becomes a color shift image, it cannot be used as an observation image.
  • a high-resolution observation image can be obtained with white light, and non-time division stereo measurement can be performed with a color phase difference.
  • Patent Document 2 As a technique for performing stereo measurement in a non-time-division manner using a color phase difference, for example, there is Patent Document 2 described above.
  • Patent Document 2 applies stereo measurement to autofocus, and it is considered that high-speed switching with an observation image is not assumed.
  • it is considered disadvantageous in terms of high-speed switching.
  • Patent Document 2 has a problem in that it is difficult to increase the distance measurement accuracy because it is difficult to increase the distance between the pupils because the single optical path is divided into right and left in the middle.
  • the diaphragm is small (F value is large). Therefore, the small diaphragm diameter is divided into right and left, and the distance between the pupils tends to be close.
  • the above-described problems can be solved by the following method. That is, the image formed by the left-eye optical system and the image formed by the right-eye optical system of the subject are imaged in a common area of one image sensor.
  • An observation mode in which a switching mechanism is provided so that the left eye optical path (first optical path) and the right eye optical path (second optical path) can be alternately switched at high speed, and the first image (observation image) is acquired by time division.
  • the second image parallax image, stereo image, left and right image, measurement image
  • the switching mechanism is configured so that the first image is an image by only the left eye optical path, and the first image is used as an image for normal observation.
  • the switching mechanism is configured so that the second image is obtained by overlapping the images from both the left eye optical path and the right eye optical path, and the second image is used as the measurement image.
  • the left eye image and the right eye image are made to be images in which the wavelength regions are separated by the spectral filter in the optical path.
  • the normal observation image is a normal color image without parallax
  • the measurement image is a separated image with left and right parallax.
  • distance information to the subject is calculated from the principle of stereo measurement, and three-dimensional information is acquired.
  • parallax images can be acquired simultaneously, so that it is possible to eliminate measurement error factors due to subject blurring or imaging system blurring. Further, as will be described later, by using an imaging system in which the left-eye optical path and the right-eye optical path are separated, one movable part can be obtained, and high-speed switching, downsizing, error detection, and the like are possible.
  • the near-infrared region is included in the observation image, only the near-infrared image can be extracted from the observation image and the measurement image by calculation.
  • a device that cannot be used is assumed.
  • the application of the present invention is not limited to the above-described apparatus, and can be widely applied to a three-dimensional measurement apparatus for the purpose of high-definition observation and high-precision measurement.
  • FIGS. FIG. 1 and FIG. 2 are cross-sectional views (on a plane including the optical axis) of the imaging unit, and the amount of imaged light on the image sensor (or the pixel value of the image captured by the image sensor).
  • the relationship of the position x is shown.
  • the position x is a position (coordinates) in a direction perpendicular to the optical axis of the imaging optical system, for example, a pixel position of the image sensor. Actually, it is a two-dimensional coordinate system, but here, a two-dimensional one-dimensional coordinate system in the parallax direction will be described.
  • the endoscope apparatus of the present embodiment includes an imaging optical system 10, a movable mask 30 (first mask), a fixed mask 20 (second mask), and an image sensor 40 (image sensor, image sensor).
  • the imaging optical system 10 includes a left eye imaging system 11 (first imaging optical system) and a right eye imaging system 12 (second imaging optical system).
  • the image pickup device 40 has RGB color filters of the Bayer array will be described as an example.
  • the present invention is not limited to this, and may include, for example, a complementary color filter.
  • the reflected light from the subject 5 is reflected on the surface of the same image sensor 40 by the imaging optical system 10 of two systems (the left eye imaging system 11 and the right eye imaging system 12). Make an image.
  • the illustration of the illumination mechanism that illuminates the subject 5 is omitted.
  • d is the distance between the optical axis AX1 of the left-eye imaging system 11 and the optical axis AX2 of the right-eye imaging system 12, and is the baseline length in stereo measurement.
  • the straight line AXC is a straight line parallel to the optical axes AX1 and AX2 in a plane including the optical axes AX1 and AX2, and corresponds to the parallax center of stereo measurement.
  • the left eye imaging system 11 and the right eye imaging system 12 each include an imaging lens.
  • the fixed mask 20 and the movable mask 30 are provided, for example, at the pupil position of the imaging system. Alternatively, it may be provided on the imaging side with respect to the imaging system.
  • the fixed mask 20 is fixed with respect to the imaging system, and the movable mask 30 is configured so that the position can be switched in a plane perpendicular to the optical axes AX1 and AX2.
  • the movable mask 30 has an observation mode (first mode, non-stereo mode, monocular mode) that is the first state shown in FIG. 1 and a stereo measurement mode (second mode) that is the second state shown in FIG. , Stereo mode), which can be switched at high speed.
  • the fixed mask 20 includes a plate-shaped light shielding portion (light shielding member) provided with two aperture holes (a left eye aperture hole and a right eye aperture hole), and a spectral filter provided in the right eye aperture hole.
  • the optical axis AX1 passes through the left eye aperture (for example, at the center of the circle), and the optical axis AX2 passes through the right eye aperture (for example, at the center of the circle).
  • the portions other than the aperture hole are covered with a light shielding portion so that light does not pass through.
  • the left eye diaphragm hole may be a through hole, for example, or some spectral filter (for example, a broadband spectral filter that transmits at least white light) may be provided.
  • the movable mask 30 includes a plate-shaped light shielding portion (light shielding member) provided with one aperture hole (left eye aperture hole) and a spectral filter provided in the left eye aperture hole.
  • the movable mask 30 is configured in such a size that one of the two apertures of the fixed mask 20 is opened (the movable mask 30 does not overlap).
  • . 1 and 2 illustrate the case where the movable mask 30 is provided on the imaging side with respect to the fixed mask 20, the movable mask 30 may be provided on the objective side with respect to the fixed mask 20.
  • the spectral characteristic of the left eye aperture of the fixed mask 20 is expressed as FL
  • the spectral characteristic of the right eye aperture is expressed as FR
  • the spectral characteristic of the left eye aperture of the movable spectral mask is expressed as SL.
  • the spectral filters provided in the respective apertures are also denoted by the same symbols FL, FR, and SL.
  • FIG. 1 shows the state of the observation mode, in which the left eye side optical path is opened through the left eye aperture of the fixed mask 20 and the right eye side optical path is blocked (shielded) by the movable mask 30. It has become.
  • the image formed on the image sensor 40 is an image IL formed only by the left eye image forming system 11, and a normal (monocular white image) image is obtained.
  • FIG. 2 shows a state in the stereo measurement mode, in which the left eye aperture of the fixed mask 20 and the left eye aperture of the movable mask 30 are overlapped along the optical axis AX1. That is, the light path on the left eye side filters light through the right eye aperture of the fixed mask 20 with the short wavelength (blue) spectral filter SL (first filter) of the movable mask 30, and the image IL ′ by the short wavelength component is filtered. An image is formed on the image sensor 40.
  • the right eye side optical path is released from the light shielding by the movable mask 30, the imaging light is filtered by the long wavelength (red) spectral filter FR (second filter) of the fixed mask 20, and the image IR ′ by the long wavelength component is the same.
  • the image is formed on the image sensor 40.
  • the image IL ′ obtained by the blue pixel of the image sensor 40 is a short wavelength image
  • the image IR ′ obtained by the red pixel of the image sensor 40 is a long wavelength image
  • the image IL ′ from two optical paths. , IR ′ can be obtained separately. That is, in the stereo measurement mode, the left eye image IL ′ and the right eye image IR ′ having a phase difference can be obtained simultaneously and independently, and stereo measurement using the phase difference image becomes possible.
  • FIGS. 3 and 4 show detailed configuration examples of the fixed mask 20 and the movable mask 30.
  • 3 and 4 are cross-sectional views of the imaging optical system 10, the fixed mask 20, and the movable mask 30, and a view of the fixed mask 20 and the movable mask 30 in the optical axis direction (a rear view viewed from the imaging side). ).
  • An open aperture 21 (through hole) is opened in the left eye optical path of the fixed mask 20, and an aperture 22 having a long wavelength spectral filter FR is formed in the right eye optical path.
  • the aperture holes 21 and 22 are opened in the light shielding portion 24 (light shielding member), and are, for example, holes having a size corresponding to the depth of field necessary for the imaging system (for example, circular holes, the size is a diameter).
  • the centers of the aperture holes 21 and 22 are coincident (including substantially coincident) with the optical axes AX1 and AX2, respectively.
  • the light shielding unit 24 is provided so as to close the housing in which the optical systems 11 and 12 are housed when viewed from the front (or the back), and is provided, for example, perpendicular to the optical axes AX1 and AX2. It is the plate-shaped member made.
  • the movable mask 30 has a diaphragm hole 31 having a short wavelength spectral filter SL, and a light shielding part 34 (light shielding member) in which the diaphragm hole 31 is opened.
  • the aperture hole 31 is, for example, a hole having a size slightly larger than the aperture hole 21 of the fixed mask 20. Alternatively, it may be a hole having a size corresponding to the depth of field necessary for the imaging system (for example, a circular hole having a diameter).
  • the center of the aperture 31 (for example, the center of a circle) is coincident (including substantially coincident) with the optical axis AX1 in the stereo observation mode.
  • the light shielding unit 34 is connected to a rotation shaft 35 perpendicular to the optical axes AX1 and AX2, and is, for example, a plate-like member provided perpendicular to the optical axes AX1 and AX2.
  • the shape of the light shielding portion 34 is, for example, a shape in which a connecting plate extends from a circular plate to the rotary shaft 35, but is not limited thereto, and may be any shape that can realize the states of FIGS. 3 and 4. .
  • the movable mask 30 is configured to rotate about a rotation axis 35 by a predetermined angle in a direction perpendicular to the optical axes AX1 and AX2.
  • rotational movement can be realized by a piezo element or a motor.
  • the movable mask 30 is rotated and tilted to the right eye side by a predetermined angle, the left eye optical path (aperture hole 21) of the fixed mask 20 is opened, and the right eye optical path (aperture hole 22). Is in a light-shielded state.
  • the movable mask 30 rotates and tilts to the left eye side by a predetermined angle, and the spectral filter (aperture hole 31) of the movable mask 30 moves to the left eye optical path (aperture hole 21) of the fixed mask 20. Only the short wavelength component is allowed to pass through, and the right eye optical path (aperture hole 22) is opened from the light shielding state. By exposing the aperture 22 having the long wavelength spectral filter FR of the fixed mask 20, only the long wavelength component is passed.
  • the movable mask 30 may be moved by a sliding operation to create two states.
  • the rotation operation or the slide operation can be realized by, for example, a magnet mechanism or a piezoelectric mechanism, and an appropriate one may be selected in consideration of high speed and durability.
  • FIG. 5 shows spectral characteristics FL of the left eye optical path of the fixed mask 20, spectral characteristics FR of the right eye optical path of the fixed mask 20, and spectrum of the left eye optical path of the movable mask 30.
  • Characteristic SL is shown.
  • FIG. 5 shows the relationship between the transmission wavelength and transmittance of the spectral filter (or through hole) as a relative gain.
  • the spectral characteristic (spectral sensitivity characteristic) which the color pixel of the image pick-up element 40 has as a reference characteristic is shown with a dotted line.
  • the symbols “L” and “R” represent the left-eye optical path and the right-eye optical path, respectively, and the symbols “r”, “g”, “b”, and “ir” represent red, green, blue, and near red, respectively.
  • the spectral characteristic of the light detected by the blue pixel of the image sensor 40 through the left eye optical path is expressed as “Lb”.
  • images obtained with these spectral characteristics are also represented by the same reference (Lb or the like).
  • the spectral characteristic FL of the left eye optical path of the fixed mask 20 is a characteristic including all of the spectral characteristics Lb, Lg, Lr, and Lir included in the color pixels of the image sensor 40.
  • the illumination spectral characteristics of the subject 5 may be set as such.
  • the spectral characteristic FR of the right eye optical path of the fixed mask includes a spectral characteristic Rr of red r and does not include a spectral characteristic of blue b. Note that the spectral characteristic FR does not need to be a characteristic that does not include the spectral characteristic of blue b at all, as long as it is configured to ensure sufficient separability between the left and right images (red image, blue image). It is not necessary to make the characteristic include all of the spectral characteristic Rr of r.
  • the spectral characteristic SL of the left eye optical path in the stereo measurement mode of the movable mask 30 is a characteristic that includes the spectral characteristic Lb of blue b and does not include the spectral characteristic of red r.
  • the spectral characteristic SL need not be a characteristic that does not include the spectral characteristic of red r at all, as long as it is configured to ensure sufficient separability between the left and right images (red image, blue image). It is not necessary to have a characteristic including all of the spectral characteristics Lb of b. Since the right eye optical path in the stereo measurement mode of the movable mask 30 is merely to open the right eye optical path of the fixed mask 20, there is no limited spectral characteristic.
  • FIG. 6 shows spectral characteristics of a captured image acquired by the image sensor 40 via the left eye optical path in the observation mode.
  • the solid line indicates the spectral characteristic of the captured image
  • the dotted line indicates the spectral characteristic FL of the left-eye optical path.
  • the captured image in the observation mode is an image that passes only through the optical path of the left eye, and is an image that includes components of red r, green g, blue b, and near infrared ir. Therefore, it is a simple monocular captured image in which no superimposition of parallax images occurs.
  • FIG. 7 shows the spectral characteristics of the left eye image acquired by the image sensor 40 via the left eye optical path and the spectral characteristics of the right eye image acquired by the image sensor 40 via the right eye optical path in the stereo measurement mode.
  • the solid lines indicate the spectral characteristics of the left eye image and the right eye image
  • the dotted lines indicate the spectral characteristics SL of the left eye optical path and the spectral characteristics FR of the right eye optical path.
  • the spectral characteristics of the green image are indicated by a thin dotted line.
  • spectral images can also be expressed as Lg, Lb, and Lir.
  • the color pixels of the image sensor 40 of the primary color Bayer have sensitivity in the wavelength range of (r + ir) for red pixels, (g + ir) for green pixels, and (b + ir) for blue pixels. Therefore, in the observation mode, three types of color images Vr, Vg, and Vb represented by the following formula (1) can be obtained separately.
  • Vr, Vg, and Vb represent a red image, a green image, and a blue image (or their spectral characteristics) in the observation mode.
  • the light having the spectral characteristic Lb (including part of the spectral characteristic Lg) out of the spectral characteristics Lr, Lg, Lb, and Lir passing through the fixed mask 20 in the left eye optical path is transferred to the movable mask 30.
  • the spectral characteristic SL of the left eye optical path is a characteristic that allows a wavelength of 550 nm or less to pass and blocks a wavelength of 550 nm or more.
  • the movable mask 30 is opened in the right eye optical path, and the light having the spectral characteristic Lr (including a part of the spectral characteristic Lg) is filtered and extracted by the spectral characteristic FR passing through the right eye optical path of the fixed mask 20.
  • the spectral characteristic FR of the right-eye optical path of the fixed mask 20 is a characteristic that allows wavelengths of 550 nm to 800 nm to pass and blocks other wavelengths.
  • the left-eye image from the left-eye optical path is obtained as an image having Lb spectral characteristics based on the spectral characteristics of the blue pixels of the image sensor 40 (primary color Bayer).
  • the right eye image from the right eye optical path is obtained as an image having Lr spectral characteristics based on the spectral characteristics of the red pixels of the image sensor 40 (primary color Bayer). That is, the left eye image and the right eye image represented by the following expression (2) can be obtained by separating them as Mr and Mb by independent color pixels. Mr and Mb represent a red image and a blue image (or their spectral characteristics) in the stereo measurement mode.
  • the red image Mr and the blue image Mb may be converted and extracted from the complementary color information (cyan, magenta, yellow).
  • the imaging device includes the imaging element 40, the imaging optical system 10, the movable mask 30, and the second filter FR.
  • the imaging optical system 10 forms an image of the subject 5 on the image sensor 40 through the first optical path and the second optical path having parallax with respect to the first optical path.
  • the movable mask 30 includes a first filter SL that passes the first wavelength band and a light-shielding portion 34, and is movable with respect to the imaging optical system 10.
  • the second filter FR is provided in the second optical path, and passes a second wavelength band different from the first wavelength band.
  • the movable mask 30 since there is one movable mask 30 that is a movable part, it is possible to realize high-speed switching, simplification of the driving mechanism, and suppression of failures and errors in mode switching.
  • the movable mask 30 has a simple configuration in which one filter SL is provided in the light-shielding portion 34, and troubles such as filter removal due to switching vibration can be suppressed.
  • an imaging system in which the first optical path and the second optical path are clearly separated is used, it is easy to increase the baseline length (d in FIG. 12) in stereo measurement, and accurate distance measurement is possible.
  • the first optical path corresponds to the left-eye optical path
  • the second optical path corresponds to the right-eye optical path
  • the first optical path may correspond to the right eye optical path
  • the second optical path may correspond to the left eye optical path.
  • the optical path is separated into right and left for convenience, the separation direction of the optical path is not limited to right and left.
  • the optical path is a path from the light that forms an image on the image sensor 40 to the image sensor 40 after entering from the objective side of the optical system.
  • the optical path passing through the right eye optical system 12 and the right eye aperture 22 of the fixed mask 20 is the second optical path. That is, the optical path is defined by the two apertures 21 and 22 of the binocular optical system and the fixed mask 20.
  • a single-lens optical system which will be described later with reference to FIGS.
  • the optical path passing through the imaging optical system 10 and the left eye aperture 21 of the fixed mask 20 (or the aperture 31 of the movable mask 30 in the stereo measurement mode) is the first. 1 optical path.
  • the optical path passing through the imaging optical system 10 and the right eye aperture 22 of the fixed mask 20 is the second optical path. That is, the optical path is defined by dividing the pupil of the single-lens optical system by the two apertures 21 and 22 of the fixed mask 20.
  • the mask is a member or component that shields light incident on the mask and allows part of the light to pass.
  • the light shielding portions 24 and 34 shield the light and the apertures 21, 22, and 31 allow the light (full band or partial band) to pass through.
  • the first wavelength band corresponds to the blue wavelength band (the band on the short wavelength side of white light), and the second wavelength band corresponds to the red wavelength band (the band on the long wavelength side of white light). ).
  • the first wavelength band may correspond to the red wavelength band, and the second wavelength band may correspond to the blue wavelength band.
  • the first wavelength band and the second wavelength band may be any as long as the image by the first optical path and the image by the second optical path can be separated by the wavelength band.
  • the blue image and the red image of the Bayer image sensor are separated, but the present invention is not limited to this, and the present invention can be applied to any method that separates parallax images based on wavelength band separation.
  • the imaging apparatus includes a movable mask control unit 340 (FIG. 13) that controls the movable mask 30.
  • the movable mask control unit 340 In the non-stereo mode (observation mode), the movable mask control unit 340 is in a first state (the first state in which the first filter SL is not inserted into the first optical path and the light shielding unit 34 is inserted into the second optical path). 1), the movable mask 30 is set.
  • the movable mask control unit 340 is in the second state in which the first filter SL is inserted into the first optical path and the light shielding unit 34 is not inserted into the second optical path.
  • the movable mask 30 is set at (second position).
  • the switching control between the observation mode of FIGS. 1 and 3 and the stereo measurement mode of FIGS. 2 and 4 can be realized. That is, when the movable mask 30 is set to the first state, the second optical path is shielded by the light-shielding portion 34, so that only the first optical path is photographed, and the first filter includes the first filter. Since SL is not inserted, an image for normal observation (white light image) can be taken. On the other hand, when the movable mask 30 is set to the second state, the first filter SL is inserted in the first optical path, and the second filter FR is fixed in the second optical path. It is possible to capture a parallax image in the phase difference method.
  • the imaging apparatus includes a fixed mask 20.
  • the fixed mask 20 has a first diaphragm hole 21 provided in the first optical path and a second diaphragm hole 22 provided in the second optical path.
  • the second filter FR is provided in the second throttle hole 22.
  • the movable mask 30 has a third aperture 31 provided in the light shielding part 34.
  • the first filter SL is provided in the third throttle hole 31.
  • the first optical path and the second optical path are separated by the first aperture hole 21 and the second aperture hole 22. It can be clearly separated. Then, by closing one of the aperture holes 22, monocular imaging in the observation mode becomes possible, and by using both aperture holes 21 and 22, stereo imaging in the stereo measurement mode becomes possible. Since the two optical paths are clearly separated by the fixed mask 20, the baseline length (d in FIG. 12) in stereo measurement can be secured as described above.
  • the imaging optical system 10 forms an image of the first imaging optical system 11 that forms an image of light passing through the first aperture 21 and the light that passes through the second aperture 22. And a second imaging optical system 12.
  • Modified Example A first modified example will be described. That is, in the above-described embodiment, the case where one movable aperture 31 is provided in the movable mask 30 has been described as an example. However, the present invention is not limited to this. For example, as shown in FIGS. 8 and 9, two throttle holes 31 and 32 may be provided in the movable mask 30.
  • the movable mask 30 includes a light shielding part 34, a left eye diaphragm hole 31 provided in the light shielding part 34, and a right eye diaphragm hole 32 provided in the light shielding part 34.
  • the left eye aperture 31 is provided with a spectral filter having a short wavelength spectral characteristic SL
  • the right eye aperture 32 is provided with a spectral filter having a long wavelength spectral characteristic SR.
  • the spectral characteristic SR is the same characteristic as the spectral characteristic FR of FIG.
  • the fixed mask 20 includes a light shielding part 24, a left eye diaphragm hole 21 provided in the light shielding part 24, and a right eye diaphragm hole 22 provided in the light shielding part 24.
  • the aperture holes 21 and 22 are, for example, in an open state (through hole), and their spectral characteristics are the same as the spectral characteristics FL in FIG.
  • the left eye diaphragm hole 21 of the fixed mask 20 is opened, the right eye diaphragm hole 22 of the fixed mask 20 is shielded by the light shielding portion 24 of the movable mask 30, and a white light image is captured by a single eye.
  • the left eye aperture 21 of the fixed mask 20 and the left eye aperture 31 of the movable mask 30 overlap, the right eye aperture 22 of the fixed mask 20 and the right eye aperture 32 of the movable mask 30 overlap, and color.
  • a parallax image (red image, blue image) by the phase difference method is captured.
  • the imaging device includes the imaging element 40, the imaging optical system 10, and the movable mask 30.
  • the imaging optical system 10 forms an image of the subject 5 on the image sensor 40 through the first optical path and the second optical path having parallax with respect to the first optical path.
  • the movable mask 30 has a first filter SL that passes the first wavelength band (blue wavelength band) and a second filter band that passes a second wavelength band (red wavelength band) different from the first wavelength band.
  • the filter SR and the light shielding portion 34 are movable with respect to the imaging optical system 10.
  • the imaging apparatus includes a movable mask control unit 340 (FIG. 13) that controls the movable mask 30.
  • the movable mask control unit 340 In the non-stereo mode (observation mode), the movable mask control unit 340 is in a first state in which the first filter SL is not inserted into the first optical path and the light shielding unit 34 is inserted into the second optical path. The movable mask 30 is set.
  • the movable mask controller 340 includes a second filter in which the first filter SL is inserted into the first optical path and the second filter SR is inserted into the second optical path. The movable mask 30 is set in the state.
  • the imaging optical system 10 is the two-lens optical systems 11 and 12 has been described as an example, but the present invention is not limited to this.
  • the imaging optical system 10 may be a single-lens optical system.
  • the single-lens imaging optical system 10 is divided into pupils by the apertures 21 and 22 of the fixed mask 20, and the left pupil optical path becomes the left eye optical path, and the right pupil optical path becomes the right eye optical path.
  • Center lines (center lines of the left and right pupils) IC1 and IC2 of the aperture holes 21 and 22 are provided, for example, at an equal distance from the optical axis AX of the single-lens imaging optical system 10.
  • the center lines IC1 and IC2 and the optical axis AX are preferably in the same plane, but are not necessarily in the same plane.
  • the imaging optical system 10 is a monocular tube that forms an image of light passing through the first aperture 21 of the fixed mask 20 and light passing through the second aperture 22 of the fixed mask 20.
  • An image optical system is a monocular tube that forms an image of light passing through the first aperture 21 of the fixed mask 20 and light passing through the second aperture 22 of the fixed mask 20.
  • the fixed mask 20 secures the baseline length of stereo measurement and simplifies the configuration of the optical system because it is monocular.
  • a coordinate system X, Y, and Z of the three-dimensional space is defined as follows. That is, the X-axis and the Y-axis orthogonal to the X-axis are set along the imaging sensor surface, and the Z-axis is set in a direction toward the subject in a direction orthogonal to the imaging sensor surface and parallel to the optical axes AX1 and AX2. To do.
  • the Z axis intersects the X axis and Y axis at the zero point. Note that the Y-axis is omitted here for convenience.
  • the imaging lens 11 for the left eye and the imaging lens 12 for the right eye are arranged at the same position on the Z axis.
  • the distance between the lenses 11 and 12 and the imaging sensor surface is b, and the distance from the lenses 11 and 12 to the arbitrary point Q (x, z) of the subject 5 is z.
  • the distances between the optical axis centers AX1 and AX2 of the imaging lenses 11 and 12 of the right eye and the left eye and the Z axis are the same, and each is d / 2. That is, the baseline length in stereo measurement is d.
  • the X point of the corresponding point where the arbitrary point Q (x, y) of the subject 5 is imaged on the imaging sensor surface by the left eye optical system 11 is XL
  • the arbitrary point Q (x, y) of the subject 5 is the right eye optical.
  • the X coordinate of the corresponding point imaged on the imaging sensor surface by the system 12 is defined as XR.
  • the following expression (3) can be obtained by using a similarity relationship between a plurality of partial right-angled triangles formed in the triangle surrounded by the arbitrary point Q (x, z) and the coordinates XL and XR.
  • D and b are known set values, and the unknowns XL and XR are obtained as follows. That is, the position XL on the imaging sensor surface is considered as a reference (the pixel position of the left image is regarded as XL), and the position XR corresponding to the position XL is detected by matching processing (correlation calculation). By calculating the distance z for each position XL, the shape of the subject can be measured. If the matching is not good, the distance z may not be obtained, but may be obtained by interpolation from the distance z of surrounding pixels, for example.
  • FIG. 13 shows a configuration example of the endoscope device (imaging device in a broad sense) of the present embodiment.
  • the endoscope apparatus includes a scope unit 100 (imaging unit) and a main body unit 200 (control device).
  • the scope unit 100 includes an imaging optical system 10, a fixed mask 20, a movable mask 30, an image sensor 40, and a drive unit 50.
  • the main body unit 200 includes a processing unit 210, a monitor display unit 220, and an imaging processing unit 230.
  • the processing unit 210 includes an image selection unit 310 (image frame selection unit), a color image generation unit 320 (image output unit), a phase difference detection unit 330, a movable mask control unit 340 (movable mask drive control unit), and a movable mask position detection.
  • the main body unit 200 may include an operation unit that operates the main body unit 200, an interface unit that is connected to an external device, and the like as components (not illustrated).
  • the scope unit 100 may include, for example, an operation unit that operates the scope unit 100, a treatment tool, an illumination unit (light source, lens, etc.), and the like as components not shown.
  • an industrial and medical so-called video scope an endoscope apparatus incorporating an image sensor
  • the present invention can be applied to both a flexible mirror in which the scope unit 100 is configured to be bendable and a rigid mirror in which the scope unit 100 is configured in a stick shape.
  • the main body 200 and the imaging unit 110 are configured as portable devices that can be carried, and are used for manufacturing inspection and maintenance inspection of industrial products, maintenance inspection of buildings and piping, and the like.
  • the driving unit 50 drives the movable mask 30 based on a control signal from the movable mask control unit 340, and switches between the first state (observation mode) and the second state (stereo measurement mode).
  • the drive unit 50 is configured by an actuator using a piezoelectric element or a magnet mechanism.
  • the imaging processing unit 230 performs imaging processing on the signal from the imaging element 40 and outputs a captured image (for example, a Bayer image). For example, correlated double sampling processing, gain control processing, A / D conversion processing, gamma correction, color correction, noise reduction, and the like are performed.
  • the imaging processing unit 230 may be configured by, for example, a discrete IC such as an ASIC, or may be incorporated in the imaging device 40 (sensor chip) or the processing unit 210.
  • the monitor display unit 220 displays an image captured by the scope unit 100, 3D shape information of the subject 5, and the like.
  • the monitor display unit 220 includes a liquid crystal display, an EL (Electro-Luminescence) display, or the like.
  • the movable mask control unit 340 controls the driving unit 50 to switch the position of the movable mask 30.
  • the movable mask control unit 340 sets the movable mask 30 to the observation mode, the reflected light from the subject 5 is imaged on the image sensor 40 via the left eye optical path.
  • the imaging processing unit 230 reads the pixel value of the image formed on the imaging element 40, performs A / D conversion or the like, and outputs the image data to the image selection unit 310.
  • the image selection unit 310 detects that the movable mask 30 is in the observation mode based on the control signal from the movable mask control unit 340, and selects ⁇ Vr, Vg, Vb ⁇ from the captured image to generate a color image.
  • the color image generation unit 320 performs demosaicing processing (processing for generating an RGB image from a Bayer image) and various types of image processing, and outputs a three-plate RGB primary color image to the monitor display unit 220.
  • the monitor display unit 220 displays the color image.
  • the movable mask control unit 340 sets the movable mask 30 to the stereo measurement mode, the reflected light from the subject 5 is simultaneously imaged on the image sensor 40 via the left eye optical path and the right eye optical path.
  • the imaging processing unit 230 reads the pixel value of the image formed on the imaging element 40, performs A / D conversion or the like, and outputs the image data to the image selection unit 310.
  • the image selection unit 310 detects that the movable mask 30 is in the stereo measurement mode based on a control signal from the movable mask control unit 340, selects ⁇ Mr, Mb ⁇ from the captured image, and detects the phase difference. To 330.
  • the phase difference detection unit 330 performs matching processing on the two separated images Mr and Mb, and detects a phase difference (phase shift) for each pixel. Further, the phase difference detection unit 330 determines whether or not the phase difference detection is reliable. If it is determined that the phase difference detection is not reliable, an error flag is output for each pixel.
  • a matching evaluation method for obtaining a shift amount (phase difference) between two similar waveforms is based on a normalized cross-correlation calculation method represented by ZNCC (Zero-meanCCNormalized Cross-Correlation), and a sum of absolute values of mutual differences.
  • ZNCC Zero-meanCCNormalized Cross-Correlation
  • SAD Sud of Absolute Difference
  • phase shift can be detected by using Vr and Mr, which are parallax images, although they are time-divisionally affected by subject blur and imaging system blur.
  • Vr and Mr which are parallax images, although they are time-divisionally affected by subject blur and imaging system blur.
  • the phase difference detection unit 330 outputs the detected phase difference information and error flag to the distance information calculation unit 360.
  • the distance information calculation unit 360 calculates the distance information of the subject 5 (for example, the distance z in FIG. 12) for each pixel, and outputs the distance information to the three-dimensional information generation unit 370.
  • the pixel on which the error flag is set may be regarded as a flat portion (region having a small edge component) of the subject 5 and may be interpolated from distance information of surrounding pixels, for example.
  • the three-dimensional information generation unit 370 generates three-dimensional information from the distance information (or the distance information and the RGB image from the color image generation unit 320).
  • the three-dimensional information generation unit 370 generates the generated three-dimensional image, the three-dimensional data, or a display image in which these and the observation image are superimposed as necessary, and outputs the generated image to the monitor display unit 220.
  • the monitor display unit 220 displays the three-dimensional information.
  • the movable mask position detector 350 detects whether the movable mask 30 is in the observation mode position or the stereo measurement mode position using the image ⁇ Mr, Mb ⁇ obtained in the stereo measurement mode. If it is determined that the state of the movable mask 30 does not match the mode, a position error flag is output to the movable mask control unit 340.
  • the movable mask control unit 340 receives the position error flag and corrects the movable mask 30 to a correct state (a state corresponding to image selection). For example, when it is determined that there is no color shift in the image ⁇ Mr, Mb ⁇ even though the movable mask control unit 340 outputs a control signal for the stereo measurement mode, the actual movable mask 30 is positioned in the observation mode. It has become.
  • correction is performed to match the position of the control signal and the movable mask 30. If the correct state is not obtained even if the correction operation is performed, it is determined that some failure has occurred, and the entire function is stopped. Detection or determination of whether the movable mask 30 is in the observation mode position or the stereo measurement mode position is performed as follows, for example.
  • the position error is determined by determination based on the number (second method) or the like.
  • the absolute value of the difference value of the pixel value is obtained for each pixel, and it is integrated in all pixels or a partial pixel group. If the result exceeds a predetermined threshold, it is determined as an image in the stereo measurement mode, and if the result is less than the predetermined threshold, it is determined as an image in the observation mode.
  • the image Mr and the image Mb are basically images that have undergone color misregistration, so that the fact that a predetermined amount of difference value is obtained is used.
  • the correlation coefficient in the predetermined range between the image Mr and the image Mb is calculated, and when the result is equal to or smaller than the predetermined threshold, it is determined as an image in the stereo measurement mode, and the result exceeds the predetermined threshold.
  • the image is an observation mode.
  • the image Mr and the image Mb are basically images that have undergone color misregistration, so the correlation coefficient is small, whereas in the observation mode, the image Mr and the image Mb are almost the same image, so the correlation coefficient is Take advantage of big things.
  • the endoscope apparatus, the imaging apparatus, and the like of the present embodiment may include a processor and a memory.
  • the processor here may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (GraphicsGProcessing Unit) or a DSP (Digital Signal Processor) can be used.
  • the processor may be an ASIC hardware circuit.
  • the memory stores instructions that can be read by a computer. When the instructions are executed by the processor, each unit (for example, each unit of the processing unit 210) of the endoscope apparatus, the imaging apparatus, and the like according to the present embodiment. Etc.) will be realized.
  • the memory here may be a semiconductor memory such as SRAM or DRAM, or a register or a hard disk.
  • the instruction here may be an instruction of an instruction set constituting the program, or an instruction for instructing an operation to the hardware circuit of the processor.
  • FIG. 14 shows a sequence (operation timing chart) for switching between the observation mode and the stereo measurement mode in moving image shooting.
  • the switching of the state of the movable mask 30, the imaging timing, and the selection of the captured image are linked.
  • the mask state in the observation mode and the mask state in the stereo measurement mode are alternately repeated.
  • imaging is performed once in each mask state.
  • an image that is exposed and imaged by the image sensor 40 when in the mask state of the observation mode is selected as an observation image.
  • an image that is exposed and imaged by the image sensor 40 when in the mask state of the stereo measurement mode is selected as a measurement image.
  • the movable mask control unit 340 sets the non-stereo mode (observation mode), and the image sensor 40 displays the first captured image (observation image). An image is taken (A3).
  • the movable mask control unit 340 sets the stereo mode (stereo measurement mode), and the image sensor 40 captures the second captured image (measurement image) ( A4).
  • the imaging device alternately repeats the first frame (A1) and the second frame (A2) in capturing a moving image. That is, the same operation as that of the first frame is performed in the third frame after the second frame.
  • the imaging device includes an image output unit (color image generation unit 320) that outputs a moving image for observation based on the first captured image included in the moving image, and a first image included in the moving image.
  • a phase difference detection unit 330 that detects a phase difference between an image in the first wavelength band (blue image Mb) and an image in the second wavelength band (red image Mr) based on the two captured images; Including.
  • the movable mask 30 and the fixed mask 20 are suitable for high-speed switching, and thus are suitable for such real-time measurement.
  • the imaging apparatus includes a movable mask position detection unit 350.
  • the movable mask position detection unit 350 has a similarity between the first wavelength band image (blue image Mb) and the second wavelength band image (red image Mr) included in the image captured in the stereo mode ( For example, based on the absolute difference value sum, correlation coefficient, etc. described in FIG. 13, it is detected whether or not the movable mask 30 is set to the second state in the stereo mode.
  • the movable mask control unit 340 corrects the correspondence between the state of the movable mask 30 and the mode.
  • the correspondence between the mode and the mask state can be determined based on the similarity between the parallax images, the correspondence between the mode and the mask state is corrected to the correct correspondence based on the determination result. Can do.
  • the observation mode since shooting is performed with a single eye, there is no phase difference between the red image and the blue image, and the similarity is high. Therefore, when a red image and a blue image with high similarity are obtained in the stereo measurement mode, it can be determined that the movable mask 30 is in the observation mode position by mistake.
  • observation images can be taken and stereo measurement can be performed.
  • near-infrared images can be acquired using these captured images.
  • a method for acquiring a near-infrared image will be described.
  • the position on the image is shifted due to the movement of the subject or the imaging system.
  • the pixel corresponding to the coordinate position XL of the image Vb is obtained by shifting the blur amount ⁇ (XL) on the image Mb ′.
  • the blur amount ⁇ (XL) includes not only the blur amount due to motion blur but also strictly the amount of parallax (the shift of the image viewed from different directions). The amount depends on the distance to the subject reflecting surface. Therefore, since it needs to be obtained for each coordinate position XL of the image Vb, it is expressed as ⁇ (XL).
  • the blur amount ⁇ (XL) can be obtained by a matching search process between the image Vb and the image Mb ′ in the vicinity of the coordinate position XL.
  • corresponding points by matching are not always required at all coordinate positions for reasons such as image quality degradation, only highly reliable ⁇ (XL) is adopted as effective.
  • a coordinate position for which ⁇ (XL) has not been obtained is set as an unmeasurable point.
  • the distance z to the object reflection surface is not calculated in the subsequent phase difference detection.
  • the handling of the unmeasurable point is arbitrary, but various handlings such as notifying the user as information or compensating by interpolation from surrounding measurement values are conceivable.
  • the image Mb ′ and the image Mr ′ are shifted by the shake amount ⁇ (XL) to correct the positional deviation. Images with corrected misregistration are denoted as Mb ′′ and Mr ′′.
  • the phase difference amount s (XL) related to the measurement at the coordinate position XL is detected by a matching search process between the image Mb ′′ and the image Mr ′′. If the phase difference amount s (XL) is obtained, the distance z to the subject reflecting surface corresponding to the coordinate position XL can be obtained by the method described with reference to FIG.
  • FIG. 16 shows a configuration example of an endoscope device when a near-infrared image capturing function is added.
  • the endoscope apparatus includes a scope unit 100 and a main body unit 200.
  • the scope unit 100 includes an imaging optical system 10, a fixed mask 20, a movable mask 30, an image sensor 40, and a drive unit 50.
  • the main body unit 200 includes a processing unit 210, a monitor display unit 220, and an imaging processing unit 230.
  • the processing unit 210 includes an image selection unit 310, a color image generation unit 320, a phase difference detection unit 330, a movable mask control unit 340, a movable mask position detection unit 350, a distance information calculation unit 360, a three-dimensional information generation unit 370, and a near red color.
  • An outside image generation unit 380 and a shake amount detection unit 390 are included.
  • symbol is attached
  • the image Vb and the image Mb (Mb ′ in FIG. 15) output from the image selection unit 310 are input to the near-infrared image generation unit 380.
  • the near-infrared image generation unit 380 calculates the image Vb and the image Mb as in the above equation (9), and obtains an image Lir having a near-infrared component from the left eye optical system.
  • the near-infrared image generation unit 380 performs image processing on the obtained image Lir and outputs a near-infrared image IR.
  • the near infrared image IR can be displayed by inputting the near infrared image IR to the monitor display unit 220.
  • the color image generation unit 320 performs image processing on the observation image ⁇ Vr, Vg, Vb ⁇ and outputs a displayable color image ⁇ R, G, B ⁇ . By inputting this color image ⁇ R, G, B ⁇ to the monitor display unit 220, it is possible to display a color observation image.
  • the color image ⁇ R, G, B ⁇ and the near-infrared image IR are both images from the left eye optical path, there is no image shift and no positional deviation. For this reason, it is easy to perform integrated display such as superposition or coloring of a near-infrared image using color information of a color image.
  • the 3D information generation unit 370 can associate the 3D information with the near-infrared image IR. That is, distance information is associated with each pixel of the near-infrared image IR, and the near-infrared image can be three-dimensionalized. As described above, since an observation color image that is a visible image, a near-infrared observation image, and distance information can be obtained almost simultaneously, various forms of information provision can be taken.
  • the imaging device includes the near-infrared image generation unit 380.
  • the near-infrared image generation unit 380 includes a first captured image ⁇ Vr, Vg, Vb ⁇ captured in the non-stereo mode (observation mode) and a second captured image captured in the stereo mode (stereo measurement mode).
  • a near-infrared image Lir (or IR) is generated based on ⁇ Mr, Mb ⁇ .
  • the image captured by the image sensor 40 is composed of red r, green g, and blue b images.
  • the first wavelength band SL is a wavelength band corresponding to one of red r and blue b.
  • the second wavelength band FR is a wavelength band corresponding to the other of red r or blue b.
  • the near-infrared image generation unit 380 calculates the difference between the red image Vr of the first captured image and the red image Mr of the second captured image, or the blue image Vb of the first captured image and the second image Vb.
  • the near-infrared image Lir (or IR) is generated based on the difference between the captured image and the blue image Mb.
  • the first wavelength band SL is a blue wavelength band (band SL corresponding to the characteristic Lb in FIG. 5), and the second wavelength band FR is in the red wavelength band (characteristic Rr in FIG. 5).
  • the corresponding band FR) is not limited to this, but the correspondence between the band and the color may be reversed.
  • the near-infrared image Lir is obtained from the difference between the blue images Vb and Mb (the above formula (9)). The image Lir may be obtained.
  • the general imaging device 40 has sensitivity up to the near-infrared band, and an image including a near-infrared image can be obtained by photographing a white light image in the observation mode.
  • the image is taken through the red and blue spectral filters, so that the near-infrared band is almost cut off and an image containing almost no near-infrared image is obtained. Therefore, it is possible to extract a near-infrared image from the difference between these images.
  • By acquiring a near-infrared image there is a possibility that an object that is not visible (or difficult to see) with visible light can be observed.
  • non-stereo mode, stereo mode, first described at least once together with different terms (observation mode, stereo measurement mode, left eye optical path, right eye optical path, etc.) having a broader meaning or the same meaning.
  • the second optical path, etc. can be replaced by the different terms in any part of the specification or drawings.
  • Imaging optical system 10 Imaging optical system, 11 First imaging optical system, 12 second imaging optical system, 20 fixed mask, 21 first aperture, 22 second aperture hole, 24 light shielding part, 30 movable mask, 31 3rd aperture hole, 34 light-shielding part, 35 rotating shaft, 40 image sensor, 50 drive unit, 100 scope unit, 110 imaging unit, 200 body unit, 210 processing unit, 220 monitor display unit, 230 imaging processing unit, 310 image selection unit, 320 color image generation unit, 330 phase difference detection unit, 340 movable mask control unit, 350 movable mask position detection unit, 360 distance information calculation unit, 370 three-dimensional information generation unit, 380 near infrared image generation unit, 390 blur amount detection unit, FR, SR second filter, Mr, Mb second captured image, s (XL) phase difference, SL first filter, Vr, Vg, Vb First captured image, z distance, ⁇ (XL) blur amount

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Blocking Light For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

撮像装置は、撮像素子40と結像光学系10と可動マスク30と第2のフィルタFRとを含む。結像光学系10は、第1の光路と、第1の光路に対して視差を有する第2の光路で撮像素子40に被写体5を結像させる。可動マスク30は、第1の波長帯域を通過させる第1のフィルタSLと遮光部34とを有し、結像光学系10に対して可動である。第2のフィルタFRは、第2の光路に設けられ、第1の波長帯域とは異なる第2の波長帯域を通過させる。

Description

撮像装置、内視鏡装置及び撮像方法
 本発明は、撮像装置、内視鏡装置及び撮像方法等に関する。
 従来より3次元形状を光学的に計測する技術が知られている。例えば、左右両眼の立体視によるステレオ撮像方式や、正弦パターンなどのパターン照明による位相シフト方式、反射光の時間測定によるTOF(Time of Flight)方式など、種々の方式が提案されている。
 ステレオ撮像方式は、撮像系をステレオ光学系にするだけの簡便な機構で良く、特別な照明機構や照明制御、高度な信号処理が不要であるため、昨今の撮像系の小型化技術の進歩を考えると小スペースでの実装には向いている。例えば、内視鏡装置の先端部への実装や小型ロボットの視覚センサなど多くのニーズが存在する。これらは高精度な計測機能だけではなく同時に高画質な通常観察機能も求められることが多く、左右別々の撮像素子を用いるのではなく解像度を確保するために共通の撮像素子に視差画像を結像する形式が取られている。ステレオ撮像方式では、左右画像の視差量から被写体までの距離を求めることが基本なので、共通の撮像素子に結像された左右画像を分離できないと視差量を検出できず、距離情報を求めることができない。
 左右画像を分離する手法として、例えば特許文献1には、左右の結像光路をメカニカルシャッターにより時間的に切り替え、左右の画像を時分割に取得する手法が開示されている。或いは特許文献2には、単一の結像光路の左半分にRGフィルタを挿入し、右半分にGBフィルタを挿入し、撮像画像のR画像とB画像により左右画像を分離する手法が開示されている。また特許文献2では、通常観察の場合においてRGフィルタ及びGBフィルタを結像光路から退避させ、観察画像を取得する。
特開2010-128354号公報 特開2013-3159号公報
 さて、上記のようなステレオ撮像方式では、撮像系又は被写体の動きが悪影響を及ぼすという課題がある。例えば特許文献1では時分割に右画像と左画像を撮影するため、撮像系又は被写体が動いた場合、そのブレを含んだ位相差が検出され、その位相差からブレと真の位相差を分離することが難しいため計測誤差が生じてしまう。或いは特許文献2では観察画像の撮影と視差画像の撮影を切り替えるが、オートフォーカスを想定したものであり、高速な切り替えは想定されていないと考えられる。3次元形状計測において観察画像と視差画像を一致させようとすると高速な切り替えが必要となるが、特許文献2の構成には可動部が2つあるため、駆動機構が大きくなる、故障の確率が高くなる等の問題がある。
 例えば、内視鏡装置等のカメラと被写体が固定されない用途では、上記のような撮像系と被写体との相対的なブレが問題となりやすい。また、動きに強いことで、カメラを動かしながら形状計測を行う等の従来では難しい計測を実現できる可能性がある。
 本発明の幾つかの態様によれば、撮像系又は被写体の動きの影響を抑制したステレオ計測と観察画像の撮影ができる撮像装置、内視鏡装置及び撮像方法等を提供できる。
 本発明の一態様は、撮像素子と、第1の光路と、前記第1の光路に対して視差を有する第2の光路で前記撮像素子に被写体を結像させる結像光学系と、第1の波長帯域を通過させる第1のフィルタと遮光部とを有し、前記結像光学系に対して可動である可動マスクと、前記第2の光路に設けられ、前記第1の波長帯域とは異なる第2の波長帯域を通過させる第2のフィルタと、を含む撮像装置に関係する。
 本発明の一態様によれば、可動マスクが結像光学系に対して可動に構成されることで、その可動マスクの位置の切り替えによりステレオ計測と観察画像の撮影が可能となる。このとき、例えば2つの光路で非時分割のステレオ撮影が可能なことや、可動部である可動マスクが1つであること等により、撮像系又は被写体の動きの影響を抑制することが可能となる。
 また本発明の他の態様は、撮像素子と、第1の光路と、前記第1の光路に対して視差を有する第2の光路で前記撮像素子に被写体を結像させる結像光学系と、第1の波長帯域を通過させる第1のフィルタと、前記第1の波長帯域とは異なる第2の波長帯域を通過させる第2のフィルタと、遮光部とを有し、前記結像光学系に対して可動である可動マスクと、を含む撮像装置に関係する。
 また本発明の更に他の態様は、上記のいずれかに記載された撮像装置を含むことを特徴とする内視鏡装置に関係する。
 また本発明の更に他の態様は、非ステレオモードにおいて、第1の波長帯域を通過させる第1のフィルタと遮光部とを有する可動マスクを第1の状態に設定することで、結像光学系の第1の光路に前記第1のフィルタを非挿入にする共に、前記第1の光路に対して視差を有する前記結像光学系の第2の光路に前記遮光部を挿入し、ステレオモードにおいて、前記可動マスクを第2の状態に設定することで、前記第1の光路に前記第1のフィルタを挿入すると共に、前記第2の光路に前記遮光部を非挿入にする撮像方法に関係する。
図1は、本実施形態の基本構成例。 図2は、本実施形態の基本構成例。 図3は、固定マスク、可動マスクの詳細な構成例。 図4は、固定マスク、可動マスクの詳細な構成例。 図5は、固定マスクの左眼光路の分光特性と、固定マスクの右眼光路の分光特性と、可動マスクの左眼光路の分光特性。 図6は、観察モードにおける撮像画像の分光特性。 図7は、ステレオ計測モードにおける撮像画像の分光特性。 図8は、固定マスク、可動マスクの変形例。 図9は、固定マスク、可動マスクの変形例。 図10は、結像光学系の変形例。 図11は、結像光学系の変形例。 図12は、ステレオ計測の原理的な説明図。 図13は、本実施形態の内視鏡装置の構成例。 図14は、観察モードとステレオ計測モードを切り替えるシーケンス。 図15は、被写体又は撮像系のブレ対応についての説明図。 図16は、本実施形態の内視鏡装置の第2の構成例。
 以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
 例えば以下では工業用の内視鏡装置を本発明の適用例として説明するが、本発明は工業用の内視鏡装置への適用に限定されず、ステレオ撮影方式(視差をもった撮像系で得た2画像の位相差を検出して被写体の距離情報を取得する方法)により3次元形状を計測する3次元計測装置や3次元計測機能を有する撮像装置(例えば医療用の内視鏡装置、顕微鏡、工業用カメラ、ロボットの視覚機能など)であれば適用できる。
 1.基本構成
 まず本実施形態の概要について説明し、次に本実施形態の基本構成(原理的な構成)について説明する。
 内視鏡装置での検査では、例えば検査対象にスコープを挿入して通常の画像を撮影しながら異常がないかチェックしていき、傷などの詳細に観察したい部分が見つかったときに、その部分の3次元形状を計測して更なる検査が必要かを検討する。このように、通常の観察画像は白色光で撮影を行う。このような白色光での撮影とステレオ計測を両立する方法として、例えば白色光でステレオ撮影を行うことが考えられる。しかしながら、ステレオ撮影で白色光を用いた場合、イメージセンサを左右に分割して、それぞれの領域に左画像と右画像を結像させる必要があるため、画像が低解像になる。イメージセンサの同一領域に左画像と右画像を結像する手法としては、カラー位相差法があるが、撮影される画像は色ずれ画像になるため観察画像として用いることができない。
 上記のことから、白色光でイメージセンサの同一領域で左画像と右画像を写すためには、時分割切り替え(例えば特許文献1)が必要となる。しかしながら、撮像系と被写体が相対的に動いた場合には左画像と右画像の間に動きブレがあるため、三角測定が不正確になってしまう。特に内視鏡のようにカメラを被写体に対して固定できない場合には、動きブレが発生しやすい。
 本実施形態では、白色光で高解像な観察画像を得ると共に、カラー位相差で非時分割のステレオ計測ができる。
 カラー位相差で非時分割にステレオ計測を行う手法として、例えば上述した特許文献2がある。しかしながら、特許文献2はオートフォーカスにステレオ計測を適用するものであり、観察画像との高速な切り替えを想定していないと考えられる。上述したように、可動部であるフィルタが2つあるため高速な切り替えという点では不利と考えられる。
 また、特許文献2の構成では単一光路を真ん中で左右に分けるだけなので瞳間の距離を離すことが難しく、距離測定の精度を出しにくいという問題がある。内視鏡装置ではパンフォーカスが必要であるため絞りが小さい(F値が大きい)ので、その小さな絞り径を左右に分けることになり、瞳間の距離が近くなりやすい。
 また、ステレオにおける左右の時分割切り替えも含めて、時分割の切り替えではシャッタや分光フィルタを機械的に動かす(切り替える)必要がある。機械的な動きではミスや故障が発生するため、シャッタや分光フィルタが切り替えのいずれの状態(位置)にあるかを検出し、エラーがあれば修復する必要があるという問題がある。このような検出機能を実現する場合、エラーの種類が少ない方が検出も修復も容易である。例えば特許文献2の構成では、2つの分光フィルタのうち両方が瞳に挿入されなかった場合、一方だけ瞳に挿入された場合など、複数の種類のエラーが発生し得るので、検出や修復を確実に行うことが難しくなる。
 本実施形態では、以下のような手法により上記のような課題を解決可能である。即ち、被写体の左眼光学系による結像画像と右眼光学系による結像画像を一つの撮像素子の共通領域にて写す構成である。左眼光路(第1の光路)と右眼光路(第2の光路)は交互に高速切り替えができるように切り替え機構が設けられ、時分割により第1の画像(観察画像)を取得する観察モードと第2の画像(視差画像、ステレオ画像、左右画像、計測画像)を取得する計測モードを切り替える構成とする。
 第1の画像が左眼光路のみによる画像となるように切り替え機構を構成し、第1の画像を通常観察用の画像として利用する。第2の画像が左眼光路と右眼光路の両方からの画像が重なって得られるように切り替え機構を構成し、第2の画像を計測用画像として利用する。但し、左眼画像と右眼画像は光路中の分光フィルタにより波長域が分離された画像になるようにする。
 通常観察画像は視差のない通常のカラー画像であり、計測用画像は左右の視差をもった分離画像となる。分離画像を用い、視差量を求めることによりステレオ計測の原理から被写体までの距離情報を算出し3次元情報を取得する。計測モードでは視差画像を同時取得できるため被写体ブレ又は撮像系のブレによる計測誤差要因を排除できる。また後述するように、左眼光路と右眼光路が分かれた撮像系を用いることで可動部を1つにでき、高速な切り替えや小型化、エラー検出等が可能になる。また、左眼光路と右眼光路が分かれた撮像系を用いることで小型の撮像系においても視差を確保しやすく、計測精度を向上できる。また後述するように、観察画像に近赤外領域を含めた場合、観察画像と計測画像とから近赤外画像のみを計算により抽出することができる。
 なお、本発明の適用対象として、例えば工業用内視鏡などの撮像系の位置が安定しない(固定しない)装置であり、且つ撮像機構が小さく解像度を確保するために大きな撮像素子を用いることができない装置が想定される。但し、本発明の適用は上記装置に限定されず、高精細観察、高精度計測を目的とする3次元計測装置に広く適用できる。
 次に、図1、図2を用いて本実施形態の基本構成を説明する。図1、図2には、撮像部を横から見た(光軸を含む平面での)断面図と、撮像素子上の結像の光量(又は撮像素子に撮像された画像の画素値)と位置xの関係と、を示す。位置xは、結像光学系の光軸に垂直な方向における位置(座標)であり、例えば撮像素子の画素位置である。実際には2次元の座標系であるが、ここでは2次元のうち視差方向の1次元の座標系で説明する。
 本実施形態の内視鏡装置は、結像光学系10、可動マスク30(第1のマスク)、固定マスク20(第2のマスク)、撮像素子40(撮像センサ、イメージセンサ)を含む。結像光学系10は、左眼結像系11(第1の結像光学系)、右眼結像系12(第2の結像光学系)を含む。ここでは撮像素子40がRGBのベイヤ配列のカラーフィルタを有する場合を例に説明するが、これに限定されず、例えば補色フィルタ等を有してもよい。
 図1、図2に示すように、被写体5からの反射光を2系統(左眼結像系11、右眼結像系12)の結像光学系10により同一の撮像素子40の面上に結像させる。なお、被写体5を照明する照明機構の図示は省略する。dは、左眼結像系11の光軸AX1と右眼結像系12の光軸AX2との間の距離であり、ステレオ計測においては基線長となる。なお、直線AXCは、光軸AX1、AX2を含む平面において光軸AX1、AX2に平行な直線であり、ステレオ計測の視差中心に相当する。
 左眼結像系11、右眼結像系12は、それぞれ結像レンズを含む。固定マスク20、可動マスク30は、例えば結像系の瞳位置に設けられる。或いは結像系よりも結像側に設けられてもよい。固定マスク20は結像系に対して固定されており、可動マスク30は光軸AX1、AX2に垂直な平面内で位置を切り替えられる構成となっている。可動マスク30は、図1に示す第1の状態である観察モード(第1のモード、非ステレオモード、単眼モード)と、図2に示す第2の状態であるステレオ計測モード(第2のモード、ステレオモード)の2つのモードをとることができ、これらが高速に切り替えられるようになっている。
 固定マスク20は、2つの絞り孔(左眼絞り孔、右眼絞り孔)が設けられた板状の遮光部(遮光部材)と、右眼絞り孔に設けられた分光フィルタと、を含む。左眼絞り孔には(例えば、その円の中心に)光軸AX1が通っており、右眼絞り孔には(例えば、その円の中心に)光軸AX2が通っている。絞り孔以外の部分は遮光部で覆われており、光が通過しないようになっている。なお、左眼絞り孔は、例えば貫通穴であってもよいし、或いは何らかの分光フィルタ(例えば、少なくとも白色光を透過する広帯域の分光フィルタ)が設けられてもよい。
 可動マスク30は、1つの絞り孔(左眼絞り孔)が設けられた板状の遮光部(遮光部材)と、左眼絞り孔に設けられた分光フィルタと、を含む。観察モード(通常観察モード)とステレオ計測モードの各モードにおいて、固定マスク20の2つの絞り孔のうち一方が開放される(可動マスク30が重ならない)大きさに可動マスク30が構成されている。図1、図2では可動マスク30が固定マスク20よりも結像側に設けられる場合を図示しているが、可動マスク30が固定マスク20よりも対物側に設けられてもよい。
 以下、固定マスク20の左眼絞り孔の分光特性をFLと表記し、右眼絞り孔の分光特性をFRと表記し、可動分光マスクの左眼絞り孔の分光特性をSLと表記する。また、分かりやすくするために、各絞り孔に設けられる分光フィルタについても、同じ符号FL、FR、SLで表記するものとする。
 図1は観察モードの状態を示しており、左眼側光路は固定マスク20の左眼絞り孔を介して開放された状態となり、右眼側光路は可動マスク30により遮断(遮光)された状態になっている。この場合、撮像素子40に結像される画像は左眼結像系11のみによる結像画像ILとなり、通常の(単眼による白色光の)撮像画像が得られる。
 一方、図2はステレオ計測モードの状態を示しており、固定マスク20の左眼絞り孔と可動マスク30の左眼絞り孔が光軸AX1に沿って重なった状態となっている。即ち、左眼側光路は固定マスク20の右目絞り孔を介した光を可動マスク30の短波長(青色)分光フィルタSL(第1のフィルタ)によりフィルタリングし、その短波長成分による画像IL’を撮像素子40に結像する。右眼側光路は可動マスク30による遮光が解除され、結像光を固定マスク20の長波長(赤色)分光フィルタFR(第2のフィルタ)によりフィルタリングし、その長波長成分による画像IR’を同一の撮像素子40に結像する。
 したがってステレオ計測モードでは、撮像素子40の青色画素により得られる画像IL’は短波長画像となり、撮像素子40の赤色画素により得られる画像IR’は長波長画像となり、2つの光路からの画像IL’、IR’を分離取得することができる。つまりステレオ計測モードでは、位相差をもった左眼画像IL’と右眼画像IR’を同時に且つ独立して得ることができ、位相差画像によるステレオ計測が可能となる。
 2.固定マスク、可動マスク
 図3、図4に固定マスク20、可動マスク30の詳細な構成例を示す。図3、図4には、結像光学系10と固定マスク20と可動マスク30の断面図と、固定マスク20と可動マスク30を光軸方向に見た図(結像側から見た背面図)と、を示す。
 固定マスク20の左眼光路には開放状態の絞り孔21(スルーホール)が開いており、右眼光路には長波長分光フィルタFRを有する絞り孔22が構成されている。絞り孔21、22は遮光部24(遮光部材)に開けられており、例えば撮像系に必要な被写界深度に対応したサイズの孔(例えば円形状の孔で、サイズは直径)である。絞り孔21、22の中心(例えば円の中心)は、それぞれ光軸AX1、AX2に一致(略一致を含む)している。遮光部24は、光学系11、12が収められた筐体を正面(又は背面)から見たときに筐体を塞ぐように設けられており、例えば光軸AX1、AX2に対して垂直に設けられた板状部材である。
 可動マスク30は、短波長分光フィルタSLを有する絞り孔31と、その絞り孔31が開けられた遮光部34(遮光部材)と、を有する。絞り孔31は、例えば固定マスク20の絞り孔21よりも少し大きいサイズの孔である。或いは、撮像系に必要な被写界深度に対応したサイズの孔(例えば円形状の孔で、サイズは直径)であってもよい。絞り孔31の中心(例えば円の中心)は、ステレオ観察モードにおいて光軸AX1に一致(略一致を含む)している。遮光部34は、光軸AX1、AX2に対して垂直な回転軸35に接続されており、例えば光軸AX1、AX2に対して垂直に設けられた板状部材である。遮光部34の形状は、例えば円形状の板から回転軸35に接続用の板が延びた形状であるが、これに限定されず、図3及び図4の状態を実現できる形状であればよい。
 可動マスク30は、回転軸35を中心として光軸AX1、AX2に垂直な方向に所定の角度だけ回転する構成となっている。例えばピエゾ素子やモーター等によって回転運動を実現できる。図3の観察モードにおいては、可動マスク30は右眼側に所定の角度だけ回転して傾き、固定マスク20の左眼光路(絞り孔21)は開放状態となり、右眼光路(絞り孔22)は遮光状態となる。図4のステレオ計測モードにおいては、可動マスク30は左眼側に所定の角度だけ回転して傾き、可動マスク30の分光フィルタ(絞り孔31)が固定マスク20の左眼光路(絞り孔21)に重なり短波長成分のみを通過させ、右眼光路(絞り孔22)を遮光状態から開放する。固定マスク20の長波長分光フィルタFRを有する絞り孔22を露呈させることにより長波長分成分のみを通過させる。
 なお、上記では可動マスク30を所定角度だけ軸回転することにより2つの状態を作る場合を説明したが、これに限定されない。例えば、スライド動作により可動マスク30を移動させて2つの状態を作るものでもよい。回転動作又はスライド動作は、例えばマグネット機構や、圧電機構などで実現可能であり、高速性や耐久性を考慮して適切なものを選択すればよい。
 3.左眼光路、右眼光路の分光フィルタ特性
 図5に、固定マスク20の左眼光路の分光特性FLと、固定マスク20の右眼光路の分光特性FRと、可動マスク30の左眼光路の分光特性SLと、を示す。図5は、分光フィルタ(又はスルーホール)の透過波長と透過率の関係を相対ゲインとして表したものである。なお、参照特性として撮像素子40のカラー画素が有する分光特性(分光感度特性)を点線で示す。符号の“L”、“R”は、それぞれ左眼光路、右眼光路を表し、符号の“r”、“g”、“b”、“ir”は、それぞれ赤色、緑色、青色、近赤外を表す。例えば左眼光路を通って撮像素子40の青色画素で検出される光の分光特性は“Lb”と表される。なお、分かりやすくするために、これらの分光特性で得られる画像についても、同じ符号(Lb等)で表すものとする。
 図5に示すように、固定マスク20の左眼光路の分光特性FLは、撮像素子40のカラー画素が有する分光特性Lb、Lg、Lr、Lirを全て含む特性とする。単なる開放状態(スルーホール)であれば、被写体5への照明分光特性をそのようにすれば良い。或いは、図5に示す分光特性FLを有する分光フィルタを左眼絞り孔21に設けてもよい。
 固定マスクの右眼光路の分光特性FRは、赤色rの分光特性Rrを含むと共に青色bの分光特性を含まない特性とする。なお、左右画像(赤色画像、青色画像)の分離性を十分確保できるように構成されていればよいので、分光特性FRは、青色bの分光特性を全く含まない特性にする必要はないし、赤色rの分光特性Rrの全部を含む特性にする必要はない。
 可動マスク30のステレオ計測モードにおける左眼光路の分光特性SLは、青色bの分光特性Lbを含むと共に赤色rの分光特性を含まない特性とする。なお、左右画像(赤色画像、青色画像)の分離性を十分確保できるように構成されていればよいので、分光特性SLは、赤色rの分光特性を全く含まない特性にする必要はないし、青色bの分光特性Lbの全部を含む特性にする必要はない。可動マスク30のステレオ計測モードにおける右眼光路は、固定マスク20の右眼光路を単に開放状態にするだけなので、限定された分光特性はない。
 4.撮像画像
 図6は、観察モード時に左眼光路を介して撮像素子40により取得される撮像画像の分光特性である。図6では、実線で撮像画像の分光特性を示し、点線で左眼光路の分光特性FLを示す。観察モードでの撮像画像は、左眼光路のみを介した画像であり、赤色r、緑色g、青色b、近赤外irの成分からなる画像である。したがって視差画像の重畳は起こらない単なる単眼撮像画像となる。
 図7は、ステレオ計測モード時に左眼光路を介して撮像素子40により取得される左眼画像の分光特性と、右眼光路を介して撮像素子40により取得される右眼画像の分光特性である。図7では、実線で左眼画像、右眼画像の分光特性を示し、点線で左眼光路の分光特性SL、右眼光路の分光特性FRを示す。参考として細点線で緑色画像の分光特性を示す。
 例えば左眼光路Lから得られる赤色rの分光画像という意味でLrと便宜上と表すと、他の分光画像もLg、Lb、Lirと表せる。一般に原色ベイヤの撮像素子40のカラー画素は、赤色画素は(r+ir)、緑色画素は(g+ir)、青色画素は(b+ir)の波長域を感度としてもつ。そのため観察モードでは、下式(1)で示す3種類のカラー画像Vr、Vg、Vbを分離して得ることができる。Vr、Vg、Vbは、観察モードにおける赤色画像、緑色画像、青色画像(又は、その分光特性)を表す。
Figure JPOXMLDOC01-appb-M000001
 ステレオ計測モードでは、得られるのが左眼光路と右眼光路を介した2種類の視差画像であり、それらが同一の撮像素子40上に重畳して結像するため像ずれが起こった撮像画像になる。この像ずれが視差量となりステレオ計測の原理により被写体の奥行き情報が得られるのであるが、この視差量を求めるには左眼画像と右眼画像を分離し、双方の相関(マッチング)をとって位相差を検出する必要がある。
 そこで計測モード時は、左眼光路では固定マスク20を通過する分光特性Lr、Lg、Lb、Lirの光のうち、分光特性Lbの光(分光特性Lgの一部を含む)を、可動マスク30の左眼光路の分光特性SLによりフィルタリングして抽出する。例えば、図7のように可動マスク30の左眼光路の分光特性SLを、550nm以下の波長を通過させると共に550nm以上の波長は遮断する特性とする。
 また、右眼光路では可動マスク30は開放状態とし、固定マスク20の右眼光路を通過する分光特性FRにより、分光特性Lrの光(分光特性Lgの一部を含む)をフィルタリングして抽出する。例えば、図7のように固定マスク20の右眼光路の分光特性FRを、550nm以上かつ800nm以下の波長を通過させると共に、それ以外の波長を遮断する特性とする。
 従って、ステレオ計測モード時においては、左眼光路からの左眼画像が、撮像素子40(原色ベイヤ)の青色画素の分光特性によるLbの分光特性をもつ画像として得られる。また、右眼光路からの右眼画像が、撮像素子40(原色ベイヤ)の赤色画素の分光特性によるLrの分光特性をもつ画像として得られる。つまり下式(2)で示す左眼画像と右眼画像を、独立したカラー画素によりMr、Mbとして分離して得ることができる。Mr、Mbは、ステレオ計測モードにおける赤色画像、青色画像(又は、その分光特性)を表す。なお、撮像素子40が補色タイプの場合は、補色情報(シアン、マゼンダ、イエロー)から赤色画像Mr、青色画像Mbを変換抽出すればよい。
Figure JPOXMLDOC01-appb-M000002
 以上の実施形態によれば、撮像装置(内視鏡装置)は、撮像素子40と結像光学系10と可動マスク30と第2のフィルタFRとを含む。結像光学系10は、第1の光路と、第1の光路に対して視差を有する第2の光路で撮像素子40に被写体5を結像させる。可動マスク30は、第1の波長帯域を通過させる第1のフィルタSLと遮光部34とを有し、結像光学系10に対して可動である。第2のフィルタFRは、第2の光路に設けられ、第1の波長帯域とは異なる第2の波長帯域を通過させる。
 このような構成にすることで、図1~図4で説明したような観測モードとステレオ計測モードの切り替えが可能となる。またカラー位相差法における視差画像を同時に(時分割でなく)取得できるので、正確なステレオ計測が可能になる。また、可動部である可動マスク30が1つなので、切り替えの高速化や、駆動機構の簡素化、モード切り替えにおける故障やエラーの抑制を実現できる。また、可動マスク30には遮光部34に1つのフィルタSLが設けられる簡素な構成であり、切り替えの振動によるフィルタ外れなどのトラブルを抑制できる。また、第1の光路と第2の光路が明確に分かれた撮像系を用いるため、ステレオ計測における基線長(図12のd)を大きくとりやすく、正確な距離測定が可能になる。
 例えば本実施形態では、第1の光路は左眼光路に対応し、第2の光路は右眼光路に対応する。なお、第1の光路が右眼光路に対応し、第2の光路が左眼光路に対応してもよい。また、便宜的に光路を左右に分離しているが、光路の分離方向は左右に限らない。
 ここで光路とは、撮像素子40に結像する光が、光学系の対物側から入射して撮像素子40に到達するまでの経路のことである。図1~図4で説明した二眼の光学系の場合、左眼光学系11と固定マスク20の左眼絞り孔21(ステレオ計測モードでは更に可動マスク30の絞り孔31)を通過する光路が第1の光路である。また、右眼光学系12と固定マスク20の右眼絞り孔22を通過する光路が第2の光路である。即ち、二眼の光学系と固定マスク20の2つの絞り孔21、22により光路が規定される。図10、図11で後述する一眼の光学系の場合、結像光学系10と固定マスク20の左眼絞り孔21(ステレオ計測モードでは更に可動マスク30の絞り孔31)を通過する光路が第1の光路である。また、結像光学系10と固定マスク20の右眼絞り孔22を通過する光路が第2の光路である。即ち、一眼の光学系が固定マスク20の2つの絞り孔21、22により瞳分割されることで光路が規定される。
 ここでマスクとは、マスクに入射する光を遮蔽すると共に一部の光を通過させる部材や部品のことである。本実施形態の固定マスク20や可動マスク30では、遮光部24、34が光を遮蔽すると共に絞り孔21、22、31が光(全帯域又は、一部の帯域)を通過させる。
 また例えば本実施形態では、第1の波長帯域は青色の波長帯域(白色光の短波長側の帯域)に対応し、第2の波長帯域は赤色の波長帯域(白色光の長波長側の帯域)に対応する。なお、第1の波長帯域が赤色の波長帯域に対応し、第2の波長帯域が青色の波長帯域に対応してもよい。第1の波長帯域と第2の波長帯域は、第1の光路による画像と第2の光路による画像とを波長帯域により分離できるものであればよい。本実施形態ではベイヤ撮像素子の青色画像と赤色画像で分離しているが、これに限定されず、波長帯域の分離に基づいて視差画像を分離する手法であれば本発明を適用できる。
 また本実施形態では、撮像装置は、可動マスク30を制御する可動マスク制御部340(図13)を含む。可動マスク制御部340は、非ステレオモード(観察モード)において、第1のフィルタSLが第1の光路に非挿入となると共に遮光部34が第2の光路に挿入される第1の状態(第1の位置)に、可動マスク30を設定する。一方、ステレオモード(ステレオ計測モード)において、可動マスク制御部340は、第1のフィルタSLが第1の光路に挿入されると共に遮光部34が第2の光路に非挿入となる第2の状態(第2の位置)に、可動マスク30を設定する。
 このような可動マスク30の駆動制御を行うことで、図1や図3の観察モードと図2や図4のステレオ計測モードの切り替え制御を実現できる。即ち、可動マスク30を第1の状態に設定した場合には、第2の光路が遮光部34で遮蔽されるので第1の光路のみでの撮影となり、第1の光路には第1のフィルタSLが挿入されないので通常観察用の画像(白色光画像)を撮影することが可能となる。一方、可動マスク30を第2の状態に設定した場合には、第1の光路に第1のフィルタSLが挿入され、第2の光路には第2のフィルタFRが固定されているので、カラー位相差法における視差画像を撮影することが可能となる。
 また本実施形態では、撮像装置は固定マスク20を含む。固定マスク20は、第1の光路に設けられる第1の絞り孔21と、第2の光路に設けられる第2の絞り孔22とを有する。そして第2のフィルタFRは、第2の絞り孔22に設けられる。可動マスク30は、遮光部34に設けられる第3の絞り孔31を有する。そして第1のフィルタSLは、第3の絞り孔31に設けられる。
 このように第1の絞り孔21と第2の絞り孔22を有する固定マスク20を設けることで、第1の絞り孔21と第2の絞り孔22により第1の光路と第2の光路を明確に分離することができる。そして、一方の絞り孔22を塞ぐことで観察モードにおける単眼撮影が可能となり、両方の絞り孔21、22を用いることでステレオ計測モードにおけるステレオ撮影が可能となる。固定マスク20により2つの光路が明確に分離されるので、上述したようにステレオ計測での基線長(図12のd)を確保できる。
 また本実施形態では、結像光学系10は、第1の絞り孔21を通過する光を結像する第1の結像光学系11と、第2の絞り孔22を通過する光を結像する第2の結像光学系12と、を有する。
 このように二眼の結像光学系を用いることで、絞り孔21、22を光軸上に設けることが可能となり、品質が高い(例えば収差が少ない)結像を得ることが可能になる。
 5.変形例
 第1の変形例について説明する。即ち、上述した実施形態では可動マスク30に1つの絞り孔31を設ける場合を例に説明したが、これに限定されない。例えば図8、図9に示すように可動マスク30に2つの絞り孔31、32を設けてもよい。
 具体的には、可動マスク30は、遮光部34と、遮光部34に設けられた左眼絞り孔31と、遮光部34に設けられた右眼絞り孔32と、を含む。左眼絞り孔31には、短波長の分光特性SLの分光フィルタが設けられ、右眼絞り孔32には、長波長の分光特性SRの分光フィルタが設けられる。分光特性SRは、図5の分光特性FRと同じ特性である。
 固定マスク20は、遮光部24と、遮光部24に設けられた左眼絞り孔21と、遮光部24に設けられた右眼絞り孔22と、を含む。絞り孔21、22は例えば開放状態(スルーホール)であり、その分光特性は図5の分光特性FLと同じ特性である。
 観察モードでは、固定マスク20の左眼絞り孔21が開放状態となり、固定マスク20の右眼絞り孔22が可動マスク30の遮光部24で遮光され、単眼による白色光の画像が撮像される。ステレオ計測モードでは、固定マスク20の左眼絞り孔21と可動マスク30の左眼絞り孔31が重なり、固定マスク20の右眼絞り孔22と可動マスク30の右眼絞り孔32が重なり、カラー位相差法による視差画像(赤色画像、青色画像)が撮像される。
 本変形例によれば、撮像装置(内視鏡装置)は、撮像素子40と結像光学系10と可動マスク30とを含む。結像光学系10は、第1の光路と、第1の光路に対して視差を有する第2の光路で撮像素子40に被写体5を結像させる。可動マスク30は、第1の波長帯域(青色の波長帯域)を通過させる第1のフィルタSLと、第1の波長帯域とは異なる第2の波長帯域(赤色の波長帯域)を通過させる第2のフィルタSRと、遮光部34とを有し、結像光学系10に対して可動である。
 また本変形例では、撮像装置は、可動マスク30を制御する可動マスク制御部340(図13)を含む。可動マスク制御部340は、非ステレオモード(観察モード)において、第1のフィルタSLが第1の光路に非挿入となると共に遮光部34が第2の光路に挿入される第1の状態に、可動マスク30を設定する。一方、ステレオモード(ステレオ計測モード)において、可動マスク制御部340は、第1のフィルタSLが第1の光路に挿入されると共に第2のフィルタSRが第2の光路に挿入される第2の状態に、可動マスク30を設定する。
 このような構成によっても、観測モードとステレオ計測モードの切り替えや、ステレオ計測モードにおける視差画像の同時取得、モード切り替えの高速化、可動マスク30の駆動機構の簡素化、モード切り替えにおける故障やエラーの抑制、ステレオ計測における基線長の確保などを実現できる。
 次に、第2の変形例について説明する。即ち、上述した実施形態では結像光学系10が二眼の光学系11、12である場合を例に説明したが、これに限定されない。例えば図10、図11に示すように結像光学系10が一眼の光学系であってもよい。
 具体的には、一眼の結像光学系10は、固定マスク20の絞り孔21、22により瞳分割され、その左瞳光路が左眼光路となり、右瞳光路が右眼光路となる。絞り孔21、22の中心線(左瞳、右瞳の中心線)IC1、IC2は、例えば一眼の結像光学系10の光軸AXから等距離に設けられる。中心線IC1、IC2と光軸AXは同一平面内であることが望ましいが、必ずしも同一平面内でなくともよい。
 本変形例によれば、結像光学系10は、固定マスク20の第1の絞り孔21を通過する光及び固定マスク20の第2の絞り孔22を通過する光を結像する単眼の結像光学系である。
 このように単眼の結像光学系10に固定マスク20を設けることで、瞳分割によるステレオ撮影が可能になる。固定マスク20によりステレオ計測の基線長が確保されると共に、単眼であるため光学系の構成を簡素化できる。
 6.ステレオ3次元計測の原理
 ステレオ計測モードにおけるステレオ計測の原理について説明する。図12に示すように、左眼と右眼の光路が独立して構成され、被写体5からの反射画像は、これら光路を介して撮像センサ面(受光面)に結像する。3次元空間の座標系X、Y、Zを以下のように定義する。即ち、撮像センサ面に沿ってX軸と、X軸に直交するY軸とを設定し、撮像センサ面に直交し且つ光軸AX1、AX2と平行な方向で被写体に向かう方向にZ軸を設定する。Z軸はX軸、Y軸とゼロ点にて交差するものとする。なお、ここでは便宜上Y軸は省略する。
 左眼の結像レンズ11と右眼の結像レンズ12は、Z軸上の同一位置に配置される。レンズ11、12と撮像センサ面の距離をbとし、レンズ11、12から被写体5の任意点Q(x,z)までの距離をzとする。右眼及び左眼の結像レンズ11、12の光軸中心AX1、AX2とZ軸までの距離を同一とし、各d/2とする。つまりステレオ計測における基線長はdとなる。被写体5の任意点Q(x,y)が左眼光学系11により撮像センサ面に結像された対応点のX座標をXLとし、被写体5の任意点Q(x,y)が右眼光学系12により撮像センサ面に結像された対応点のX座標をXRとする。任意点Q(x,z)と座標XL、XRに囲まれた三角形内にできる複数の部分的な直角三角形の相似関係を使って下式(3)を得ることができる。
Figure JPOXMLDOC01-appb-M000003
 ここで、下式(4)、(5)が成り立つ。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 これにより、上式(3)の絶対値を下式(6)のように外すことができる。
Figure JPOXMLDOC01-appb-M000006
 上式(6)をxについて解くと下式(7)となる。
Figure JPOXMLDOC01-appb-M000007
 上式(7)のxを上式(6)に代入すると、下式(8)が得られ、zを求めることができる。
Figure JPOXMLDOC01-appb-M000008
 d、bは既知の設定値であり、未知数XL、XRは次のようにして求められる。即ち、撮像センサ面の位置XLを基準に考え(左画像の画素位置をXLと見なし)、位置XLに対応する位置XRをマッチング処理(相関演算)により検出する。各位置XLについて距離zを計算することで被写体の形状が計測できる。なお、マッチングが良好でない場合には距離zが求められない可能性があるが、例えば周囲の画素の距離zから補間すること等により求めてもよい。
 7.内視鏡装置
 図13に、本実施形態の内視鏡装置(広義には、撮像装置)の構成例を示す。内視鏡装置は、スコープ部100(撮像部)、本体部200(制御装置)を含む。スコープ部100は、結像光学系10、固定マスク20、可動マスク30、撮像素子40、駆動部50を含む。本体部200は、処理部210、モニタ表示部220、撮像処理部230を含む。処理部210は、画像選択部310(画像フレーム選択部)、カラー画像生成部320(画像出力部)、位相差検出部330、可動マスク制御部340(可動マスク駆動制御部)、可動マスク位置検出部350、距離情報算出部360、3次元情報生成部370を含む。
 なお本体部200は、不図示の構成要素として、本体部200を操作する操作部、外部機器と接続するインターフェース部等を含んでもよい。スコープ部100は、不図示の構成要素として、例えばスコープ部100を操作する操作部や、処置具、照明部(光源、レンズ等)等を含んでもよい。
 内視鏡装置としては、工業用、医療用のいわゆるビデオスコープ(撮像素子を内蔵した内視鏡装置)を想定できる。スコープ部100が湾曲可能に構成された軟性鏡、スコープ部100がスティック状に構成された硬性鏡、いずれにも本発明を適用できる。例えば工業用の軟性鏡の場合、本体部200及び撮像部110は持ち運び可能なポータブル機器として構成されており、工業製品の製造検査やメンテナンス検査、建築物や配管のメンテナンス検査等に用いられる。
 駆動部50は、可動マスク制御部340からの制御信号に基づいて可動マスク30を駆動し、第1の状態(観察モード)と第2の状態(ステレオ計測モード)を切り替える。例えば、駆動部50はピエゾ素子やマグネット機構によるアクチュエータで構成される。
 撮像処理部230は、撮像素子40からの信号に対して撮像処理を行い、撮像画像(例えばベイヤ画像等)を出力する。例えば、相関2重サンプリング処理、ゲインコントロール処理、A/D変換処理、ガンマ補正、色補正、ノイズ低減等を行う。撮像処理部230は、例えばASIC等のディスクリートICで構成されてもよいし、或いは撮像素子40(センサチップ)や処理部210に内蔵されてもよい。
 モニタ表示部220は、スコープ部100が撮像した画像や、被写体5の3次元形状情報等を表示する。例えば、モニタ表示部220は、液晶ディスプレイやEL(Electro-Luminescence)ディスプレイ等により構成される。
 以下、内視鏡装置の動作を説明する。可動マスク制御部340は、駆動部50を制御して可動マスク30の位置を切り替える。可動マスク制御部340が可動マスク30を観察モードに設定した場合、被写体5からの反射光が左眼光路を介して撮像素子40に結像される。撮像処理部230は、撮像素子40に結像された画像の画素値を読み出し、A/D変換等を行って画像選択部310に画像データを出力する。
 画像選択部310は、可動マスク制御部340からの制御信号に基づいて可動マスク30の状態が観察モードであることを検知し、撮像画像から{Vr、Vg、Vb}を選択してカラー画像生成部320に出力する。カラー画像生成部320はデモザイキング処理(ベイヤ画像からRGB画像を生成する処理)や各種画像処理を行い、3板化RGB原色画像をモニタ表示部220に出力する。モニタ表示部220は、そのカラー画像を表示する。
 可動マスク制御部340が可動マスク30をステレオ計測モードに設定した場合、被写体5からの反射光が左眼光路及び右眼光路を介し撮像素子40に同時に結像される。撮像処理部230は、撮像素子40に結像された画像の画素値を読み出し、A/D変換等を行って画像選択部310に画像データを出力する。
 画像選択部310は、可動マスク制御部340からの制御信号に基づいて可動マスク30の状態がステレオ計測モードであることを検知し、撮像画像から{Mr,Mb}を選択して位相差検出部330に出力する。位相差検出部330は、分離された2つの画像Mr、Mbに対してマッチング処理を行い、画素毎に位相差(位相ずれ)を検出する。また位相差検出部330は、位相差検出が信頼できるか否かの判断を行い、信頼できないと判断した場合はエラーフラグを画素毎に出力する。従来より2つの類似波形のずれ量(位相差)を求めるためのマッチング評価方法はZNCC(Zero-mean Normalized Cross-Correlation)に代表される正規化相互相関演算法、相互の差分絶対値の合計によるSAD(Sum of Absolute Difference)など、種々提案されているので適宜利用が可能である。
 なお、時分割となり被写体ブレ、撮像系のブレの影響は受けるものの視差画像となるVrとMrを使っても位相ずれ(位相差)を検出することができる。被写体5の反射が青色成分は少なく赤色成分が多い場合、MrとMbでは検出が難しい被写体5であっても共に赤色成分を有するVrとMrならば計測が可能となる。
 位相差検出部330は、検出した位相差情報とエラーフラグを距離情報算出部360に出力する。距離情報算出部360は、被写体5の距離情報(例えば図12の距離z)を各画素について計算し、その距離情報を3次元情報生成部370に出力する。エラーフラグが立っている画素は、例えば被写体5の平坦部(エッジ成分が少ない領域)と見なして、例えば周囲の画素の距離情報から補間してもよい。3次元情報生成部370は、距離情報(又は、距離情報とカラー画像生成部320からのRGB画像)から3次元情報を生成する。3次元情報は、例えばZ値マップ(距離マップ)やポリゴン、疑似的な3次元表示画像(例えばシェーディング等による形状強調)等、種々の情報を想定できる。3次元情報生成部370は、生成した3次元画像や3次元データ、或いはそれらと観察画像とを重畳した表示画像などを必要に応じ生成し、モニタ表示部220へ出力する。モニタ表示部220は、その3次元情報を表示する。
 可動マスク位置検出部350は、ステレオ計測モード時に得られた画像{Mr,Mb}を使って、可動マスク30が観察モードの位置にあるかステレオ計測モードの位置にあるかを検出する。そして、可動マスク30の状態がモードに一致していないと判断した場合には、可動マスク制御部340に位置エラーフラグを出力する。可動マスク制御部340は、位置エラーフラグを受けて、可動マスク30を正しい状態(画像選択に対応した状態)に修正する。例えば可動マスク制御部340がステレオ計測モードの制御信号を出力しているにも関わらず、画像{Mr,Mb}に色ずれが無いと判断される場合、実際の可動マスク30は観察モードの位置になっている。この場合、制御信号と可動マスク30の位置を一致させる修正を行う。なお、修正動作をしても正しい状態にならない場合は、何らかの故障が発生したと判断して全体の機能を停止させる。可動マスク30が観察モードの位置にあるかステレオ計測モードの位置にあるかの検出や判断は、例えば以下のように行う。
 即ち、画像Mrと画像Mbの判断エリアでのレベル(平均レベルなど)を合わせた後、画像Mrと画像Mbの絶対差分値和による判断(第1手法)や、画像Mrと画像Mbの相関係数による判断(第2手法)などにより、位置エラーの判断を行う。
 第1手法では、各画素で画素値の差分値の絶対値を求め、それを全画素又は部分画素群で積算する。その結果が所定の閾値を越えた場合は、ステレオ計測モードの画像と判断し、その結果が所定の閾値以下である場合は、観察モードの画像と判断する。ステレオ計測モードでは画像Mrと画像Mbは基本的に色ずれを起こしている画像なので、所定量の差分値が得られることを利用している。
 第2手法では、画像Mrと画像Mbの所定範囲における相関係数を計算し、その結果が所定の閾値以下の場合は、ステレオ計測モードの画像と判断し、その結果が所定の閾値を越えた場合は、観察モードの画像と判断する。これはステレオ計測モードでは画像Mrと画像Mbは基本的に色ずれを起こしている画像なので相関係数が小さいのに対し、観察モードでは画像Mrと画像Mbはほぼ一致した画像なので相関係数が大きいことを利用している。
 なお、本実施形態の内視鏡装置、撮像装置等は、プロセッサとメモリを含んでもよい。ここでのプロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただしプロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路でもよい。また、メモリはコンピュータにより読み取り可能な命令を格納するものであり、当該命令がプロセッサにより実行されることで、本実施形態に係る内視鏡装置、撮像装置等の各部(例えば処理部210の各部等)が実現されることになる。ここでのメモリは、SRAM、DRAMなどの半導体メモリであってもよいし、レジスターやハードディスク等でもよい。また、ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
 8.モード切り替えシーケンス
 図14に、動画撮影において観察モードとステレオ計測モードを切り替えるシーケンス(動作タイミングチャート)を示す。
 上述したステレオ計測モードでは、動きがある被写体に対しても高精度なステレオ同時計測が実現できるが、色ずれ画像となってしまうので高品位な観察画像には使えない。そこで観察モードとステレオ計測モードを高速に切り替えることにより、この問題を解決でき、ほぼリアルタイムに近い状態で観察画像を表示しつつステレオ計測が実行可能である。
 図14に示すように、可動マスク30の状態の切り替えと撮像タイミングと撮像画像の選択は連動している。A1、A2に示すように、観察モードのマスク状態とステレオ計測モードのマスク状態を交互に繰り返す。A3、A4に示すように、各マスク状態で1回ずつ撮像が行われる。A5に示すように、観察モードのマスク状態にあるときに撮像素子40により露光撮像された画像は観察画像として選択される。A6に示すように、ステレオ計測モードのマスク状態にあるときに撮像素子40により露光撮像された画像は計測画像として選択される。
 このように観察モードとステレオ計測モードを交互に繰り返すことにより、ほぼリアルタイムに近い状態で観察画像と計測画像を連続的に得ることができるので、被写体5に動きがある場合も観察と計測を両方実現することができる。観察モードの画像を表示しつつ、そこに必要に応じて計測された情報を重ねて合わせて表示すれば、ユーザに対して目視検査と定量検査を同時に提供することができ、有用な情報提供が可能となる。
 本実施形態によれば、第1のフレーム(図14のA1)において、可動マスク制御部340は非ステレオモード(観察モード)を設定し、撮像素子40は第1の撮像画像(観察画像)を撮像する(A3)。第1のフレームの次の第2のフレーム(A2)において、可動マスク制御部340はステレオモード(ステレオ計測モード)を設定し、撮像素子40は第2の撮像画像(計測画像)を撮像する(A4)。
 具体的には、撮像装置(内視鏡装置)は、動画像の撮影において第1のフレーム(A1)と第2のフレーム(A2)を交互に繰り返す。即ち、第2のフレームの次の第3のフレームでは、第1のフレームと同様の動作を行う。
 更に具体的には、撮像装置は、動画像に含まれる第1の撮像画像に基づいて、観察用の動画像を出力する画像出力部(カラー画像生成部320)と、動画像に含まれる第2の撮像画像に基づいて、第1の波長帯域の画像(青色画像Mb)と第2の波長帯域の画像(赤色画像Mr)との間の位相差を検出する位相差検出部330と、を含む。
 このように観察モードにおける撮像とステレオ計測モードにおける撮像を交互に繰り返して動画像を撮影することで、被写体5を単眼の通常画像で観察しながらリアルタイムにステレオ計測を行うことが可能になる。本実施形態では可動マスク30や固定マスク20が高速切り替えに適した構成となっているため、このようなリアルタイム計測に適している。
 また本実施形態では、撮像装置は可動マスク位置検出部350を含む。可動マスク位置検出部350は、ステレオモードにおいて撮像された画像に含まれる第1の波長帯域の画像(青色画像Mb)と第2の波長帯域の画像(赤色画像Mr)との間の類似度(例えば、図13で説明した絶対差分値和や相関係数等)に基づいて、ステレオモードにおいて可動マスク30が第2の状態に設定されているか否かを検出する。
 そして、可動マスク制御部340は、ステレオモードにおいて可動マスク30が第1の状態に設定されていることが検出された場合、可動マスク30の状態とモードの対応を修正する。
 可動マスク30のような機械的な可動部では、例えば動作不良などの要因によって、制御と実際の動作が正しく一致しなくなる可能性がある。そのようなエラーが発生すると観察画像として色ずれ画像が表示されたり、ステレオ計測が正しく行えなくなったりする。この点、本実施形態によれば、視差画像の間の類似度に基づいてモードとマスク状態の対応を判定できるので、その判定結果に基づいてモードとマスク状態の対応を正しい対応に修正することができる。観察モードでは単眼で撮影するため赤色画像と青色画像の間には位相差がなく類似度が高い。そのため、ステレオ計測モードにおいて類似度の高い赤色画像と青色画像が得られた場合には可動マスク30が誤って観察モードの位置にあると判定できる。
 9.近赤外画像の抽出処理
 上述のように本実施形態では観察画像の撮影とステレオ計測を行うことができるが、それらの撮像画像を用いて近赤外画像を取得できる。以下、近赤外画像の取得手法について説明する。
 上式(1)、(2)より、下式(9)によって近赤外画像が抽出できる。観察モードの画像Vb=Lb+Lirとステレオ計測モードの画像Mb=Lbは同時ではないので、区別するためにMb’=Lb’と表記する。これらの画像は同じ左眼光路からの画像であり位相ずれがない画像と考えられる。さらに、同一分光特性をもつ青色画像LbとLb’は合致性の高い画像どうしと考えられるので、下式(9)のように画像Mb’=Lb’を使って画像Vb=Lb+Lirから青色成分Lbを除去し、近赤外成分Lirの画像を生成することできる。
Figure JPOXMLDOC01-appb-M000009
 10.被写体又は撮像系のブレ対応
 近赤外画像の抽出において被写体又は撮像系が動いた場合、青色画像Lbと青色画像Lb’の合致性が低くなる。以下、その対応策を説明する。
 観察モードで得た画像Vbと計測モードで得た画像Mb’は時間的に異なる撮像のタイミングで得られたものなので、被写体又は撮像系が動いたことにより画像上での位置がずれる。図15に示すように、画像Vbの座標位置XLに対応する画素が画像Mb’上にてブレ量δ(XL)だけずれて得られたとする。画像Vbと画像Mb’は僅かではあるが視点が異なっているので、ブレ量δ(XL)は動きブレによるブレ量だけでなく厳密には視差量(異なる方向から見た画像のずれ)を含んでおり、被写体反射面までの距離に依存する量になっている。そのため、画像Vbの座標位置XLごとに求められる必要があるのでδ(XL)と表記する。
 ブレ量δ(XL)は、座標位置XL近傍における画像Vbと画像Mb’のマッチング探索処理により求めることができる。但し、画像の品質劣化などの理由から全ての座標位置においてマッチングによる対応点が求められるとは限らないため、信頼性の高いδ(XL)のみを有効として採用する。δ(XL)が求められなかった座標位置については、計測不能ポイントとして設定する。計測不能ポイントでは、後段の位相差検出において被写体反射面までの距離zを算出しない。計測不能ポイントの扱いについては任意であるが、例えば情報として使用者に通知する、或いは周辺の計測値からの補間により補償する等の種々の扱いが考えられる。
 採用されたδ(XL)を用いて、画像Mb’と画像Mr’をブレ量δ(XL)だけシフトさせて位置ずれを補正する。位置ずれを補正した画像をMb”、Mr”と表記する。次に、画像Mb”と画像Mr”のマッチング探索処理により、座標位置XLにおける計測に係る位相差量s(XL)を検出する。位相差量s(XL)が得られれば、図12等で説明した手法により座標位置XLに対応する被写体反射面までの距離zを求めることができる。
 11.内視鏡装置の第2構成例
 図16に、近赤外画像の撮像機能を付加した場合の内視鏡装置の構成例を示す。内視鏡装置は、スコープ部100、本体部200を含む。スコープ部100は、結像光学系10、固定マスク20、可動マスク30、撮像素子40、駆動部50を含む。本体部200は、処理部210、モニタ表示部220、撮像処理部230を含む。処理部210は、画像選択部310、カラー画像生成部320、位相差検出部330、可動マスク制御部340、可動マスク位置検出部350、距離情報算出部360、3次元情報生成部370、近赤外画像生成部380、ブレ量検出部390を含む。なお、既に説明した構成要素と同一の構成要素については同一の符号を付し、適宜説明を省略する。
 画像選択部310から出力される画像Vbと画像Mb(図15のMb’)は近赤外画像生成部380に入力される。近赤外画像生成部380は、上式(9)のように画像Vbと画像Mbを演算し、左眼光学系からの近赤外成分を有する画像Lirを得る。近赤外画像生成部380は、求めた画像Lirを画像処理して近赤外画像IRを出力する。この近赤外画像IRをモニタ表示部220に入力することで近赤外画像IRの表示が可能となる。
 一方、カラー画像生成部320は観察画像{Vr、Vg、Vb}に画像処理を施し、表示可能なカラー画像{R、G、B}を出力する。このカラー画像{R、G、B}をモニタ表示部220に入力することでカラーの観察画像の表示が可能となる。
 カラー画像{R,G,B}と近赤外画像IRは、いずれも左眼光路からの画像なので、像ずれは発生せず位置ズレがない。そのため、重ね合わせなどの統合表示や、カラー画像の色情報を用いた近赤外画像の着色などが容易である。
 また、3次元情報生成部370が3次元情報と近赤外画像IRを関連付けることができる。即ち、近赤外画像IRの各画素に距離情報を対応付け、近赤外画像の3次元化を行うことが可能となる。このように可視画像である観察カラー画像と近赤外の観察画像と距離情報をほぼ同時に得ることができるため多様な情報提供の形態を取ることができる。
 以上の実施形態によれば、撮像装置(内視鏡装置)は近赤外画像生成部380を含む。近赤外画像生成部380は、非ステレオモード(観察モード)において撮像された第1の撮像画像{Vr、Vg、Vb}と、ステレオモード(ステレオ計測モード)において撮像された第2の撮像画像{Mr、Mb}とに基づいて、近赤外画像Lir(又はIR)を生成する。
 具体的には、撮像素子40による撮像画像は赤色rと緑色gと青色bの画像で構成される。第1の波長帯域SLは、赤色r又は青色bの一方に対応する波長帯域である。第2の波長帯域FRは、赤色r又は青色bの他方に対応する波長帯域である。そして、近赤外画像生成部380は、第1の撮像画像の赤色の画像Vrと第2の撮像画像の赤色の画像Mrとの差分、又は第1の撮像画像の青色の画像Vbと第2の撮像画像の青色の画像Mbとの差分に基づいて、近赤外画像Lir(又はIR)を生成する。
 例えば本実施形態では、第1の波長帯域SLは青色の波長帯域(図5の特性Lbに対応する帯域SL)であり、第2の波長帯域FRは赤色の波長帯域(図5の特性Rrに対応する帯域FR)であるが、これに限定されず帯域と色の対応が逆でもよい。また例えば本実施形態では、青色の画像Vb、Mbの差分(上式(9))から近赤外画像Lirを求めるが、これに限定されず、赤色の画像Vr、Mrの差分から近赤外画像Lirを求めてもよい。
 一般的な撮像素子40は近赤外の帯域まで感度を有しており、観察モードにおける白色光画像の撮影では近赤外画像を含む画像が得られる。一方、ステレオ計測モードでは赤色及び青色の分光フィルタを介して撮影されるので、近赤外の帯域はほとんどカットされ、近赤外画像をほとんど含まない画像が得られる。そのため、これらの画像の差分から近赤外画像を抽出することが可能となる。近赤外画像を取得することで、可視光では見えない(又は見にくい)対象を観察できる可能性がある。
 以上、本発明を適用した実施形態及びその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語(観察モード、ステレオ計測モード、左眼光路、右眼光路等)と共に記載された用語(非ステレオモード、ステレオモード、第1の光路、第2の光路等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
5 被写体、10 結像光学系、11 第1の結像光学系、
12 第2の結像光学系、20 固定マスク、21 第1の絞り孔、
22 第2の絞り孔、24 遮光部、30 可動マスク、
31 第3の絞り孔、34 遮光部、35 回転軸、
40 撮像素子、50 駆動部、100 スコープ部、
110 撮像部、200 本体部、210 処理部、
220 モニタ表示部、230 撮像処理部、310 画像選択部、
320 カラー画像生成部、330 位相差検出部、
340 可動マスク制御部、350 可動マスク位置検出部、
360 距離情報算出部、370 3次元情報生成部、
380 近赤外画像生成部、390 ブレ量検出部、
FR,SR 第2のフィルタ、Mr,Mb 第2の撮像画像、
s(XL) 位相差、SL 第1のフィルタ、
Vr,Vg,Vb 第1の撮像画像、z 距離、δ(XL) ブレ量

Claims (18)

  1.  撮像素子と、
     第1の光路と、前記第1の光路に対して視差を有する第2の光路で前記撮像素子に被写体を結像させる結像光学系と、
     第1の波長帯域を通過させる第1のフィルタと遮光部とを有し、前記結像光学系に対して可動である可動マスクと、
     前記第2の光路に設けられ、前記第1の波長帯域とは異なる第2の波長帯域を通過させる第2のフィルタと、
     を含むことを特徴とする撮像装置。
  2.  請求項1において、
     前記可動マスクを制御する可動マスク制御部を含み、
     前記可動マスク制御部は、
     非ステレオモードにおいて、前記第1のフィルタが前記第1の光路に非挿入となると共に前記遮光部が前記第2の光路に挿入される第1の状態に、前記可動マスクを設定し、
     ステレオモードにおいて、前記第1のフィルタが前記第1の光路に挿入されると共に前記遮光部が前記第2の光路に非挿入となる第2の状態に、前記可動マスクを設定することを特徴とする撮像装置。
  3.  請求項2において、
     第1のフレームにおいて、前記可動マスク制御部は前記非ステレオモードを設定し、前記撮像素子は第1の撮像画像を撮像し、
     前記第1のフレームの次の第2のフレームにおいて、前記可動マスク制御部は前記ステレオモードを設定し、前記撮像素子は第2の撮像画像を撮像することを特徴とする撮像装置。
  4.  請求項3において、
     動画像の撮影において前記第1のフレームと前記第2のフレームを交互に繰り返すことを特徴とする撮像装置。
  5.  請求項4において、
     前記動画像に含まれる前記第1の撮像画像に基づいて、観察用の動画像を出力する画像出力部と、
     前記動画像に含まれる前記第2の撮像画像に基づいて、前記第1の波長帯域の画像と前記第2の波長帯域の画像との間の位相差を検出する位相差検出部と、
     を含むことを特徴とする撮像装置。
  6.  請求項2乃至5のいずれかにおいて、
     前記ステレオモードにおいて撮像された画像に含まれる前記第1の波長帯域の画像と前記第2の波長帯域の画像との間の類似度に基づいて、前記ステレオモードにおいて前記可動マスクが前記第2の状態に設定されているか否かを検出する可動マスク位置検出部を含むことを特徴とする撮像装置。
  7.  請求項6において、
     前記可動マスク制御部は、
     前記ステレオモードにおいて前記可動マスクが前記第1の状態に設定されていることが検出された場合、前記可動マスクの状態とモードの対応を修正することを特徴とする撮像装置。
  8.  請求項2乃至7のいずれかにおいて、
     前記非ステレオモードにおいて撮像された第1の撮像画像と、前記ステレオモードにおいて撮像された第2の撮像画像とに基づいて、近赤外画像を生成する近赤外画像生成部を含むことを特徴とする撮像装置。
  9.  請求項8において、
     前記撮像素子による撮像画像は赤色と緑色と青色の画像で構成され、
     前記第1の波長帯域は、前記赤色又は前記青色の一方に対応する波長帯域であり、
     前記第2の波長帯域は、前記赤色又は前記青色の他方に対応する波長帯域であり、
     前記近赤外画像生成部は、
     前記第1の撮像画像の前記赤色の画像と前記第2の撮像画像の前記赤色の画像との差分、又は前記第1の撮像画像の前記青色の画像と前記第2の撮像画像の前記青色の画像との差分に基づいて、前記近赤外画像を生成することを特徴とする撮像装置。
  10.  請求項1乃至9のいずれかにおいて、
     前記第1の光路に設けられる第1の絞り孔と、前記第2の光路に設けられる第2の絞り孔とを有する固定マスクを含み、
     前記第2のフィルタは、前記第2の絞り孔に設けられ、
     前記可動マスクは、前記遮光部に設けられる第3の絞り孔を有し、
     前記第1のフィルタは、前記第3の絞り孔に設けられることを特徴とする撮像装置。
  11.  請求項10において、
     前記結像光学系は、
     前記第1の絞り孔を通過する光を結像する第1の結像光学系と、前記第2の絞り孔を通過する光を結像する第2の結像光学系と、を有することを特徴とする撮像装置。
  12.  請求項10において、
     前記結像光学系は、
     前記第1の絞り孔を通過する光及び前記第2の絞り孔を通過する光を結像する単眼の結像光学系であることを特徴とする撮像装置。
  13.  請求項1乃至12のいずれかにおいて、
     前記第1のフィルタが前記第1の光路に挿入されると共に前記遮光部が前記第2の光路に非挿入となる状態に前記可動マスクが設定された場合において撮像された画像に基づいて、前記第1の波長帯域の画像と前記第2の波長帯域の画像との間の位相差を検出する位相差検出部を含むことを特徴とする撮像装置。
  14.  請求項1乃至13のいずれかにおいて、
     前記撮像素子による撮像画像は赤色と緑色と青色の画像で構成され、
     前記第1の波長帯域は、前記赤色又は前記青色の一方に対応する波長帯域であり、
     前記第2の波長帯域は、前記赤色又は前記青色の他方に対応する波長帯域であることを特徴とする撮像装置。
  15.  撮像素子と、
     第1の光路と、前記第1の光路に対して視差を有する第2の光路で前記撮像素子に被写体を結像させる結像光学系と、
     第1の波長帯域を通過させる第1のフィルタと、前記第1の波長帯域とは異なる第2の波長帯域を通過させる第2のフィルタと、遮光部とを有し、前記結像光学系に対して可動である可動マスクと、
     を含むことを特徴とする撮像装置。
  16.  請求項15において、
     前記可動マスクを制御する可動マスク制御部を含み、
     前記可動マスク制御部は、
     非ステレオモードにおいて、前記第1のフィルタが前記第1の光路に非挿入となると共に前記遮光部が前記第2の光路に挿入される第1の状態に、前記可動マスクを設定し、
     ステレオモードにおいて、前記第1のフィルタが前記第1の光路に挿入されると共に前記第2のフィルタが前記第2の光路に挿入される第2の状態に、前記可動マスクを設定することを特徴とする撮像装置。
  17.  請求項1乃至16のいずれかに記載された撮像装置を含むことを特徴とする内視鏡装置。
  18.  非ステレオモードにおいて、第1の波長帯域を通過させる第1のフィルタと遮光部とを有する可動マスクを第1の状態に設定することで、結像光学系の第1の光路に前記第1のフィルタを非挿入にする共に、前記第1の光路に対して視差を有する前記結像光学系の第2の光路に前記遮光部を挿入し、
     ステレオモードにおいて、前記可動マスクを第2の状態に設定することで、前記第1の光路に前記第1のフィルタを挿入すると共に、前記第2の光路に前記遮光部を非挿入にすることを特徴とする撮像方法。
PCT/JP2015/066073 2015-06-03 2015-06-03 撮像装置、内視鏡装置及び撮像方法 WO2016194178A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580080607.8A CN107636533A (zh) 2015-06-03 2015-06-03 摄像装置、内窥镜装置以及摄像方法
JP2017521430A JPWO2016194178A1 (ja) 2015-06-03 2015-06-03 撮像装置、内視鏡装置及び撮像方法
PCT/JP2015/066073 WO2016194178A1 (ja) 2015-06-03 2015-06-03 撮像装置、内視鏡装置及び撮像方法
US15/827,598 US20180098053A1 (en) 2015-06-03 2017-11-30 Imaging device, endoscope apparatus, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/066073 WO2016194178A1 (ja) 2015-06-03 2015-06-03 撮像装置、内視鏡装置及び撮像方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/827,598 Continuation US20180098053A1 (en) 2015-06-03 2017-11-30 Imaging device, endoscope apparatus, and imaging method

Publications (1)

Publication Number Publication Date
WO2016194178A1 true WO2016194178A1 (ja) 2016-12-08

Family

ID=57440315

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/066073 WO2016194178A1 (ja) 2015-06-03 2015-06-03 撮像装置、内視鏡装置及び撮像方法

Country Status (4)

Country Link
US (1) US20180098053A1 (ja)
JP (1) JPWO2016194178A1 (ja)
CN (1) CN107636533A (ja)
WO (1) WO2016194178A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003556A1 (ja) * 2017-06-30 2019-01-03 オリンパス株式会社 画像処理装置、画像処理システムおよび画像処理方法
JP2021000258A (ja) * 2019-06-21 2021-01-07 ソニー株式会社 医療用観察システム、医療用観察方法、および情報処理装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109567728B (zh) * 2018-11-27 2021-12-17 重庆金山医疗技术研究院有限公司 用于电子内窥镜的光耦合热量处理装置
JP2022038252A (ja) * 2020-08-26 2022-03-10 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171740A (ja) * 1988-12-26 1990-07-03 Minolta Camera Co Ltd ステレオ写真用カメラ
JP2010128354A (ja) * 2008-11-28 2010-06-10 Olympus Medical Systems Corp ステレオ光学系、並びにそれを用いたステレオ計測用光学装置、ステレオ計測装置及びステレオ観察装置
JP2013003159A (ja) * 2011-06-10 2013-01-07 Olympus Corp 撮像装置
JP2014023776A (ja) * 2012-07-27 2014-02-06 Konica Minolta Inc 内視鏡装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3164609B2 (ja) * 1990-10-31 2001-05-08 オリンパス光学工業株式会社 内視鏡装置
JP2001016612A (ja) * 1999-06-29 2001-01-19 Fuji Photo Film Co Ltd 視差画像撮像装置及び視差画像撮像方法
EP2035796A2 (en) * 2006-06-19 2009-03-18 Timestrip UK Limited Irreversible coolness indicator
JP5099704B2 (ja) * 2008-08-06 2012-12-19 独立行政法人産業技術総合研究所 高さを測定する方法及び高さ測定装置
WO2010140246A1 (ja) * 2009-06-05 2010-12-09 興和株式会社 眼科撮影装置
JP5011451B2 (ja) * 2009-10-23 2012-08-29 オリンパスメディカルシステムズ株式会社 立体撮影用対物光学系および内視鏡
JP2011250926A (ja) * 2010-06-01 2011-12-15 Fujifilm Corp 電子内視鏡システム
JP2013017138A (ja) * 2011-07-06 2013-01-24 Olympus Corp 撮像装置、画像処理装置
JP5923754B2 (ja) * 2011-08-11 2016-05-25 パナソニックIpマネジメント株式会社 3次元撮像装置
EP2938243A4 (en) * 2012-12-28 2016-09-14 Olympus Corp THREE-DIMENSIONAL ENDOSCOPE

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02171740A (ja) * 1988-12-26 1990-07-03 Minolta Camera Co Ltd ステレオ写真用カメラ
JP2010128354A (ja) * 2008-11-28 2010-06-10 Olympus Medical Systems Corp ステレオ光学系、並びにそれを用いたステレオ計測用光学装置、ステレオ計測装置及びステレオ観察装置
JP2013003159A (ja) * 2011-06-10 2013-01-07 Olympus Corp 撮像装置
JP2014023776A (ja) * 2012-07-27 2014-02-06 Konica Minolta Inc 内視鏡装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003556A1 (ja) * 2017-06-30 2019-01-03 オリンパス株式会社 画像処理装置、画像処理システムおよび画像処理方法
JP6503522B1 (ja) * 2017-06-30 2019-04-17 オリンパス株式会社 画像処理装置、画像処理システムおよび画像処理方法
JP2021000258A (ja) * 2019-06-21 2021-01-07 ソニー株式会社 医療用観察システム、医療用観察方法、および情報処理装置
JP7354608B2 (ja) 2019-06-21 2023-10-03 ソニーグループ株式会社 医療用観察システム、医療用観察方法、および情報処理装置

Also Published As

Publication number Publication date
CN107636533A (zh) 2018-01-26
US20180098053A1 (en) 2018-04-05
JPWO2016194178A1 (ja) 2018-05-31

Similar Documents

Publication Publication Date Title
US10455218B2 (en) Systems and methods for estimating depth using stereo array cameras
JP6585006B2 (ja) 撮影装置および車両
JP5996319B2 (ja) ステレオ計測装置およびステレオ計測装置の作動方法
JP6010895B2 (ja) 撮像装置
JP5053468B2 (ja) 立体画像撮影装置および内視鏡
JP2010025997A (ja) 焦点調節装置、撮像装置、交換レンズ、換算係数較正方法、換算係数較正プログラム
US20180092516A1 (en) Imaging device, endoscope apparatus, and imaging method
JP2009168995A (ja) 測距装置および撮像装置
WO2016194178A1 (ja) 撮像装置、内視鏡装置及び撮像方法
CN111492201B (zh) 测距摄像机
JP7288226B2 (ja) 測距カメラ
US10542875B2 (en) Imaging device, endoscope apparatus, and imaging method
JP2015231498A (ja) 内視鏡装置
JP2008298480A (ja) ステレオ透視装置およびそれを用いたステレオ観察方法
JP5629023B2 (ja) 医療用3次元観察装置
KR20110073045A (ko) 거리 적응 3차원 카메라
JP2013044893A (ja) 複眼撮像装置及び距離画像取得装置
US10798332B1 (en) Dual pass-through imaging system and method
EP4097681A1 (en) Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera
WO2017064746A1 (ja) 撮像装置、内視鏡装置及び撮像方法
WO2017212577A1 (ja) 撮像装置、内視鏡装置及び撮像方法
JP6160749B2 (ja) 内視鏡用アダプタ
EP4012495A1 (en) Method for correcting stereocamera and device for correcting stereocamera
JP2013117548A (ja) ステレオ透視装置およびそれを用いたステレオ観察方法
JP2007057386A (ja) カメラ1台を用いたインライン3次元計測装置及び計測方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15894211

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017521430

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15894211

Country of ref document: EP

Kind code of ref document: A1