WO2019181622A1 - 測距カメラ - Google Patents

測距カメラ Download PDF

Info

Publication number
WO2019181622A1
WO2019181622A1 PCT/JP2019/009813 JP2019009813W WO2019181622A1 WO 2019181622 A1 WO2019181622 A1 WO 2019181622A1 JP 2019009813 W JP2019009813 W JP 2019009813W WO 2019181622 A1 WO2019181622 A1 WO 2019181622A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
optical system
distance
image
subject image
Prior art date
Application number
PCT/JP2019/009813
Other languages
English (en)
French (fr)
Inventor
賢 安食
Original Assignee
ミツミ電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミツミ電機株式会社 filed Critical ミツミ電機株式会社
Priority to EP19772591.4A priority Critical patent/EP3770550A4/en
Priority to CN201980020450.8A priority patent/CN111868474B/zh
Priority to US16/976,184 priority patent/US11436746B2/en
Publication of WO2019181622A1 publication Critical patent/WO2019181622A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus

Definitions

  • the present invention generally relates to a distance measuring camera for measuring a distance to a subject, and more specifically, formed by at least two optical systems in which a change in magnification of a subject image according to the distance to the subject is different from each other.
  • the present invention also relates to a ranging camera that measures the distance to a subject based on the image magnification ratio of at least two subject images.
  • Such a distance measuring camera includes an optical system for condensing light from a subject and forming a subject image, and an image sensor for converting the subject image formed by the optical system into an image signal.
  • a pattern irradiation type ranging camera including a system is known (for example, see Patent Document 1).
  • a stereo camera type distance measuring camera by using two or more combinations of an optical system and an image sensor, a plurality of images having different parallel parallaxes are acquired, and an object is obtained based on the parallel parallax between the acquired plurality of images.
  • the distance to is calculated.
  • a pattern irradiation type distance measuring camera measures the distance to a subject by irradiating the subject with a fixed pattern of light and analyzing the distortion of the fixed pattern projected onto the subject. For this reason, a pattern irradiation type distance measuring camera requires a projector for irradiating a subject with a predetermined pattern of light, and the configuration of the distance measuring camera becomes large.
  • the fixed pattern of light that irradiates the subject is light with a wavelength outside visible light, so a pattern illumination rangefinder requires a special light source. It is difficult to use.
  • the present invention has been made in view of the above-described conventional problems, and its object is to reduce the distance to the subject without using parallel parallax between the plurality of images and without irradiating the subject with a certain pattern.
  • An object of the present invention is to provide a distance measuring camera capable of calculating.
  • a first optical system for condensing light from a subject to form a first subject image A second optical system for condensing the light from the subject to form a second subject image;
  • the distance measuring unit, wherein the distance calculation unit calculates the distance to the subject based on an image magnification ratio between the magnification of the first subject image and the magnification of the second subject image.
  • the first optical system is a fixed focus optical system
  • the distance measuring camera according to (1) wherein the second optical system is an autofocus optical system configured such that at least one of the lenses constituting the second optical system can be driven.
  • the change in the magnification of the first subject image according to the distance to the subject corresponds to the distance to the subject.
  • the first optical system and the second optical system are configured such that the focal length of the first optical system and the focal length of the second optical system are different from each other.
  • the change in the magnification of the first subject image according to the distance to the subject is different from the change in the magnification of the second subject image according to the distance to the subject.
  • Depth parallax in the optical axis direction exists between the front principal point of the first optical system and the front principal point of the second optical system, and accordingly, according to the distance to the subject.
  • Association information storing association information that associates the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image and the distance to the subject.
  • a storage unit; The distance calculation unit is based on the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image, and the association information in the association information storage unit.
  • the ranging camera according to any one of (1) to (5), wherein the distance to the subject is calculated.
  • the distance calculation unit calculates a ratio between the size of the first subject image and the size of the second subject image, the magnification of the first subject image, and the magnification of the second subject image.
  • the distance measuring camera according to any one of the above (1) to (6), which is calculated as the image magnification ratio.
  • the distance measuring camera of the present invention uses two optical systems configured such that the change in magnification of the subject image according to the distance to the subject is different from each other, and the two subject images respectively formed by the two optical systems. Based on the image magnification ratio (magnification ratio), the distance to the subject can be measured. Therefore, unlike the conventional stereo camera ranging camera using parallel parallax between a plurality of images, the distance measuring camera of the present invention does not need to secure a large parallel parallax. Even if they are arranged close to each other in the parallel direction orthogonal to the axial direction, the distance to the subject can be accurately calculated. This makes it possible to reduce the size of the distance measuring camera as compared with the conventional stereo camera type distance measuring camera.
  • the distance measuring camera of the present invention does not use parallel parallax to calculate the distance to the subject, the distance to the subject is set even if the subject is very close to the distance measuring camera. It can be measured accurately.
  • the distance measuring camera of the present invention unlike a conventional pattern irradiation type distance measuring camera, it is not necessary to use a special light source such as a projector that irradiates a subject with a fixed pattern of light. Therefore, the system configuration of the ranging camera can be simplified. As a result, the distance measuring camera can be reduced in size, weight, power consumption, and cost as compared with a conventional pattern irradiation distance measuring camera.
  • the distance measuring camera of the present invention does not require the use of a special light source for irradiating light with a wavelength outside visible light unlike a conventional pattern irradiation type distance measuring camera, and thus performs normal photographing. You can also
  • FIG. 1 is a diagram for explaining the principle of distance measurement of the distance measuring camera of the present invention.
  • FIG. 2 is a diagram for explaining the principle of distance measurement of the distance measuring camera of the present invention.
  • FIG. 3 is a diagram for explaining the principle of distance measurement of the distance measuring camera of the present invention.
  • FIG. 4 is a diagram for explaining the relationship between the magnification of the first subject image captured in the out-of-focus state and the magnification of the first subject image captured in the in-focus state.
  • 5 is an image magnification of the magnification of the first subject image formed by the first optical system shown in FIG. 3 and the magnification of the second subject image formed by the second optical system shown in FIG.
  • FIG. 6 is a block diagram schematically showing the distance measuring camera according to the first embodiment of the present invention.
  • FIG. 7 is a block diagram schematically showing a distance measuring camera according to the second embodiment of the present invention.
  • FIG. 8 is a block diagram schematically showing a distance measuring camera according to the third embodiment of the present invention.
  • FIG. 9 is a flowchart for explaining a distance measuring method executed by the distance measuring camera of the present invention.
  • the first imaging system IS1 condenses light from the subject 100 to form a first subject image, and a first optical system OS1 formed by the first optical system OS1. And a first image sensor S1 for capturing a subject image.
  • the first optical system OS1 is a fixed focus optical system, and is configured such that the focus operation of the first optical system OS1 cannot be performed. Therefore, the first imaging system IS1 is a fixed focus imaging system, and the in-focus position of the first imaging system IS1 is the same as the first optical system OS1 and the first optical system OS1 that are set when the first imaging system IS1 is configured.
  • the distance from the image sensor S1 is determined.
  • the first optical system OS1 and the first image sensor S1 are configured and arranged so that they are in focus at infinity.
  • the second imaging system IS2 condenses the light from the subject 100 to form a second subject image, and at least one of the lenses constituting the second optical system OS2. Formed by the second optical system OS2 and the lens drive unit AF for executing the focus operation (or autofocus operation) of the second optical system OS2 by driving one (for example, focus lens) And a second imaging element S2 for capturing a second subject image.
  • the second optical system OS2 is an autofocus optical system configured to be able to drive at least one of the lenses constituting the second optical system OS2 (for example, a focus lens), and can perform a focus operation by the lens driving unit AF. Yes.
  • the second optical system OS2 and the second image sensor S2 are not performing a focusing operation by driving (feeding out) at least one of the lenses constituting the second optical system OS2 by the lens driving unit AF.
  • it is arranged so that it is in focus at infinity.
  • the focus of the second imaging system IS2 is adjusted to the subject 100 located at infinity.
  • the optical axis of the first optical system OS1 of the first image sensor S1 and the optical axis of the second optical system OS2 of the second image sensor S2 are parallel. , Do not match.
  • the first optical system OS1 is schematically shown as having the rear principal point of the first optical system OS1 at the center position of the first optical system OS1.
  • the second optical system OS2 is schematically shown as having the rear principal point of the second optical system OS2 at the center position of the second optical system OS2. .
  • the subject 100 when the subject 100 is located at infinity and the first imaging system IS1 and the second imaging system IS2 are in focus at infinity, after the first optical system OS1.
  • the distance from the side principal point to the imaging surface of the first image sensor S1 is equal to the focal length f1 of the first optical system OS1, and further, the second principal point from the rear principal point of the second optical system OS2
  • the distance to the imaging surface of the imaging device S2 is equal to the focal length f2 of the second optical system OS2.
  • a fixed-focus imaging system such as the first imaging system IS1 is set to an arbitrary distance set in advance in order to effectively use the depth of field or when imaging the subject 100 located at a desired distance. It may be configured to focus.
  • the first imaging system IS1 that is a fixed focus imaging system configured to focus on an arbitrary distance
  • the second that is an autofocus imaging system that can perform a focus operation (autofocus operation).
  • FIG. 2 shows an example in which the subject 100 located at infinity is imaged using the first imaging system IS1 and the second imaging system IS2 configured to focus on an arbitrary distance. Has been.
  • the position of the front principal point of the first imaging system IS1 is determined by the first imaging system IS1. It is shifted by d FC toward the subject 100 side from the position of the front principal point when it is configured to focus at infinity. Further, the distance from the rear principal point of the first optical system OS1 to the imaging surface of the first imaging element S1 is longer than the focal length f1 of the first optical system OS1. Therefore, in the state shown in FIG. 2, the first imaging system IS1 performs imaging of the subject 100 in an out-of-focus state. On the other hand, the focus of the second imaging system IS2 is at infinity. Therefore, in the state shown in FIG. 2, the second imaging system IS2 performs imaging of the subject 100 in the focused state.
  • EP 1 is the distance from the exit pupil of the first optical system OS1 to the imaging position of the first subject image of the subject 100 located at infinity.
  • the distance (subject distance) A from the front principal point of the first optical system OS1 to the subject 100 and the front principal point of the second optical system OS2 The distance (subject distance) a from the subject 100 to the subject 100 does not match.
  • the relationship between the two distances A and a can be expressed by the following formula (1).
  • the position is separated from the front principal point of the first optical system OS1 by the distance A using the first imaging system IS1 and the second imaging system IS2 configured to focus on an arbitrary distance.
  • the first imaging system IS1 configured to focus on an arbitrary distance and the second imaging system IS2 are separated from the front principal point of the first optical system OS1 by a distance A.
  • An example in the case of imaging the subject 100 at a position (positioned by a distance a from the front principal point of the second optical system OS2) is shown.
  • the first imaging system IS1 executes imaging of the subject 100 in an out-of-focus state.
  • the second imaging system IS2 at least one of the lenses constituting the second optical system OS2 is extended to the subject 100 side by the shift amount ⁇ b by the lens driving unit AF, and the focusing operation of the second optical system OS2 is performed. (Autofocus operation) is executed. Therefore, the second imaging system IS2 performs imaging of the subject 100 in the focused state.
  • the second optical system OS2 When at least one of the lenses constituting the second optical system OS2 is extended toward the subject 100 by the lens driving unit AF and the focusing operation of the second optical system OS2 is performed, the second optical system OS2 The position of the front principal point is shifted toward the subject 100 by s. Therefore, the distance from the front principal point of the second optical system OS2 to the subject 100 is reduced by the shift amount s from before the focus operation of the second optical system OS2 is performed. As described above, the distance from the front principal point of the second optical system OS2 to the subject 100 varies by the shift amount s depending on the focus operation of the second optical system OS2, but once the focus of the second optical system OS2 is reached. When the operation is executed and the subject 100 is focused, the distance from the front principal point of the second optical system OS2 to the subject 100 is fixed.
  • the shift amount s of the position of the front principal point of the second optical system OS2 and at least one shift amount ⁇ b of the lens constituting the second optical system OS2 are determined by the position of the subject 100 and the second optical system OS2. It is determined by the relationship between the focal length f 2.
  • D is the depth parallax in the optical axis direction between the front principal point of the first optical system OS1 and the front principal point of the second optical system OS2.
  • the distance a from the front principal point of OS2 to the subject 100 does not match.
  • the relationship between the two distances A and a can be expressed by the following formula (2).
  • the amount of shift of the position of the front principal point of the first imaging system IS1 is adjusted by adjusting the focusing distance of the first imaging system IS1 by changing the distance between the first optical system OS1 and the first imaging element S1. It changes also by factors other than these, for example, the change of the position of 1st imaging system IS1.
  • the above formula (2) is expressed by the following formula (3 ).
  • d FC is the front main of the first optical system OS1 generated by adjusting the focusing distance of the first imaging system IS1 by changing the distance between the first optical system OS1 and the first imaging element S1.
  • the shift amount of the position of the point, d p is the shift amount of the position of the front principal point of the first optical system OS1 caused by factors other than the adjustment of the focusing distance of the first imaging system IS1
  • the shift amount s of the front principal point of the second optical system OS2 of the second imaging system IS2 can be expressed by the following formula (4) from the lens formula.
  • the first optical system OS1 is a fixed focus optical system, the focusing distance of the first imaging system IS1 is fixed when the first imaging system IS1 is configured. Therefore, except when the subject 100 is located at the in-focus distance of the first imaging system IS1, the first imaging system IS1 executes imaging of the subject 100 in an out-of-focus state.
  • Magnification M 1 of the first object image of the object 100 captured by such out-of-focus state is different from the magnification m 1 of the first object image of the object 100 captured by the focus state .
  • FIG. 4 shows the relationship between the magnification M 1 of the first subject image of the subject 100 imaged in the out-of-focus state and the magnification m 1 of the first subject image of the subject 100 imaged in the in-focus state. A diagram for illustration is shown.
  • EP 1 distance EP OD1 from the exit pupil of the first optical system OS1 to the imaging position of the first subject image when the subject 100 exists at the distance A, and the exit pupil of the first optical system OS1 A distance EP FD1 to the imaging surface of the first imaging element S1 is shown.
  • a first subject image of the subject 100 located at a distance A from the front principal point of the first optical system OS1 (a distance a from the front principal point of the second optical system OS2) is shown in FIG.
  • the image forming position (Focal Plane)
  • the focusing state is not achieved.
  • the ratio between the size of the first subject image in the focused state and the size of the first subject image in the out-of-focus state is based on the similarity between two right triangles having the exit pupil in FIG. It can be obtained by FD1 / EP OD1 .
  • magnification M1 of the first subject image of the subject 100 imaged in the out-of-focus state can be expressed by the following equation (5).
  • magnification m 1 of the first subject image of the subject 100 imaged in the focused state can be expressed by the following formula (6) from the lens formula.
  • the distance from the rear principal point of the first optical system OS1 to the imaging surface of the first imaging element S1 can be expressed by (1 / f 1 ⁇ 1 / FC 1 ) ⁇ 1 from the lens formula. it can.
  • FC 1 is an arbitrary subject distance (focus adjustment distance) used when adjusting the focusing distance of the first imaging system IS1.
  • the subject 100 when positioned at a distance FC 1 from the front side principal point of the first optical system OS1, the first subject image focused state is formed on the imaging surface of the first imaging element S1
  • the distance EP FD1 from the exit pupil of the first optical system OS1 to the imaging surface of the first imaging element S1 can be expressed by the following formula (7).
  • the distance from the rear principal point of the first optical system OS1 to the imaging position of the first subject image of the subject 100 is represented by (1 / f 1 ⁇ 1 / A) ⁇ 1 from the lens formula. be able to.
  • the distance EP OD1 from the exit pupil of the first optical system OS1 to the imaging position of the first subject image when the subject 100 exists at the distance A is expressed by the following equation (8). ).
  • the magnification M2 of the second subject image formed by the second optical system OS2 is considered.
  • the second optical system OS2 of the second imaging system IS2 is an autofocus optical system, and the lens driving unit AF can execute the focus operation of the second optical system OS2. Therefore, when the second imaging system IS2 images the subject 100 located at a distance a from the front principal point of the second optical system OS2, the focus operation of the second optical system OS2 is performed by the lens driving unit AF. This is executed, and the focus of the second imaging system IS2 matches the subject 100 located at the distance a.
  • the second imaging system IS2 is an autofocus imaging system
  • the second imaging system IS2 is located at a distance a from the front principal point of the second optical system OS2 in a focused state.
  • the subject 100 is imaged.
  • the magnification M2 of the second subject image of the subject 100 imaged in the focused state can be expressed by the following formula (10) from the lens formula.
  • the image magnification ratio MR with the magnification M2 of the second subject image formed above can be expressed by the following equation (11).
  • the magnification M 2 magnification M 1 and the second object image of the first object image is calculated using the solution obtained in the above general formula (23), the size of the first object image, the The size of the subject image of 2 is calculated. Further, a difference ⁇ Sz1 (hereinafter referred to as a first size difference ⁇ Sz1) between the size of the first subject image obtained here and the size of the second subject image is obtained.
  • the magnification M 2 magnification M 1 and the second object image of the first object image is calculated using the solution obtained in the above general formula (24), the size of the first object image, the The size of the subject image of 2 is calculated. Further, a difference ⁇ Sz2 (hereinafter referred to as a second size difference ⁇ Sz2) between the size of the first subject image obtained here and the size of the second subject image is obtained.
  • actual size Sz 2 of actual size Sz 1 and the second object image of the first object image, the first image sensor S1 and the second image sensor S2 is first subject It can be calculated from the image signal of the first subject image and the image signal of the second subject image obtained by capturing the image and the second subject image. Therefore, the actual size Sz1 of the first subject image and the actual size Sz2 of the second subject image are obtained from the image signal of the first subject image and the image signal of the second subject image.
  • the difference ⁇ Sz3 (hereinafter, actual size difference ⁇ Sz3) is obtained.
  • the size of the first subject image calculated by using one of the two solutions as the distance a and the second subject image
  • the difference between the first and second sizes ( ⁇ Sz1 and ⁇ Sz2) is calculated from the first subject image signal and the second subject image signal.
  • the actual size Sz 1 of the subject image is equal to the actual size Sz 2 of the difference between the second object image (actual size difference ⁇ Sz3).
  • the actual size Sz 1 of the first object image, the actual size Sz 2 of the difference between the second object image does not match the (actual size difference ⁇ Sz3).
  • the solution represented by the general formula (23) is appropriate as the distance a.
  • the solution represented by the general formula (24) is appropriate as the distance a. In the present invention, such a method is used to determine which of the two solutions for the distance a represented by the general formulas (23) and (24) is appropriate as the distance a. Yes.
  • the focal length f 2 of the second optical system OS2 is a fixed value.
  • the total shift amount d all of the front principal point of the first optical system OS1 is a fixed value determined at the time of the configuration and arrangement of the first optical system OS1.
  • the focal length f 1 of the first optical system OS1 as a value, the distance EP 1 from the exit pupil of the first optical system OS1 to the imaging position of the first subject image of the subject 100 located at infinity, and from the first front principal point of the optical system OS1 when the first object image on the imaging surface of the first imaging element S1 becomes the best focus is obtained from the distance FC 1 to the object 100. Therefore, the coefficient K is a fixed value.
  • the focal length f 2 of the second optical system OS2 is a fixed value that is determined in the configuration of a second optical system OS2.
  • EP 1 , FC 1 , and f 1 for obtaining the coefficient Z are fixed values determined at the time of the configuration and arrangement of the first optical system OS1, the coefficient Z is a fixed value. Then, if the image magnification ratio MR can be obtained, the coefficient X can be obtained.
  • the focal length f 2 of the second optical system OS2 is a fixed value that is determined in the configuration of a second optical system OS2.
  • EP 1 , FC 1 , and f 1 for obtaining the coefficient W are fixed values determined when the first optical system OS 1 is configured and arranged, the coefficient W is a fixed value. Then, if the image magnification ratio MR can be obtained, the coefficient Y can be obtained.
  • the second formula can be used using the general formula (23) or (24). The distance a from the front principal point of the optical system OS2 to the subject 100 can be calculated.
  • FIG. 5 shows the magnification of the first subject image formed on the imaging surface of the first imaging element S1 by the first optical system OS1 calculated based on the general formulas (23) and (24).
  • M 1 , the magnification M 2 of the second subject image formed on the imaging surface of the second imaging device S2 by the second optical system OS2, and the magnification M 1 of the first subject image and the second subject and Zobaihi MR with magnification M 2 of the image one example of the relationship between the distance a to the object 100 is shown.
  • the value of the image magnification ratio MR changes according to the distance a to the subject 100, so that the distance a to the subject 100 can be specified based on the image magnification ratio MR.
  • the image magnification ratio MR can be calculated by the following equation (25).
  • sz, size (height or width) of the object 100 Sz 1 is first formed by the first optical system OS1 on the imaging surface of the first imaging element S1 the actual size of the object image (image height or image width), Sz 2 is the actual size (an image of the second object image formed on the imaging surface of the second imaging element S2 by the second optical system OS2 High or image width).
  • the actual size Sz 2 of actual size Sz 1 and the second object image of the first object image, the first image sensor S1 and the second image sensor S2 is first subject image and the second object image Can be calculated from the image signal of the first subject image and the image signal of the second subject image, which are obtained by imaging. Therefore, from the image signal of the first subject image and the image signal of the second subject image obtained by actually imaging the subject 100 using the first imaging system IS1 and the second imaging system IS2, the first subject image is obtained. 1 of the actual size Sz 2 of actual size Sz 1 and the second object image of an object image is actually measured, based on which, the magnification M 1 of the first object image and the magnification M 2 of the second object image Image magnification ratio MR can be obtained.
  • the distance measuring camera according to the present invention is based on the above-described principle, and the magnification of the first subject image is based on the actual size Sz1 of the first subject image and the actual size Sz2 of the second subject image. calculating a Zobaihi MR with magnification M 2 of M 1 and the second object image, further, using the calculated Zobaihi MR, and calculates the distance a to the object 100.
  • the image magnification ratio MR is a constant.
  • the change of the magnification M1 of the first subject image according to the distance a to the subject 100 is the same as the change of the magnification M2 of the second subject image according to the distance a to the subject 100. Therefore, it becomes impossible to calculate the distance a to the subject 100 based on the image magnification ratio MR.
  • the first optical system OS1 and the first optical system OS1 are set so that at least one of the following first condition and second condition for satisfying the image magnification ratio MR as a function of the distance a is satisfied.
  • the second optical system OS2 is configured and arranged so that the change in the magnification M1 of the first subject image according to the distance to the subject 100 changes the second subject image according to the distance to the subject 100. It has become different from the change of the magnification M 2.
  • the focal length f 1 of the (first condition) first optical system OS1, the focal length f 2 of the second optical system OS2 are different from each other (f 1 ⁇ f 2) (Second Condition)
  • a depth parallax D in the optical axis direction exists between the front principal point of the first optical system OS1 and the front principal point of the second optical system OS2 (D ⁇ 0).
  • a first object image image signal and the first actual size Sz 1 and the second object image to be measured from the second image signal of an object image acquired by using a distance measuring camera of the present invention by calculating the Zobaihi MR from actual size Sz 2 of the subject image it is possible to calculate the distance a to the object 100 from the front side principal point of the second optical system OS2. Further, using the above formula (3), the distance A from the front principal point of the first optical system OS1 to the subject 100 is calculated from the distance a from the front principal point of the second optical system OS2 to the subject 100. be able to.
  • the distance a from the front principal point of the second optical system OS2 to the subject 100 (and the distance A from the front principal point of the first optical system OS1 to the subject 100) is calculated using the above-described principle.
  • the distance measuring camera of the present invention will be described in detail based on a preferred embodiment shown in the accompanying drawings.
  • FIG. 6 is a block diagram schematically showing the distance measuring camera according to the first embodiment of the present invention.
  • the distance measuring camera 1 shown in FIG. 6 includes a control unit 2 that controls the distance measuring camera 1, a first optical system OS1 that collects light from the subject 100, and forms a first subject image.
  • the second optical system OS2 for condensing the light from the subject 100 and forming the second subject image, and the focus operation (or autofocus operation) of the second optical system OS2 are executed.
  • An imaging unit S for imaging a lens driving unit AF, a first subject image formed by the first optical system OS1 and a second subject image formed by the second optical system OS2, and a first and Zobaihi MR with magnification M 2 magnification M 1 and the second object image of an object image, an association information storage unit 3 for storing the association information associating the distance a to the object 100, the imaging The first subject image and the second image captured by the part S Based on the subject image, the distance calculation unit 4 for calculating the distance a to the subject 100, the first subject image or the second subject image acquired by the imaging unit S, and the distance calculation unit 4 Based on the distance a to the subject 100, a three-dimensional image generation unit 5 for generating a three-dimensional image of the subject 100, a display unit 6 for displaying arbitrary information such as a liquid crystal panel, and the like by the user An operation unit 7 for inputting an operation, a communication unit 8 for executing communication with an external device, and a data bus 9 for executing data exchange between components of
  • the configuration of the first optical system OS1 and the configuration of the second optical system OS2 in this embodiment are merely examples for explanation, and the present invention is not limited thereto.
  • Each of the first optical system OS1 and the second optical system OS2 satisfies at least one of the first condition and the second condition described above, and the magnification M 1 of the first object image with respect to the distance to the object 100.
  • the distance measuring camera 1 is the first of the first condition and the second condition required for calculating the distance a to the subject 100 based on the image magnification ratio MR.
  • the focal length f 1 of the optical system OS1 so that the focal length f 2 of the second optical system OS2 is different (f 1 ⁇ f 2) first condition that is met each other, a first optical system OS1 and The second optical system OS2 is configured.
  • the first optical system OS1 and the second optical system OS2 are not configured and arranged so as to satisfy the second condition (D ⁇ 0).
  • Ranging camera 1 of this embodiment calculates the Zobaihi MR with magnification M 2 magnification M 1 and the second object image of the first object image by imaging a subject 100 by the imaging unit S, Further, the distance a from the front principal point of the second optical system OS2 to the subject 100 is calculated using the general formula (23) or (24). In addition, the distance measuring camera 1 according to the present embodiment uses the above formula (3), if necessary, from the distance a from the front principal point of the second optical system OS2 to the subject 100, using the first optical system. A distance A from the front principal point of the system OS1 to the subject 100 is calculated.
  • the control unit 2 exchanges various data and various instructions with each component via the data bus 9 and executes control of the distance measuring camera 1.
  • the control unit 2 includes a processor for executing arithmetic processing and a memory storing data, programs, modules, and the like necessary for controlling the ranging camera 1. Controls the distance measuring camera 1 by using data, programs, modules, etc. stored in the memory.
  • the processor of the control unit 2 can provide a desired function by using each component of the distance measuring camera 1. For example, the processor of the control unit 2 uses the distance calculation unit 4 to calculate the distance a to the subject 100 based on the first subject image and the second subject image captured by the imaging unit S. Can be executed.
  • the processor of the control unit 2 is, for example, one or more microprocessors, a microcomputer, a microcontroller, a digital signal processor (DSP), a central processing unit (CPU), a memory control unit (MCU), and an image processing processing unit. (GPU), a state machine, a logic circuit, an application specific integrated circuit (ASIC), or an arithmetic unit that executes arithmetic processing such as signal manipulation based on computer readable instructions such as a combination thereof.
  • the processor of the control unit 2 is configured to fetch computer readable instructions (eg, data, programs, modules, etc.) stored in the memory of the control unit 2 and perform signal operations and control.
  • the memory of the control unit 2 includes a volatile storage medium (for example, RAM, SRAM, DRAM), a nonvolatile storage medium (for example, ROM, EPROM, EEPROM, flash memory, hard disk, optical disk, CD-ROM, digital versatile disk ( A removable or non-removable computer readable medium comprising a DVD), magnetic cassette, magnetic tape, magnetic disk), or combinations thereof.
  • a volatile storage medium for example, RAM, SRAM, DRAM
  • a nonvolatile storage medium for example, ROM, EPROM, EEPROM, flash memory, hard disk, optical disk, CD-ROM, digital versatile disk ( A removable or non-removable computer readable medium comprising a DVD), magnetic cassette, magnetic tape, magnetic disk), or combinations thereof.
  • the first optical system OS1 has a function of collecting light from the subject 100 and forming a first subject image on the imaging surface of the first imaging element S1 of the imaging unit S.
  • the second optical system OS2 has a function for collecting light from the subject 100 and forming a second subject image on the imaging surface of the second imaging element S2 of the imaging unit S.
  • the first optical system OS1 and the second optical system OS2 are composed of one or more lenses and optical elements such as a diaphragm. Further, as shown in the drawing, the optical axis of the first optical system OS1 and the optical axis of the second optical system OS2 are parallel, but do not coincide with each other.
  • the first optical system OS1 is a fixed focus optical system. Therefore, the lens constituting the first optical system OS1 is not configured to be drivable for the focus operation.
  • the second optical system OS2 is an autofocus optical system, and at least one of the lenses constituting the second optical system OS2 (for example, a focus lens) is driven in the optical axis direction by the lens driving unit AF ( (Feeding out) is possible.
  • the first optical system OS1 and a second optical system OS2 is a focal length f 1 of the first optical system OS1, the focal length f 2 of the second optical system OS2 are different from each other (F 1 ⁇ f 2 ).
  • the change according to the distance to the subject 100 of the magnification M1 of the first subject image formed by the first optical system OS1 changes in the second subject image formed by the second optical system OS2. and it is configured to be different from the change in the distance to the subject 100 magnification M 2.
  • the lens driving unit AF drives (feeds out) at least one lens (for example, a focus lens) constituting the second optical system OS2 in the direction of the optical axis in accordance with control from the processor of the control unit 2.
  • 2 has a function of executing the focus operation (or autofocus operation) of the second optical system OS2.
  • the lens driving unit AF is not particularly limited as long as the focus operation of the second optical system OS2 can be executed according to the control from the processor of the control unit 2, for example, by an actuator such as a DC motor, a stepping motor, or a voice coil motor. Can be configured.
  • the processor of the control unit 2 drives the lens driving unit AF using any autofocus technology such as contrast autofocus technology or phase difference autofocus technology, and realizes the focus operation of the second optical system OS2. .
  • the imaging unit S captures the first subject image formed by the first optical system OS1 and the second subject image formed by the second optical system OS2, and the image signal of the first subject image and the second subject image. 2 has a function of acquiring image signals of subject images.
  • the imaging unit S captures the first subject image, captures the first image sensor S1 for obtaining the image signal of the first subject image, the second subject image, And a second image sensor S2 for acquiring image signals of two subject images.
  • the separation distance from the rear principal point of the first optical system OS1 to the imaging surface of the first imaging element S1 is the first subject of the subject 100 located at an arbitrary distance set when the ranging camera 1 is configured.
  • the image is set to be formed in a focused state on the imaging surface of the first imaging element S1.
  • the first optical system OS1 and the first image sensor S1 are arranged so that an arbitrary distance set when the ranging camera 1 is configured is in focus.
  • the separation distance from the rear principal point of the second optical system OS2 to the imaging surface of the second imaging element S2 is an initial state in which the focusing operation of the second optical system OS2 by the lens driving unit AF is not performed.
  • the second optical system OS2 is indicated by a dotted line
  • the second subject image of the subject 100 located at infinity is aligned on the imaging surface of the second imaging element S2. It is set to be formed in a focused state.
  • the second optical system OS2 and the second image sensor S2 are in focus so as to focus on infinity. Has been placed.
  • the separation distance from the rear principal point of the second optical system OS2 to the imaging surface of the second imaging element S2 is equal to the focal length f2 of the second optical system OS2. Therefore, when the subject 100 is located at an arbitrary distance a, at least one of the lenses constituting the second optical system OS2 by the lens driving unit AF (for example, according to control from the processor of the control unit 2 (for example, The focus lens) is extended, and the front principal point and the rear principal point of the second optical system OS2 are shifted toward the subject 100 by the shift amount s, and the subject 100 located at an arbitrary distance a is focused.
  • the lens driving unit AF for example, according to control from the processor of the control unit 2 (for example, The focus lens
  • the first image sensor S1 and the first optical system OS1 are provided in the same casing, and the second image sensor S2, the lens driving unit AF, and the second optical system.
  • the OS 2 is provided in another same casing, but the present invention is not limited to this.
  • a mode in which the first optical system OS1, the second optical system OS2, the lens driving unit AF, the first image sensor S1, and the second image sensor S2 are all provided in the same housing is also possible. Within the scope of the invention.
  • the first image sensor S1 and the second image sensor S2 are color image sensors having color filters such as RGB primary color filters and CMY complementary color filters arranged in an arbitrary pattern such as a Bayer array. Alternatively, a monochrome imaging element that does not have such a color filter may be used.
  • a first subject image is formed on the imaging surface of the first image sensor S1 by the first optical system OS1, and a color or monochrome image signal of the first subject image is acquired by the first image sensor S1.
  • the acquired image signal of the first subject image is sent to the control unit 2 and the distance calculation unit 4 via the data bus 9.
  • a second subject image is formed on the imaging surface of the second image sensor S2 by the second optical system OS2, and the color or monochrome image signal of the second subject image is formed by the second image sensor S2. Is acquired.
  • the acquired image signal of the second subject image is sent to the control unit 2 and the distance calculation unit 4 via the data bus 9.
  • the image signal of the first subject image and the image signal of the second subject image sent to the distance calculation unit 4 are used for calculating the distance a to the subject 100.
  • the image signal of the first subject image and the image signal of the second subject image sent to the control unit 2 are used for image display by the display unit 6 and image signal communication by the communication unit 8.
  • Association information storage unit 3 and the magnification M 1 of the first object image and Zobaihi MR (M 1 / M 2) between the magnification M 2 of the second object image, the front of the first optical system OS1 It is an arbitrary nonvolatile recording medium (for example, a hard disk or a flash memory) for storing association information that associates the distance a from the main point to the subject 100.
  • a nonvolatile recording medium for example, a hard disk or a flash memory
  • Association information stored in the association information storage unit 3 from Zobaihi MR (M 1 / M 2) between the magnification M 1 of the first object image and the magnification M 2 of the second object image, This is information for calculating the distance a from the front principal point of the first optical system OS1 to the subject 100.
  • the association information stored in the association information storage unit 3 includes the above general formulas (23) and (24) for calculating the distance a to the subject 100 based on the image magnification ratio MR.
  • the above fixed value is determined by the configuration and arrangement of the first optical system OS1 and the second optical system OS2 in the formula.
  • the distance calculation unit 4 has a function of calculating the distance a to the subject 100 based on the first subject image and the second subject image captured by the imaging unit S.
  • the distance calculation unit 4 receives an image signal of the first subject image from the first imaging element S1 of the imaging unit S, and further receives an image signal of the second subject image from the second imaging element S2 of the imaging unit S. Receive.
  • the distance calculation unit 4 performs an edge extraction process known in this field, for example, a filter process such as the Canny method, on the image signal of the first subject image and the image signal of the second subject image, An edge portion of the first subject image in the image signal of the first subject image and an edge portion of the second subject image in the image signal of the second subject image are extracted.
  • the distance calculation unit 4 calculates the actual size (image width or image height) Sz 1 of the first subject image based on the edge portion of the extracted first subject image, and further extracts the extracted second subject. Based on the edge portion of the image, the actual size (image width or image height) Sz2 of the second subject image is calculated.
  • Distance calculating unit 4 based on the edge portion of the edge portion of the first subject image and the second object image is extracted, calculates the size Sz 2 size Sz 1 and the second object image of the first object image
  • the distance between the uppermost portion and the lowermost portion of the edge portion of the subject image may be the image height of the subject image, or the subject
  • the distance between the leftmost portion and the rightmost portion of the edge portion of the image may be the image width of the subject image.
  • the distance calculation unit 4 calculates the ratio Sz 1 / Sz 2 between the calculated actual size Sz 1 of the first subject image and the actual size Sz 2 of the second subject image, and the magnification of the first subject image. calculated as Zobaihi MR with magnification M 2 of M 1 and the second object image.
  • the distance calculation unit 4 calculates the general formulas (23) and (24) included in the association information stored in the association information storage unit 3 and a fixed value in the equation. To obtain two solutions for the distance a. Thereafter, the distance calculation unit 4 uses one or both of the two solutions for the distance a (distance) using the method for determining which of the two solutions for the distance a is appropriate as the distance a.
  • the distance calculation unit 4 uses the above formula (3) to calculate the distance a from the front principal point of the second optical system OS2 to the subject 100 and the subject from the front principal point of the first optical system OS1. A distance A up to 100 can be calculated.
  • the three-dimensional image generation unit 5 calculates the distance a to the subject 100 calculated by the distance calculation unit 4 and the two-dimensional image of the subject 100 acquired by the imaging unit S (the image signal of the first subject image or the second subject image). Based on the image signal), a three-dimensional image of the subject 100 is generated.
  • the “three-dimensional image of the subject 100” here refers to data in which the calculated distance “a” of the subject 100 is associated with the pixels of the color or black and white two-dimensional image of the normal subject 100.
  • the display unit 6 is a panel-type display unit such as a liquid crystal display unit, and is a two-dimensional image (first subject image image) of the subject 100 acquired by the imaging unit S in response to a signal from the processor of the control unit 2. Signal or image signal of the second subject image), a distance a to the subject 100 generated by the distance calculation unit 4, an image such as a three-dimensional image of the subject 100 generated by the three-dimensional image generation unit 5, and distance measurement Information for operating the camera 1 is displayed on the display unit 6 in the form of characters or images.
  • the operation unit 7 is used by the user of the ranging camera 1 to execute an operation.
  • the operation unit 7 is not particularly limited as long as the user of the ranging camera 1 can perform the operation.
  • a mouse, a keyboard, a numeric keypad, a button, a dial, a lever, a touch panel, or the like can be used as the operation unit 7. .
  • the operation unit 7 transmits a signal corresponding to an operation by the user of the distance measuring camera 1 to the processor of the control unit 2.
  • the communication unit 8 has a function of inputting data to the ranging camera 1 or outputting data from the ranging camera 1 to an external device.
  • the communication unit 8 may be connected to a network such as the Internet.
  • the distance measuring camera 1 can communicate with an external device such as a web server or a data server provided outside by using the communication unit 8.
  • the first optical system OS1 and the second optical system OS2 have the focal length f1 of the first optical system OS1 and the focal length of the second optical system OS2.
  • f 2 is different from each other (f 1 ⁇ f 2 ), so that the change in the magnification M 1 of the first subject image with respect to the distance to the subject 100 and the first relative to the distance to the subject 100 are configured.
  • the change in the magnification M2 of the two subject images is different from each other.
  • the distance measuring camera 1 of the present invention does not use parallel parallax between a plurality of images, and does not irradiate the subject 100 with a fixed pattern, and the magnification M1 of the first subject image and the second Based on the image magnification ratio MR (M 1 / M 2 ) with the magnification M 2 of the subject image, the distance a from the front principal point of the second optical system OS2 to the subject 100 (and the front side of the first optical system OS1).
  • the distance A) from the principal point to the subject 100 can be calculated (specified).
  • FIG. 7 is a block diagram schematically showing a distance measuring camera according to the second embodiment of the present invention.
  • the ranging camera 1 of the second embodiment will be described focusing on the differences from the ranging camera 1 of the first embodiment, and the description of the same matters will be omitted.
  • the distance measuring camera 1 of the present embodiment is the same as that of the first embodiment except that the configuration and arrangement of the first optical system OS1 and the second optical system OS2 are changed. The same as the camera 1.
  • the distance measuring camera 1 includes a first optical system among the first and second conditions required for calculating the distance a to the subject 100 based on the image magnification ratio MR.
  • the first optical so that the second condition that the depth parallax D in the optical axis direction exists between the front principal point of OS1 and the front principal point of the second optical system OS2 (D ⁇ 0) is satisfied.
  • the system OS1 and the second optical system OS2 are configured and arranged.
  • the first optical system OS1 and the second optical system OS2 satisfy the first condition (f 1 ⁇ f 2 ) among the first condition and the second condition described above. Is not configured.
  • the depth parallax D in the optical axis direction exists between the front principal point of the first optical system OS1 and the front principal point of the second optical system OS2. (D.noteq.0), and is arranged and arranged, whereby the change of the magnification M1 of the first subject image with respect to the distance to the subject 100 and the magnification M of the second subject image with respect to the distance to the subject 100.
  • the two changes are different from each other.
  • the distance measurement camera 1 of this embodiment based on Zobaihi MR (M 1 / M 2) between the magnification M 1 of the first object image and the magnification M 2 of the second subject image, second
  • the distance a from the front principal point of the optical system OS2 to the subject 100 can be uniquely calculated.
  • the distance measuring camera 1 of the present embodiment uses the above equation (3) to calculate the front principal point of the first optical system OS1 from the distance a from the front principal point of the second optical system OS2 to the subject 100. To the subject 100 can be calculated.
  • the same effects as those of the first embodiment described above can be exhibited.
  • the configuration of the first optical system OS1 and the configuration and arrangement of the second optical system OS2 in the present embodiment satisfy the above-described second condition (D ⁇ 0).
  • FIG. 8 is a block diagram schematically showing a distance measuring camera according to the third embodiment of the present invention.
  • the distance measuring camera 1 according to the third embodiment has a configuration in which the imaging unit S includes only the second imaging element S2, and the first optical system OS1 and the second optical system OS2 A first wavelength selection element WS1 that limits the wavelength of light that forms the first subject image is provided on the optical path of the light that forms the first subject image. And a second imaging element S2 in which a second wavelength selection element WS2 for limiting the wavelength of light forming the second subject image is provided on the optical path of the light forming the second subject image. Is the same as the ranging camera 1 of the first embodiment except that is limited to a color image sensor.
  • the first optical system OS1 and the second optical system OS2 are required to calculate the distance a to the subject 100 based on the image magnification ratio MR, and the first condition and the second condition described above. It is comprised so that at least 1 of these conditions may be satisfy
  • the first optical system OS1 and the second optical system OS2 are arranged in the same casing.
  • a first wavelength selection element WS1 is provided on the optical path of the light condensed by the first optical system OS1 and forming the first subject image.
  • a second wavelength selection element WS2 is provided on the optical path of the light that is condensed by the second optical system OS2 and forms the second subject image.
  • the first wavelength selection element WS1 is a wavelength selection plate type mirror, and has a function of selectively reflecting only light in a specific wavelength band.
  • the second wavelength selection element WS2 is a wavelength selection prism type mirror, restricts the wavelength band of light incident from one side of the prism, and selectively passes only light in the limited wavelength band; and And has a function of reflecting light incident from the other side of the prism.
  • the first wavelength selection element WS1 and the second wavelength selection element WS2 include a wavelength band of light limited by the first wavelength selection element WS1, and a wavelength band of light limited by the second wavelength selection element WS2. Are configured to be different.
  • the light from the subject 100 collected by the first optical system OS1 is reflected by the first wavelength selection element WS1 (wavelength selection plate type mirror). At this time, the wavelength band of the light collected by the first optical system OS1 is limited by the first wavelength selection element WS1. Thereafter, the light reflected by the first wavelength selection element WS1 is reflected by the second wavelength selection element WS2 (wavelength selection prism type mirror) and reaches the imaging surface of the second imaging element S2. Thereby, the first subject image is formed on the imaging surface of the second imaging element S2.
  • the second wavelength selection element WS2 further restricts the wavelength band of the light forming the first subject image when the light forming the first subject image is reflected by the second wavelength selection element WS2. You may be comprised so that it may not be restrict
  • the light from the subject 100 collected by the second optical system OS2 passes through the second wavelength selection element WS2 (wavelength selection prism type mirror).
  • the wavelength band of the light collected by the second optical system OS2 is limited by the second wavelength selection element WS2.
  • the light that has passed through the second wavelength selection element WS2 reaches the imaging surface of the second imaging element S2.
  • a second subject image is formed on the imaging surface of the second imaging element S2.
  • both the first subject image formed by the first optical system OS1 and the second subject image formed by the second optical system OS2 are the second image sensor S2. It is formed on the imaging surface. Furthermore, as described above, since the wavelength band of the light limited by the first wavelength selection element WS1 is different from the wavelength band of the light limited by the second wavelength selection element WS2, the first subject image is displayed. The wavelength band of the light to be formed and the wavelength band of the light forming the second subject image are different from each other.
  • the second image sensor S2 is a color image sensor having a color filter such as an RGB primary color filter or a CMY complementary color filter arranged in an arbitrary pattern such as a Bayer array.
  • the wavelength band of the light limited by the first wavelength selection element WS1 corresponds to any one of a plurality of color filters included in the second imaging element S2, and is limited by the second wavelength selection element WS2.
  • the wavelength band of the light corresponds to a different one of the plurality of color filters included in the second image sensor S2.
  • any one of image signals (for example, a red image signal, a green image signal, and a blue image signal) corresponding to each color filter acquired by the second image sensor S2 is an image of the first subject image.
  • the different one corresponds to the image signal of the second subject image. Therefore, the second image sensor S2 can separate and simultaneously acquire the image signal of the first subject image and the image signal of the second subject image.
  • the second imaging is performed.
  • the red image signal acquired by the element S2 becomes the image signal of the first subject image.
  • the wavelength band of the light limited by the second wavelength selection element WS2 corresponds to the transmission wavelength band of the green color filter of the plurality of color filters included in the second imaging element S2
  • the second imaging is performed.
  • the green image signal acquired by the element S2 becomes the image signal of the second subject image.
  • the imaging unit S is a single image that captures both the first subject image formed by the first optical system OS1 and the second subject image formed by the second optical system OS2.
  • a color image sensor (second image sensor S2) can be used. For this reason, it is possible to reduce the size and cost of the distance measuring camera 1.
  • a wavelength selection plate type mirror is used as the first wavelength selection element WS1
  • a wavelength selection prism type mirror is used as the second wavelength selection element WS2.
  • the present invention is not limited to this. Absent. If the first wavelength selection element WS1 and the second wavelength selection element WS2 can limit the wavelength band of the light forming the first subject image and the wavelength standby of the light forming the second subject image, respectively. Any aspect may be sufficient. For example, a wavelength selection filter or an arbitrary optical component having a wavelength selection function provided on the front side or the rear side of the first optical system OS1 is used as the first wavelength selection element WS1, and the second wavelength selection element WS2 is used.
  • a wavelength selection filter provided on the front side or the rear side of the second optical system OS2 or any optical component having a wavelength selection function may be used.
  • a normal mirror is disposed at a position where the first wavelength selection element WS1 of the present embodiment is disposed, and a normal prism type mirror is disposed at a position where the second wavelength selection element WS2 is disposed.
  • a single imaging element (second imaging element S2) is formed by the first optical system OS1 using the first wavelength selection element WS1 and the second wavelength selection element WS2.
  • the present invention is not limited to this.
  • a shutter is provided in front of each of the first optical system OS1 and the second optical system OS2, and a shutter provided in front of the first optical system OS1 and in front of the second optical system OS2.
  • a mode in which a single image pickup device (second image pickup device S2) individually picks up both the first subject image and the second subject image by alternately opening the shutters is also within the scope of the present invention. Is within.
  • the distance measuring camera 1 of the present invention does not use parallel parallax between a plurality of images and does not irradiate a subject with a certain pattern.
  • the distance a to the object 100 can be uniquely calculated.
  • the distance measuring camera 1 does not need to ensure a large parallel parallax, unlike a stereo camera type distance measuring camera using parallel parallax between a plurality of images, and therefore the first optical system OS1. Even if the second optical system OS2 is arranged close to each other in the parallel direction orthogonal to the optical axis direction, the distance a to the subject 100 can be accurately calculated. Thereby, compared with the conventional stereo camera-type distance measuring camera, the size of the distance measuring camera 1 can be reduced. In addition, since it becomes unnecessary to design the ranging camera 1 in consideration of parallel parallax, the degree of freedom in designing the ranging camera 1 can be increased. In the distance measuring camera 1 of the present invention, since the parallel parallax is not used to calculate the distance a to the subject 100, even when the subject 100 is very close to the distance measuring camera 1, The distance a to the subject 100 can be accurately measured.
  • the distance measuring camera 1 of the present invention unlike a pattern irradiation type distance measuring camera, it is not necessary to use a special light source such as a projector that irradiates a subject with light of a certain pattern. Therefore, the system configuration of the ranging camera 1 can be simplified. As a result, the distance measuring camera 1 can be reduced in size, weight, power consumption, and cost as compared with a conventional pattern irradiation distance measuring camera.
  • the distance measuring camera 1 according to the present invention does not need to use a special light source for irradiating light with a wavelength outside visible light unlike a conventional pattern irradiation type distance measuring camera, and thus performs normal photographing. You can also
  • the magnification M1 of the first subject image formed by the first optical system OS1 and the magnification M of the second subject image formed by the second optical system OS2 are used. based on the second image magnification ratio MR (M 1 / M 2) , and calculates the distance a to the object 100. Therefore, if various parameters (for example, focal length, distance from the exit pupil to the imaging surface of the imaging device) of each optical system and the imaging unit are known, even if these parameters are uneven, The distance a can be calculated. In other words, the first optical system OS1 and the second optical system OS2 have different characteristics (for example, different focal lengths, front principal point positions, rear principal point positions, etc.). However, according to the present invention, the distance a to the subject 100 can be calculated using the image magnification ratio between the subject images formed by the optical systems having such different characteristics.
  • a wide-angle and low-magnification fixed-focus optical system used for wide-angle photography and a narrow-angle and high-magnification autofocus optical system used for zoom photography have mutual characteristics. Imaging systems using different optical systems are widely used.
  • the present invention can also be applied to imaging systems that are widely used in such existing portable devices. By applying the present invention to an existing imaging system using optical systems having different characteristics, the distance a to the subject 100 can be measured and the three-dimensional of the subject 100 can be measured without greatly changing the configuration of the existing portable device. It is possible to generate an image (measure the shape of the subject 100).
  • the measurement of the distance a to the subject 100 and the generation of the three-dimensional image of the subject 100 can be performed without obstructing the wide-angle photographing and the zoom photographing provided by the known imaging system. Shape measurement) can be performed. Therefore, the ranging camera 1 of the present invention has versatility that is not found in the ranging camera in the prior art.
  • the two optical systems, the first optical system OS1 and the second optical system OS2 are used, but the number of optical systems used is not limited to this.
  • an additional optical system is further provided in addition to the first optical system OS1 and the second optical system OS2 is also within the scope of the present invention.
  • additional optics changes to the distance to the magnification object 100 of the object image formed by an additional optical system, changes to the distance to the object magnification M 1 of the first object image and changes are constructed and arranged so as to be different with respect to the distance to the object of the magnification M 2 of the second object image.
  • the first condition and the second condition described above that are required to calculate the distance a to the subject 100 based on the image magnification ratio MR are satisfied.
  • the first optical system OS1 and the second optical system OS2 are configured and arranged, the first optical system OS1 and the second optical system OS2 are configured so that both the first condition and the second condition described above are satisfied.
  • a mode in which the optical system OS2 is configured and arranged (for example, the configuration and arrangement of the first optical system OS1 and the second optical system OS2 as shown in FIG. 3) is also within the scope of the present invention.
  • FIG. 9 is a flowchart for explaining a distance measuring method executed by the distance measuring camera of the present invention.
  • the distance measuring method described in detail below is executed by using the distance measuring camera 1 according to the above-described first to third embodiments of the present invention and any device having the same function as the distance measuring camera 1. However, for the sake of explanation, the description will be made assuming that the distance measuring camera 1 according to the first embodiment is used.
  • the distance measuring method S100 shown in FIG. 9 is started when the user of the distance measuring camera 1 uses the operation unit 7 to execute an operation for measuring the distance a to the subject 100.
  • the first imaging element S1 of the imaging unit S captures the first subject image formed by the first optical system OS1, and acquires the image signal of the first subject image.
  • the image signal of the first subject image is sent to the control unit 2 and the distance calculation unit 4 via the data bus 9.
  • the distance calculation unit 4 calculates the actual size (image height or image width) Sz1 of the first subject image from the received image signal of the first subject image.
  • step S130 the lens driving unit AF is driven in accordance with control from the processor of the control unit 2, and the focusing operation of the second optical system OS2 for focusing on the subject 100 is executed. Thereafter, the second imaging element S2 of the imaging unit S captures the second subject image formed by the second optical system OS2, and acquires the image signal of the second subject image. The image signal of the second subject image is sent to the control unit 2 and the distance calculation unit 4 via the data bus 9. In step S140, the distance calculation unit 4 calculates the actual size (image height or image width) Sz2 of the second subject image from the received image signal of the second subject image.
  • the acquisition of the image signal of the first subject image in step S110 and step S120 and the calculation of the actual size Sz1 of the first subject image are the acquisition of the image signal of the second subject image in step S130 and step S140.
  • the actual size Sz2 of the second subject image may be executed simultaneously or separately.
  • the distance calculation unit 4 refers to the association information stored in the association information storage unit 3 and calculates the distance a to the subject 100 based on the calculated image magnification ratio MR ( Identify. Specifically, when the image magnification ratio MR is calculated, the distance calculation unit 4 includes the general formulas (23) and (24) included in the association information stored in the association information storage unit 3 and the With reference to the fixed value in the equation, two solutions for distance a are obtained. Thereafter, the distance calculation unit 4 uses one or both of the two solutions for the distance a (distance) using the method for determining which of the two solutions for the distance a is appropriate as the distance a.
  • step S160 the distance calculation unit 4 uses the above equation (3) to calculate the front side of the first optical system OS1 from the calculated distance a from the front principal point of the second optical system OS2 to the subject 100.
  • a distance A from the principal point to the subject 100 may be further calculated.
  • step S170 the three-dimensional image generation unit 5 calculates the distance a from the front principal point of the second optical system OS2 calculated by the distance calculation unit 4 to the subject 100 and the two-dimensional image of the subject 100 acquired by the imaging unit S. Based on the image signal of the first subject image or the image signal of the second subject image, a three-dimensional image of the subject 100 is generated. Thereafter, the two-dimensional image of the subject 100, the distance a to the subject 100, and / or the three-dimensional image of the subject 100 acquired in the steps so far are displayed on the display unit 6, or are displayed on the external device by the communication unit 8.
  • the distance measurement method S100 ends.
  • the distance measuring camera of the present invention has been described based on the illustrated embodiment, but the present invention is not limited to this.
  • the configuration of each component of the present invention can be replaced with any component that can exhibit the same function, or an arbitrary configuration can be added to the configuration of the present invention.
  • each component of the ranging camera 1 may be realized by hardware, may be realized by software, or may be realized by a combination thereof.
  • the number and types of steps of the distance measuring method S100 shown in FIG. 9 are merely illustrative examples, and the present invention is not necessarily limited thereto. It is also within the scope of the present invention that any step can be added or combined for any purpose or any step can be deleted without departing from the principle and intention of the present invention.
  • the usage example of the distance measuring camera 1 of the present invention is not particularly limited.
  • the distance measuring camera 1 can be used to capture the portrait of the subject and acquire a three-dimensional image of the face of the subject.
  • the distance measuring camera 1 of the present invention can be used in a handler robot used for assembly and inspection of precision equipment. According to the distance measuring camera 1, when assembling a precision device, the distance from the handler robot body or the arm of the handler robot to the precision device or the parts of the precision device can be measured. It is possible to grip the part.
  • the distance measuring camera 1 of the present invention since the distance to the subject can be measured, the three-dimensional information of the subject can be acquired. Such three-dimensional information of the subject can be used for producing a three-dimensional structure by a 3D printer.
  • the distance camera 1 of the present invention can be used to measure the distance from the automobile to an arbitrary object such as a pedestrian or an obstacle.
  • Information about the calculated distance to an arbitrary object can be used for an automatic braking system or an automatic driving of an automobile.
  • the distance measuring camera of the present invention uses two optical systems configured such that the change in magnification of the subject image according to the distance to the subject is different from each other, and the two subject images respectively formed by the two optical systems. Based on the image magnification ratio (magnification ratio), the distance to the subject can be measured. Therefore, unlike the conventional stereo camera ranging camera using parallel parallax between a plurality of images, the distance measuring camera of the present invention does not need to secure a large parallel parallax. Even if they are arranged close to each other in the parallel direction orthogonal to the axial direction, the distance to the subject can be accurately calculated. This makes it possible to reduce the size of the distance measuring camera as compared with the conventional stereo camera type distance measuring camera.
  • the distance measuring camera of the present invention does not use parallel parallax to calculate the distance to the subject, the distance to the subject is set even if the subject is very close to the distance measuring camera. It can be measured accurately.
  • the distance measuring camera of the present invention unlike a conventional pattern irradiation type distance measuring camera, it is not necessary to use a special light source such as a projector that irradiates a subject with a fixed pattern of light. Therefore, the system configuration of the ranging camera can be simplified. As a result, the distance measuring camera can be reduced in size, weight, power consumption, and cost as compared with a conventional pattern irradiation distance measuring camera.
  • the distance measuring camera of the present invention does not require the use of a special light source for irradiating light with a wavelength outside visible light unlike a conventional pattern irradiation type distance measuring camera, and thus performs normal photographing. You can also Therefore, the present invention has industrial applicability.

Abstract

測距カメラ1は、被写体100からの光を集光し、第1の被写体像を形成するための第1の光学系OS1と、被写体100からの光を集光し、第2の被写体像を形成するための第2の光学系OS2と、第1の光学系OS1によって形成された第1の被写体像および第2の光学系OS2によって形成された第2の被写体像を撮像するための撮像部Sと、撮像部Sによって撮像された第1の被写体像および第2の被写体像に基づいて、被写体100までの距離を算出するための距離算出部4と、を備える。距離算出部4は、第1の被写体像の倍率と第2の被写体像の倍率との像倍比に基づいて、被写体100までの距離を算出する。

Description

測距カメラ
 本発明は、一般に、被写体までの距離を測定するための測距カメラに関し、より具体的には、被写体までの距離に応じた被写体像の倍率の変化が互いに異なる少なくとも2つの光学系によって形成された少なくとも2つの被写体像の像倍比に基づいて、被写体までの距離を測定する測距カメラに関する。
 近年、被写体を撮像することにより、被写体までの距離を測定する測距カメラが提案されている。このような測距カメラとしては、被写体からの光を集光し、被写体像を形成するための光学系と、該光学系によって形成された被写体像を画像信号に変換するための撮像素子とを2対以上備えるステレオカメラ方式の測距カメラや、被写体に対して一定パターン(例えば、格子パターン)の光を照射するためのプロジェクターと、一定パターンの光が照射された被写体を撮像するための撮像系とを備えるパターン照射式の測距カメラが知られている(例えば、特許文献1参照)。
 ステレオカメラ方式の測距カメラでは、光学系と撮像素子の組み合わせを2対以上用いることにより、異なる平行視差を有する複数の画像を取得し、取得した複数の画像間の平行視差に基づいて、被写体までの距離を算出する。複数の画像間の平行視差に基づいて被写体までの距離を正確に算出するためには、大きな平行視差を取得する必要がある。そのため、1つの測距カメラ内において、2つ以上の光学系を、光軸方向と直交する平行方向にそれぞれ大きく離間して配置する必要があり、測距カメラのサイズが増大してしまう。また、ステレオカメラ方式の測距カメラでは、被写体が測距カメラから非常に近い位置にある場合、得られる画像の視野の関係から、算出するための被写体像の特徴点が一方の画像内には写っているが、他方の画像内では写っていないという状況が発生してしまう。この状況を避けるためには、2つの光学系を近接して配置する必要がある。しかしながら、2つの光学系を近接して配置すると被写体像間の平行視差が小さくなってしまい、測距の精度が低下する。そのため、被写体像間の平行視差に基づく測距を用いて、近距離に位置する被写体までの距離を算出することが困難であるという問題があった。
 パターン照射方式の測距カメラでは、被写体に対して一定パターンの光を照射し、被写体に投影された一定パターンの歪みを解析することにより被写体までの距離を測定している。そのため、パターン照射方式の測距カメラでは、被写体に対して一定パターンの光を照射するためのプロジェクターが必要となり、測距カメラの構成が大規模になってしまう。また、一般的に被写体に対して照射する一定パターンの光は、可視光外の波長の光であるため、パターン照射方式の測距カメラでは、特殊な光源が必要となり、通常の撮影用には使用が困難である。
特開2013-190394号公報
 本発明は、上記従来の問題点を鑑みたものであり、その目的は、複数の画像間の平行視差を用いず、かつ、被写体への一定パターンの照射を行わずに、被写体までの距離を算出することが可能な測距カメラを提供することにある。
 このような目的は、以下の(1)~(9)の本発明により達成される。
 (1)被写体からの光を集光し、第1の被写体像を形成するための第1の光学系と、
 前記被写体からの前記光を集光し、第2の被写体像を形成するための第2の光学系と、
 前記第1の光学系によって形成された前記第1の被写体像および前記第2の光学系によって形成された前記第2の被写体像を撮像するための撮像部と、
 前記撮像部によって撮像された前記第1の被写体像および前記第2の被写体像に基づいて、前記被写体までの距離を算出するための距離算出部と、を備え、
 前記距離算出部は、前記第1の被写体像の倍率と前記第2の被写体像の倍率との像倍比に基づいて、前記被写体までの前記距離を算出することを特徴とする測距カメラ。
 (2)前記第1の光学系は、固定焦点光学系であり、
 前記第2の光学系は、前記第2の光学系を構成するレンズの少なくとも1つが駆動可能に構成された自動焦点光学系である上記(1)に記載の測距カメラ。
 (3)前記第1の光学系および前記第2の光学系は、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の変化と異なるように構成されている上記(1)または(2)に記載の測距カメラ。
 (4)前記第1の光学系および前記第2の光学系は、前記第1の光学系の焦点距離と、前記第2の光学系の焦点距離とが、互いに異なるよう構成されており、これにより、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の前記変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の前記変化と異なるようになっている上記(3)に記載の測距カメラ。
 (5)前記第1の光学系の前側主点と前記第2の光学系の前側主点との間に光軸方向の奥行視差が存在し、これにより、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の前記変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の前記変化と異なるようになっている上記(3)または(4)に記載の測距カメラ。
 (6)前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、前記被写体までの前記距離とを関連付ける関連付情報を記憶している関連付情報記憶部をさらに備え、
 前記距離算出部は、前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、前記関連付情報記憶部内の前記関連付情報とに基づいて、前記被写体までの前記距離を算出する上記(1)ないし(5)のいずれかに記載の測距カメラ。
 (7)前記距離算出部は、前記第1の被写体像のサイズと前記第2の被写体像のサイズとの比を、前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比として算出する上記(1)ないし(6)のいずれかに記載の測距カメラ。
 (8)前記撮像部は、前記第1の被写体像および前記第2の被写体像の双方を撮像する単一の撮像素子である上記(1)ないし(7)のいずれかに記載の測距カメラ。
 (9)前記第1の被写体像を形成する前記光の光路上に設けられ、前記第1の被写体像を形成する前記光の波長を制限する第1の波長選択素子と、前記第2の被写体像を形成する前記光の光路上に設けられ、前記第2の被写体像を形成する前記光の波長を制限する第2の波長選択素子と、をさらに備え、
 前記第1の波長選択素子によって制限された前記第1の被写体像を形成する前記光の波長帯域と、前記第2の波長選択素子によって制限された前記第2の被写体像を形成する前記光の波長帯域とは異なっている上記(8)に記載の測距カメラ。
 本発明の測距カメラでは、被写体までの距離に応じた被写体像の倍率の変化が互いに異なるよう構成された2つの光学系を用い、該2つの光学系によってそれぞれ形成された2つの被写体像の像倍比(倍率の比)に基づいて、被写体までの距離を測定することができる。そのため、本発明の測距カメラでは、従来の複数の画像間の平行視差を用いたステレオカメラ方式の測距カメラと異なり、大きな平行視差を確保する必要がないため、2つの光学系を、光軸方向と直交する平行方向において近接して配置しても、被写体までの距離を正確に算出することができる。これにより、従来のステレオカメラ方式の測距カメラと比較して、測距カメラの小型化を実現することができる。また、本発明によれば、平行視差を考慮して測距カメラを設計する必要がなくなるため、測距カメラの設計の自由度を増大させることができる。また、本発明の測距カメラでは、被写体までの距離を算出するために平行視差を用いていないため、被写体が測距カメラから非常に近い位置にある場合であっても、被写体までの距離を正確に測定することができる。
 また、本発明の測距カメラでは、従来のパターン照射方式の測距カメラと異なり、一定パターンの光を被写体に照射するプロジェクター等の特殊な光源を用いる必要がない。そのため、測距カメラのシステム構成をシンプルにすることができる。これにより、従来のパターン照射方式の測距カメラと比較して、測距カメラの小型化、軽量化、低消費電力化、および低コスト化を実現することができる。また、本発明の測距カメラでは、従来のパターン照射方式の測距カメラと異なり、可視光外の波長の光を照射するための特殊な光源を用いる必要がないため、通常の撮影を実行することもできる。
図1は、本発明の測距カメラの測距原理を説明するための図である。 図2は、本発明の測距カメラの測距原理を説明するための図である。 図3は、本発明の測距カメラの測距原理を説明するための図である。 図4は、非合焦状態で撮像された第1の被写体像の倍率と、合焦状態で撮像された第1の被写体像の倍率との関係を説明するための図である。 図5は、図3に示す第1の光学系によって形成される第1の被写体像の倍率と、図2に示す第2の光学系によって形成される第2の被写体像の倍率との像倍比が、被写体までの距離に応じて変化することを説明するためのグラフである。 図6は、本発明の第1実施形態に係る測距カメラを概略的に示すブロック図である。 図7は、本発明の第2実施形態に係る測距カメラを概略的に示すブロック図である。 図8は、本発明の第3実施形態に係る測距カメラを概略的に示すブロック図である。 図9は、本発明の測距カメラによって実行される測距方法を説明するためのフローチャートである。
 最初に、本発明の測距カメラにおいて用いられている、被写体までの距離を算出するための測距原理について説明する。
 最初に、図1に示すように、第1の撮像系IS1および第2の撮像系IS2を用いて、無限遠に位置する被写体100を撮像する場合を考える。第1の撮像系IS1は、被写体100からの光を集光して、第1の被写体像を形成するための第1の光学系OS1と、第1の光学系OS1によって形成された第1の被写体像を撮像するための第1の撮像素子S1とを備えている。第1の光学系OS1は、固定焦点光学系であり、第1の光学系OS1のフォーカス動作は実行不可能に構成されている。そのため、第1の撮像系IS1は、固定焦点撮像系であり、第1の撮像系IS1の合焦位置は、第1の撮像系IS1の構成時に設定される第1の光学系OS1と第1の撮像素子S1との離間距離によって決定される。図1に示す例では、第1の光学系OS1および第1の撮像素子S1は、無限遠にピントが合うように構成および配置されている。
 第2の撮像系IS2は、被写体100からの光を集光して、第2の被写体像を形成するための第2の光学系OS2と、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)を駆動することにより、第2の光学系OS2のフォーカス動作(または、オートフォーカス動作)を実行するためのレンズ駆動部AFと、第2の光学系OS2によって形成された第2の被写体像を撮像するための第2の撮像素子S2とを備えている。第2の光学系OS2は、自身を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)が駆動可能に構成された自動焦点光学系であり、レンズ駆動部AFによるフォーカス動作が実行可能となっている。
 第2の光学系OS2および第2の撮像素子S2は、レンズ駆動部AFが第2の光学系OS2を構成するレンズの少なくとも1つを駆動する(繰り出す)ことによるフォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されている。図1に示す例では、第2の撮像系IS2のピントが無限遠に位置する被写体100に合わせられている。また、図1から明らかなように、第1の撮像素子S1の第1の光学系OS1の光軸と、第2の撮像素子S2の第2の光学系OS2の光軸は、平行であるが、一致していない。なお、図示の形態では、説明の簡略化のため、第1の光学系OS1は、第1の光学系OS1の後側主点が、第1の光学系OS1の中心位置にあるものとして概略的に示されており、同様に、第2の光学系OS2は、第2の光学系OS2の後側主点が、第2の光学系OS2の中心位置にあるものとして概略的に示されている。
 図1のように、同一の被写体距離にある被写体100を、第1の撮像系IS1および第2の撮像系IS2で撮像すると、第1の光学系OS1および第2の光学系OS2の焦点距離等に関わらず、第1の光学系OS1の前側主点から被写体100までの距離と、第2の光学系OS2の前側主点から被写体100までの距離とは、互いに等しくなる。
 図1に示すように、被写体100が無限遠に位置し、さらに、第1の撮像系IS1および第2の撮像系IS2のピントが無限遠に合っている場合、第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの距離は、第1の光学系OS1の焦点距離fと等しくなり、さらに、第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの距離は、第2の光学系OS2の焦点距離fと等しくなる。
 一方、第1の撮像系IS1のような固定焦点撮像系は、被写界深度を有効に使うためや、所望の距離に位置する被写体100を撮像する場合に、予め設定された任意の距離にピントが合うように構成されることがある。このように、任意の距離にピントが合うように構成された固定焦点撮像系である第1の撮像系IS1と、フォーカス動作(オートフォーカス動作)を実行可能な自動焦点撮像系である第2の撮像系IS2とを用いて、無限遠に位置する被写体100を撮像する場合を考える。図2には、任意の距離にピントが合うよう構成された第1の撮像系IS1と、第2の撮像系IS2とを用いて、無限遠に位置する被写体100を撮像する場合の例が示されている。
 図2に示す状態では、第1の撮像系IS1は、任意の距離にピントが合うよう構成されているので、第1の撮像系IS1の前側主点の位置は、第1の撮像系IS1が無限遠にピントが合うよう構成された場合の前側主点の位置よりも、被写体100側に、dFCだけシフトしている。また、第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの距離は、第1の光学系OS1の焦点距離fよりも長くなっている。そのため、図2に示す状態において、第1の撮像系IS1は、非合焦状態で被写体100の撮像を実行する。一方、第2の撮像系IS2のピントは、無限遠に合っている。そのため、図2に示す状態において、第2の撮像系IS2は、合焦状態で被写体100の撮像を実行する。なお、図2中において、EPは、第1の光学系OS1の射出瞳から、無限遠に位置する被写体100の第1の被写体像の結像位置までの距離である。
 この場合、同一の被写体100を撮像しているにも関わらず、第1の光学系OS1の前側主点から被写体100までの距離(被写体距離)Aと、第2の光学系OS2の前側主点から被写体100までの距離(被写体距離)aは、一致しない。この2つの距離A、aの関係は、下記式(1)で表すことができる。
Figure JPOXMLDOC01-appb-M000001
 次に、任意の距離にピントが合うよう構成された第1の撮像系IS1と、第2の撮像系IS2とを用いて、第1の光学系OS1の前側主点から距離Aだけ離れて位置(第2の光学系OS2の前側主点から距離aだけ離れて位置)する被写体100を撮像する場合を考える。図3には、任意の距離にピントが合うよう構成された第1の撮像系IS1と、第2の撮像系IS2を用いて、第1の光学系OS1の前側主点から距離Aだけ離れて位置(第2の光学系OS2の前側主点から距離aだけ離れて位置)する被写体100を撮像する場合の例が示されている。
 この場合、第1の撮像系IS1の合焦距離に、被写体100が位置していなければ、第1の撮像系IS1は、非合焦状態で被写体100の撮像を実行する。一方、第2の撮像系IS2では、レンズ駆動部AFによって第2の光学系OS2を構成するレンズの少なくとも1つが被写体100側に、シフト量Δbだけ繰り出され、第2の光学系OS2のフォーカス動作(オートフォーカス動作)が実行される。そのため、第2の撮像系IS2は、合焦状態で被写体100の撮像を実行する。なお、レンズ駆動部AFによって第2の光学系OS2を構成するレンズの少なくとも1つが被写体100側に繰り出され、第2の光学系OS2のフォーカス動作が実行される際、第2の光学系OS2の前側主点の位置が、被写体100側に、sだけシフトする。そのため、第2の光学系OS2の前側主点から被写体100までの距離は、第2の光学系OS2のフォーカス動作実行前からシフト量sだけ少なくなる。このように、第2の光学系OS2の前側主点から被写体100までの距離は、第2の光学系OS2のフォーカス動作実行によってシフト量sだけ変動するが、一度第2の光学系OS2のフォーカス動作実行が実行され、被写体100に対してピントが合わせられると、第2の光学系OS2の前側主点から被写体100までの距離は、固定される。
 この第2の光学系OS2の前側主点の位置のシフト量sおよび第2の光学系OS2を構成するレンズの少なくとも1つのシフト量Δbは、被写体100の位置と、第2の光学系OS2の焦点距離fとの関係によって決定される。なお、図3中において、Dは、第1の光学系OS1の前側主点と、第2の光学系OS2の前側主点との間の光軸方向の奥行視差である。
 この場合も図2に示す場合と同様に、同一の被写体100を撮像しているにも関わらず、第1の光学系OS1の前側主点から被写体100までの距離Aと、第2の光学系OS2の前側主点から被写体100までの距離aは、一致しない。この2つの距離A、aの関係は、下記式(2)で表すことができる。
Figure JPOXMLDOC01-appb-M000002
 また、第1の撮像系IS1の前側主点の位置のシフト量は、第1の光学系OS1と第1の撮像素子S1間の距離の変更による第1の撮像系IS1の合焦距離の調整以外の要因、例えば、第1の撮像系IS1の位置の変更によっても、変化する。第1の光学系OS1と第1の撮像素子S1間の距離の変更による第1の撮像系IS1の合焦距離の調整以外の要因を考慮した場合、上記式(2)は、下記式(3)のように表すことができる。
Figure JPOXMLDOC01-appb-M000003
 ここで、dFCは、第1の光学系OS1と第1の撮像素子S1間の距離の変更による第1の撮像系IS1の合焦距離の調整により生じた第1の光学系OS1の前側主点の位置のシフト量であり、dは、第1の撮像系IS1の合焦距離の調整以外の要因により生じた第1の光学系OS1の前側主点の位置のシフト量であり、dallは、第1の光学系OS1の前側主点の位置のシフト量の総量であり、dall=dFC+dで表される。
 一方、第2の撮像系IS2の第2の光学系OS2の前側主点のシフト量sは、レンズの公式から、下記式(4)で表すことができる。
Figure JPOXMLDOC01-appb-M000004
 第1の光学系OS1は、固定焦点光学系であるため、第1の撮像系IS1の合焦距離は、第1の撮像系IS1の構成時に固定される。そのため、被写体100が第1の撮像系IS1の合焦距離に位置している場合以外は、第1の撮像系IS1は、非合焦状態で被写体100の撮像を実行する。
 このような非合焦状態で撮像された被写体100の第1の被写体像の倍率Mは、合焦状態で撮像された被写体100の第1の被写体像の倍率mとは異なるものとなる。図4には、非合焦状態で撮像された被写体100の第1の被写体像の倍率Mと、合焦状態で撮像された被写体100の第1の被写体像の倍率mとの関係を説明するための図が示されている。
 図4には、第1の光学系OS1の焦点距離f、第1の光学系OS1の射出瞳から、被写体100が無限遠に存在する場合の第1の被写体像の結像位置までの距離EP、第1の光学系OS1の射出瞳から、被写体100が距離Aに存在する場合の第1の被写体像の結像位置までの距離EPOD1、および第1の光学系OS1の射出瞳から、第1の撮像素子S1の撮像面までの距離EPFD1が示されている。
 第1の光学系OS1の前側主点から距離Aだけ離れて位置(第2の光学系OS2の前側主点から距離aだけ離れて位置)する被写体100の第1の被写体像は、図4中の結像位置(Focal Plane)において合焦状態となり、それ以外の箇所、例えば、第1の撮像素子S1の撮像面上において非合焦状態となる。合焦状態の第1の被写体像のサイズと、非合焦状態の第1の被写体像のサイズとの比は、図4中の射出瞳を頂点とする2つの直角三角形の相似関係から、EPFD1/EPOD1で得ることができる。非合焦状態で撮像された被写体100の第1の被写体像の倍率Mと合焦状態で撮像された被写体100の第1の被写体像の倍率mとの比も、EPFD1/EPOD1になるので、非合焦状態で撮像された被写体100の第1の被写体像の倍率Mは下記式(5)で表すことができる。
Figure JPOXMLDOC01-appb-M000005
 また、合焦状態で撮像された被写体100の第1の被写体像の倍率mは、レンズの公式から、下記式(6)で表すことができる。
Figure JPOXMLDOC01-appb-M000006
 また、第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの距離は、レンズの公式から、(1/f-1/FC-1で表すことができる。ここで、FCは、第1の撮像系IS1の合焦距離を調整する際に用いられた任意の被写体距離(焦点調整距離)である。すなわち、被写体100が、第1の光学系OS1の前側主点から距離FCだけ離れて位置する場合、合焦状態の第1の被写体像が第1の撮像素子S1の撮像面上に形成される。そうすると、図4に示す位置関係から、第1の光学系OS1の射出瞳から、第1の撮像素子S1の撮像面までの距離EPFD1を下記式(7)で表すことができる。
Figure JPOXMLDOC01-appb-M000007
 さらに、第1の光学系OS1の後側主点から被写体100の第1の被写体像の結像位置までの距離は、レンズの公式から、(1/f-1/A)-1で表すことができる。そうすると、図4に示す位置関係から、第1の光学系OS1の射出瞳から、被写体100が距離Aに存在する場合の第1の被写体像の結像位置までの距離EPOD1を下記式(8)で表すことができる。
Figure JPOXMLDOC01-appb-M000008
 さらに、上記式(6)~(8)を用いて、非合焦状態で撮像された第1の被写体像の倍率Mについての上記式(5)を変形すると、下記式(9)を得ることができる。
Figure JPOXMLDOC01-appb-M000009
 図3に戻り、第2の光学系OS2によって形成される第2の被写体像の倍率Mを考える。上述のように、第2の撮像系IS2の第2の光学系OS2は、自動焦点光学系であり、レンズ駆動部AFは、第2の光学系OS2のフォーカス動作を実行可能である。したがって、第2の撮像系IS2が、第2の光学系OS2の前側主点から距離aだけ離れて位置する被写体100を撮像する際、レンズ駆動部AFによって第2の光学系OS2のフォーカス動作が実行され、第2の撮像系IS2のピントが距離aに位置する被写体100に合う。このように、第2の撮像系IS2は自動焦点撮像系であるため、第2の撮像系IS2は、合焦状態で、第2の光学系OS2の前側主点から距離aだけ離れて位置する被写体100を撮像する。
 合焦状態で撮像された被写体100の第2の被写体像の倍率Mは、レンズの公式から、下記式(10)で表すことができる。
Figure JPOXMLDOC01-appb-M000010
 したがって、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像の倍率Mと、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像の倍率Mとの像倍比MRは、下記式(11)で表すことができる。
Figure JPOXMLDOC01-appb-M000011
 さらに、下記式(12)~(14)で表される関係式を上記式(11)に代入すると、像倍比MRについての下記式(15)を得ることができる。
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
Figure JPOXMLDOC01-appb-M000015
 さらに、上記式(3)で表される第1の光学系OS1の前側主点から被写体100までの距離Aについての関係式A=a+s-dallを上記式(15)に代入すると、像倍比MRについての下記式(16)を得ることができる。
Figure JPOXMLDOC01-appb-M000016
 ここで、上記式(16)から、第2の光学系OS2の前側主点から被写体100までの距離aについての下記式(17)を得ることができる。
Figure JPOXMLDOC01-appb-M000017
 さらに、下記式(18)および(19)で表される関係式を上記(17)に代入すると、第2の光学系OS2の前側主点から被写体100までの距離aについての下記式(20)を得ることができる。
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
Figure JPOXMLDOC01-appb-M000020
 さらに、上記式(20)に、上記式(4)で表される第2の光学系OS2の前側主点のシフト量sについての関係式s=-f /(f-a)を代入すると、第2の光学系OS2の前側主点から被写体100までの距離aについての下記式(21)を得ることができる。
Figure JPOXMLDOC01-appb-M000021
 さらに、上記式(21)を、距離aについて整理すると、下記式(22)で表される距離aについての二次方程式を得ることができる。
Figure JPOXMLDOC01-appb-M000022
 上記式(22)の二次方程式を解くと、下記一般式(23)および(24)で表される距離aについての2つの解が得られる。
Figure JPOXMLDOC01-appb-M000023
Figure JPOXMLDOC01-appb-M000024
 上記一般式(23)および(24)によって表される距離aについての2つの解の内、いずれの解が距離aとして適当であるかは、以下の方法によって判別される。
 まず、上記一般式(23)によって表される解と、上記一般式(24)によって表される解が共に正の値であり、かつ、互いに等しい場合、両方の解が距離aとして適当となる。一方、上記一般式(23)によって表される解と、上記一般式(24)によって表される解とが一致しない場合は、以下の手順により、上記一般式(23)および(24)で得られる2つの解の内、いずれが距離aとして適当であるかが判別される。
 まず、上記一般式(23)で得られる解を用いて、第1の被写体像の倍率Mおよび第2の被写体像の倍率Mを計算する。次に、上記一般式(23)で得られる解を用いて計算された第1の被写体像の倍率Mおよび第2の被写体像の倍率Mから、第1の被写体像のサイズと、第2の被写体像のサイズを算出する。さらに、ここで得られた第1の被写体像のサイズと、第2の被写体像のサイズとの差分ΔSz1(以下、第1のサイズ差分ΔSz1という)を得る。
 次に、上記一般式(24)で得られる解を用いて、第1の被写体像の倍率Mおよび第2の被写体像の倍率Mを計算する。次に、上記一般式(24)で得られる解を用いて計算された第1の被写体像の倍率Mおよび第2の被写体像の倍率Mから、第1の被写体像のサイズと、第2の被写体像のサイズを算出する。さらに、ここで得られた第1の被写体像のサイズと、第2の被写体像のサイズとの差分ΔSz2(以下、第2のサイズ差分ΔSz2という)を得る。
 一方、後述するように、第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzは、第1の撮像素子S1および第2の撮像素子S2が第1の被写体像および第2の被写体像を撮像することにより取得される、第1の被写体像の画像信号および第2の被写体像の画像信号から算出することができる。そのため、第1の被写体像の画像信号および第2の被写体像の画像信号から、算出された第1の被写体像の実際のサイズSzと、第2の被写体像の実際のサイズSzを取得し、その差分ΔSz3(以下、実際のサイズ差分ΔSz3)を得る。
 上記一般式(23)および(24)によって表される距離aについての2つの解の内、距離aとして適当な一方を用いて算出された第1の被写体像のサイズと、第2の被写体像のサイズとの差分(第1のサイズ差分ΔSz1および第2のサイズ差分ΔSz2のいずれか一方)は、第1の被写体像の画像信号および第2の被写体像の画像信号から算出された第1の被写体像の実際のサイズSzと、第2の被写体像の実際のサイズSzの差分(実際のサイズ差分ΔSz3)と等しくなる。
 一方、上記一般式(23)および(24)によって表される距離aについての2つの解の内、距離aとして不適当な一方を用いて算出された第1の被写体像のサイズと、第2の被写体像のサイズとの差分(第1のサイズ差分ΔSz1および第2のサイズ差分ΔSz2のいずれか一方)は、第1の被写体像の画像信号および第2の被写体像の画像信号から算出された第1の被写体像の実際のサイズSzと、第2の被写体像の実際のサイズSzの差分(実際のサイズ差分ΔSz3)と一致しない。
 したがって、第1のサイズ差分ΔSz1および第2のサイズ差分ΔSz2を、実際のサイズ差分ΔSz3と比較した結果、第1のサイズ差分ΔSz1が実際のサイズ差分ΔSz3と一致した場合(ΔSz1=ΔSz3の場合)には、上記一般式(23)で表される解が、距離aとして適当となる。一方、第1のサイズ差分ΔSz1および第2のサイズ差分ΔSz2を、実際のサイズ差分ΔSz3と比較した結果、第2のサイズ差分ΔSz2が実際のサイズ差分ΔSz3と一致した場合(ΔSz2=ΔSz3の場合)には、上記一般式(24)で表される解が、距離aとして適当となる。本発明においては、このような方法により、上記一般式(23)および(24)によって表される距離aについての2つの解の内、いずれの解が距離aとして適当であるかを判別している。
 また、上記一般式(23)および(24)内における係数f、K、dall、X、Yの内、第2の光学系OS2の焦点距離fは、固定値である。第1の光学系OS1の前側主点のシフト量の総量dallは、第1の光学系OS1の構成および配置時に決定される固定値である。
 係数Kは、上記式(12)K=f・{EP・(FC-f)+f }から明らかなように、第1の光学系OS1の構成および配置時に決定される固定値である第1の光学系OS1の焦点距離f、第1の光学系OS1の射出瞳から、無限遠に位置する被写体100の第1の被写体像の結像位置までの距離EP、および第1の撮像素子S1の撮像面で第1の被写体像がベストピントとなる場合の第1の光学系OS1の前側主点から、被写体100までの距離FCから得られる。したがって、係数Kは、固定値である。
 一方、係数Xは、上記式(18)X=MR・Z・fから明らかなように、像倍比MRと、上記式(13)Z=EP・(FC-f)で表される係数Zと、第2の光学系OS2の焦点距離fから得られる。第2の光学系OS2の焦点距離fは、第2の光学系OS2の構成に決定される固定値である。さらに、係数Zを得るためのEP、FC、およびfは、第1の光学系OS1の構成および配置時に決定される固定値なので、係数Zは固定値である。そうすると、像倍比MRを得ることができれば、係数Xを得ることができる。
 同様に、係数Yは、上記式(19)Y=MR・W・fから明らかなように、像倍比MRと、上記式(14)W=-f・EP・(FC-f)+f ・(FC-f)で表される係数Wと、第2の光学系OS2の焦点距離fから得られる。第2の光学系OS2の焦点距離fは、第2の光学系OS2の構成に決定される固定値である。さらに、係数Wを得るためのEP、FC、およびfは、第1の光学系OS1の構成および配置時に決定される固定値なので、係数Wは固定値である。そうすると、像倍比MRを得ることができれば、係数Yを得ることができる。
 したがって、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像の倍率Mと、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像の倍率Mとの像倍比MR(=M/M)を得ることができれば、上記一般式(23)または(24)を用いて、第2の光学系OS2の前側主点から被写体100までの距離aを算出することができる。
 図5には、上記一般式(23)および(24)に基づいて算出された、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像の倍率Mと、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像の倍率M、および第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRと、被写体100までの距離aとの関係の1例が示されている。図5から明らかなように、被写体100までの距離aに応じて像倍比MRの値が変化するため、像倍比MRに基づいて被写体100までの距離aを特定することができる。
 一方、像倍比MRは、下記式(25)によって、算出することができる。下記式(25)中において、szは、被写体100のサイズ(高さまたは幅)、Szは、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像の実際のサイズ(像高または像幅)、Szは、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像の実際のサイズ(像高または像幅)である。
Figure JPOXMLDOC01-appb-M000025
 第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzは、第1の撮像素子S1および第2の撮像素子S2が第1の被写体像および第2の被写体像を撮像することにより取得される、第1の被写体像の画像信号および第2の被写体像の画像信号から算出することができる。そのため、実際に被写体100を第1の撮像系IS1および第2の撮像系IS2を用いて撮像することにより得られた第1の被写体像の画像信号および第2の被写体像の画像信号から、第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzを実測し、それに基づいて、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRを得ることができる。
 本発明の測距カメラは、上述の原理により、実測される第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzに基づいて、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRを算出し、さらに、算出した像倍比MRを用いて、被写体100までの距離aを算出する。
 なお、像倍比MRに関する上記式(11)や上記式(16)から明らかなように、第1の光学系OS1の焦点距離fが第2の光学系OS2の焦点距離fと等しく(f=f)、かつ、第1の光学系OS1の前側主点と、第2の光学系OS2の前側主点との間の奥行方向(光軸方向)の差Dが存在しない(D=0、すなわち、第1の光学系OS1の前側主点のシフト量の総量dallが第2の光学系OS2の前側主点のシフト量sと等しい(dall=s)、かつ、第1の光学系OS1の前側主点から被写体100までの距離Aが第2の光学系OS2の前側主点から被写体100までの距離aと等しい(A=a))場合、像倍比MRが距離aの関数として成立せず、像倍比MRは定数となる。この場合、被写体100までの距離aに応じた第1の被写体像の倍率Mの変化が、被写体100までの距離aに応じた第2の被写体像の倍率Mの変化と同一になってしまい、像倍比MRに基づいて被写体100までの距離aを算出することが不可能となる。
 したがって、本発明の測距カメラでは、像倍比MRが距離aの関数として成立するための以下の第1の条件および第2の条件の少なくとも1つが満たされるよう、第1の光学系OS1および第2の光学系OS2が構成および配置され、これにより、被写体100までの距離に応じた第1の被写体像の倍率Mの変化が、被写体100までの距離に応じた第2の被写体像の倍率Mの変化と異なるようになっている。
 (第1の条件)第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが、互いに異なる(f≠f
 (第2の条件)第1の光学系OS1の前側主点と、第2の光学系OS2の前側主点との間に光軸方向の奥行視差Dが存在する(D≠0)
 そのため、本発明の測距カメラを用いて取得された第1の被写体像の画像信号および第2の被写体像の画像信号から実測される第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzから像倍比MRを算出することにより、第2の光学系OS2の前側主点から被写体100までの距離aを算出することができる。また、上記式(3)を用いて、第2の光学系OS2の前側主点から被写体100までの距離aから、第1の光学系OS1の前側主点から被写体100までの距離Aを算出することができる。
 以下、上述の原理を利用して、第2の光学系OS2の前側主点から被写体100までの距離a(および第1の光学系OS1の前側主点から被写体100までの距離A)を算出する本発明の測距カメラを、添付図面に示す好適な実施形態に基づいて詳述する。
 <第1実施形態>
 最初に、図6を参照して本発明の測距カメラの第1実施形態を説明する。図6は、本発明の第1実施形態に係る測距カメラを概略的に示すブロック図である。
 図6に示す測距カメラ1は、測距カメラ1の制御を行う制御部2と、被写体100からの光を集光し、第1の被写体像を形成するための第1の光学系OS1と、被写体100からの光を集光し、第2の被写体像を形成するための第2の光学系OS2と、第2の光学系OS2のフォーカス動作(または、オートフォーカス動作)を実行するためのレンズ駆動部AFと、第1の光学系OS1によって形成された第1の被写体像および第2の光学系OS2によって形成された第2の被写体像を撮像するための撮像部Sと、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRと、被写体100までの距離aとを関連付ける関連付情報を記憶している関連付情報記憶部3と、撮像部Sによって撮像された第1の被写体像および第2の被写体像に基づいて、被写体100までの距離aを算出するための距離算出部4と、撮像部Sが取得した第1の被写体像または第2の被写体像と、距離算出部4によって算出された被写体100までの距離aとに基づいて、被写体100の3次元画像を生成するための3次元画像生成部5と、液晶パネル等の任意の情報を表示するための表示部6と、使用者による操作を入力するための操作部7と、外部デバイスとの通信を実行するための通信部8と、測距カメラ1の各コンポーネント間のデータの授受を実行するためのデータバス9と、を備えている。
 なお、本実施形態における第1の光学系OS1の構成および第2の光学系OS2の構成は、説明のための1例にすぎず、本発明はこれに限られない。第1の光学系OS1および第2の光学系OS2のそれぞれは、上述の第1の条件および第2の条件の少なくとも1つを満たし、被写体100までの距離に対する第1の被写体像の倍率Mの変化が、被写体100までの距離に対する第2の被写体像の倍率Mの変化と異なっていれば如何なる態様であってもよい。しかしながら、本実施形態の測距カメラ1は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件の内、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが、互いに異なる(f≠f)という第1の条件が満たされるよう、第1の光学系OS1および第2の光学系OS2が構成されていることを特徴とする。一方、本実施形態では、第1の光学系OS1および第2の光学系OS2は、上述の第2の条件(D≠0)を満たすように構成および配置されていない。
 本実施形態の測距カメラ1は、撮像部Sによって被写体100を撮像することにより第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRを算出し、さらに、上記一般式(23)または(24)を用いて、第2の光学系OS2の前側主点から被写体100までの距離aを算出する。また、本実施形態の測距カメラ1は、必要な場合には、上記式(3)を用いて、第2の光学系OS2の前側主点から被写体100までの距離aから、第1の光学系OS1の前側主点から被写体100までの距離Aを算出する。
 以下、測距カメラ1の各コンポーネントについて詳述する。制御部2は、データバス9を介して、各コンポーネントとの間の各種データや各種指示の授受を行い、測距カメラ1の制御を実行する。制御部2は、演算処理を実行するためのプロセッサーと、測距カメラ1の制御を行うために必要なデータ、プログラム、モジュール等を保存しているメモリーとを備えており、制御部2のプロセッサーは、メモリー内に保存されているデータ、プログラム、モジュール等を用いることにより、測距カメラ1の制御を実行する。また、制御部2のプロセッサーは、測距カメラ1の各コンポーネントを用いることにより、所望の機能を提供することができる。例えば、制御部2のプロセッサーは、距離算出部4を用いることにより、撮像部Sによって撮像された第1の被写体像および第2の被写体像に基づいて、被写体100までの距離aを算出するための処理を実行することができる。
 制御部2のプロセッサーは、例えば、1つ以上のマイクロプロセッサー、マイクロコンピューター、マイクロコントローラー、デジタル信号プロセッサー(DSP)、中央演算処理装置(CPU)、メモリーコントロールユニット(MCU)、画像処理用演算処理装置(GPU)、状態機械、論理回路、特定用途向け集積回路(ASIC)、またはこれらの組み合わせ等のコンピューター可読命令に基づいて信号操作等の演算処理を実行する演算ユニットである。特に、制御部2のプロセッサーは、制御部2のメモリー内に保存されているコンピューター可読命令(例えば、データ、プログラム、モジュール等)をフェッチし、信号操作および制御を実行するよう構成されている。
 制御部2のメモリーは、揮発性記憶媒体(例えば、RAM、SRAM、DRAM)、不揮発性記憶媒体(例えば、ROM、EPROM、EEPROM、フラッシュメモリー、ハードディスク、光ディスク、CD-ROM、デジタル多用途ディスク(DVD)、磁気カセット、磁気テープ、磁気ディスク)、またはこれらの組み合わせを含む着脱式または非着脱式のコンピューター可読媒体である。
 第1の光学系OS1は、被写体100からの光を集光し、撮像部Sの第1の撮像素子S1の撮像面上に第1の被写体像を形成する機能を有する。第2の光学系OS2は、被写体100からの光を集光し、撮像部Sの第2の撮像素子S2の撮像面上に第2の被写体像を形成するための機能を有する。第1の光学系OS1および第2の光学系OS2は、1つ以上のレンズと絞り等の光学素子から構成されている。また、図示のように、第1の光学系OS1の光軸と、第2の光学系OS2の光軸は、平行であるが、一致してない。
 また、第1の光学系OS1は、固定焦点光学系である。そのため、第1の光学系OS1を構成するレンズは、フォーカス動作のために駆動可能に構成されていない。一方、第2の光学系OS2は、自動焦点光学系であり、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)は、レンズ駆動部AFによって光軸方向に駆動(繰り出し)可能に構成されている。
 上述のように、第1の光学系OS1および第2の光学系OS2は、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが、互いに異なるよう(f≠f)、構成されている。これにより、第1の光学系OS1によって形成される第1の被写体像の倍率Mの被写体100までの距離に応じた変化が、第2の光学系OS2によって形成される第2の被写体像の倍率Mの被写体100までの距離に応じた変化と異なるように構成されている。
 レンズ駆動部AFは、制御部2のプロセッサーからの制御に応じて、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)を光軸方向に駆動させ(繰り出し)、第2の光学系OS2のフォーカス動作(または、オートフォーカス動作)を実行する機能を有している。レンズ駆動部AFは、制御部2のプロセッサーからの制御に応じて、第2の光学系OS2のフォーカス動作を実行できれば特に限定されず、例えば、DCモーター、ステッピングモーター、ボイスコイルモーター等のアクチュエーターにより構成することができる。
 なお、制御部2のプロセッサーは、コントラストオートフォーカス技術や位相差オートフォーカス技術等の任意のオートフォーカス技術を用いて、レンズ駆動部AFを駆動し、第2の光学系OS2のフォーカス動作を実現する。
 撮像部Sは、第1の光学系OS1によって形成された第1の被写体像および第2の光学系OS2によって形成された第2の被写体像を撮像し、第1の被写体像の画像信号および第2の被写体像の画像信号を取得する機能を有している。本実施形態では、撮像部Sは、第1の被写体像を撮像し、第1の被写体像の画像信号を取得するための第1の撮像素子S1と、第2の被写体像を撮像し、第2の被写体像の画像信号を取得するための第2の撮像素子S2と、を備えている。
 第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの離間距離は、測距カメラ1の構成時に設定される任意の距離に位置する被写体100の第1の被写体像が、第1の撮像素子S1の撮像面上に合焦状態で形成されるよう設定されている。換言すれば、測距カメラ1の構成時に設定される任意の距離にピントが合うように、第1の光学系OS1および第1の撮像素子S1が配置されている。
 一方、第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの離間距離は、レンズ駆動部AFによる第2の光学系OS2のフォーカス動作が実行されていない初期状態(図6中において、第2の光学系OS2が点線で示されている状態)において、無限遠に位置する被写体100の第2の被写体像が、第2の撮像素子S2の撮像面上に合焦状態で形成されるよう設定されている。換言すれば、レンズ駆動部AFによる第2の光学系OS2のフォーカス動作が実行されていない初期状態において、無限遠にピントが合うように、第2の光学系OS2および第2の撮像素子S2が配置されている。したがって、初期状態において、第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの離間距離は、第2の光学系OS2の焦点距離fと等しい。そのため、任意の距離aに被写体100が位置する場合には、制御部2のプロセッサーからの制御に応じて、レンズ駆動部AFによって第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)が繰り出され、第2の光学系OS2の前側主点および後側主点がシフト量sだけ、被写体100側にシフトし、任意の距離aに位置する被写体100にピントが合う。
 なお、図示の形態では、第1の撮像素子S1および第1の光学系OS1が、同一の筐体内に設けられており、第2の撮像素子S2、レンズ駆動部AF、および第2の光学系OS2が、別の同一の筐体内に設けられているが、本発明はこれに限られない。第1の光学系OS1、第2の光学系OS2、レンズ駆動部AF、第1の撮像素子S1、および第2の撮像素子S2がすべて同一の筐体内に設けられているような態様も、本発明の範囲内である。
 第1の撮像素子S1および第2の撮像素子S2は、ベイヤー配列等の任意のパターンで配列されたRGB原色系カラーフィルターやCMY補色系カラーフィルターのようなカラーフィルターを有するカラー撮像素子であってもよいし、そのようなカラーフィルターを有さない白黒撮像素子であってもよい。
 第1の光学系OS1によって、第1の撮像素子S1の撮像面上に第1の被写体像が形成され、第1の撮像素子S1によって第1の被写体像のカラーまたは白黒の画像信号が取得される。取得された第1の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。同様に、第2の光学系OS2によって、第2の撮像素子S2の撮像面上に第2の被写体像が形成され、第2の撮像素子S2によって第2の被写体像のカラーまたは白黒の画像信号が取得される。取得された第2の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。距離算出部4に送られた第1の被写体像の画像信号および第2の被写体像の画像信号は、被写体100までの距離aを算出するために用いられる。一方、制御部2に送られた第1の被写体像の画像信号および第2の被写体像の画像信号は、表示部6による画像表示や通信部8による画像信号の通信のために用いられる。
 関連付情報記憶部3は、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MR(M/M)と、第1の光学系OS1の前側主点から被写体100までの距離aとを関連付ける関連付情報を記憶するための任意の不揮発性記録媒体(例えば、ハードディスク、フラッシュメモリー)である。
 関連付情報記憶部3に保存されている関連付情報は、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MR(M/M)から、第1の光学系OS1の前側主点から被写体100までの距離aを算出するための情報である。典型的には、関連付情報記憶部3に保存されている関連付情報は、像倍比MRに基づいて被写体100までの距離aを算出するための上記一般式(23)および(24)、並びに、該式中の第1の光学系OS1および第2の光学系OS2の構成および配置によって決定される上述の固定値である。
 距離算出部4は、撮像部Sによって撮像された第1の被写体像および第2の被写体像に基づいて、被写体100までの距離aを算出する機能を有している。距離算出部4は、撮像部Sの第1の撮像素子S1から第1の被写体像の画像信号を受信し、さらに、撮像部Sの第2の撮像素子S2から第2の被写体像の画像信号を受信する。
 その後、距離算出部4は、第1の被写体像の画像信号および第2の被写体像の画像信号に対して、本分野において既知のエッジ抽出処理、例えば、Canny法のようなフィルター処理を施し、第1の被写体像の画像信号内における第1の被写体像のエッジ部および第2の被写体像の画像信号内における第2の被写体像のエッジ部を抽出する。距離算出部4は、抽出した第1の被写体像のエッジ部に基づいて、第1の被写体像の実際のサイズ(像幅または像高)Szを算出し、さらに、抽出した第2の被写体像のエッジ部に基づいて、第2の被写体像の実際のサイズ(像幅または像高)Szを算出する。
 距離算出部4が、抽出した第1の被写体像のエッジ部および第2の被写体像のエッジ部に基づいて、第1の被写体像のサイズSzおよび第2の被写体像のサイズSzを算出する方法は特に限定されないが、例えば、各画像信号中において、被写体像のエッジ部の最も上側にある部分と最も下側にある部分との離間距離を被写体像の像高としてもよいし、被写体像のエッジ部の最も左側にある部分と最も右側にある部分との離間距離を被写体像の像幅としてもよい。
 その後、距離算出部4は、算出した第1の被写体像の実際のサイズSzと第2の被写体像の実際のサイズSzとの比Sz/Szを、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRとして算出する。像倍比MRが算出されると、距離算出部4は、関連付情報記憶部3に保存されている関連付情報に含まれる上記一般式(23)および(24)および該式中の固定値を参照し、距離aについての2つの解を得る。その後、距離算出部4は、上述した距離aについての2つの解のいずれが距離aとして適当かを判別するための方法を用いて、距離aについての2つの解のいずれか一方または双方(距離aについての2つの解が互いに等しい場合のみ)を、被写体100までの距離aとして算出(特定)する。さらに、距離算出部4は、上記式(3)を用いて、算出した第2の光学系OS2の前側主点から被写体100までの距離aから、第1の光学系OS1の前側主点から被写体100までの距離Aを算出することができる。
 3次元画像生成部5は、距離算出部4によって算出された被写体100までの距離aおよび撮像部Sが取得した被写体100の2次元画像(第1の被写体像の画像信号または第2の被写体像の画像信号)に基づいて、被写体100の3次元画像を生成する機能を有している。ここで言う「被写体100の3次元画像」とは、通常の被写体100のカラーまたは白黒の2次元画像のピクセルに対して、算出された被写体100の距離aが関連付けられているデータを意味する。
 表示部6は、液晶表示部等のパネル型表示部であり、制御部2のプロセッサーからの信号に応じて、撮像部Sによって取得された被写体100の2次元画像(第1の被写体像の画像信号または第2の被写体像の画像信号)、距離算出部4によって生成された被写体100までの距離a、3次元画像生成部5によって生成された被写体100の3次元画像のような画像、測距カメラ1を操作するための情報等が文字または画像の様態で表示部6に表示される。
 操作部7は、測距カメラ1の使用者が操作を実行するために用いられる。操作部7は、測距カメラ1の使用者が操作を実行することができれば特に限定されず、例えば、マウス、キーボード、テンキー、ボタン、ダイヤル、レバー、タッチパネル等を操作部7として用いることができる。操作部7は、測距カメラ1の使用者による操作に応じた信号を制御部2のプロセッサーに送信する。
 通信部8は、測距カメラ1に対するデータの入力または測距カメラ1から外部デバイスへのデータの出力を行う機能を有している。通信部8は、インターネットのようなネットワークに接続されていてもよい。この場合、測距カメラ1は、通信部8を用いることにより、外部に設けられたウェブサーバーやデータサーバーのような外部デバイスと通信を行うことができる。
 このように、本実施形態の測距カメラ1では、第1の光学系OS1および第2の光学系OS2が、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとが、互いに異なるよう(f≠f)、構成されており、これにより、被写体100までの距離に対する第1の被写体像の倍率Mの変化と、被写体100までの距離に対する第2の被写体像の倍率Mの変化とが、互いに異なるようになっている。そのため、本発明の測距カメラ1は、複数の画像間の平行視差を用いず、かつ、被写体100への一定パターンの照射を行わずに、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MR(M/M)に基づいて、第2の光学系OS2の前側主点から被写体100までの距離a(および第1の光学系OS1の前側主点から被写体100までの距離A)を算出(特定)することができる。
 <第2実施形態>
 次に、図7を参照して、本発明の第2実施形態に係る測距カメラ1について詳述する。図7は、本発明の第2実施形態に係る測距カメラを概略的に示すブロック図である。
 以下、第2実施形態の測距カメラ1について、第1実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。本実施形態の測距カメラ1は、図7に示すように、第1の光学系OS1および第2の光学系OS2の構成および配置が変更されている点を除き、第1実施形態の測距カメラ1と同様である。
 本実施形態の測距カメラ1は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件の内、第1の光学系OS1の前側主点と、第2の光学系OS2の前側主点との間に光軸方向の奥行視差Dが存在する(D≠0)という第2の条件が満たされるよう、第1の光学系OS1および第2の光学系OS2が構成および配置されていることを特徴とする。一方、本実施形態では、第1の光学系OS1および第2の光学系OS2は、上述の第1の条件および第2の条件の内、第1の条件(f≠f)を満たすように構成されていない。
 このように、本実施形態の測距カメラ1では、第1の光学系OS1の前側主点と、第2の光学系OS2の前側主点との間に光軸方向の奥行視差Dが存在するよう(D≠0)、構成および配置されており、これにより、被写体100までの距離に対する第1の被写体像の倍率Mの変化と、被写体100までの距離に対する第2の被写体像の倍率Mの変化とが、互いに異なるようになっている。そのため、本実施形態の測距カメラ1は、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MR(M/M)に基づいて、第2の光学系OS2の前側主点から被写体100までの距離aを一意に算出することができる。また、本実施形態の測距カメラ1は、上記式(3)を用いて、第2の光学系OS2の前側主点から被写体100までの距離aから、第1の光学系OS1の前側主点から被写体100までの距離Aを算出することができる。
 本実施形態によっても、上述の第1実施形態と同様の効果を発揮することができる。なお、本実施形態における第1の光学系OS1の構成および第2の光学系OS2の構成および配置は、上述の第2の条件(D≠0)が満たされており、それにより、被写体100までの距離に対する第1の被写体像の倍率Mの変化と、被写体100までの距離に対する第2の被写体像の倍率Mの変化とが、互いに異なるようになっていれば、如何なる態様であってもよい。
 <第3実施形態>
 次に、図8を参照して、本発明の第3実施形態に係る測距カメラ1について詳述する。図8は、本発明の第3実施形態に係る測距カメラを概略的に示すブロック図である。
 以下、第3実施形態の測距カメラ1について、第1実施形態および第2実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。第3実施形態の測距カメラ1は、図8に示すように、撮像部Sが第2の撮像素子S2のみから構成されている点、第1の光学系OS1および第2の光学系OS2が同一の筐体内に設けられている点、第1の被写体像を形成する光の波長を制限する第1の波長選択素子WS1が第1の被写体像を形成する光の光路上に設けられている点、および第2の被写体像を形成する光の波長を制限する第2の波長選択素子WS2が第2の被写体像を形成する光の光路上に設けられている点、第2の撮像素子S2がカラー撮像素子に限定される点を除き、第1実施形態の測距カメラ1と同様である。
 本実施形態では、第1の光学系OS1および第2の光学系OS2は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件の少なくとも1つを満たすよう構成されている。すなわち、本実施形態の第1の光学系OS1および第2の光学系OS2は、上述した第1実施形態および第2実施形態の第1の光学系OS1および第2の光学系OS2のいずれか1つ、または、それらの組み合わせと同様に構成されている。
 また、図8に示すように、本実施形態では、第1の光学系OS1および第2の光学系OS2が同一筐体内に配置されている。また、第1の光学系OS1によって集光され、第1の被写体像を形成する光の光路上に、第1の波長選択素子WS1が設けられている。さらに、第2の光学系OS2によって集光され、第2の被写体像を形成する光の光路上に、第2の波長選択素子WS2が設けられている。
 本実施形態において、第1の波長選択素子WS1は、波長選択プレート型ミラーであり、特定の波長帯域の光のみを選択的に反射する機能を有する。第2の波長選択素子WS2は、波長選択プリズム型ミラーであり、プリズムの一方の側から入射した光の波長帯域を制限し、制限された波長帯域の光のみを選択的に通過させる機能、および、プリズムの他方の側から入射した光を反射する機能を有している。第1の波長選択素子WS1および第2の波長選択素子WS2は、第1の波長選択素子WS1によって制限された光の波長帯域と、第2の波長選択素子WS2によって制限された光の波長帯域とが異なるよう、構成されている。
 第1の光学系OS1によって集光された被写体100からの光は、第1の波長選択素子WS1(波長選択プレート型ミラー)によって反射される。この際、第1の光学系OS1によって集光された光の波長帯域は、第1の波長選択素子WS1によって制限される。その後、第1の波長選択素子WS1によって反射された光は、第2の波長選択素子WS2(波長選択プリズム型ミラー)によって反射され、第2の撮像素子S2の撮像面に到達する。これにより、第1の被写体像が、第2の撮像素子S2の撮像面上に形成される。なお、第2の波長選択素子WS2は、第1の被写体像を形成する光が第2の波長選択素子WS2で反射される際、第1の被写体像を形成する光の波長帯域をさらに制限するよう構成されていてもよいし、さらに制限しないよう構成されていてもよい。
 一方、第2の光学系OS2によって集光された被写体100からの光は、第2の波長選択素子WS2(波長選択プリズム型ミラー)を通過する。この際、第2の光学系OS2によって集光された光の波長帯域は、第2の波長選択素子WS2によって制限される。その後、第2の波長選択素子WS2を通過した光は、第2の撮像素子S2の撮像面に到達する。これにより、第2の被写体像が、第2の撮像素子S2の撮像面上に形成される。
 したがって、本実施形態においては、第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方が、第2の撮像素子S2の撮像面上に形成される。さらに、上述のように、第1の波長選択素子WS1によって制限された光の波長帯域と、第2の波長選択素子WS2によって制限された光の波長帯域とは異なるため、第1の被写体像を形成する光の波長帯域と、第2の被写体像を形成する光の波長帯域は互いに異なったものとなる。
 本実施形態において、第2の撮像素子S2は、ベイヤー配列のような任意のパターンで配列されたRGB原色系カラーフィルターやCMY補色系カラーフィルターのようなカラーフィルターを有するカラー撮像素子である。第1の波長選択素子WS1によって制限された光の波長帯域は、第2の撮像素子S2が有する複数のカラーフィルターのいずれか1つに対応しており、第2の波長選択素子WS2によって制限された光の波長帯域は、第2の撮像素子S2が有する複数のカラーフィルターの異なる1つに対応している。
 これにより、第2の撮像素子S2によって取得される各カラーフィルターに対応する画像信号(例えば、赤色画像信号、緑色画像信号、および青色画像信号)のいずれか1つが、第1の被写体像の画像信号に対応し、異なる1つが第2の被写体像の画像信号に対応する。そのため、第2の撮像素子S2は、第1の被写体像の画像信号と第2の被写体像の画像信号を分離して同時取得することができる。
 例えば、第1の波長選択素子WS1によって制限された光の波長帯域が、第2の撮像素子S2が有する複数のカラーフィルターの赤カラーフィルターの透過波長帯域に対応している場合、第2の撮像素子S2によって取得される赤色画像信号が、第1の被写体像の画像信号となる。一方、第2の波長選択素子WS2によって制限された光の波長帯域が、第2の撮像素子S2が有する複数のカラーフィルターの緑カラーフィルターの透過波長帯域に対応している場合、第2の撮像素子S2によって取得される緑色画像信号が、第2の被写体像の画像信号となる。
 このような態様により、撮像部Sを、第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方を撮像する単一のカラー撮像素子(第2の撮像素子S2)で構成することができる。そのため、測距カメラ1の小型化および低コスト化を実現することができる。
 なお、本実施形態では、第1の波長選択素子WS1として波長選択プレート型ミラーを用い、さらに、第2の波長選択素子WS2として波長選択プリズム型ミラーを用いたが、本発明はこれに限られない。第1の波長選択素子WS1および第2の波長選択素子WS2は、それぞれ、第1の被写体像を形成する光の波長帯域と第2の被写体像を形成する光の波長待機を制限することができれば如何なる態様であってもよい。例えば、第1の波長選択素子WS1として第1の光学系OS1の前側または後側に設けられた波長選択フィルターまたは波長選択機能を有する任意の光学部品を用い、さらに、第2の波長選択素子WS2として第2の光学系OS2の前側または後側に設けられた波長選択フィルターまたは波長選択機能を有する任意の光学部品を用いてもよい。この場合、本実施形態の第1の波長選択素子WS1が配置されている箇所に通常のミラーが配置され、第2の波長選択素子WS2が配置されている箇所に通常のプリズム型ミラーが配置される。
 また、本実施形態では、第1の波長選択素子WS1および第2の波長選択素子WS2を用いて、単一の撮像素子(第2の撮像素子S2)が第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方を撮像することを可能としたが、本発明はこれに限られない。例えば、第1の光学系OS1および第2の光学系OS2のそれぞれの前側にシャッターが設けられ、第1の光学系OS1の前方に設けられたシャッターと第2の光学系OS2の前方に設けられたシャッターが交互に開かれることによって、単一の撮像素子(第2の撮像素子S2)が第1の被写体像および第2の被写体像の双方を個別に撮像するような態様も本発明の範囲内である。
 ここまで各実施形態を参照して詳述したように、本発明の測距カメラ1は、複数の画像間の平行視差を用いず、かつ、被写体への一定パターンの照射を行わずに、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MR(M/M)に基づいて、被写体100までの距離aを一意に算出することができる。
 そのため、本発明の測距カメラ1では、従来の複数の画像間の平行視差を用いたステレオカメラ方式の測距カメラと異なり、大きな平行視差を確保する必要がないため、第1の光学系OS1および第2の光学系OS2を、光軸方向と直交する平行方向において近接して配置しても、被写体100までの距離aを正確に算出することができる。これにより、従来のステレオカメラ方式の測距カメラと比較して、測距カメラ1の小型化を実現することができる。また、平行視差を考慮して測距カメラ1を設計する必要がなくなるため、測距カメラ1の設計の自由度を増大させることができる。また、本発明の測距カメラ1では、被写体100までの距離aを算出するために平行視差を用いていないため、被写体100が測距カメラ1から非常に近い位置にある場合であっても、被写体100までの距離aを正確に測定することができる。
 また、本発明の測距カメラ1では、パターン照射方式の測距カメラと異なり、一定パターンの光を被写体に照射するプロジェクター等の特殊な光源を用いる必要がない。そのため、測距カメラ1のシステム構成をシンプルにすることができる。これにより、従来のパターン照射方式の測距カメラと比較して、測距カメラ1の小型化、軽量化、低消費電力化、および低コスト化を実現することができる。また、本発明の測距カメラ1では、従来のパターン照射方式の測距カメラと異なり、可視光外の波長の光を照射するための特殊な光源を用いる必要がないため、通常の撮影を実行することもできる。
 また、本発明の測距カメラ1では、第1の光学系OS1によって形成される第1の被写体像の倍率Mと、第2の光学系OS2によって形成される第2の被写体像の倍率Mの像倍比MR(M/M)に基づいて、被写体100までの距離aを算出する。そのため、個々の光学系および撮像部の各種パラメーター(例えば、焦点距離、射出瞳から撮像素子の撮像面までの距離)が既知であれば、これらのパラメーターが不揃いであっても、被写体100までの距離aを算出することができる。換言すれば、第1の光学系OS1および第2の光学系OS2がそれぞれ異なる特性(例えば、異なる焦点距離、前側主点の位置、後側主点の位置等)を有している場合であっても、本発明によれば、そのような異なる特性の光学系によって構成された被写体像間の像倍比を用いて、被写体100までの距離aを算出することができる。
 近年、スマートフォン等の携帯デバイスにおいて、広角撮影用に用いられる広画角かつ低倍率の固定焦点光学系と、ズーム撮影用に用いられる狭画角かつ高倍率の自動焦点光学系という、互いに特性が異なる光学系を用いた撮像システムが幅広く用いられている。本発明は、このような既存の携帯デバイスにおいて広く用いられている撮像システムにも適用することができる。本発明を、互いに特性が異なる光学系を用いた既存の撮像システムに適用することにより、既存の携帯デバイスの構成を大きく変えることなく、被写体100までの距離aの測定や、被写体100の3次元画像の生成(被写体100の形状計測)が可能となる。このように、本発明によれば、既知の撮像システムによって提供される広角撮影およびズーム撮影を阻害することなく、被写体100までの距離aの測定および被写体100の3次元画像の生成(被写体100の形状計測)を実行可能とすることができる。そのため、本発明の測距カメラ1は、従来技術における測距カメラにない汎用性がある。
 なお、上記各実施形態では、第1の光学系OS1および第2の光学系OS2の2つの光学系が用いられているが、用いられる光学系の数はこれに限られない。例えば、第1の光学系OS1および第2の光学系OS2に加え、追加的な光学系をさらに備えるような態様もまた本発明の範囲内である。この場合、追加的な光学系は、追加的な光学系によって形成される被写体像の倍率の被写体100までの距離に対する変化は、第1の被写体像の倍率Mの被写体までの距離に対する変化および第2の被写体像の倍率Mの被写体までの距離に対する変化と異なるように構成および配置されている。
 また、上述した各実施形態は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件のいずれか1つを満たすよう第1の光学系OS1および第2の光学系OS2が構成および配置されているが、上述の第1の条件および第2の条件の双方が満たされるように、第1の光学系OS1および第2の光学系OS2が構成および配置されている態様(例えば、図3に示すような第1の光学系OS1および第2の光学系OS2の構成および配置)も、本発明の範囲内である。
 <測距方法>
 次に図9を参照して、本発明の測距カメラ1によって実行される測距方法について説明する。図9は、本発明の測距カメラによって実行される測距方法を説明するためのフローチャートである。なお、以下に詳述する測距方法は、上述した本発明の第1~第3実施形態に係る測距カメラ1および測距カメラ1と同等の機能を有する任意の装置を用いて実行することができるが、説明のため、第1実施形態に係る測距カメラ1を用いて実行されるものとして説明する。
 図9に示す測距方法S100は、測距カメラ1の使用者が操作部7を用いて、被写体100までの距離aを測定するための操作を実行することにより開始される。工程S110において、撮像部Sの第1の撮像素子S1によって、第1の光学系OS1によって形成された第1の被写体像が撮像され、第1の被写体像の画像信号が取得される。第1の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。工程S120において、距離算出部4は、受信した第1の被写体像の画像信号から、第1の被写体像の実際のサイズ(像高または像幅)Szを算出する。
 一方、工程S130において、制御部2のプロセッサーからの制御に応じて、レンズ駆動部AFが駆動され、被写体100に対してピントを合わせるための第2の光学系OS2のフォーカス動作が実行される。その後、撮像部Sの第2の撮像素子S2によって、第2の光学系OS2によって形成された第2の被写体像が撮像され、第2の被写体像の画像信号が取得される。第2の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。工程S140において、距離算出部4は、受信した第2の被写体像の画像信号から、第2の被写体像の実際のサイズ(像高または像幅)Szを算出する。
 なお、工程S110および工程S120における第1の被写体像の画像信号の取得と第1の被写体像の実際のサイズSzの算出は、工程S130および工程S140における第2の被写体像の画像信号の取得と第2の被写体像の実際のサイズSzの算出と同時に実行されてもよいし、別々に実行されてもよい。
 第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzの双方が算出されると、処理は、工程S150に移行する。工程S150において、距離算出部4は、第1の被写体像の実際のサイズSzおよび第2の被写体像の実際のサイズSzから、上記式(25)MR=Sz/Szに基づいて、第1の被写体像の倍率Mと第2の被写体像の倍率Mとの像倍比MRを算出する。
 次に、工程S160において、距離算出部4は、関連付情報記憶部3に保存されている関連付情報を参照し、算出した像倍比MRに基づいて、被写体100までの距離aを算出(特定)する。具体的には、像倍比MRが算出されると、距離算出部4は、関連付情報記憶部3に保存されている関連付情報に含まれる上記一般式(23)および(24)および該式中の固定値を参照し、距離aについての2つの解を得る。その後、距離算出部4は、上述した距離aについての2つの解のいずれが距離aとして適当かを判別するための方法を用いて、距離aについての2つの解のいずれか一方または双方(距離aについての2つの解が互いに等しい場合のみ)を、第2の光学系OS2の前側主点から被写体100までの距離aとして算出(特定)する。工程S160において第2の光学系OS2の前側主点から被写体100までの距離aが算出されると、処理は、工程S170に移行する。なお、工程S160において、距離算出部4は、上記式(3)を用いて、算出した第2の光学系OS2の前側主点から被写体100までの距離aから、第1の光学系OS1の前側主点から被写体100までの距離Aをさらに算出してもよい。
 工程S170において、3次元画像生成部5が、距離算出部4によって算出された第2の光学系OS2の前側主点から被写体100までの距離aおよび撮像部Sが取得した被写体100の2次元画像(第1の被写体像の画像信号または第2の被写体像の画像信号)に基づいて、被写体100の3次元画像を生成する。その後、ここまでの工程において取得された被写体100の2次元画像、被写体100までの距離a、および/または被写体100の3次元画像が、表示部6に表示され、または通信部8によって外部デバイスに送信され、測距方法S100は終了する。
 以上、本発明の測距カメラを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではない。本発明の各コンポーネントの構成は、同様の機能を発揮し得る任意のものと置換することができ、あるいは、本発明の構成に任意の構成のものを付加することができる。
 本発明の属する分野および技術における当業者であれば、本発明の原理、考え方、および範囲から有意に逸脱することなく、記述された本発明の測距カメラの構成の変更を実行可能であろうし、変更された構成を有する測距カメラもまた、本発明の範囲内である。
 例えば、図6~図8に示された測距カメラ1のコンポーネントの数や種類は、説明のための例示にすぎず、本発明は必ずしもこれに限られない。本発明の原理および意図から逸脱しない範囲において、任意のコンポーネントが追加若しくは組み合わされ、または任意のコンポーネントが削除された態様も、本発明の範囲内である。また、測距カメラ1の各コンポーネントは、ハードウェア的に実現されていてもよいし、ソフトウェア的に実現されていてもよいし、これらの組み合わせによって実現されていてもよい。
 また、図9に示された測距方法S100の工程の数や種類は、説明のための例示にすぎず、本発明は必ずしもこれに限られない。本発明の原理および意図から逸脱しない範囲において、任意の工程が、任意の目的で追加若しくは組み合され、または、任意の工程が削除される態様も、本発明の範囲内である。
 <利用例>
 本発明の測距カメラ1の利用例は特に限定されないが、例えば、被写体のポートレートを撮像するとともに、被写体の顔の3次元画像を取得するために、測距カメラ1を用いることができる。このような利用形態では、本発明の測距カメラ1をスマートフォンや携帯電話等のモバイルデバイス内に組み込むことが好ましい。
 また、本発明の測距カメラ1は、精密機器の組み立てや検査のために用いられるハンドラーロボットにおいて利用することができる。測距カメラ1によれば、精密機器を組み立てる際に、ハンドラーロボット本体またはハンドラーロボットのアームから、精密機器または精密機器の部品までの距離を測定することができることから、ハンドラーロボットの把持部によって正確に部品を把持することができる。
 また、本発明の測距カメラ1によれば、被写体までの距離を測定することができることから、被写体の3次元情報を取得することができる。このような被写体の3次元情報は、3Dプリンターによる3次元構造体の作製に用いることができる。
 また、自動車内において、本発明の測距カメラ1を利用することにより、自動車から歩行者や障害物等の任意の物体までの距離を測定することができる。算出された任意の物体までの距離に関する情報は、自動車の自動ブレーキシステムや自動運転に用いることができる。
 本発明の測距カメラでは、被写体までの距離に応じた被写体像の倍率の変化が互いに異なるよう構成された2つの光学系を用い、該2つの光学系によってそれぞれ形成された2つの被写体像の像倍比(倍率の比)に基づいて、被写体までの距離を測定することができる。そのため、本発明の測距カメラでは、従来の複数の画像間の平行視差を用いたステレオカメラ方式の測距カメラと異なり、大きな平行視差を確保する必要がないため、2つの光学系を、光軸方向と直交する平行方向において近接して配置しても、被写体までの距離を正確に算出することができる。これにより、従来のステレオカメラ方式の測距カメラと比較して、測距カメラの小型化を実現することができる。また、本発明によれば、平行視差を考慮して測距カメラを設計する必要がなくなるため、測距カメラの設計の自由度を増大させることができる。また、本発明の測距カメラでは、被写体までの距離を算出するために平行視差を用いていないため、被写体が測距カメラから非常に近い位置にある場合であっても、被写体までの距離を正確に測定することができる。
 また、本発明の測距カメラでは、従来のパターン照射方式の測距カメラと異なり、一定パターンの光を被写体に照射するプロジェクター等の特殊な光源を用いる必要がない。そのため、測距カメラのシステム構成をシンプルにすることができる。これにより、従来のパターン照射方式の測距カメラと比較して、測距カメラの小型化、軽量化、低消費電力化、および低コスト化を実現することができる。また、本発明の測距カメラでは、従来のパターン照射方式の測距カメラと異なり、可視光外の波長の光を照射するための特殊な光源を用いる必要がないため、通常の撮影を実行することもできる。したがって、本発明は、産業上の利用可能性を有する。

Claims (9)

  1.  被写体からの光を集光し、第1の被写体像を形成するための第1の光学系と、
     前記被写体からの前記光を集光し、第2の被写体像を形成するための第2の光学系と、
     前記第1の光学系によって形成された前記第1の被写体像および前記第2の光学系によって形成された前記第2の被写体像を撮像するための撮像部と、
     前記撮像部によって撮像された前記第1の被写体像および前記第2の被写体像に基づいて、前記被写体までの距離を算出するための距離算出部と、を備え、
     前記距離算出部は、前記第1の被写体像の倍率と前記第2の被写体像の倍率との像倍比に基づいて、前記被写体までの前記距離を算出することを特徴とする測距カメラ。
  2.  前記第1の光学系は、固定焦点光学系であり、
     前記第2の光学系は、前記第2の光学系を構成するレンズの少なくとも1つが駆動可能に構成された自動焦点光学系である請求項1に記載の測距カメラ。
  3.  前記第1の光学系および前記第2の光学系は、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の変化と異なるように構成されている請求項1または2に記載の測距カメラ。
  4.  前記第1の光学系および前記第2の光学系は、前記第1の光学系の焦点距離と、前記第2の光学系の焦点距離とが、互いに異なるよう構成されており、これにより、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の前記変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の前記変化と異なるようになっている請求項3に記載の測距カメラ。
  5.  前記第1の光学系の前側主点と前記第2の光学系の前側主点との間に光軸方向の奥行視差が存在し、これにより、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の前記変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の前記変化と異なるようになっている請求項3または4に記載の測距カメラ。
  6.  前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、前記被写体までの前記距離とを関連付ける関連付情報を記憶している関連付情報記憶部をさらに備え、
     前記距離算出部は、前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、前記関連付情報記憶部内の前記関連付情報とに基づいて、前記被写体までの前記距離を算出する請求項1ないし5のいずれかに記載の測距カメラ。
  7.  前記距離算出部は、前記第1の被写体像のサイズと前記第2の被写体像のサイズとの比を、前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比として算出する請求項1ないし6のいずれかに記載の測距カメラ。
  8.  前記撮像部は、前記第1の被写体像および前記第2の被写体像の双方を撮像する単一の撮像素子である請求項1ないし7のいずれかに記載の測距カメラ。
  9.  前記第1の被写体像を形成する前記光の光路上に設けられ、前記第1の被写体像を形成する前記光の波長を制限する第1の波長選択素子と、前記第2の被写体像を形成する前記光の光路上に設けられ、前記第2の被写体像を形成する前記光の波長を制限する第2の波長選択素子と、をさらに備え、
     前記第1の波長選択素子によって制限された前記第1の被写体像を形成する前記光の波長帯域と、前記第2の波長選択素子によって制限された前記第2の被写体像を形成する前記光の波長帯域とは異なっている請求項8に記載の測距カメラ。
PCT/JP2019/009813 2018-03-19 2019-03-11 測距カメラ WO2019181622A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19772591.4A EP3770550A4 (en) 2018-03-19 2019-03-11 DISTANCE MEASURING CAMERA
CN201980020450.8A CN111868474B (zh) 2018-03-19 2019-03-11 测距摄像机
US16/976,184 US11436746B2 (en) 2018-03-19 2019-03-11 Distance measuring camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-051643 2018-03-19
JP2018051643A JP7104301B2 (ja) 2018-03-19 2018-03-19 測距カメラ

Publications (1)

Publication Number Publication Date
WO2019181622A1 true WO2019181622A1 (ja) 2019-09-26

Family

ID=67987789

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009813 WO2019181622A1 (ja) 2018-03-19 2019-03-11 測距カメラ

Country Status (5)

Country Link
US (1) US11436746B2 (ja)
EP (1) EP3770550A4 (ja)
JP (1) JP7104301B2 (ja)
CN (1) CN111868474B (ja)
WO (1) WO2019181622A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162003A1 (ja) * 2019-02-06 2020-08-13 ミツミ電機株式会社 測距カメラ

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112729123A (zh) * 2020-12-21 2021-04-30 广州安特激光技术有限公司 一种基于机器视觉的测距系统及其方法
US11651508B1 (en) * 2022-06-02 2023-05-16 Plusai, Inc. Methods and apparatus for depth estimation using stereo cameras in a vehicle system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0320007A (ja) * 1989-03-31 1991-01-29 Casio Comput Co Ltd 磁性体薄膜の製造方法
JP2001141422A (ja) * 1999-11-10 2001-05-25 Fuji Photo Film Co Ltd 画像撮像装置及び画像処理装置
JP2013190394A (ja) 2012-03-15 2013-09-26 Ricoh Co Ltd パターン照明装置、及び測距装置
US20160379066A1 (en) * 2015-06-23 2016-12-29 Robert Bosch Gmbh Method and Camera System for Distance Determination of Objects from a Vehicle

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01143910A (ja) * 1987-11-30 1989-06-06 Mitsumi Electric Co Ltd 自動距離測定装置
JPH02171737A (ja) 1988-12-26 1990-07-03 Minolta Camera Co Ltd ステレオカメラ用撮影レンズ
JPH03200007A (ja) * 1989-12-28 1991-09-02 Nippon Telegr & Teleph Corp <Ntt> ステレオ計測装置
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
JP5263804B2 (ja) * 2007-04-20 2013-08-14 株式会社トプコン 多点測定方法及び測量装置
RU2340872C1 (ru) * 2007-05-02 2008-12-10 Институт мониторинга климатических и экологических систем Моностатический способ определения расстояния до объекта, его направления и скорости движения
JP2010243843A (ja) * 2009-04-07 2010-10-28 Fujifilm Corp オートフォーカスシステム
US9267797B2 (en) * 2010-06-22 2016-02-23 Ricoh Company, Ltd. Range-finding device and imaging apparatus
JP2013250856A (ja) 2012-06-01 2013-12-12 Mitsubishi Electric Corp 監視システム
TWI538508B (zh) * 2014-08-15 2016-06-11 光寶科技股份有限公司 一種可獲得深度資訊的影像擷取系統與對焦方法
JP6545997B2 (ja) * 2015-04-24 2019-07-17 日立オートモティブシステムズ株式会社 画像処理装置
JP6552315B2 (ja) * 2015-07-27 2019-07-31 キヤノン株式会社 撮像装置
JP2017161609A (ja) * 2016-03-07 2017-09-14 ミツミ電機株式会社 レンズ駆動装置、カメラモジュール、及びカメラ搭載装置
DE102016117024B4 (de) * 2016-09-09 2021-08-05 Karl Storz Se & Co. Kg Vorrichtung zum Erfassen eines Stereobilds sowie Verfahren zum Justieren der Vorrichtung
WO2018158820A1 (ja) * 2017-02-28 2018-09-07 株式会社オプティム 距離算出システム、方法及びプログラム
WO2019030957A1 (en) 2017-08-09 2019-02-14 Mitsumi Electric Co., Ltd. DISTANCE MEASUREMENT CAMERA
JP7104296B2 (ja) * 2017-08-09 2022-07-21 ミツミ電機株式会社 測距カメラ
JP7104294B2 (ja) * 2017-12-18 2022-07-21 ミツミ電機株式会社 測距カメラ
JP7121269B2 (ja) * 2018-07-06 2022-08-18 ミツミ電機株式会社 測距カメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0320007A (ja) * 1989-03-31 1991-01-29 Casio Comput Co Ltd 磁性体薄膜の製造方法
JP2001141422A (ja) * 1999-11-10 2001-05-25 Fuji Photo Film Co Ltd 画像撮像装置及び画像処理装置
JP2013190394A (ja) 2012-03-15 2013-09-26 Ricoh Co Ltd パターン照明装置、及び測距装置
US20160379066A1 (en) * 2015-06-23 2016-12-29 Robert Bosch Gmbh Method and Camera System for Distance Determination of Objects from a Vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3770550A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162003A1 (ja) * 2019-02-06 2020-08-13 ミツミ電機株式会社 測距カメラ
US11842507B2 (en) 2019-02-06 2023-12-12 Mitsumi Electric Co., Ltd. Distance measuring camera

Also Published As

Publication number Publication date
US11436746B2 (en) 2022-09-06
EP3770550A1 (en) 2021-01-27
JP7104301B2 (ja) 2022-07-21
EP3770550A4 (en) 2022-01-05
JP2019164011A (ja) 2019-09-26
CN111868474A (zh) 2020-10-30
US20200410707A1 (en) 2020-12-31
CN111868474B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
JP7104294B2 (ja) 測距カメラ
JP7104296B2 (ja) 測距カメラ
JP4894939B2 (ja) 撮像装置、表示方法、および、プログラム
WO2019181622A1 (ja) 測距カメラ
JP7288226B2 (ja) 測距カメラ
WO2020008832A1 (ja) 測距カメラ
JP2007199261A (ja) 焦点検出装置、方法およびカメラ
CN108540693A (zh) 图像捕获装置和图像捕获单元
WO2013069279A1 (ja) 撮像装置
JP2006215398A (ja) 撮像装置
JP2006065080A (ja) 撮像装置
JP7288227B2 (ja) 測距カメラ
JP2014194502A (ja) 撮像装置および撮像システム
JP7328589B2 (ja) 測距カメラ
CN113424020B (zh) 测距摄像机
JP2016099432A (ja) 焦点検出装置及び方法、プログラム、記憶媒体
JP2015172770A (ja) 撮像装置及びその制御方法
JP5295413B2 (ja) 撮像装置
JP5845313B2 (ja) 情報処理装置及びその制御方法
JP2015022264A (ja) 焦点検出装置、その制御方法、および制御プログラム、並びに撮像装置
JP2017228899A (ja) 撮像装置、撮像装置の制御方法、及び、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19772591

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019772591

Country of ref document: EP

Effective date: 20201019